Como construir Inteligência Artificial confiável

Novas medidas de mitigação de risco devem ser implementadas para proteger a Inteligência Artificial na empresa e garantir que ela seja considerada confiável. 

Uma pesquisa de 2020 da Gartner, feita com profissionais de negócios e TI, revelou que 24% das organizações aumentaram seus investimentos em inteligência artificial (IA).  Algumas das razões citadas para o aumento no investimento de Inteligência Artificial foram a retenção e experiência dos clientes, e a otimização de custos. Além disso, 75% dos entrevistados disseram que continuarão ou iniciarão projetos de Inteligência Artificial à medida que avançam para a fase de pós-pandemia. 

“O investimento empresarial em IA continuou inabalável, apesar da crise”, comentou Frances Karamouzis, vice-presidente de pesquisa do Gartner. “No entanto, a dificuldade mais significativa de colocar as iniciativas de IA em produção é a incapacidade das organizações de conectar esses investimentos de volta ao valor de negócios.” 

Alguns riscos devem ser considerados quando pensamos em iniciar um projeto de Inteligência Artificial. Por exemplo, se a pontuação de crédito de IA incorreta vai impedir clientes de um banco de conseguir empréstimos ou se um ataque ao modelo de Inteligência Artificial de um veículo autônomo leva a um acidente fatal. 

Em outra pesquisa do Gartner, empresas que implementam Inteligência Artificial citaram a segurança e a privacidade como suas principais barreiras para implementar um projeto de IA.  

“A confiança nos negócios é a chave para o sucesso da IA corporativa”, afirma Avivah Litan, VP Analyst do Gartner. “No entanto, os padrões e ferramentas de segurança e privacidade que melhor protegem as organizações ainda estão sendo desenvolvidos. Isso significa que a maioria das organizações foi deixada por conta própria em termos de defesa contra ameaças”. 

Novos tipos de ameaça pedem novas respostas 

A maioria dos ataques cibernéticos contra softwares também pode ser aplicada contra uma Inteligência Artificial. Isso quer dizer que as soluções de gerenciamento de segurança e de risco que mitigam danos de hackers mal-intencionados também vão mitigar os danos causados por usuários comuns que introduzem erros em ambientes de IA. Soluções de proteção às informações confidenciais também ajudam a proteger contra problemas de ética de Inteligência Artificial causados por modelos tendenciosos de treinamento. 

A Inteligência Artificial traz consigo novas ameaças. Os dados corrompidos, intencionalmente ou não, no estágio de treinamento de Inteligência Artificial ou enquanto o modelo de IA está em execução, podem manipular o resultado. Ataques a uma query podem interferir na lógica do modelo de Inteligência Artificial e alterar suas regras. O roubo de dados de treinamento ou do próprio modelo de IA também pode ocorrer. 

Além das medidas existentes usadas para mitigar ameaças e proteger os investimentos em IA, o Gartner recomenda a implementação de dois novos pilares de gerenciamento de riscos: 

Proteja sua IA hoje 

A atualização ou implementação de soluções em cibersegurança em sistemas exige um investimento maior do que integrar essas soluções desde o início de um projeto. O mesmo ocorre com sistemas de IA. 

“Não espere até que a violação inevitável ou um engano danifique ou prejudique os negócios, a reputação e a performance de sua empresa”, diz Litan. “Isso manterá o bom desempenho dos modelos de IA, garantirá que seus dados estejam protegidos e apoiará a IA responsável por eliminar preconceitos de modelo, práticas antiéticas e tomadas de decisão inadequadas.” 

Deixe um comentário