Inmetrics

Aliada ou vilã: como encarar o avanço da Inteligência Artificial?

Com o desenvolvimento acelerado de tecnologias progressivamente mais sofisticadas, também aumentam as discussões a respeito dos parâmetros éticos para o uso da Inteligência Artificial. 

Divulgada no dia 22 de março deste ano, a carta aberta assinada por grandes nomes do mercado tech, como Elon Musk e Steve Wozniak, entre centenas de profissionais ligados à tecnologia, pede por uma “pausa” de seis meses nas pesquisas relacionadas à IA. O motivo? Segundo eles, a humanidade ainda não tem as ferramentas adequadas para administrar máquinas com tanto potencial.  

O que essa movimentação representa e as implicações éticas da utilização de IA no campo corporativo são alguns dos pontos que iremos abordar ao longo deste texto. Acompanhe e faça parte dessa discussão! 

Entenda o objetivo da carta dos especialistas

“Pausem Experimentos Gigantes em IA” é a tradução do título da carta aberta produzida pelo Future Life Institute, organização que tem como objetivo a redução em larga escala de riscos extremos associados às tecnologias transformadoras. O documento aponta que as tecnologias de inteligência artificial estão sendo desenvolvidas em ritmo acelerado, ao contrário do planejamento e da regulamentação de suas aplicações. Por isso, seria o momento de pausar as pesquisas e produções na área por ao menos 6 meses, dando tempo para que mecanismos de controle sejam criados e colocados em prática. 

Um trecho destacado na carta aberta resume o seu propósito: “Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis.” 

O apelo vem logo após o lançamento da tecnologia GPT-4, sucessora do GPT-3, também criada pela OpenAI. A carta pede que todos os laboratórios parem de treinar máquinas que tenham um potencial de superar a recém-lançada tecnologia, por não haver nenhuma garantia de que os resultados poderão ser controlados de maneira satisfatória.  

Esse posicionamento por parte de grandes nomes ligados ao mercado tech também vem na sequência de um exemplo recente do potencial de desinformação que a IA pode gerar. Uma imagem do Papa usando roupas inusitadas, criada por IA, viralizou na internet por parecer autêntica. A repercussão movimentou ainda mais o debate sobre as aplicações perigosas dessa tecnologia, como o chamado “deepfake”: a habilidade de algumas ferramentas de inteligência artificial de substituir o rosto e voz de pessoas em vídeos, sincronizando desde as expressões até os movimentos labiais, gerando resultados muito realistas. 

Outro ponto de preocupação é a possibilidade de que a IA venha a substituir o trabalho humano, causando demissões em massa. Esse cenário pessimista se dá pelo potencial de automação em larga escala de diversas ações exercidas por humanos. 

Contudo, a carta não pede que as pesquisas sejam encerradas, apenas adiadas. Esse movimento também visa aumentar os esforços sobre a definição de limites éticos para o uso da tecnologia. Isso porque, mesmo com um potencial perigoso, as oportunidades promovidas por IA são ainda maiores. 

No contexto corporativo, por exemplo, aplicações de IA já automatizam processos morosos dentro das empresas, reduzindo a burocracia e gerando ganhos significativos em produtividade. Mas isso tem como consequência um viés positivo: o foco do trabalho pode deixar de ser operacional para assumir um caráter mais analítico, o que, por sua vez, pode estimular o desenvolvimento profissional dos colaboradores.  

Em grande escala, já encontramos exemplos de IA sendo utilizadas: 

Mesmo no contexto doméstico, a inteligência artificial já é parte do cotidiano das pessoas por meio de assistentes virtuais: ajudando em rápidas pesquisas por voz, mantendo a casa limpa e segura com câmeras e robôs de limpeza, e até no lazer, indicando músicas, filmes e séries em aplicativos de streaming. Ela já está na palma de nossas mãos, em smartphones e diversos utilitários eletrônicos inteligentes, como relógios, capazes de medir nossa pressão arterial, frequência cardíaca e qualidade do sono. Em suma, a inteligência artificial vem tornando a vida humana mais prática e organizada.  

Em linhas gerais, quando a motivação de quem está no comando da IA é benéfica à nossa sociedade, são incontáveis os resultados positivos nos mais diversos setores. Esse é um ponto reforçado na carta aberta, que pede que a pesquisa e desenvolvimento de IAs passem a ser focadas em tornar esses sistemas mais precisos, seguros, transparentes e confiáveis, para que a humanidade continue usufruindo de seus frutos.  

O que vem a seguir?

Para compreender melhor o propósito da carta aberta, também é importante entender o contexto das movimentações sobre IA que estão acontecendo em nível global. 

Antes da carta vir à público, empresas como Adobe, BBC, CBC/Radio-Canada, Bumble, TikTok e a própria OpenAI assinaram um conjunto de diretrizes que traz recomendações para tornar mais transparente a forma como trabalham com a chamada “mídia sintética”, o conteúdo gerado por ferramentas de IA. Uma das diretrizes em destaque aponta para a inclusão de maneiras de informar aos usuários quando eles estão interagindo com algum conteúdo gerado por IA, como marcas d’água ou outros tipos de avisos. Um olhar mais otimista e focado no progresso da tecnologia e regulamentação de seu uso. 

Em vista dos potenciais problemas que o uso de IA como o ChatGPT podem causar, empresas multimilionárias, como Amazon, JP Morgan, Verizon, Ikea optaram por proibir que seus funcionários utilizem esse tipo de plataforma. Medida semelhante, mas em escala nacional, foi anunciada pelo governo da Itália. No dia 4 de abril, Joe Biden, presidente dos Estados Unidos, se reuniu com especialistas para discutir medidas que devem ser tomadas em vista do debate sobre IAs, aumentando a expectativa sobre os próximos passos  

O próprio Sam Altman, um dos criadores da OpenAI, empresa que está no centro das discussões desse tema, admitiu que o avanço da IA precisa ser encarado com cuidado. Tanto essa declaração quanto a carta aberta mostram um evidente esforço por parte dos criadores de se isentar, na medida do possível, dos desdobramentos catastróficos que a tecnologia pode ter. Afinal, os limites éticos das aplicações práticas dessa tecnologia também giram em torno de quem seria responsável pelas ações das IAs: quem está criando essas máquinas, quem as está utilizando ou a própria IA?  

Mesmo que ainda não haja resposta contundente para nenhuma destas questões, podemos analisar o que temos de informações até aqui. O desenvolvimento de pesquisas em IA deverá manter certa constância, mesmo com o pedido explícito feito pela carta aberta. O foco, porém, deverá ser na criação e regulamentação de mecanismos suficientemente organizados para garantir a segurança dos usuários.  

Por isso, categorizar a tecnologia de inteligência artificial de maneira tão dualista quanto “aliada ou vilã” é impraticável. Apesar de toda a especulação sobre a possível existência de uma IA com “consciência própria”, o que realmente determina o papel desse tipo de tecnologia são os seres humanos que a estão programando e operando.  

Não há como parar o progresso das IAs, mas há sim como investir na sua melhor configuração, de modo que toda a humanidade seja beneficiada.  

A Inmetrics segue atuando de forma pioneira nesse campo, elaborando soluções para ferramentas de IA com foco na garantia do uso de IA de maneira eficiente, segura acelerando resultados para a sua empresa.  

Quer saber mais? Visite nossa página