Inteligência Artificial apresenta traços racistas e machistas
Novo estudo identificou que nomes femininos são associados por computadores à família, enquanto os masculinos, à profissão
Os computadores também reproduzem preconceitos e estereótipos enraizados na sociedade, como o racismo e o machismo. A constatação é de um estudo publicado na última edição da revista científica Science, que comprova que a capacidade da Inteligência Artificial de aprender o significado das palavras por conta própria também a leva a incorporar o seu sentido mais usado. Os pesquisadores identificaram, por exemplo, que nomes femininos são mais associados a termos relacionados à família, enquanto os masculinos, a termos profissionais. Já nomes afro-americanos foram muito mais ligados à palavras negativas que os euro-americanos.
Para verificar se o computador era tendencioso quanto a certos termos, o time de cientistas desenvolveu um programa capaz de associar essas palavras a conceitos positivos ou negativos. Para calibrar o software, eles o deram acesso à diversos textos da internet que juntos, somavam mais de 840 bilhões de palavras. Como a inteligência artificial utiliza associação de uma palavra a outra para aprender seu significado, com a ‘leitura’ dos textos, a máquina havia aprendido a semântica das expressões conforme o seu uso mais comum pela sociedade.
Como resultado, aos pesquisadores apresentarem a palavra ‘inseto’ ao software, ele a relacionava com algo negativo, como ‘asqueroso’. Já se tratando de ‘flor’, o termo era associado com algo positivo, como ‘bela’. O mesmo aconteceu com termos femininos, sempre associados à determinadas palavras, como ‘pais’ e ‘casamento’. Já os masculinos, com ‘profissional’ e ‘salário’. Esse processamento pode ser nocivo, já que contribui para a continuidade dos preconceitos.
Quando se usam ferramentas semelhantes de tradução, por exemplo, os programas podem processar os termos estrangeiros conforme estes sentidos comuns e oferecer traduções errôneas. Em um dos experimentos da pesquisa, a equipe utilizou o Google Tradutor para transferir uma frase turca para o inglês. Apesar do turco usar um pronome de terceira pessoa neutro em termos de gênero, o “o”, quando processada a oração “o bir doktor”, o programa traduziu como “ele é um médico”. Já quando a frase era “o bir hemşire”, a correspondência apresentada foi “ela é enfermeira”.
A pesquisa confirma que a inteligência artificial pode sim carregar preconcepções e interpretações, comenta Hanna Wallach, pesquisadora da Microsoft que não participou do estudo. “Este artigo reitera que os métodos de aprendizagem da máquina não são objetivos ou imparciais apenas porque confiam na matemática e nos algoritmos”, disse Hanna.
Entender estes aspectos são importantes para a sociedade, pois as máquinas funcionam, não só como seu reflexo, mas como ferramenta social. “Temos uma situação em que esses sistemas de inteligência artificial podem estar perpetuando padrões históricos de viéses que podemos achar socialmente inaceitáveis e dos quais poderíamos estar tentando nos afastar”, comenta Arvind Narayanan, professor de ciência da computação da Universidade de Princeton e um dos autores do estudo.
Os pesquisadores alertam para a necessidade desses programas serem feitos com a preocupação de não disseminarem preconceitos, mas sim, incentivarem a igualidade e justiça. “Não pense que a Inteligência Artificial é uma fada madrinha. Ela é apenas uma extensão da nossa cultura existente”, disse Joanna Bryson, cientista da Universidade de Bath, no Reino Unido, e da Universidade de Princeton, nos Estados Unidos, e coautora do estudo.