Não faz muito tempo, lembrei na Revista Questão de Ciência frase recorrente entre acadêmicos e especialistas em pseudociências, desinformação e teorias da conspiração que destaca as dificuldades para superar a resistência das pessoas em reconhecerem suas crenças como fantasiosas ou enganosas – “você nunca vai convencer uma pessoa chamando-a de idiota”. Agora, um estudo publicado recentemente na prestigiada revista científica Science indica como a paciência e a neutralidade – ou, pelo menos, a percepção destas qualidades, encarnadas em um modelo de linguagem inteligência artificial (IA) chamado Debunkbot, desenvolvido com base no GPT-4 Turbo, da empresa Open AI – pode ajudar a reduzir crenças conspiracionistas.
Em uma dupla de experimentos, Thomas Costello, pesquisador do Departamento de Psicologia da American University em Washington, EUA, observou como uma série de interações argumentativas com o robô de IA conseguiu reduzir em cerca de 20% o nível de crença dos adeptos de teorias da conspiração, num efeito que permaneceu dois meses depois. Além disso, mais de um em cada quatro dos participantes submetidos à intervenção (27,4%) passaram a ter dúvidas sobre a teoria da conspiração que apresentaram ao robô, traduzidas em uma queda abaixo do ponto médio da escala de crença.
“É possível que o tom adotado pela IA tenha permitido que as pessoas escutassem com atenção o que ela estivesse dizendo, diferentemente de outros tipos de diálogo, em que enfrentam uma rejeição”, disse Costello em entrevista à RQC. “As pessoas sabiam que estavam falando com uma IA, e elas têm expectativas sobre o que uma IA é e pode fazer. Entre elas, a de que máquinas, como computadores e IAs, são mais objetivas, pois funcionam apenas como programadas. Máquinas não têm interesses, não se importam com o que é verdade ou mentira, só estão conversando de uma forma objetiva. E também há os que imaginam que a máquina sabe tudo, tem toda a informação, e por isso a informação que ela está fornecendo deve ser a certa”.
O pesquisador ressalta que toda abertura e compreensão percebidas nas interações com a IA devem ser combinadas com fatos e evidências para que a intervenção tenha efeito. Tanto que em um novo estudo, ainda em curso, ele conta ter instruído o robô a repassar apenas fatos e evidências, sem tentar ser persuasiva, empática ou nada do tipo: só fornecer, na medida do possível, as informações mais precisas sobre o tópico abordado.
“Os dados que temos sugerem que o efeito da intervenção depende muito da informação em si que as pessoas estão obtendo da IA”, esclarece. “É possível que vendo as conversas, o modelo meio que naturalmente soe empático, mas isso não nos preocupa muito. Nós não o instruímos a ser persuasivo, apenas falar a verdade. Então, nesta nova condição, é menos sobre empatia e mais sobre o conteúdo do que o modelo está falando”.
Segundo Costello, este tipo de interação também está se mostrando eficaz na redução da crença em teorias da conspiração dos participantes, ainda que com efeitos aparentemente um pouco mais fracos e não generalizáveis, devido ao tamanho pequeno da amostra estudada até agora.
Limites e limitações
Apesar dos bons resultados, a IA está longe de ser uma panaceia na luta contra a desinformação. Como Costello e colegas reconhecem no próprio artigo na Science, é altamente improvável que adeptos ferrenhos de teorias da conspiração concordem em interagir e argumentar com seu robô (quem quiser experimentar, uma versão do Debunkbot está disponível online aqui). Tampouco que o vejam como uma ferramenta neutra, como demonstram alguns dos diálogos do estudo. É o caso do indivíduo 5 da parte da amostra que escolheu discutir a suposta fraude na eleição presidencial americana de 2020, que colocou no poder o democrata Joe Biden no lugar de reeleger o então presidente Donald Trump, não por acaso um dos principais promotores desta teoria da conspiração.
Antes da interação com a IA, o nível de crença deste participante do estudo na suposta fraude estava no topo da escala, em 100 – isto é, ele tinha absoluta certeza e convicção de que ela ocorreu, chegando a colocar Trump como alvo, e não autor, de teorias da conspiração e acusações infundadas promovidas pela “esquerda”, enquanto haveria “evidências convincentes e críveis” de que foi Biden quem se beneficiou de esquemas envolvendo seu filho Hunter Biden.
Logo na primeira interação com o robô, o participante rebateu os argumentos e fatos apresentados pela IA com mais alegações, incluindo Hillary Clinton, adversária de Trump na eleição de 2016, na discussão. Já na segunda interação, porém, ele nem se deu ao trabalho, respondendo à oferta do robô de apresentar fontes primárias e relatórios oficiais sobre os casos com um simples “não, porque você certamente foi programado por um esquerdista”. Por fim, ante à resposta da IA de que estava procurando ser o mais isenta possível e que dialogar é importante na vida social e política, novamente oferecendo compartilhar informações sem viés partidários, ele afirmou “não, porque acredito que a IA nunca deve ser usada”, com seu nível de crença na suposta fraude eleitoral permanecendo nos mesmos 100 em nova medição após a intervenção.
“Tivemos algumas poucas pessoas que acusaram o robô de ser tendencioso, papagaiando o que conspiracionistas diriam, e nestes casos a intervenção não foi bem-sucedida”, relata Costello. “Temos pessoas que acham que as IAs são tendenciosas, ou que as pessoas que programam as IAs são tendenciosas, ou mesmo que geralmente têm uma maior desconfiança de novas tecnologias, não acham que as IAs são um fonte confiável de informação e preferem que ela venha de humanos”.
Segundo o pesquisador, seria até possível programar a IA para que primeiro enfatizasse e demonstrasse sua neutralidade, mas não era isso que buscavam neste estudo, preferindo limitar a intervenção a três interações focadas nas teorias da conspiração tanto por questões de tempo quanto de comparatividade entre os participantes e seus efeitos, além de evitar o risco de o robô “se perder” na conversa.
“Manter o diálogo curto tem suas vantagens dadas as características atuais destas ferramentas de IA”, explica. “Quanto mais longa for a conversa, maior a possibilidade de fazer o modelo desviar do caminho. Você pode continuar a fazer perguntas e, como a IA é, por assim dizer, ‘educada’, ela te seguiria para fora do assunto. É um problema contornável, e que nossa implementação atual da ferramenta é mais capaz de lidar. Mas, quando conduzíamos este estudo, queríamos manter a conversa curta, de forma que ela continuasse focada (nas teorias da conspiração), e por outras razões, como padronização, assegurando que todas as pessoas fossem expostas a aproximadamente a mesma quantidade de informação e pudéssemos comparar as conversas”.
Para o bem e para o mal
Mas Costello também acredita que os modelos de linguagem em IA podem ter outros usos na luta contra a desinformação. Ainda na seara das teorias da conspiração, eles podem ajudar a combater a chamada “cegueira conspiracionista”, a tendência das pessoas em não identificarem suas crenças como tais, apesar de apresentarem as três características básicas das teorias da conspiração: a de que pessoas poderosas estão trabalhando em conjunto para atingir um objetivo (1); às custas de outras pessoas (2); enquanto tentam manter suas ações e intenções em segredo (3).
“Esta pode ser uma outra boa maneira de usar a intervenção”, considera. “Podemos usar a IA não para argumentar sobre a veracidade de suas crenças, mas para alertar que o que a pessoa está dizendo soa muito como uma teoria da conspiração. Muitas pessoas que endossam crenças conspiracionistas acreditam que elas são muito mais comuns e prevalentes do que são na realidade, e ver que não pode contribuir para diminuir estas crenças”.
Uma possível maneira de fazer isso seria usar a IA para monitorar o que os usuários estão publicando e compartilhando nas redes sociais e avisar quando os conteúdos parecerem suspeitos. Algo que, no entanto, vai depender da vontade das empresas de tecnologia que controlam estes redes, ressalta Costello.
“Talvez possamos fazer uma versão da IA que não seja uma conversação, mas que informe algo do tipo ‘vimos que você fez uma alegação tal e aqui estão fatos e evidências que refutam isso’ e direcione para as fontes. Um mecanismo parecido com o que algumas redes sociais já usam quando você tenta compartilhar um texto sem tê-lo lido, em que surge uma pequena janela perguntando se não quer ler antes de compartilhar”, indica.
Por outro lado, também não se pode descartar o uso mal intencionado da tecnologia, como o desenvolvimento de uma IA que busque disseminar ou reforçar crenças conspiracionistas e desinformação. Costello reconhece que isso é possível, tanto que já faz testes preliminares e tem planos de conduzir um estudo neste sentido, embora vislumbre obstáculos éticos na sua realização.
“Parece bem provável que a persuasão da IA também seria muito boa na disseminação de teorias da conspiração, especialmente se sairmos do ecossistema de modelos bem-comportados como os da Open AI, Google, que foram treinados para não espalharem desinformação ou informações enganosas”, considera. “Há outros modelos por aí, no entanto, que não têm estas limitações e ficam perfeitamente felizes inventando fontes, gerando mentiras sob demanda. Então você pode usar estes modelos para disseminar uma teoria da conspiração ou criar uma nova”.
Para o pesquisador, porém, a questão aqui não é se a IA teria um impacto significativo na questão das teorias da conspiração no nível individual, mas no social, coletivo, no ecossistema de informação atual.
“O problema com a desinformação e as teorias da conspiração não é no lado da oferta. Não é que não tenhamos teorias da conspiração o bastante circulando”, diz. “O problema é que as pessoas não estão sendo tão expostas aos fatos e não são boas de pensamento crítico. Já temos uma assimetria em que é mais fácil espalhar desinformação do que corrigi-la. Estamos mostrando que com a IA podemos diminuir um pouco esta assimetria porque agora podemos ter uma refutação tão rápido quanto se pode contar uma mentira, e isso não era possível antes. É difícil prever o futuro, mas acho que mesmo que a IA seja tão boa para espalhar desinformação quanto para corrigi-la, ainda teremos um benefício líquido para a sociedade, pelo menos no caso da desinformação”.
Um outra possibilidade mais sinistra, no entanto, é que a IA seja usada no que Costello chamou de um processo de “balcanização” da internet, com a grande rede dividida em redes menores de pessoas com interesses e crenças semelhantes, algo que já estamos vendo com as chamadas “bolhas de informação”.
“A introdução da IA nestes ambientes de forma seletiva pode evitar que as pessoas mudem suas crenças, dizendo coisas como ‘fica aqui, qualquer que seja a outra fonte que você está vendo está errada'”, alerta. “Creio que isso pode se tornar um grande problema, que vai depender da geografia da internet”.
Diante disso, o pesquisador antevê uma competição de IAs tentando manter ou estourar bolhas de informação. Apesar disso, ele está otimista que nesta “briga” a verdade acabe por sair vitoriosa.
“A verdade é uma grande aliada na construção de argumentos persuasivos”, lembra. “Estudos teóricos sobre como a comunicação humana funciona colocam os argumentos como as dobradiças com que você demonstra a credibilidade de que o que você acredita é a verdade. Se você usa fatos e evidências para construir o caso de seu lado, isto é um sinal positivo, e o argumento verdadeiro geralmente ganha”.
Por fim, outro potencial uso que Costello vê para as ferramentas de inteligência artificial é o combate às pseudociências, charlatanismos e falsas promessas na área de saúde.
“Tenho certeza que a IA também pode ser muito boa nisso, em combater as alegações falsas que são feitas em torno de tratamentos”, avalia. “Muitas vezes é preciso algum conhecimento especializado para entender estas alegações. A maior parte das pessoas não tem esse conhecimento, mas a IA pode buscar a internet, localizar e entregar estas informações de uma forma muito precisa. Estas pessoas estão procurando por respostas e podem estar tomando decisões que as afastem de tratamentos que precisam e funcionam. Acho que combater desinformação relacionada à saúde seria uma aplicação maravilhosa desta ferramenta”.
*Cesar Baima é jornalista e editor-assistente da Revista Questão de Ciência