Desde que as inteligências artificiais generativas se popularizaram, há pouco mais de um ano, cresceu a preocupação sobre a checagem do conteúdo. Afinal, seria possível distinguir textos gerados por humanos daqueles criados por grandes modelos de linguagem? até agora, esse era um problema sem solução, mas o Google acaba de tornar pública uma ferramenta capaz de adicionar uma espécie de marca d’água ao conteúdo produzido por essas ferramentas.
Essa solução já havia surgido no campo das ideias, mas por muito tempo, ninguém soube exatamente como implementá-la sem comprometer a qualidade do conteúdo gerado pelas inteligências artificiais – até porque elas só são tão impressionantes por serem tão semelhantes aos humanos. Pesquisadores do Google DeepMind, no entanto, apareceram com uma solução, que veio a público nesta quarta-feira, 23, em um artigo da Nature.
Desde maio, eles implementaram no Gemini, inteligência artificial da gigante de Mountain View, um sistema chamado SynthID-Text, capaz de fazer pequenas modificações no texto gerado pelos modelos de linguagem de modo que seja possível identificar se ele foi gerado artificialmente. A ideia não é diminuir a qualidade, para o leitor o texto continua muito parecido com o criado por um humano, mas algoritmos são capazes de identificar a marca d’água.
A empresa já havia feito isso com suas IAs de geração de imagens, mas essa é a primeira vez que implementa em um sistema de geração de textos. “Com melhor acessibilidade e a capacidade de confirmar suas capacidades, quero acreditar que a marca d’água se tornará o padrão, o que deve nos ajudar a detectar o uso malicioso de modelos de linguagem”, disse o especialista em aprendizado de máquina João Gante, ao blog do MIT.
Como funciona a marca d’água em textos criados por IAs?
Grande modelos de linguagem são treinados para mimetizar a fala humana. Para isso, dado um determinado prompt, eles calculam a chance de uma sequência de palavras ser a mais apropriada para responder o pedido do usuário. Com base nessa probabilidade, dão a resposta com maior chance de ser correta e mais parecida com a de um ser humana.
O SynthID-Text funciona fazendo pequenas modificações nessa sequência. Essa mudança é imperceptível para o usuário, mas gera um padrão de palavras ligeiramente distinto do esperado e que pode ser detectado pelos algoritmos.
+Google anuncia ferramenta de IA que impede geração de imagens sensíveis
O sistema não é infalível. Ele funciona bem em respostas elaboradas, mas não é tão efetivo em respostas muito factuais, como ao perguntar a capital de um país. Além disso, é impossível detectar se um conteúdo foi gerado por IA caso ele seja parafraseado pelo usuário.
Após comprovar a sua efetividade no Gemini, o Google DeepMind disponibilizou esse algoritmo publicamente, de modo que ele possa ser testado e adotado por outros modelos de linguagem. Isso também possibilitará que, no futuro, uma única ferramenta seja capaz de identificar textos artificiais gerados por diferentes IAs.