Os quatro grandes riscos da IA, segundo pai da filosofia da informação
À coluna GENTE, filósofo italiano fala sobre a relação atual da sociedade com a inteligência artificial

A inteligência artificial já é uma realidade no cotidiano, seja com as assistentes virtuais em casa, reconhecimento facial ou com a smartTV. Paralelamente ao seu avanço, surge a discussão sobre as consequências éticas do seu uso, algo que já vem sendo tema de estudos. O italiano Luciano Floridi, 61 anos, é um dos que têm influenciado este debate, que culminou no livro A ética da inteligência artificial: princípios, desafios e oportunidades, com tradução lançada recentemente pela PUCPRESS, editora da Pontifícia Universidade Católica do Paraná (PUCPR). Na obra, o filósofo faz uma análise sobre os impactos da IA, abordando questões éticas fundamentais para o futuro. À coluna GENTE, Luciano fala sobre os mitos e reais riscos da inteligência artificial, como ela pode afetar as pessoas e explica o que o levou a ser chamado de “pai da filosofia da informação”.
O que o motivou a estudar esse campo da inteligência artificial? Trabalho com inovação digital há quase 40 anos, e a IA é um está dentro de um capítulo muito grande da revolução digital. Eu me preocupo em entender e administrar essa transformação da melhor maneira.
E de onde surgiu o termo “pai da filosofia da informação”? A filosofia da informação é um novo ramo da filosofia que criei nos anos 1990 com meus estudos. Se temos a filosofia da linguagem e da mente, também temos a da informação. Já estava claro no final da década de 1980, quando comecei a trabalhar com isso, que havia a necessidade de uma abordagem filosófica para essa nova área. Então, no final dos anos 1980, tive a boa ideia de criar essa disciplina, que depois se mostrou fundamental porque obviamente o mundo caminhava nessa direção.
O que o senhor traz de novo no livro A ética da inteligência artificial: princípios, desafios e oportunidades? Trata-se de um livro filosófico sobre algumas das raízes, e nenhuma das folhas, de algumas das questões do nosso tempo sobre a IA. Trata-se de uma nova forma de agência, sua natureza, escopo e desafios. E trata-se de como aproveitar essa agência para o benefício da humanidade e do meio ambiente
Como a inteligência artificial está redefinindo a nossa identidade? A nossa identidade já vem sendo desafiada há algum tempo. Hoje posso prever e manipular quem você é e quem será pelas mídias sociais e os chamados big data. A inteligência artificial chegou e fez um trabalho extra, desafiando nossa identidade em termos do que podemos ser. Se até anteontem eu era a única pessoa que sabia dirigir um carro, jogar xadrez, resolver um problema, escrever um poema, hoje sabemos que a inteligência artificial pode fazer isso e até melhor que nós. Com isso, a minha identidade como alguém que sabe fazer algo e que é o único que pode fazer está sendo desafiada pela inteligência artificial.
E quanto às nossas responsabilidades? A inteligência artificial novas formas de agir, o que vai impactar na nossa responsabilidade. Quando há elementos capazes de realizar tarefas com você, em seu lugar ou até com mais eficiência, as questões éticas se tornam ainda mais complexas. Se erros ocorrerem no uso da IA em ambientes corporativos ou educacionais, por exemplo, quem será responsabilizado? O sistema ou os usuários dele? O debate sobre responsabilidade, nesse caso, muitas vezes se transforma em um debate sobre culpa, e raramente sobre mérito.
Quais são os riscos éticos de hoje? O desenvolvimento de IAs não culminará em algum cenário distópico de ficção científica. O Exterminador do Futuro não está chegando; essas preocupações apenas desviam a atenção de maneira irresponsável. Há quatro riscos. Já falamos de dois: responsabilidades e o desafio da singularidade humana – identidade. Mas há também o impacto sócio-político e ambiental, que são riscos muito grandes. Nas mãos erradas, a inteligência artificial pode gerar uma sociedade mais injusta, aumentando a distância entre aqueles que têm muito dos que têm pouco. Além disso, pode ser um instrumento de opressão, violência e até mesmo militar. O quarto risco é o impacto negativo ao meio ambiente. A IA consome muita energia, o que tem impactado negativamente. Esperamos melhorar este ponto, mas não sabemos usá-la bem.
As regulamentações que temos hoje são suficientes no Brasil e no mundo? Há muitas regras, mas pouca utilidade. O único lugar onde há regras suficientes que começaram a implementá-las é a Europa. Os Estados Unidos estão indo em uma direção muito diferente, com o governo Trump decidindo liberar e não regulamentar a IA, provavelmente em nível federal. Ao nível dos estados individuais, vemos iniciativas significativas, como no Colorado e Connecticut, que já começaram a se inspirar na legislação da Europa. Já em outros países, como o Brasil, ainda há um longo caminho a percorrer.
Falando no Brasil, como está nossa relação com inteligência artificial? Vamos para o próximo, porque não estou informado o suficiente (risos). Não quero dizer coisas que não sei. E eu não sei disso.
O senhor já mencionou os riscos, mas o que se pode fazer para o bem social? A inteligência artificial pode fazer exatamente o oposto do que já dissemos: ajudar a ter mais consciência de si mesmo e colocar a responsabilidade nos lugares corretos. Podemos usar tecnologias melhores para ter um impacto sustentável maior, como a reciclagem, por exemplo. E ajudar a sociedade a fazer com que a IA seja uma força boa desenvolvida por muitos e não como vemos hoje, controlada por poucos e, muitas vezes, de forma negativa. Mas, para isso, é preciso vontade política ou teremos apenas os riscos. A inteligência artificial é importante, é uma boa tecnologia, pode ajudar muito a humanidade e o ambiente. A usamos mal, é culpa nossa.
Estamos longe de alcançar isso? Pode acontecer, logo ou não, mas depende de nós. Porque a gente tem que instituir nossa vontade. Não pode colocar a culpa toda nos governantes porque fomos nós que os elegemos.