CIÊNCIA & TECNOLOGIA
Inteligência Artificial é boa em gerar verdades e ótima em gerar mentiras
“Nosso estudo revela o poder da IA tanto para informar quanto para enganar.”
Bom na verdade, ótimo na mentira
Com a melhoria dos modelos de linguagem que usam a inteligência artificial, como o ChatGPT, está crescendo a preocupação com a criação de conteúdos falsos, que agora passam a poder ser gerados de forma automática.
Se essas falsidades são inevitáveis, cientistas da Universidade de Zurique (Suíça) queriam saber se as pessoas sabem identificar entre um conteúdo desinformativo (falso) e um conteúdo informativo (verdadeiro) gerados por essas ferramentas.
Além disso, os pesquisadores queriam descobrir se os participantes (697 ao todo) conseguiriam discernir se um tuíte foi escrito por um usuário genuíno do Twitter ou se foi gerado pelo GPT-3.
Por um lado, o programa de inteligência artificial demonstrou a capacidade de gerar informações precisas e, em comparação com tuítes de usuários reais do Twitter, mais facilmente compreensíveis.
No entanto, o modelo de linguagem IA também apresenta um talento especial para produzir desinformação altamente persuasiva: Os participantes não conseguiram diferenciar com segurança entre os tuites criados pelo GPT-3 e aqueles escritos por usuários reais do Twitter.
“Nosso estudo revela o poder da IA tanto para informar quanto para enganar, levantando questões críticas sobre o futuro dos ecossistemas de informação,” disse o professor Federico Germani.
Desinformação
Os experimentos indicam que campanhas de informação criadas pela ferramenta de IA, com base em questões bem estruturadas e avaliadas por humanos treinados, seriam mais eficazes, por exemplo, em uma crise de saúde pública, que requer comunicação rápida e clara ao público.
Mas também surgiram preocupações significativas em relação à ameaça da IA perpetuar a desinformação, particularmente no contexto da disseminação rápida e generalizada de desinformação e informações erradas durante uma crise ou evento de saúde pública.
O estudo demonstrou que os sistemas de IA podem ser explorados para gerar campanhas de desinformação em grande escala sobre qualquer assunto, colocando em risco não apenas a saúde pública, mas também a integridade dos ecossistemas de informações vitais para o funcionamento das democracias.
“Nossos resultados ressaltam a importância crítica da regulamentação proativa para mitigar o dano potencial causado por campanhas de desinformação orientadas por IA,” disse Nikola Andorno, membro da equipe. “Reconhecer os riscos associados à desinformação gerada por IA é crucial para proteger a saúde pública e manter um ecossistema de informações robusto e confiável na era digital.”