CIÊNCIA & TECNOLOGIA
Lições a partir de uma ferramenta de IA criada para jornalistas
A inteligência artificial (IA) é a nova palavra da moda no jornalismo. Tanto profissionais de mídia quanto acadêmicos estão correndo para descobrir como essa inovação tecnológica recente vai remodelar uma área já precária.
A IA vai ser um recurso para redações com receitas em queda? Ela vai tomar empregos ou liberar jornalistas sobrecarregados para produzir matérias de alta qualidade?
O que é IA? O que é PLN?
Primeiro, vamos esclarecer algumas definições. IA se refere à capacidade das máquinas de realizar tarefas que normalmente são ligadas à cognição e inteligência humana. No contexto do jornalismo, a IA normalmente se refere a aplicações que analisam, entendem e geram texto sem intervenção humana.
Processamento de Linguagem Natural (PLN) é uma subárea da IA que foca na interação entre computadores e humanos por meio de linguagem natural. Também vale mencionar que “linguagem natural” se refere a linguagens faladas por humanos, como inglês, em contraste a linguagens de programação, como Python.
Boa parte da discussão sobre a IA no jornalismo é baseada nas capacidades do PLN. É por meio do PLN que a IA ajuda jornalistas a resumir artigos, traduzir conteúdo e confirmar informações. Essencialmente, todas as aplicações de IA que usam nossa linguagem cotidiana são possíveis por meio do PLN.
Como desenvolvemos uma ferramenta de IA para jornalistas
Em 2021, eu fazia parte de uma equipe interdisciplinar que trabalhava na resolução de um problema investigativo. Nós estávamos tentando analisar informações importantes contidas em milhões de páginas de dados desestruturados, ou seja, texto. O trabalho era ainda mais difícil pelo fato de que estávamos trabalhando com textos que não eram em inglês. Nós começamos a fazer experimentações com a API do GPT-3, e foi quando tivemos nosso momento “eureka!”.
Isso foi antes do ChatGPT surgir e quando os jornalistas estavam muito céticos em relação à IA. Nós nos concentramos em criar uma prova de conceito para mostrar o poder dessa inovação da OpenAI.
Começamos fazendo testes com artigos da NPR e desenvolvemos uma ferramenta de resumos para transformar os textos em tópicos resumidos, parecido com o estilo de texto do Axios. Basicamente, nós escolhemos esse estilo principalmente porque todos nós gostávamos das matérias da NPR, mas na maioria dos casos elas eram textos longos. A ferramenta que desenvolvemos resume artigos da NPR assim que eles são publicados e os disponibiliza no nosso site, o Gist, depois de um jornalista revisar e aprovar o resumo.
Logo no começo, nós percebemos que nosso modelo inicial “tinha alucinações” quando as frases eram maiores do que algumas linhas. O resumo gerava algumas aspas que faziam sentido contextual e gramaticalmente, mas elas não estavam na matéria original da NPR.
No contexto do PLN, “alucinações” se referem a casos em que o modelo gera resultados que são imprecisos, sem relação com os dados fornecidos ou completamente sem sentido. No nosso caso, precisávamos garantir que as aspas no resumo existissem de fato nos textos originais. Alucinações em um contexto jornalístico podem ser fatais e resultar em desinformação.
Começamos a fazer ajustes ao modelo para evitar essas alucinações. Este processo foi iterativo, já que tínhamos que treinar e testar o modelo continuamente. Também acrescentamos mais barreiras de segurança jornalística ao processo. Isso nos deu lições importantes sobre futuras aplicações de IA no jornalismo.
As lições
Treinar um modelo tendo padrões jornalísticos em mente não foi fácil, mas esse longo caminho deixou claros para nós quatro pontos:
1) Reportagem assistida por IA é factível, mas reportagem feita por IA não é. A supervisão humana não pode ser removida do processo jornalístico.
A aprovação e o julgamento humano são uma parte integral de qualquer processo jornalístico e, embora possamos fazer com que a tecnologia assuma tarefas tediosas e repetitivas, ela não pode substituir jornalistas inteiramente. Por exemplo, no nosso modelo, cada resumo é lido e aprovado por um jornalista antes de ser publicado.
2) Modelos de IA são tão bons quanto o seu treinamento. Para obter os melhores resultados de qualquer modelo de linguagem, o propósito do mesmo deve ser bem definido. A partir daí, pode-se identificar o caminho mais eficiente para o treinamento e o processo pode começar.
Modelos também não são uma solução de tamanho único. As redações devem considerar seus próprios desafios e necessidades ao explorarem soluções, e jornalistas precisam desempenhar um papel ativo no treinamento do algoritmo em vez de deixar isso somente para os desenvolvedores. Um modelo que é treinado somente com base em documentos jurídicos do Texas, por exemplo, pode não produzir os melhores resultados com documentos jurídicos do Alaska porque o estilo de escrita de opiniões legais é diferente.
3) A colaboração interdisciplinar é essencial para a IA no jornalismo. Sem jornalistas, desenvolvedores não conseguem realizar sozinhos tarefas como verificação de fatos, resumo de conteúdo e tradução. E jornalistas também não conseguem sozinhos.
Precisamos criar espaços colaborativos para que jornalistas e desenvolvedores trabalhem juntos e, mais importante, para garantir que jornalistas possam opinar na forma como a IA é usada em sua profissão.
4) Os modelos atuais podem atingir ótimos resultados usando somente dados de treinamento da própria organização. Descobrimos que podíamos fazer a correspondência de estilo e qualidade que queríamos ao treinar somente os dados que criamos.
Exemplos de qualidade elaborados por jornalistas têm muito mais valor e desempenho do que extrair conteúdo similar de outras fontes. Mas esse não deve ser o único passo do processo; em vez disso, as equipes devem identificar as fraquezas do modelo e elaborar exemplos adicionais que ajudem a demonstrar o comportamento correto.
FONTE: