Um grupo de investigadores, entre os quais dois portugueses, desenvolveram um estudo internacional sobre a forma como a inteligência artificial distorce a aprendizagem da história. Neste estudo, os investigadores analisaram 3500 interacções com LLMs, sistemas de inteligência artificial capazes de entender, gerar, resumir ou traduzir texto de maneira semelhante a um humano, como é o caso do ChatGPT.
A intenção era saber o que é que estes modelos de linguagem afirmavam sobre quatro conflitos internacionais e em sete línguas diferentes.
No caso da Guerra Colonial, os chats de inteligência artificial inventam batalhas ou aludem a documentários inexistentes, situam a operação Nó Górdio, em Moçambique, em 1964, em vez de 1970, ou omitem a independência da Guiné-Bissau, em 1974.
Estes modelos de linguagem também cometem imprecisões ou erros profundos quando se trata da guerra do Vietname, das guerras na origem da desintegração da Jugoslávia ou do conflito israelo-palestiniano.
Face a conteúdo fabricado e a distorções cronológicas, dois dos investigadores que integram o grupo pedem medidas urgentes ao Governo e ao Parlamento portugueses. É com Nuno Moniz, da Universidade de Notre Dame, nos Estados Unidos, e Miguel Cardina, do Centro de Estudos Sociais, da Universidade de Coimbra, que vamos falar neste episódio.

O hantavírus é uma espécie de coronavírus?
12:05

O voluntariado na Defesa não funciona, mas o Governo quer resolver o problema com um programa de voluntariado
20:34

Depois de Sánchez, Friedrich Merz é o novo alvo da ira de Donald Trump
19:26