A Inteligência Artificial já estava a ser utilizada por Israel para comandar drones ou disparar armas, mas os EUA estrearam no Irão novas ferramentas de ataque. A Anthropic, autora do modelo de inteligência artificial generativa Claude, não permitiu que o Pentágono utilizasse a sua tecnologia para a vigilância em massa de cidadãos e para matar pessoas sem envolvimento humano.
Donald Trump retaliou e quer classificar a Anthropic como um fornecedor de risco, algo que é atribuído, regra geral, a empresas chinesas, e disse ser uma empresa esquerdista e woke. No final, optou pela concorrente, a OpenAI.
A China pede às suas empresas de IA que desenvolvam ferramentas de desinformação e tem usado estes grandes modelos de linguagem para identificar dissidentes, que é um dos cenários que a Anthropic quer evitar.
Como se escrevia num editorial do El Pais na semana passada, o “choque da empresa Anthropic com o Pentágono demonstra que Trump prefere uma inteligência artificial sem escrúpulos”.
A delegação da decisão de matar uma pessoa num sistema controlado por algoritmos de IA coloca questões éticas fundamentais sobre responsabilidade, proporcionalidade e distinção entre combatentes e civis, escreveu no PÚBLICO Arlindo Oliveira. Colunista do Público, professor do Instituto Superior Técnico e presidente do INESC, Arlindo Oliveira é o convidado deste episódio.

Sai o “presidente dos afectos”, entra o "presidente previsível”
17:47

António Lobo Antunes, o esplendor da literatura portuguesa
15:49

A minha casa: PÚBLICO celebra 36 anos com foco no drama da habitação
19:24