O uso de inteligência artificial na cobertura de eventos urgentes rendeu mais uma história de bizarrices. O chatbot Grok, criado pela empresa de Elon Musk para o X, cometeu falhas perturbadoras sobre o tiroteio ocorrido neste domingo (4), em Bondi Beach, na Austrália. A ferramenta espalhou desinformação ao tentar descrever as imagens do local em tempo real e confundiu mais do que alhos com bugalhos.
O erro mais crítico envolveu a identificação de Ahmed Al Ahmed, o homem que heroicamente derrubou um dos atiradores. Ao analisar uma foto dele ferido na ambulância, o Grok “alucinou” e afirmou que era, na verdade, Guy Gilboa-Dalal, um refém israelense capturado pelo Hamas em 7 de outubro. A IA chegou a fornecer detalhes biográficos do refém como se fossem da vítima do tiroteio na Austrália, criando uma confusão de identidade em meio a uma crise global.
Além da troca de identidade, o Grok falhou em reconhecer a própria natureza do evento. Quando questionado sobre o vídeo viral que mostrava o confronto de Al Ahmed com o atirador, a IA descreveu a cena como “um vídeo antigo de um homem subindo em uma palmeira em um estacionamento, possivelmente para podá-la”. O sistema ainda classificou a filmagem como “verificada de forma inconclusiva” e sugeriu erroneamente que poderia ser uma montagem.
