A inteligência artificial deixou de ser apenas uma promessa tecnológica para ocupar um novo e delicado espaço: o centro de investigações criminais.
Na Flórida, autoridades apuram se o ChatGPT, da OpenAI, pode ter tido algum papel relacionado ao ataque ocorrido na Universidade Estadual da Flórida, em abril de 2025, que deixou mortos e feridos. A investigação analisa registros de conversas entre o suspeito Phoenix Ikner e o chatbot, levantando uma pergunta que já mobiliza governos, empresas e especialistas: até onde vai a responsabilidade de uma IA quando seus diálogos se aproximam de situações de violência real?
O procurador-geral da Flórida, James Uthmeier, sustenta que o caso exige uma resposta jurídica à altura da gravidade dos fatos. Para ele, se uma pessoa tivesse prestado auxílio, incentivo ou orientação a um crime, poderia ser responsabilizada criminalmente. Agora, a investigação busca saber se esse mesmo raciocínio pode alcançar uma empresa de inteligência artificial, seus sistemas de segurança, seus protocolos internos e a forma como ameaças potenciais são identificadas e tratadas.
A OpenAI contesta as acusações e afirma que sua tecnologia não promoveu nem viabilizou o ataque. Ainda assim, o episódio reforça uma preocupação crescente: chatbots capazes de conversar com milhões de usuários precisam ter barreiras eficientes para reconhecer sinais de risco, interromper interações perigosas e, quando necessário, acionar mecanismos de proteção fora da plataforma.
A pressão sobre a empresa aumentou após outro caso grave, desta vez no Canadá. Sam Altman, CEO da OpenAI, pediu desculpas publicamente à comunidade de Tumbler Ridge depois que a empresa admitiu não ter alertado as autoridades sobre uma conta do ChatGPT banida meses antes por indícios de possível violência no mundo real. A usuária, Jesse Van Rootselaar, posteriormente matou oito pessoas e tirou a própria vida. Em carta à comunidade, Altman reconheceu que um pedido de desculpas era necessário diante da perda irreversível sofrida pelas famílias.
Os dois episódios colocam a OpenAI e todo o setor de inteligência artificial diante de uma nova fronteira: não basta desenvolver ferramentas poderosas; será preciso provar que elas são acompanhadas por protocolos robustos de prevenção, auditoria, rastreabilidade e cooperação com autoridades. A inovação continua indispensável, mas a confiança pública dependerá cada vez mais da capacidade das empresas de demonstrar responsabilidade quando a tecnologia cruza o limite entre conversa digital e risco concreto.

