Flórida abre investigação contra OpenAI após suspeita de uso do ChatGPT em ataque
Procuradoria acusa IA de fornecer orientações antes de ataque que matou 2 em 2025
Pontos-chave
- A Flórida abriu em abril de 2026 uma investigação criminal contra o ChatGPT e a OpenAI por suposto auxílio a atirador da Universidade Estadual da Flórida em 2025.
- O procurador-geral James Uthmeier afirmou que o chatbot ofereceu orientações significativas ao suspeito antes do ataque, segundo suas declarações.
- A OpenAI nega responsabilidade criminal, afirmando que as respostas foram factuais e disponíveis em fontes públicas.
- O caso é inédito e ocorre em meio a debates federais nos EUA sobre a reforma do Section 230 e a regulação de plataformas digitais.
- Especialistas e críticos destacam riscos políticos e jurídicos da responsabilização penal de modelos de IA por conteúdo gerado.
A Procuradoria-Geral da Flórida abriu, em abril de 2026, uma investigação criminal envolvendo o ChatGPT e sua desenvolvedora, a OpenAI. A apuração busca esclarecer se o sistema foi utilizado por um atirador responsável por um ataque ocorrido em 2025 na Universidade Estadual da Flórida.
O caso está em fase inicial, e as autoridades analisam mensagens atribuídas ao suspeito, que teria buscado informações sobre armas e dinâmica de circulação no campus.
Ataque sob investigação
O episódio ocorreu em Tallahassee, em abril de 2025, e deixou duas pessoas mortas e seis feridas. Segundo as autoridades, o suspeito, então com 20 anos, teria pesquisado sobre armamentos, munições e outros aspectos relacionados ao ataque.
O procurador-geral James Uthmeier afirmou que a investigação avalia se houve algum tipo de auxílio indireto por meio das respostas do sistema. Além da apuração criminal, também há uma investigação civil em andamento.
Posição da empresa
A OpenAI nega responsabilidade e afirma que o ChatGPT fornece informações baseadas em conteúdos públicos, sem incentivar ou facilitar atividades ilegais. A empresa ressalta que suas políticas proíbem o uso da tecnologia para fins criminosos.
Debate jurídico
O caso é considerado inédito ao avaliar possível responsabilização criminal envolvendo um sistema de inteligência artificial. Até então, discussões semelhantes nos Estados Unidos estavam concentradas na esfera civil, frequentemente relacionadas à Section 230, que trata da responsabilidade de plataformas digitais por conteúdos de terceiros.
Especialistas apontam que ainda não há precedentes claros para enquadramentos penais nesse tipo de situação, o que torna o caso um possível marco no debate sobre regulação de inteligência artificial.
Implicações
A investigação levanta questionamentos sobre os limites de responsabilidade de empresas de tecnologia e o uso de ferramentas de IA. O caso também ocorre em meio a discussões mais amplas sobre regulação digital e segurança pública.
Analistas destacam que a ausência de informações detalhadas sobre o conteúdo das interações dificulta a avaliação do papel efetivo da tecnologia no episódio.
Gostou desta noticia?
Inscreva-se para receber as principais do dia por email