A ferramenta aconselhou um estudante que abriu fogo na Universidade Estadual da Flórida. O promotor responsável pelo caso afirma que, se fosse uma pessoa, “a acusaríamos de homicídio”.
O surgimento da inteligência artificial trouxe à tona uma série de dilemas éticos. Entre eles, estão a forma como as novas gerações serão educadas, quais empregos estão sendo substituídos e qual o impacto dessa tecnologia na sociedade. Essa última questão se intensificou a tal ponto que, na Flórida (Estados Unidos), o Departamento de Justiça abriu uma investigação criminal contra o ChatGPT e sua empresa controladora, a OpenAI, por supostamente fornecerem conselhos sobre o uso de armas de fogo antes do tiroteio na Universidade Estadual da Flórida, em 17 de abril de 2025.
Duas pessoas morreram e outras seis ficaram feridas no tiroteio, cujo autor é Phoenix Ikner, um estudante de 20 anos, acusado de homicídio em primeiro grau. Antes do tiroteio no campus, que tem um total de 43.000 alunos, Ikner havia consultado a ferramenta de inteligência artificial sobre o poder de fogo de uma arma a curta distância e qual munição poderia ser usada. Ao todo, ele trocou mais de 200 mensagens com o ChatGPT.
Segundo o The New York Times, no dia do tiroteio, Ikner perguntou ao chatbot “como o país reagiria a um tiroteio na Universidade Estadual da Flórida e qual o horário de pico no campus”. Isso levanta outras questões: os criadores dessas ferramentas podem limitar as respostas a determinados tópicos? É possível que a IA preveja as intenções de um potencial atirador? As grandes empresas de tecnologia estão dispostas a limitar o alcance de suas próprias criações?


Conselhos do ChatGPT antes do ataque no Canadá
Enquanto as principais empresas de tecnologia respondem às questões mencionadas, o Procurador-Geral responsável pelo caso, James Uthmeier, afirmou em coletiva de imprensa que, após a análise de sua equipe, concluíram que, se fosse uma pessoa do outro lado da tela, “a acusaríamos de homicídio”. Enquanto isso, a OpenAI divulgou um comunicado padrão buscando defender a imparcialidade de suas ferramentas: “Desenvolvemos o ChatGPT para entender a intenção das pessoas e responder de forma segura e apropriada, e continuamos a aprimorar nossa tecnologia”, declarou a empresa, acrescentando que cooperará com as autoridades.
No último ano, surgiram outros processos judiciais em várias partes do mundo alegando que o ChatGPT e outros chatbots foram usados para planejar ou validar atos violentos. Um desses incidentes ocorreu em fevereiro deste ano, quando Jesse Van Rootselaar, de 18 anos, atirou e matou oito pessoas em Tumbler Ridge, no Canadá. Entre as vítimas estavam uma professora, cinco crianças de 12 e 13 anos, além de sua mãe e seu irmão.
Sam Altman, CEO da OpenAI, limitou-se a emitir um pedido público de desculpas por não ter alertado as autoridades de que a empresa havia detectado “atividade preocupante” nas interações de Van Rootselaar com o chatbot. O Wall Street Journal revelou que, em junho, meses antes do massacre, “a OpenAI encerrou a conta de Van Rootselaar devido às suas interações com o ChatGPT, que incluíam referências a incidentes de violência armada”. Em outras palavras, havia indícios do que iria acontecer, mas a empresa não fez nada a respeito.
A lista de casos está crescendo cada vez mais, levantando questões sobre o alcance das ferramentas de inteligência artificial e como seria uma possível investigação e condenação contra o ChatGPT e outras ferramentas semelhantes. Por ora, o sistema judiciário da Flórida decidiu se concentrar nas pessoas que trabalham para essas empresas e se “seres humanos podem ter estado envolvidos no projeto, gerenciamento e operação” dessas ferramentas, a fim de determinar a responsabilidade criminal de indivíduos reais.
Por Oriana Rivas.