Il caso Phoenix Ikner
ChatGPT sotto indagine negli Usa per una strage: “Ha aiutato il killer nella preparazione dell’attacco alla Florida State”
La domanda, che porta con sé scenari chiaramente preoccupanti, è se è possibile per una intelligenza artificiale, in questo caso ChatGpt, il noto chatbot sviluppato da OpenAI, avere un ruolo in una sparatoria di massa. La più nota azienda di AI è sotto indagine in Florida proprio per capire l’eventuale ruolo e responsabilità dietro l’assalto armato compiuto il 7 aprile 2025 da Phoenix Ikner nella sua università, la Florida State University a Tallahasse.
Ikner, con l’arma della madre vice sceriffo, quella mattina sparò e uccise due persone e ne ferì altre sei prima di essere a sua volta colpito e catturato dalla polizia: oggi il giovane è in carcere accusato di omicidio e tentato omicidio.
Lo studente non è però l’unico indagato. Con una decisione senza precedenti James Uthmeier, procuratore generale dello Stato della Florida, ha annunciato di aver aperto una indagine penale su OpenAI e sul suo chatbot ChatGPT per capire se l’azienda o qualcuno al suo interno possano essere giudicati responsabili. Secondo quanto emerso in fase di indagine Ikner avrebbe preparato l’attacco all’università facendosi aiutare da ChatGPT, tanto che Uthmeier in una conferenza stampa tenuta a Tampa aveva sottolineato che “se dall’altra parte dello schermo ci fosse stata una persona, la incrimineremmo per omicidio”.
Il 20enne, che aveva avuto problemi in famiglia e aveva mostrato prima dell’attacco idee suprematiste tali da farlo espellere da un club universitario della Florida State, aveva chiesto al chatbot informazioni sulla potenza di un’arma a breve distanza e un consiglio su quali munizioni potessero essere utilizzate: nel giorno della strage aveva inoltre domandato all’IA come avrebbe reagito il Paese alla sua azione e quale fosse l’ora di punta nel campus dell’università.
Florida’s AG has released additional footage of last year’s mass shooting at Florida State University where 2 people were killed and 6 injured.
You can see the killer, Phoenix Ikner, moving through the student union without any threat as he knew it was a “gun free zone” and it… pic.twitter.com/rzazNrypIp
— Mrgunsngear (@Mrgunsngear) April 12, 2026
OpenAI da parte sua si è difesa si è difesa sottolineando che “in questo caso ChatGpt ha fornito risposte fattuali a domande con informazioni che potevano essere trovate ampiamente in fonti pubbliche su Internet, e non ha incoraggiato né promosso attività illegali o dannose”, dunque il suo chatbot “non è responsabile di questo terribile crimine”.
In realtà il ruolo del sistema sviluppato da OpenAI è già al centro di altre indagini su fatti di sangue avvenuti in Nord America: è il caso della strage compiuta lo scorso febbraio dalla 18enne canadese Jesse Van Rootselaar, che uccise otto persone a Tumbler Ridge. Prima di farlo aveva riferito dei suoi piani a ChatGPT, il suo account era stato bloccato per i contenuti dannosi ma OpenAI non aveva avvisato le autorità del potenziale futuro crimine.
Altro caso noto è quello di Adam Raine, 16enne morto suicida nell’aprile del 2025 in California dopo essersi confrontato per mesi con ChatGPT: il caso è finito davanti alla Corte Suprema della Stato con una causa intentata dai genitori dell’adolescente contro l’azienda, che da parte sua si è difesa sottolineando “l’uso imprevedibile e/o improprio” del chatbot da parte di Raine.