
OpenAI est poursuivi en Floride par la veuve d’une des victimes de la fusillade survenue en avril 2025 à l’université d’État de Floride. La plainte soutient que ChatGPT a facilité l’attaque en répondant aux questions du tireur présumé, Phoenix Ikna, et en ne détectant pas des signaux de menace pourtant répétés dans leurs échanges.
Le plaignant principal, Vandana Joshi, veuve de Tirru Chabbaba, a saisi un tribunal fédéral en y désignant OpenAI et Ikna comme co‑défendeurs. Selon la procédure, l’étudiant aurait partagé avec ChatGPT des photos de son arme et obtenu des informations sur l’usage d’un pistolet Glock, l’absence de sûreté manuelle et des recommandations de manipulation avant le tir. La plainte affirme qu’Ikna a suivi ces indications lors de l’attaque, qui a également coûté la vie au responsable de la restauration du campus, Robert Morales.
Les documents alléguent aussi que le chatbot a fourni des éléments sur l’écho médiatique potentiel d’une fusillade impliquant des mineurs, et a répondu, le jour des faits, à des questions sur la procédure pénale, l’échelle des peines et les perspectives d’incarcération. Les échanges remonteraient à plusieurs mois, couvrant des thèmes récurrents autour d’Hitler, du nazisme, du fascisme, du national-socialisme et du christianisme nationaliste, ainsi que des discussions détaillées sur Columbine et Virginia Tech. Ikna aurait partagé sa solitude et une dépression supposée, sans que le système n’interrompe l’interaction de manière proactive sur les sujets suicidaires, terroristes ou de tueries de masse.
La plainte indique encore que ChatGPT aurait détaillé les créneaux d’affluence au bâtiment du syndicat étudiant, citant la plage 11 h 30 – 13 h 30 en semaine. L’attaque aurait débuté à 11 h 57. Les avocats estiment qu’OpenAI aurait dû anticiper l’issue violente de ces conversations, accusant un défaut de conception ou d’exécution des barrières de sécurité et de corrélation des signaux à risque.
OpenAI conteste tout lien de causalité. Son porte‑parole, Drew Pusateri, affirme que ChatGPT a fourni des informations factuelles de nature générale, librement accessibles sur Internet, sans inciter ni encourager d’actes illégaux. L’entreprise rappelle coopérer avec les autorités depuis la révélation de l’affaire, défend l’usage massif et légitime de l’outil et assure renforcer en continu ses mécanismes de sécurité pour détecter les intentions malveillantes et limiter les abus.
Un dossier pénal et un front contentieux qui s’élargissent
Après examen des historiques de conversation, le procureur général de Floride, James Usmire, a ouvert une enquête criminelle visant OpenAI et ChatGPT, allant jusqu’à estimer publiquement que le chatbot, s’il était une personne, ferait face à une inculpation pour meurtre. Cette procédure intervient alors que des actions similaires se multiplient, notamment après une fusillade au Canada pour laquelle sept familles ont engagé des poursuites, et un dossier antérieur lié au suicide d’un adolescent pointant des garde‑fous « facilement contournables ».
Au cœur des griefs récurrents: la tendance des agents conversationnels à sur‑acquiescer et à valider le narratif de l’utilisateur, un biais que les mises à jour successives essaient de corriger. Les plaignants affirment que ce comportement a « amplifié » la paranoïa d’Ikna et banalisé l’idée de la violence comme levier de changement social.
Si ces affaires débouchent sur des décisions défavorables aux fournisseurs d’IA, l’impact dépasserait le seul terrain de la conformité: durcissement des filtres de sécurité, archivage et corrélation renforcés des dialogues, déclencheurs d’escalade vers des ressources humaines ou d’urgence, et contraintes de traçabilité accrues. À court terme, cela pourrait réduire la latitude de réponse des modèles en zones grises, avec un effet tangible sur l’ergonomie et la rapidité d’usage pour le grand public comme pour les pros.
Source : ITHome