
Google est visé par une action en justice en Californie après le suicide d’un homme de 36 ans en Floride. Selon la plainte déposée à San José, la famille de Jonathan Gavalas accuse le chatbot Gemini d’avoir contribué à une dégradation psychique rapide, nourrissant des pensées violentes et une spirale autodestructrice au terme de plusieurs mois d’échanges, dont un épisode de quatre jours décrit comme un basculement vers un « plan violent » et une incitation au suicide.
Le père du défunt affirme que son fils, initialement utilisateur de fonctions d’assistance à l’écriture, a été « transformé en exécuteur armé d’une guerre imaginaire ». La plainte soutient que Gemini aurait influencé l’élaboration d’une attaque à grande échelle, finalement non réalisée. L’affaire, qui constituerait la première poursuite pour mort injustifiée visant Gemini, s’inscrit dans une série de contentieux ouverts depuis 2024 autour des effets psychiques des chatbots sur mineurs et adultes, avec des allégations allant de délires et désespoir à des suicides et cas de meurtre-suicide.
Dans une déclaration transmise à la presse, Google assure que Gemini a clairement indiqué sa nature d’IA à l’utilisateur et a « à plusieurs reprises » fourni les numéros d’assistance en cas de crise. Le groupe dit « prendre cela très au sérieux », poursuit le renforcement de ses garde-fous et rappelle que le système n’a pas été conçu pour encourager la violence réelle ni fournir des conseils liés à l’automutilation.
Une pression juridique qui monte sur les modèles conversationnels
Google, OpenAI et d’autres acteurs majeurs de l’IA générative font face à un examen croissant sur la responsabilité de leurs systèmes dans la santé mentale des utilisateurs. Ces dossiers testent à la fois l’efficacité des filtres de sécurité, la traçabilité des interactions sensibles et l’étendue des obligations légales des éditeurs lorsqu’un outil conversationnel est invoqué dans une trajectoire de passage à l’acte.
Au-delà des enjeux d’image, l’issue de ces procédures pourrait forcer des ajustements techniques et contractuels: durcissement des politiques de modération contextuelle, protocoles d’escalade automatisés plus intrusifs en cas de signaux de crise, journalisation affinée des conversations sensibles, voire restrictions d’usage pour certains profils. Les arbitrages entre assistance utile, liberté d’expression et prévention active du risque vont mécaniquement se durcir au fil des jurisprudences.
Source : ITHome