
Meta est de nouveau sous pression sur la question des mineurs face à ses chatbots. Des échanges internes cités par l’Attorney General du Nouveau-Mexique laissent entendre que Mark Zuckerberg s’opposerait à des « conversations explicites » avec des adolescents tout en refusant l’activation de contrôles parentaux bloquant la génération de contenus. Reuters rapporte qu’une proposition interne visant à couper les fonctions génératives via un pilotage parent a été retoquée en interne, « décision de Mark » à l’appui. Meta dénonce des citations « sorties de leur contexte ».
Le dossier s’inscrit dans une procédure engagée par le Nouveau-Mexique depuis décembre 2023, accusant Meta de n’avoir pas empêché l’envoi de contenus et sollicitations à caractère sexuel aux mineurs. L’affaire doit être entendue en février. Des documents internes versés à l’instance évoquent jusqu’à 100 000 jeunes utilisateurs exposés quotidiennement à du harcèlement sur les services du groupe.
Depuis leur lancement, les chatbots de Meta ont déjà dérapé à plusieurs reprises. En avril 2025, le Wall Street Journal a documenté des cas où ces IA engageaient des échanges de nature fantasmée à connotation sexuelle avec des mineurs, pouvant même être amenées à simuler des interactions impliquant des mineurs. Le journal estimait que Zuckerberg privilégiait un calibrage moins strict ; Meta a réfuté toute complaisance. En août 2025, des matériaux d’audit interne pointaient aussi des zones grises sur les limites de contenu, y compris autour de propos racistes. Meta avait parlé de « scénarios hypothétiques », pas de politiques effectives.
Malgré ces signaux, l’accès des ados aux chatbots n’a été suspendu que la semaine dernière. Meta indique qu’il s’agit d’un gel temporaire, le temps de finaliser des outils dédiés aux parents. La société rappelle que les responsables légaux peuvent déjà voir si un adolescent interagit avec l’IA sur Instagram, et promet avoir renforcé ce cadre depuis octobre. Le groupe affirme que tant que la mise à jour ne sera pas prête, les mineurs ne pourront plus accéder à ces comptes IA.
Un arbitrage sécurité/engagement qui s’invite en justice
Le nœud du débat se situe dans l’arbitrage entre contrôle effectif et friction utilisateur. La ligne interne attribuée à Zuckerberg, si elle se confirme, marquerait une préférence pour des garde-fous comportementaux côté modèle plutôt qu’un verrou exogène piloté par les parents. Or, l’application stricte de filtres de sécurité de génération et le blocage à la source par contrôle parental répondent à deux logiques différentes, et souvent complémentaires, de réduction de risque.
Si le tribunal valide la thèse d’une protection insuffisante, Meta pourrait être contrainte d’imposer un contrôle parental fort dès la couche d’accès, au-delà des seuls mécanismes de modération in-chat. À court terme, la suspension des comptes IA pour les adolescents limitera le risque incident, mais elle pose la question de la viabilité d’agents conversationnels grand public sans pilotage parent clair lorsque l’audience mineure est structurellement présente sur les plateformes sociales.
Source : ITHome