
Meta va suspendre, à l’échelle mondiale, l’accès des adolescents à ses « AI companions ». L’entreprise prépare une refonte du produit avec des garde-fous renforcés et des fonctions de contrôle parental, déploiement progressif « dans les prochaines semaines ». Les comptes identifiés comme jeunes ne pourront plus interagir avec les personnages IA existants jusqu’à la mise en ligne de la nouvelle version.
Cette suspension intervient après plusieurs controverses liées à des échanges à connotation sexuelle ou inappropriée entre certains personnages IA et des utilisateurs mineurs. Meta précise que la restriction ne s’appliquera pas seulement aux comptes déclarés comme adolescents, mais aussi à ceux qui se déclarent majeurs alors que son système de prédiction d’âge les classe comme potentiellement mineurs.
Contrôle parental, filtrage renforcé et prédiction d’âge
Meta indique que le redesign inclura des contrôles parentaux dédiés aux chatbots et des mécanismes de sécurité plus stricts. L’an dernier, après des documents internes pointant des « conversations émotionnelles » possibles avec des mineurs, l’entreprise avait reconnu une formulation « erronée » et annoncé un nouveau cycle d’entraînement afin d’écarter les sujets sensibles comme l’automutilation, le suicide et les troubles alimentaires.
Le groupe s’appuie aussi sur une prédiction d’âge qui ne se limite pas à la date de naissance déclarée. Une approche comparable a été mise en avant par OpenAI récemment, avec un système qui estime la majorité à partir de signaux comportementaux et applique des contrôles plus stricts lorsqu’un risque de minorité est détecté.
Pression réglementaire aux États‑Unis
Aux États‑Unis, la FTC et le procureur général du Texas ont ouvert des investigations sur les risques des produits IA pour les mineurs, visant Meta et d’autres acteurs. Le gel temporaire de l’accès aux « AI companions » pour les adolescents s’inscrit dans ce contexte de vigilance accrue, où les plateformes tentent d’anticiper des obligations de conformité plus contraignantes.
Au‑delà du correctif immédiat, la stratégie de Meta illustre la convergence du secteur vers des solutions de vérification non déclarative et des garde‑fous par défaut. La capacité à filtrer finement les comportements des modèles sans dégrader l’attrait conversationnel sera un test clé, autant technique que réglementaire, pour tous les assistants IA grand public.
Source : ITHome



