
YouTube officialise son « likeness detection » : une nouvelle arme contre les deepfakes qui imitent visage et voix des créateurs. De quoi reprendre la main sur les contenus IA un peu trop convaincants.
Un déploiement ciblé et une prise en main rapide
D’après la plateforme, la première vague vise les membres éligibles du YouTube Partner Program, informés par email. Une fois l’outil activé, YouTube scanne pour détecter des vidéos utilisant votre ressemblance (visage et voix) et les regroupe dans un espace dédié. Vous pouvez alors déposer une demande de retrait au titre de la confidentialité ou du droit d’auteur, ou bien archiver la vidéo.

L’onboarding est balisé: onglet « Likeness », consentement au traitement des données, puis QR code à flasher sur smartphone pour vérifier son identité via une pièce officielle et une courte vidéo selfie. On remarque que YouTube intègre une vérification forte, logique face à la sensibilité du sujet.
L’entreprise rappelle aussi une porte de sortie: les créateurs peuvent se désinscrire à tout moment, et l’analyse s’arrête 24 heures plus tard. « its likeness detection technology has officially rolled out to eligible creators », indique YouTube via TechCrunch.
A Lire : ChatGPT Atlas : le navigateur d’OpenAI veut réinventer la navigation avec l’IA
Contexte et impact pour les utlisateurs
La disponibilité exacte et éligibilité de YouTube likeness detection en France n’est toujours pas précisées à cette heure. Par rapport à Content ID (plutôt centré sur le copyright), ce système cible la ressemblance et la voix. Face aux réseaux concurrents, YouTube semble pousser une approche plus structurée du signalement IA. pour les créateurs, streamers et testeurs matériel PC, c’est un filet de sécurité contre des deepfakes qui pourraient promouvoir un produit sans accord ou propager de la désinformation. Moins de risques de voir votre image instrumentalisée, et un canal officiel pour agir vite.
Côté calendrier, il faut dire que l’outil était en pilote depuis début 2025, YouTube ayant travaillé avec CAA pour aider célébrités et créateurs à repérer ces contenus. La plateforme a même affiché son soutien au NO FAKES ACT, un texte destiné à encadrer les répliques IA trompeuses. Rien d’étonnant, vu la multiplication des abus – on se souvient par exemple de voix clonées pour vendre du matos sans consentement.
Source : Techcrunch