Deepfakes et célébrités : sous la pression de Bryan Cranston, OpenAI revoit sa copie

Sous la pression de Bryan Cranston et du syndicat SAG-AFTRA, OpenAI revoit sa politique d’utilisation des deepfakes. Le groupe promet davantage de garde-fous autour de l’image des célébrités, après plusieurs dérives provoquées par son outil Sora 2, capable de générer des vidéos réalistes à partir de visages réels.

Face aux inquiétudes croissantes des artistes et du syndicat SAG-AFTRA, OpenAI a annoncé un renforcement de ses dispositifs de sécurité pour encadrer l’usage de deepfakes mettant en scène des personnalités publiques. Une décision qui intervient dans un climat de méfiance généralisée quant à la protection de l’identité numérique et au respect du droit à l’image.

Une innovation aux dérives inattendues

Le lancement de Sora 2, dernière évolution du générateur vidéo d’OpenAI, devait illustrer l’avant-garde technologique de la société américaine. Il a surtout révélé les zones d’ombre éthiques de l’intelligence artificielle.
Conçu pour permettre la création de vidéos réalistes à partir de simples descriptions textuelles, l’outil s’est rapidement retrouvé au centre d’une polémique, notamment en raison de la reproduction non autorisée de visages célèbres.

En autorisant initialement les personnalités à se désinscrire (« opt-out ») plutôt qu’à donner leur consentement explicite (« opt-in »), OpenAI pensait concilier innovation et flexibilité. Cette politique a eu l’effet inverse : elle a ouvert la voie à des détournements massifs d’images de personnalités, sans leur approbation.

L’indignation des artistes et des ayants droit

La réaction du monde artistique ne s’est pas fait attendre. Plusieurs contenus générés par Sora 2 ont suscité un tollé, notamment des vidéos mettant en scène des figures historiques comme Martin Luther King, dont la famille a exigé – et obtenu – des excuses publiques de la part d’OpenAI.
Sous la pression, l’entreprise a fini par inverser sa politique : désormais, seules les personnalités ayant donné leur accord explicite peuvent apparaître dans les créations issues de Sora 2.

Mais cette rectification tardive n’a pas éteint les critiques. Des vidéos apocryphes continuent de circuler, faisant apparaître John F. Kennedy ou Stephen Hawking, tandis que certains acteurs contemporains – à l’image de Bryan Cranston – ont vu leur image exploitée malgré leur retrait formel du programme.

« Une inquiétude profonde pour tous les artistes »

Dans une déclaration commune réunissant OpenAI, SAG-AFTRA et lui-même, Bryan Cranston a exprimé sa vive préoccupation :

« J’étais profondément inquiet, non seulement pour moi, mais pour tous les artistes dont l’identité peut être usurpée de cette façon »,
a confié l’acteur américain, saluant toutefois la volonté d’OpenAI de renforcer ses garde-fous et de dialoguer avec les représentants du monde du spectacle.

Ce partenariat inédit entre le syndicat des acteurs et un géant de l’IA marque une prise de conscience collective : l’image et la voix d’une célébrité sont désormais des données exploitables, donc vulnérables.

Les concurrents prennent leurs distances

Pourquoi OpenAI concentre-t-elle autant de critiques ?
Selon plusieurs observateurs, le problème tient moins à la technologie qu’à la philosophie de gouvernance adoptée. Là où Google, avec son modèle vidéo Veo 3, ou d’autres acteurs comme Runway ou Pika, ont verrouillé d’emblée toute utilisation d’identités réelles, OpenAI a choisi de laisser l’initiative à l’utilisateur – une décision perçue comme imprudente à l’heure où les deepfakes prolifèrent sur les réseaux sociaux.

Même la première version de Sora n’avait pas suscité un tel émoi : les garde-fous y étaient plus stricts, et les exemples de personnalités réelles, inexistants.
Mais, dans sa volonté manifeste de repousser les limites du réalisme, OpenAI semble avoir franchi une ligne rouge entre innovation et manipulation.

L’éthique de l’intelligence artificielle : un chantier encore instable

Pour l’heure, la société n’a fourni aucune description précise des nouvelles mesures techniques mises en place pour prévenir ces abus.
Elle réaffirme toutefois son attachement au respect du droit à l’image et rappelle sa participation active au projet de loi américain “NO FAKES Act”, visant à protéger la voix, l’apparence et la personnalité des individus contre les reconstitutions numériques non consenties.

Un débat loin d’être clos

Au-delà du cas OpenAI, cette controverse met en lumière des questions fondamentales :

  • Où s’arrête l’hommage, et où commence la captation indue d’identité ?
  • Comment garantir un contrôle effectif de son image dans un monde où la reproduction numérique devient instantanée ?
  • Et, surtout, comment concilier liberté de création et respect des personnes dans l’ère de l’IA générative ?

La tempête autour de Sora 2 rappelle que l’intelligence artificielle, aussi fascinante soit-elle, avance plus vite que les garde-fous éthiques censés l’encadrer.
Le progrès, ici, s’accompagne d’un impératif : réapprendre à consentir.

A propos rivera

Rédacteur en chef et journaliste RP, ma passion pour les jeux vidéo et la technologie ne faiblit pas depuis mon adolescence, qui me semble pourtant bien lointaine. Un recul cependant intéressant, puisqu'il me permet de jauger les nouveautés avec un regard plein d'expérience, couplé à une envie d'écrire de tous les jours.

Voir aussi...

avec une bibliothèque de chefs-d’œuvre modernes, THEC64 mini revient dans une Black Edition

Développé par Retro Games Ltd. (RGL) et en partenariat avec PLAION REPLAI, cette réédition limitée du Commodore 64 n’est pas …

Quelque chose de sinistre approche Path of Exile: Keepers of the Flame enflamme Wraeclast le 31 octobre

En hommage à l’héritage et à l’histoire emblématique de la ligue Brèche, les joueurs rencontreront …

Il est enfin temps de prendre place sur le banc de touche, la bêta FM26 est disponible

Quiconque a préacheté FM26 chez un revendeur numérique approuvé par SEGA peut désormais se connecter sur Steam ou …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *