Sous la pression de Bryan Cranston et du syndicat SAG-AFTRA, OpenAI revoit sa politique d’utilisation des deepfakes. Le groupe promet davantage de garde-fous autour de l’image des célébrités, après plusieurs dérives provoquées par son outil Sora 2, capable de générer des vidéos réalistes à partir de visages réels.
Face aux inquiétudes croissantes des artistes et du syndicat SAG-AFTRA, OpenAI a annoncé un renforcement de ses dispositifs de sécurité pour encadrer l’usage de deepfakes mettant en scène des personnalités publiques. Une décision qui intervient dans un climat de méfiance généralisée quant à la protection de l’identité numérique et au respect du droit à l’image.
Une innovation aux dérives inattendues
Le lancement de Sora 2, dernière évolution du générateur vidéo d’OpenAI, devait illustrer l’avant-garde technologique de la société américaine. Il a surtout révélé les zones d’ombre éthiques de l’intelligence artificielle.
Conçu pour permettre la création de vidéos réalistes à partir de simples descriptions textuelles, l’outil s’est rapidement retrouvé au centre d’une polémique, notamment en raison de la reproduction non autorisée de visages célèbres.
En autorisant initialement les personnalités à se désinscrire (« opt-out ») plutôt qu’à donner leur consentement explicite (« opt-in »), OpenAI pensait concilier innovation et flexibilité. Cette politique a eu l’effet inverse : elle a ouvert la voie à des détournements massifs d’images de personnalités, sans leur approbation.
L’indignation des artistes et des ayants droit
La réaction du monde artistique ne s’est pas fait attendre. Plusieurs contenus générés par Sora 2 ont suscité un tollé, notamment des vidéos mettant en scène des figures historiques comme Martin Luther King, dont la famille a exigé – et obtenu – des excuses publiques de la part d’OpenAI.
Sous la pression, l’entreprise a fini par inverser sa politique : désormais, seules les personnalités ayant donné leur accord explicite peuvent apparaître dans les créations issues de Sora 2.
Mais cette rectification tardive n’a pas éteint les critiques. Des vidéos apocryphes continuent de circuler, faisant apparaître John F. Kennedy ou Stephen Hawking, tandis que certains acteurs contemporains – à l’image de Bryan Cranston – ont vu leur image exploitée malgré leur retrait formel du programme.
« Une inquiétude profonde pour tous les artistes »
Dans une déclaration commune réunissant OpenAI, SAG-AFTRA et lui-même, Bryan Cranston a exprimé sa vive préoccupation :
« J’étais profondément inquiet, non seulement pour moi, mais pour tous les artistes dont l’identité peut être usurpée de cette façon »,
a confié l’acteur américain, saluant toutefois la volonté d’OpenAI de renforcer ses garde-fous et de dialoguer avec les représentants du monde du spectacle.
Ce partenariat inédit entre le syndicat des acteurs et un géant de l’IA marque une prise de conscience collective : l’image et la voix d’une célébrité sont désormais des données exploitables, donc vulnérables.
Les concurrents prennent leurs distances
Pourquoi OpenAI concentre-t-elle autant de critiques ?
Selon plusieurs observateurs, le problème tient moins à la technologie qu’à la philosophie de gouvernance adoptée. Là où Google, avec son modèle vidéo Veo 3, ou d’autres acteurs comme Runway ou Pika, ont verrouillé d’emblée toute utilisation d’identités réelles, OpenAI a choisi de laisser l’initiative à l’utilisateur – une décision perçue comme imprudente à l’heure où les deepfakes prolifèrent sur les réseaux sociaux.
Même la première version de Sora n’avait pas suscité un tel émoi : les garde-fous y étaient plus stricts, et les exemples de personnalités réelles, inexistants.
Mais, dans sa volonté manifeste de repousser les limites du réalisme, OpenAI semble avoir franchi une ligne rouge entre innovation et manipulation.
L’éthique de l’intelligence artificielle : un chantier encore instable
Pour l’heure, la société n’a fourni aucune description précise des nouvelles mesures techniques mises en place pour prévenir ces abus.
Elle réaffirme toutefois son attachement au respect du droit à l’image et rappelle sa participation active au projet de loi américain “NO FAKES Act”, visant à protéger la voix, l’apparence et la personnalité des individus contre les reconstitutions numériques non consenties.
Un débat loin d’être clos
Au-delà du cas OpenAI, cette controverse met en lumière des questions fondamentales :
- Où s’arrête l’hommage, et où commence la captation indue d’identité ?
- Comment garantir un contrôle effectif de son image dans un monde où la reproduction numérique devient instantanée ?
- Et, surtout, comment concilier liberté de création et respect des personnes dans l’ère de l’IA générative ?
La tempête autour de Sora 2 rappelle que l’intelligence artificielle, aussi fascinante soit-elle, avance plus vite que les garde-fous éthiques censés l’encadrer.
Le progrès, ici, s’accompagne d’un impératif : réapprendre à consentir.
s2pmag Multimedia Lifestyle