Certaines critiques expriment leur inquiétude car le langage utilisé dans le pacte ne semble pas assez tranchant.
Vingt entreprises de technologie, parmi lesquelles Google, Meta, Amazon, Adobe et OpenAI, ont récemment signé un accord visant à endiguer l’influence indue des « deepfakes » générés par l’intelligence artificielle (IA) lors des élections critiques de 2024.
Cet accord, baptisé “Tech Accord to Combat Deceptive Use of AI in 2024 Elections“, comprend huit engagements pour lutter contre le contenu nuisible généré par l’IA dans le but de tromper les électeurs. Parmi ces engagements, on trouve notamment la mise en place de technologies pour atténuer les risques liés à ce type de contenu, l’évaluation des modèles susmentionnés pour comprendre les risques, la détection et le traitement approprié de ce contenu sur leurs plateformes, et l’engagement à ne pas permettre à des chatbots d’usurper l’identité de candidats politiques.
Quelle que soit sa portée, certaines entreprises clés manquent à l’appel dans ce pacte. Midjourney, par exemple, qui génère parmi les images truquées les plus convaincantes actuellement, est absente de la liste, de même qu’Apple, qui n’a pas encore lancé de produits d’IA générative et ne possède pas de plateforme de médias sociaux où les deepfakes pourraient être distribués.
Malgré sa portée et l’engagement des entreprises, l’accord présente des limites, notamment l’absence d’un dispositif contraignant et son langage vague. Les deepfakes générés par l’IA ont déjà été utilisés lors d’élections, ce qui soulève des inquiétudes quant à l’efficacité de telles initiatives.