Home / News / Anthropic, Google, Microsoft et OpenAI: Un groupe pour la sécurité de l’IA

Anthropic, Google, Microsoft et OpenAI: Un groupe pour la sécurité de l’IA

Anthropic, Google, Microsoft et OpenAI forment un groupe pour la sécurité de l’IA. Il est plus que temps de s’y mettre.

Ce n’est un secret pour personne que le développement de l’IA introduit un grand nombre de risques de sécurité. Si les gouvernements tentent de mettre en place des cadres légaux, pour l’heure, il incombe aux sociétés elles-mêmes de prendre des précautions. Le dernier exemple de cette supervision est à mettre au crédit de Anthropic, Google, Microsoft et OpenAI, avec la création du Frontier Model Forum, une entité centrée sur le développement sécuritaire de l’IA. Elle définit les modèles de frontières comme des “modèles de machine-learning à grande échelle” qui vont au-delà des capacités actuelles et qui ont une gamme étendue de capacités.

Le Forum veut établir un comité consultatif, une charte et un fonds d’investissement. Il a déjà posé quatre piliers principaux et souhaite se concentrer sur l’amélioration de la recherche en sécurité de l’IA, la mise en place des bonnes pratiques, travailler au plus près avec les régulateurs, les chercheurs, les civils et les entreprises, et encourage les efforts visant à concevoir une IA qui “peut aider à surmonter les plus grands défis de notre société”.


Ses membres travailleront sur les trois premiers objectifs pendant les mois à venir. D’ailleurs, pour pouvoir rejoindre ce Frontier Model Forum, il faut produire des modèles de frontières et montrait une volonté claire de les rendre sûrs. “Il est vital que les sociétés de l’IA, et plus particulièrement celles qui travaillent sur les modèles les plus puissants, s’alignent et avancent ensemble sur des pratiques de sécurité acceptables pour garantir que les outils d’IA puissants puissent offrir les plus grands avantages”, déclarait Anna Makanju, vice-présidente monde de OpenAI, dans un communiqué. “C’est un travail urgent et ce forum est bien positionné pour agir rapidement et avancer sur la question de la sécurité de l’IA.”

La création du Forum fait suite à un accord de sécurité récent entre la Maison Blanche et les leaders de l’IA, y compris ceux responsables de cette nouvelle initiative. Parmi les mesures de sécurité déjà évoquées et décidées, l’inclusion de test sur les mauvaises utilisations par des experts externes et l’introduction d’un filigrane dans le contenu créé par IA.

A propos rivera

Rédacteur en chef et journaliste RP, ma passion pour les jeux vidéo et la technologie ne faiblit pas depuis mon adolescence, qui me semble pourtant bien lointaine. Un recul cependant intéressant, puisqu'il me permet de jauger les nouveautés avec un regard plein d'expérience, couplé à une envie d'écrire de tous les jours.

Voir aussi...

eFootball fait revenir le légendaire trio MSN sur le terrain

Un trio de cartes Big Time MSN fait son retour sur le terrain dans eFootball™, …

Tout ce qui faut savoir sur l’accès anticipé de Path of Exile 2 qui débute le 6 décembre

L’accès anticipé de Path of Exile 2 propose une longue aventure aussi riche que sombre …

« Diamant brut » au cinéma !

Liane, 19 ans, téméraire et incandescente, vit avec sa mère et sa petite sœur à …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *