Anthropic, Google, Microsoft et OpenAI forment un groupe pour la sécurité de l’IA. Il est plus que temps de s’y mettre.
Ce n’est un secret pour personne que le développement de l’IA introduit un grand nombre de risques de sécurité. Si les gouvernements tentent de mettre en place des cadres légaux, pour l’heure, il incombe aux sociétés elles-mêmes de prendre des précautions. Le dernier exemple de cette supervision est à mettre au crédit de Anthropic, Google, Microsoft et OpenAI, avec la création du Frontier Model Forum, une entité centrée sur le développement sécuritaire de l’IA. Elle définit les modèles de frontières comme des “modèles de machine-learning à grande échelle” qui vont au-delà des capacités actuelles et qui ont une gamme étendue de capacités.
Le Forum veut établir un comité consultatif, une charte et un fonds d’investissement. Il a déjà posé quatre piliers principaux et souhaite se concentrer sur l’amélioration de la recherche en sécurité de l’IA, la mise en place des bonnes pratiques, travailler au plus près avec les régulateurs, les chercheurs, les civils et les entreprises, et encourage les efforts visant à concevoir une IA qui “peut aider à surmonter les plus grands défis de notre société”.
Ses membres travailleront sur les trois premiers objectifs pendant les mois à venir. D’ailleurs, pour pouvoir rejoindre ce Frontier Model Forum, il faut produire des modèles de frontières et montrait une volonté claire de les rendre sûrs. “Il est vital que les sociétés de l’IA, et plus particulièrement celles qui travaillent sur les modèles les plus puissants, s’alignent et avancent ensemble sur des pratiques de sécurité acceptables pour garantir que les outils d’IA puissants puissent offrir les plus grands avantages”, déclarait Anna Makanju, vice-présidente monde de OpenAI, dans un communiqué. “C’est un travail urgent et ce forum est bien positionné pour agir rapidement et avancer sur la question de la sécurité de l’IA.”
La création du Forum fait suite à un accord de sécurité récent entre la Maison Blanche et les leaders de l’IA, y compris ceux responsables de cette nouvelle initiative. Parmi les mesures de sécurité déjà évoquées et décidées, l’inclusion de test sur les mauvaises utilisations par des experts externes et l’introduction d’un filigrane dans le contenu créé par IA.