En affirmant que Grok 5, conçu par son laboratoire xAI, pourrait atteindre l’intelligence artificielle générale d’ici la fin de l’année, Elon Musk bouleverse le calendrier des experts et réactive les inquiétudes d’un monde confronté à une technologie aux promesses autant qu’aux périls inédits.
Le fondateur de SpaceX et patron de Tesla, Elon Musk, a ravivé l’effervescence mondiale autour de l’intelligence artificielle en annonçant que Grok 5, la nouvelle mouture de son laboratoire xAI, pourrait franchir le seuil de l’intelligence artificielle générale (AGI) d’ici la fin de l’année. Cette perspective, bien plus proche que ne le prévoyaient la plupart des experts, fait naître autant d’espoirs que de redoutables inquiétudes. Car l’AGI, capable de raisonner et d’apprendre avec une souplesse comparable à celle d’un esprit humain, soulève de vertigineuses interrogations sur le contrôle d’une telle puissance. Derrière l’enthousiasme des partisans se dessine donc la crainte d’une concentration excessive du pouvoir technologique entre les mains d’un seul acteur.
Un virage discursif inattendu
Cette annonce marque un revirement notable dans la rhétorique de Musk. L’entrepreneur, longtemps critique vis-à-vis des expérimentations avancées en intelligence artificielle, cosignait il y a deux ans une pétition internationale appelant à un moratoire sur ces recherches, les qualifiant même de « plus périlleuses que l’arme nucléaire ». Qu’il affirme aujourd’hui que son propre système puisse ouvrir la voie à l’AGI souligne une inflexion majeure, voire paradoxale, dans son positionnement.
Entre promesses révolutionnaires et menaces existentielles
L’intelligence artificielle générale représente depuis toujours le Graal des laboratoires technologiques : une machine universelle, capable de comprendre et d’agir dans une multitude de contextes. Une telle avancée transformerait profondément des secteurs comme la recherche médicale, la découverte scientifique ou la gestion de données planétaires. Mais l’envers de cette promesse est sombre. De nombreux spécialistes redoutent qu’un tel outil, une fois échappé au contrôle humain, constitue une menace existentielle. Geoffrey Hinton, surnommé le « père de l’IA moderne », n’exclut pas une probabilité de 10 à 20 % d’extinction de l’humanité liée à l’IA dans les trois prochaines décennies.
Le scepticisme des chercheurs
Face à ces annonces spectaculaires, plusieurs scientifiques appellent à la prudence. Himanshu Tyagi, professeur à l’Indian Institute of Science et cofondateur de la start-up open source Sentient, juge probable que Grok 5 excelle dans des tâches numériques pointues, notamment la recherche d’informations en ligne. Mais il doute que cette version soit capable de véritables percées scientifiques ou d’innovations radicales. Pour lui, ce que Musk qualifie d’AGI pourrait n’être qu’une IA de nouvelle génération, certes performante, mais encore limitée dans ses capacités créatives.
Une gouvernance technologique en suspens
Même en l’absence d’une AGI complète, la perspective d’une « AGI allégée » contrôlée par quelques entreprises privées suffit à inquiéter. Le caractère opaque de certains modèles, développés avec une priorité accordée à la vitesse d’exécution plutôt qu’à la sécurité, accroît le sentiment de vulnérabilité. En contrepoint, des initiatives ouvertes comme celles défendues par Sentient plaident pour une intelligence artificielle plus transparente, collaborative et démocratisée.
L’urgence d’un débat mondial
Au-delà de la performance technique, c’est la gouvernance de l’innovation qui se trouve au centre du débat. Si Musk dit vrai, le temps laissé aux sociétés pour préparer l’arrivée de cette rupture historique pourrait être considérablement raccourci. Dès lors, la question n’est plus de savoir si l’AGI surviendra, mais comment l’humanité choisira d’en encadrer l’émergence.