Après une enquête du Guardian révélant des synthèses médicales approximatives, Google a supprimé certaines réponses générées par intelligence artificielle liées aux analyses hépatiques. Une décision ciblée qui relance le débat sur la fiabilité de l’IA en santé.
À la suite d’une enquête journalistique mettant en lumière des informations jugées trompeuses, Google a procédé, sans communication officielle, au retrait de certains résumés générés par intelligence artificielle pour des recherches liées à la santé. En cause : des synthèses automatisées proposant des valeurs de référence pour des analyses sanguines hépatiques, sans intégrer des variables pourtant déterminantes dans l’interprétation médicale.
Le quotidien britannique The Guardian a révélé que ces réponses standardisées faisaient abstraction de critères essentiels tels que l’âge, le sexe, l’origine ethnique ou encore la nationalité. Une simplification excessive susceptible d’induire en erreur des patients, certains pouvant considérer à tort leurs résultats comme normaux alors qu’un suivi médical serait nécessaire.
Des suppressions ciblées qui interrogent
Après la publication de cette investigation, The Guardian a constaté la disparition des synthèses IA pour certaines requêtes précises, notamment « quelle est la plage normale pour les tests sanguins du foie » ou « quelle est la plage normale pour les tests de fonction hépatique ». Toutefois, des formulations légèrement différentes ou l’usage d’abréviations médicales continuaient, dans un premier temps, à déclencher l’affichage de résumés automatisés tout aussi problématiques.
Un journaliste ayant répété ces recherches quelques heures après la parution de l’article a observé que les synthèses IA n’apparaissaient plus, même si Google suggérait encore l’activation de son mode IA pour obtenir une réponse. Ironie notable : le premier lien proposé renvoyait fréquemment vers l’article du Guardian dénonçant précisément ces retraits.
Une réaction officielle prudente
Sollicité par le journal britannique, un porte-parole de Google a refusé de commenter les suppressions individuelles opérées au sein du moteur de recherche. Il a préféré évoquer des « améliorations générales » en cours. Selon ce représentant, une équipe interne composée de cliniciens aurait examiné les requêtes signalées et estimé que, dans de nombreux cas, les informations fournies n’étaient pas erronées et s’appuyaient sur des sources jugées fiables.
Une position mesurée, voire défensive, qui contraste toutefois avec la désactivation effective de certaines synthèses IA. À ce stade, Google n’a pas répondu aux demandes de commentaires supplémentaires formulées par TechCrunch.
Des ambitions affichées dans la santé numérique
Cette controverse intervient alors que l’entreprise avait, l’an dernier, présenté plusieurs initiatives destinées à renforcer la pertinence de son moteur de recherche pour les usages médicaux. Parmi elles figuraient des aperçus enrichis et des modèles d’intelligence artificielle spécifiquement entraînés pour traiter des questions de santé.
Ces annonces visaient précisément à améliorer la fiabilité des réponses dans un domaine sensible. L’épisode actuel soulève donc des interrogations sur la portée réelle de ces dispositifs et sur leur capacité à prévenir la diffusion d’informations potentiellement préjudiciables.
Les inquiétudes du monde médical
Vanessa Hebditch, directrice de la communication et des affaires publiques à la British Liver Trust, salue la suppression des synthèses incriminées comme une « excellente nouvelle ». Elle exprime néanmoins une préoccupation plus large. Selon elle, le fait de se concentrer sur des requêtes isolées permet à Google de désactiver ponctuellement ses résumés IA, sans traiter le problème de fond posé par l’automatisation des réponses médicales.
Son organisation redoute qu’une approche au cas par cas laisse subsister des risques similaires pour d’autres recherches liées à la santé, qui n’auraient pas encore été identifiées comme problématiques.
Les limites éthiques de l’IA en médecine
Au-delà de cet épisode précis, l’affaire illustre les défis majeurs soulevés par l’intégration de l’intelligence artificielle dans des domaines aussi sensibles que la santé. Les algorithmes peinent encore à appréhender la complexité et la singularité des situations individuelles. Or, chaque patient présente un profil unique, dont l’interprétation requiert un contexte clinique que les systèmes automatisés ne semblent pas, à ce stade, capables de restituer pleinement.
Cet incident rappelle ainsi que, malgré des avancées technologiques rapides, l’IA médicale demeure un outil fragile, nécessitant des garde-fous stricts lorsqu’elle s’invite dans l’espace public de l’information sanitaire.
s2pmag Multimedia Lifestyle