Google retire discrètement des résumés IA jugés trompeurs sur la santé

Après une enquête du Guardian révélant des synthèses médicales approximatives, Google a supprimé certaines réponses générées par intelligence artificielle liées aux analyses hépatiques. Une décision ciblée qui relance le débat sur la fiabilité de l’IA en santé.

À la suite d’une enquête journalistique mettant en lumière des informations jugées trompeuses, Google a procédé, sans communication officielle, au retrait de certains résumés générés par intelligence artificielle pour des recherches liées à la santé. En cause : des synthèses automatisées proposant des valeurs de référence pour des analyses sanguines hépatiques, sans intégrer des variables pourtant déterminantes dans l’interprétation médicale.

Le quotidien britannique The Guardian a révélé que ces réponses standardisées faisaient abstraction de critères essentiels tels que l’âge, le sexe, l’origine ethnique ou encore la nationalité. Une simplification excessive susceptible d’induire en erreur des patients, certains pouvant considérer à tort leurs résultats comme normaux alors qu’un suivi médical serait nécessaire.

Des suppressions ciblées qui interrogent

Après la publication de cette investigation, The Guardian a constaté la disparition des synthèses IA pour certaines requêtes précises, notamment « quelle est la plage normale pour les tests sanguins du foie » ou « quelle est la plage normale pour les tests de fonction hépatique ». Toutefois, des formulations légèrement différentes ou l’usage d’abréviations médicales continuaient, dans un premier temps, à déclencher l’affichage de résumés automatisés tout aussi problématiques.

Un journaliste ayant répété ces recherches quelques heures après la parution de l’article a observé que les synthèses IA n’apparaissaient plus, même si Google suggérait encore l’activation de son mode IA pour obtenir une réponse. Ironie notable : le premier lien proposé renvoyait fréquemment vers l’article du Guardian dénonçant précisément ces retraits.

Une réaction officielle prudente

Sollicité par le journal britannique, un porte-parole de Google a refusé de commenter les suppressions individuelles opérées au sein du moteur de recherche. Il a préféré évoquer des « améliorations générales » en cours. Selon ce représentant, une équipe interne composée de cliniciens aurait examiné les requêtes signalées et estimé que, dans de nombreux cas, les informations fournies n’étaient pas erronées et s’appuyaient sur des sources jugées fiables.

Une position mesurée, voire défensive, qui contraste toutefois avec la désactivation effective de certaines synthèses IA. À ce stade, Google n’a pas répondu aux demandes de commentaires supplémentaires formulées par TechCrunch.

Des ambitions affichées dans la santé numérique

Cette controverse intervient alors que l’entreprise avait, l’an dernier, présenté plusieurs initiatives destinées à renforcer la pertinence de son moteur de recherche pour les usages médicaux. Parmi elles figuraient des aperçus enrichis et des modèles d’intelligence artificielle spécifiquement entraînés pour traiter des questions de santé.

Ces annonces visaient précisément à améliorer la fiabilité des réponses dans un domaine sensible. L’épisode actuel soulève donc des interrogations sur la portée réelle de ces dispositifs et sur leur capacité à prévenir la diffusion d’informations potentiellement préjudiciables.

Les inquiétudes du monde médical

Vanessa Hebditch, directrice de la communication et des affaires publiques à la British Liver Trust, salue la suppression des synthèses incriminées comme une « excellente nouvelle ». Elle exprime néanmoins une préoccupation plus large. Selon elle, le fait de se concentrer sur des requêtes isolées permet à Google de désactiver ponctuellement ses résumés IA, sans traiter le problème de fond posé par l’automatisation des réponses médicales.

Son organisation redoute qu’une approche au cas par cas laisse subsister des risques similaires pour d’autres recherches liées à la santé, qui n’auraient pas encore été identifiées comme problématiques.

Les limites éthiques de l’IA en médecine

Au-delà de cet épisode précis, l’affaire illustre les défis majeurs soulevés par l’intégration de l’intelligence artificielle dans des domaines aussi sensibles que la santé. Les algorithmes peinent encore à appréhender la complexité et la singularité des situations individuelles. Or, chaque patient présente un profil unique, dont l’interprétation requiert un contexte clinique que les systèmes automatisés ne semblent pas, à ce stade, capables de restituer pleinement.

Cet incident rappelle ainsi que, malgré des avancées technologiques rapides, l’IA médicale demeure un outil fragile, nécessitant des garde-fous stricts lorsqu’elle s’invite dans l’espace public de l’information sanitaire.

A propos rivera

Rédacteur en chef et journaliste RP, ma passion pour les jeux vidéo et la technologie ne faiblit pas depuis mon adolescence, qui me semble pourtant bien lointaine. Un recul cependant intéressant, puisqu'il me permet de jauger les nouveautés avec un regard plein d'expérience, couplé à une envie d'écrire de tous les jours.

Voir aussi...

Apple s’allie à Google pour relancer Siri et accélérer dans l’IA

Après des retards dans le développement de son assistant vocal, Apple officialise un partenariat avec …

CES 2026 : le marché du PC rattrapé par la crise des composants

La pénurie de mémoire vive, exacerbée par les besoins colossaux de l’IA, tire les prix …

Avis – R40 : le rétrogaming en version dépouillée

Plastique brut, interface minimaliste et performances sans esbroufe : la R40 ne cherche pas à …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *