Une enquête révèle une forte augmentation des erreurs chirurgicales et des signalements à la FDA depuis la multiplication des dispositifs médicaux intégrant l’intelligence artificielle dans les hôpitaux américains.
Présentée comme une révolution capable d’améliorer la précision des diagnostics et des interventions, l’intelligence artificielle s’impose désormais dans les blocs opératoires. Pourtant, selon une enquête de Reuters, la généralisation des dispositifs médicaux intégrant des algorithmes d’apprentissage automatique s’accompagne d’une hausse préoccupante des erreurs médicales et des accidents chirurgicaux aux États-Unis.
Des incidents en forte hausse
La société Acclarent, spécialisée dans les logiciels d’imagerie médicale, avait annoncé en 2021 l’intégration de l’IA dans son système de navigation chirurgicale TruDi, destiné à guider les opérations du nez et de la gorge. Entre 2021 et 2025, la Food and Drug Administration (FDA) aurait reçu au moins une centaine de signalements liés à l’utilisation de ce dispositif.
Avant l’ajout de l’intelligence artificielle, le système n’avait fait l’objet que de quelques signalements isolés. Depuis son évolution technologique, au moins dix patients auraient été blessés après que le logiciel aurait fourni des indications erronées sur la position des instruments chirurgicaux.
Des conséquences graves pour certains patients
Parmi les cas recensés, deux patients auraient subi un accident vasculaire cérébral après qu’une artère majeure a été endommagée lors de l’intervention. D’autres incidents incluent la perforation de la base du crâne ou encore l’écoulement de liquide céphalo-rachidien pendant une opération.
Des plaintes ont été déposées au Texas par deux victimes d’AVC, mettant directement en cause l’intégration de l’IA dans le dispositif. Les plaignants estiment que le système était plus fiable avant la modification logicielle intégrant l’apprentissage automatique.
De son côté, l’entreprise aujourd’hui responsable du produit conteste tout lien de causalité direct entre l’IA et les complications signalées, affirmant que les rapports transmis à la FDA mentionnent seulement la présence du dispositif lors d’un événement indésirable.
Une multiplication des dispositifs médicaux à base d’IA
Le cas du système TruDi n’est pas isolé. D’autres équipements médicaux intégrant l’intelligence artificielle sont concernés par une augmentation des signalements : moniteurs cardiaques n’ayant pas détecté des anomalies de rythme, appareils à ultrasons ayant mal identifié certaines parties du corps d’un fœtus, ou encore systèmes d’assistance chirurgicale imprécis.
Si l’utilisation de l’IA dans la médecine remonte aux années 1990, l’essor récent des algorithmes d’apprentissage automatique a entraîné une explosion du nombre de dispositifs autorisés. L’an dernier, plus de 1.350 systèmes dotés d’IA disposaient d’une autorisation de mise sur le marché délivrée par la FDA, soit près du double par rapport à 2022.
Rappels de produits et régulation sous pression
Une étude menée par des chercheurs des universités Johns Hopkins University, Georgetown University et Yale University révèle que 60 dispositifs médicaux utilisant l’IA ont fait l’objet de 182 rappels. Dans 43 % des cas, les défaillances sont survenues moins d’un an après leur autorisation de commercialisation, soit un taux deux fois supérieur à la moyenne des dispositifs médicaux classiques.
Face à l’engouement commercial massif pour l’intelligence artificielle, les autorités de régulation peinent à suivre le rythme. La FDA, comme d’autres agences fédérales américaines, doit composer avec des ressources limitées et une réduction de ses effectifs, ce qui complique la surveillance d’un secteur en pleine expansion.

