Pourquoi l’Intelligence Artificielle ne fait pas les comptes-rendus en imagerie médicale ? Et pourquoi votre radiologue en est la garantie humaine ?

ia 2
La Société Française de Radiologie (SFR) et la Société Française de NeuroRadiologie (SFNR) souhaitent apporter certaines précisions suite à la récente interview du Pr Jean-François Delfraissy, président du Comité Consultatif National d'Ethique (CCNE), sur France Inter lors de laquelle il évoquait le fait que 50% des IRM cérébrales seraient interprétées par des systèmes d’Intelligence Artificielle (IA).

Sur les chiffres, la SFNR estime à moins de 1 % des cas l’usage d’IA en aide à l’interprétation des IRM cérébrales en 2023 en France et aucune IA ne fournit seule une interprétation. L’application dans nos métiers la plus fréquente est en revanche celle de l’amélioration par l’IA de la qualité des images produites, très utile et qui participe à l’amélioration de nos capacités à mieux poser un diagnostic. Mais en aucun cas, à avoir une capacité d’interprétation autonome de l’imagerie médicale.  

Sur le fond, il est important de rappeler qu’en radiologie et imagerie médicale, comme dans tous les champs de la médecine, il est faux de laisser imaginer une machine toute puissante créant puis analysant seule les données jusqu'à la production d'un compte-rendu rendu au patient. 

Dans l’inconscient collectif, la machine ne se trompe pas. Or, les systèmes d’IA sont loin de .  prendre en compte la complexité de la personne humaine, du patient, à la différence du médecin : les outils d’IA pour l’aide diagnostique sont actuellement principalement limités à UNE tâche donnée (ex : aider à dénombrer des lésions de sclérose en plaque dans le suivi). 

Le rôle humain est clair dans ce contexte, et la SFR le ré-affirme avec vigueur. Dans le domaine de la santé, les décisions sont prises par les médecins, dans le cas d’interprétation des IRM : par les Radiologues, qui ont la responsabilité de prendre en charge la santé de leurs patients. L’IA peut être un outil mis à disposition du radiologue, en aucun elle ne peut se substituer à lui. 

C’est le principe fondamental de garantie humaine dans l'IA qui consiste à veiller à ce que l'intelligence artificielle ne prenne pas des décisions qui pourraient avoir des conséquences négatives pour les êtres humains. En matière de santé, ce point est fondamental. Ce principe de garantie humaine a été d’ailleurs soutenu et mis en avant dans l’avis commun 141 du comité consultatif national d’éthique et du comité national pilote du numérique (CNPEN).

Il est impératif de prendre en compte les aspects éthiques, de transmettre des explications justes, claires, transparentes et actualisées auprès du public en matière d'IA pour limiter les croyances fausses, et promouvoir une utilisation responsable et éthique de l'IA ainsi que pour prévenir ses risques potentiels. 


Pour finir, nous citerons Garry Kasparov « Le danger qui nous attend, ce n’est pas que les machines nous remplacent, c’est que nous nous mettions à réfléchir comme elles. Mécaniquement. » — Le danger dont parle Kasparov n'est donc pas que les machines remplacent les humains, mais plutôt que les humains commencent à réfléchir et à prendre des décisions de manière mécanique, en se fiant aveuglément aux données fournies par les machines sans faire preuve de jugement critique ou de créativité. Cela souligne l'importance de l'éducation et de la formation pour aider l’homme à développer sa capacité à penser de manière critique et à prendre des décisions éclairées en utilisant à la fois les données fournies par les machines et leur propre jugement.

Nous réaffirmons donc ici l'importance de cette garantie humaine, qui place le médecin et non l’IA au centre de la prise de décision pour nos patients. Ne survendons pas ce qui est actuellement un mythe, celui d’une machine ultra compétente qui remplace l’homme. Nous n’y sommes absolument pas dans le domaine de la santé.