LE QUOTIDIEN : Quelle est la genèse du think tank sur l'IA en santé, lancé par l’Ordre national des médecins. Y avait-il urgence ?
Pr STÉPHANE OUSTRIC : L’Ordre réfléchit depuis longtemps au numérique en général et à l’IA en particulier, en examinant l’impact sur l’exercice médical. En arrivant en 2019, je me devais d’adopter une approche institutionnelle qui puisse embarquer tout le monde. Convaincre les pionniers de s’approprier l’IA est facile, mais il faut que cela profite à tous les médecins, car in fine, c’est un service rendu aux patients !
Le changement est toujours complexe, comme lors du passage du vinyle au numérique. Certains l’adoptent vite, d’autres résistent. L’important est que les médecins eux-mêmes en perçoivent l’intérêt. Et lorsqu’un outil s’impose, notamment en imagerie, ils ne doivent pas se sentir largués mais en phase avec ces évolutions. L’enjeu est aussi d’expliquer ces changements aux patients, qui doivent donner leur consentement. L’IA doit rester un outil au service du médecin, géré et réglé par lui, ce qui impose aussi de revenir aux fondamentaux des sciences médicales.
Y a-t-il des spécialités plus enclines à intégrer immédiatement l’IA dans leur pratique ?
Oui. D’abord pour une raison simple : comme l’IA est perçue souvent comme une simple “avancée technologique”, les spécialistes qui exercent au plus près de la technique et de l’innovation sont plus enclins à l’adopter. Je pense à la biologie, à la radiologie, à la radiothérapie, à l’anatomopathologie, la lecture automatisée des lames histologiques… Bref, tout ce qui repose déjà sur une forte dimension technique ou technologique et qui peut être utilisé en série. De fait, certains modes d’IA nécessitent de très grandes bases de données standardisées pour fonctionner et s’améliorer. Il est donc assez logique que ces disciplines l’intègrent plus facilement.
Que fait le médecin si la machine plante ? L’IA ne doit pas inhiber ou stériliser les avancées médicales
En revanche, pour les domaines plus cliniques, où la relation humaine et le contact avec le patient sont centraux, il peut y avoir davantage de réticence. Mais c’est une fausse opposition en réalité. L’important, c’est que l’IA vienne renforcer la relation médecin-patient et redonner du sens au colloque singulier, plutôt que de détourner le regard du soignant vers l’écran.
N’y a-t-il pas un risque de perte de compétences pour certaines spécialités ?
C’est une question clé abordée au sein du think tank. L’IA apporte un gain de temps considérable, mais il est essentiel de garder un regard critique et surtout de savoir réagir en cas de défaillance. Que fait le médecin si la machine plante ? L’IA ne doit pas inhiber ou stériliser les avancées médicales. Un professionnel doit comprendre comment ces outils fonctionnent, comment ils interagissent avec sa pratique et surtout, comment se comporter en cas de défaillance.vin
Le Pr Jean-Emmanuel Bilbault, spécialiste en radiothérapie [expert et chercheur dans le domaine de l’IA], le souligne très bien : l’IA peut tracer les contours tumoraux dix à cent fois plus vite, mais si l’outil tombe en panne, le praticien doit être capable de le refaire manuellement. Si on ne transmet pas ces compétences aux jeunes générations, on risque de créer une dépendance à la technologie, avec en prime une perte de chance pour les patients. La formation initiale et continue reste indispensable. L’IA doit être un levier pour renforcer l’expertise du médecin sans la remplacer.
Les étudiants en santé seront formés à l’IA au cours du premier cycle dès la rentrée universitaire 2025. N’y a-t-il pas un enjeu à former aussi les praticiens en exercice ?
La formation initiale doit évidemment s’emparer de cette question du numérique et de l’IA et le président de l’Ordre des médecins échange régulièrement avec la conférence des doyens à cet effet. Malheureusement, nous n’avons pas été conviés aux premières discussions gouvernementales.
Quant à la formation des professionnels en exercice, elle ne pourra se déployer sans l’Ordre et les autres parties prenantes. Dans une logique de certification, il faudra démontrer, avec les collèges de spécialités, que certains usages de l’IA apportent une réelle plus-value aux patients, avec des preuves scientifiques à l’appui. Ensuite, si une spécialité valide des outils d’IA pertinents, il est naturel que les professionnels s’en saisissent. Il faudra aussi veiller à une formation équitable pour garantir le même niveau de service et éviter toute perte de chance. Je le redis : l’IA reste un outil puissant au service de l’apprentissage et de la pratique médicale, à condition d’être utilisée dans un cadre éthique et déontologique.
Comment l’Ordre envisage-t-il la question de la responsabilité en cas d’erreur liée à l’utilisation de l’IA ?
C’est une question complexe qui n’est pas encore tranchée. C’est pourquoi nous souhaitons voir apparaître un article spécifique dans le code de déontologie. Il a été voté à deux reprises et reste en attente de validation par le ministère et le Conseil d’État, afin d’être intégré dans le code de la santé publique.
Aujourd’hui, avec l’IA Act, il semble que la responsabilité du concepteur soit engagée en cas de défaillance de la machine. De son côté, le médecin reste responsable de la gestion des données. Mais il ne faut pas inquiéter inutilement la profession. Ce qui est clair, c’est que le médecin est et restera responsable des actes qu’il réalise et des outils qu’il utilise, à condition qu’il y soit formé. On ne met pas quelqu’un aux commandes d’un avion sans licence, c’est la même chose en médecine. Dans ce cadre, la simulation sera un préalable.
Transition de genre : la Cpam du Bas-Rhin devant la justice
Plus de 3 700 décès en France liés à la chaleur en 2024, un bilan moins lourd que les deux étés précédents
Affaire Le Scouarnec : l'Ordre des médecins accusé une fois de plus de corporatisme
Procès Le Scouarnec : la Ciivise appelle à mettre fin aux « silences » qui permettent les crimes