Utiliser « l’intelligence artificielle en santé : oui, mais de manière responsable ». C’est ce que suggère la Haute Autorité de santé (HAS) dans ses recommandations sur l’IA générative en santé, mises en ligne sur son site le 30 octobre, et accessible à travers un guide pratique d’une quinzaine de pages.
La HAS reconnaît que les IA génératives peuvent être un formidable levier d’amélioration du quotidien : libérer du temps aux soignants, diminuer leur charge administrative, améliorer leurs pratiques ou encore la qualité de vie au travail. Concrètement, ces outils peuvent s’avérer utiles dans de nombreux cas de figure : retranscrire des conversations lors de consultations, élaborer des synthèses de littérature scientifique ou encore préremplir des formulaires, est-il listé.
Mais face à la multiplication des outils d’IA – pas toujours spécifiques à la santé – « les professionnels ne sont pas toujours pleinement éclairés sur les performances et les limites des outils qu’ils utilisent », analyse l’autorité scientifique. Or, rappelle la HAS, un usage non encadré peut comporter des risques : erreurs de contenu, données non vérifiées, atteintes à la confidentialité, voire « hallucinations » — ces affirmations fausses générées par certains systèmes, en se fondant sur des « liens probables sans assurance de leur réalité factuelle ».
Proscrire et prescrire, attention aux erreurs
Pour structurer sa démarche et répondre au manque de formation des soignants sur le sujet, la HAS propose quatre lignes directrices, résumées par l’acronyme A.V.E.C (apprendre à utiliser l’outil, vérifier les informations, estimer la pertinence de l’outil dans sa pratique et communiquer avec ses pairs). Un moyen mnémotechnique simple pour rappeler que l’IA générative doit toujours se faire avec le professionnel.
Le guide présente plusieurs exemples d’utilisation de l’IA, en insistant sur la nécessité de ne jamais partager de données personnelles ou médicales sans garantie de confidentialité. Ainsi, « sans assurance du respect de la confidentialité des données, il convient de supprimer de la requête toute information relative aux noms, prénoms, initiales, dates, adresses postales, adresses électroniques, numéros de téléphone ou de sécurité sociale », précise le document.
La HAS souligne l’importance de contrôler systématiquement les textes générés. « Dans chaque contenu textuel généré, vérifier les valeurs et unités des quantités chiffrées (« mg/dose » versus « µg/dose »), les noms des médicaments et des substances actives (« céfuroxime » versus « ceftriaxone »), la gestion des accents et des prononciations (« proscrire » versus « prescrire ») », insiste-t-elle, appelant les professionnels de santé à la plus grande prudence.
Conserver son indépendance face à la machine
Autre point d’attention à ne pas négliger : le fait de privilégier des systèmes d’IA générative capables d’indiquer les sources utilisées afin de vérifier que le contenu repose sur des éléments scientifiquement valides. Le soignant doit s’assurer que les documents cités existent réellement et qu’ils sont actualisés et pertinents par rapport à la demande.
« Par exemple, pour la génération d’une analyse de la littérature sur les traitements recommandés pour la maladie d’Alzheimer, un système d’IA générative ne se fondant pas sur la littérature actuelle pourrait générer un contenu mentionnant comme traitement, à tort, les inhibiteurs de l'acétylcholinestérase. Au contraire, un système d’IA générative limitant les informations sélectionnées à celles issues de sources scientifiques récentes pourrait générer un contenu rappelant qu’il a été évalué en 2017 que ces inhibiteurs n’ont plus de place dans le traitement de la maladie d’Alzheimer du fait de leur intérêt clinique insuffisant », met en garde la HAS. Dans ce cas de figure, l’autorité préconise de se renseigner, avant tout usage de l’IA, sur des sources institutionnelles fiables comme la HAS, le ministère de la Santé ou les Ordres professionnels.
Le guide insiste également sur l’importance de préserver les compétences humaines : l’IA doit être un soutien, pas un substitut. Les professionnels doivent conserver leur « indépendance » et leur capacité à travailler, en cas de panne ou de dysfonctionnement, sans l’outil. « Ainsi, une infirmière d’accueil d’un service des urgences utilisant un système d’IA générative pour l’assister au triage des patients tout en conservant une part de triage sans cette aide pourra effectuer ce tri même si le système dysfonctionne », souligne la HAS.
Enfin, la HAS encourage une culture d’échange et de transparence sur l’usage de l’IA, en favorisant les partages d’expériences entre pairs, le dialogue avec les patients ainsi que les expérimentations collectives ou la participation à des réunions sur le sujet.
Dans le cadre de ces travaux, la HAS devrait bientôt sortir un document dédié à l’usage de l’IA générative par les patients afin de renforcer leur compréhension et leur confiance dans ces outils.
Botox : nouveaux cas graves de botulisme en France après des injections illégales
Masques et gestion du Covid : pas de faute de l'État, dit le Conseil d'État, qui rejette des demandes d'indemnisation
Nicolas Palierne (sociologue) : « Le généraliste est une clé pour repérer le mésusage de l’alcool au féminin »
Dr Hélène Rossinot : « Il faut absolument libérer la parole autour de la douleur »