Un règlement européen, baptisé IA Act est attendu d’ici à la fin du premier semestre 2023 pour encadrer l’usage de l’IA dans tous les secteurs d’activité dont la santé. Dans sa proposition de règlement présentée en avril 2021, la Commission européenne affiche l’objectif de « promouvoir l’adoption de l’IA en mettant en place un écosystème de confiance ». Les règles vont donc être harmonisées pour veiller à ce que les systèmes d’IA mis sur le marché et utilisés en Europe soient sûrs et respectent les droits fondamentaux et les valeurs de l’Union. Le règlement suit une approche fondée sur les risques et distingue les IA qui créent un risque inacceptable (en raison de violations des droits fondamentaux ou du risque de manipulation de personnes), élevé, faible ou minimal.
« L’IA Act est un règlement européen, cela signifie qu’il entrera en vigueur en principe en l’état, dans les droits des États membres, contrairement à une directive qui doit être transposée, explique Me Cécile Théard Jallu, avocate associée au sein du cabinet De Gaulle Fleurance et co-présidente du comité de droit de la santé et des sciences de la vie à l'International Bar Association. Ce texte prévoit des sanctions très lourdes à l’encontre de quiconque y contreviendrait, plus élevées encore que celles applicables dans le cadre du RGPD [Règlement général sur la protection des données, NDLR]. » L’amende peut en effet atteindre 30 millions d’euros ou, si le contrevenant est une entreprise, jusqu’à 6 % de son chiffre d’affaires annuel total.
Label et garde-fous
Tout l’enjeu va donc consister à s’assurer que les IA à hauts risques (dont font partie celles en santé) restent dans les clous. En France, à l’heure où des applications mobiles utilisant l’IA naissent tous les jours et alors que certaines, embarquées dans des dispositifs médicaux font l'objet d'une demande de remboursement par l’Assurance maladie, une labellisation s’impose. Le nouvel Institut du numérique en santé (INeS), fondé en mai 2022 par le Pr Fabrice Denis, y travaille pour structurer le marché et le qualifier. « Parmi les garde-fous possibles figure aussi la garantie humaine en santé, exigence qui permet d’assurer que le processus de développement et de déploiement des algorithmes est contrôlé par des humains », analyse Me Cécile Théard Jallu. Cette garantie humaine impose une information du patient lors d'un recours à l'IA pendant sa prise en charge.
La notion de garantie humaine est défendue par Ethik-IA « initiative citoyenne et académique française » fondée par David Gruson. « Le principe de la primauté de l’humain est central, il s’agit d’un vrai sujet civilisationnel si l’on veut se prémunir des dérives », confie David Gruson. Ethik-IA et le Digital Medical Hub de l’AP-HP ont annoncé en février la création de la « première labellisation en garantie humaine de l’IA », saluée par François Braun. « Nous avons un devoir de régulation pour que les avancées technologiques soient toujours au service des patients, affirme le ministre de la Santé. Le principe de la garantie humaine renvoie à la nécessité de ne pas abandonner toute autonomie d’action ou de décision humaine, dans ce contexte de diffusion grandissante de l’IA en santé. »
Le principe de garantie humaine fait l’unanimité mais une question se pose, celle de la gouvernance. « Qui va contrôler que la garantie humaine est bien appliquée ? Va-t-on créer une nouvelle autorité indépendante ? Des solutions pilotes sont aujourd’hui en discussion », observe Me Théard Jallu.
Article précédent
Peu de DM embarquant de l’IA pris en charge
« Une IA pourrait recevoir un prix Nobel »
Peu de DM embarquant de l’IA pris en charge
Bientôt un « IA act » et une garantie humaine en santé
54 % des médecins femmes ont été victimes de violences sexistes et sexuelles, selon une enquête de l’Ordre
Installation : quand un cabinet éphémère séduit les jeunes praticiens
À l’AP-HM, dans l’attente du procès d’un psychiatre accusé de viols
Le texte sur la fin de vie examiné à l'Assemblée à partir de fin janvier