
Est-ce que l’IA n’est qu’une nouvelle étape dans l’histoire de l’outillage technique de la médecine ? Certainement pas ! Car en prétendant diagnostiquer, décider, raisonner, l'IA marque une rupture majeure dans la pratique du soin.
Elle interroge non pas ce que l’on peut faire, mais ce que l’on doit faire. Car les risques sont bien réels : biais algorithmiques, dilution des responsabilités, perte de sens, standardisation des soins…
C’est pourquoi, la cellule éthique du numérique en santé publie un guide d’implémentation de l’éthique dans les systèmes d’IA en santé.
Le guide :
-
propose une démarche structurée, de la conception à l'utilisation des systèmes IA ;
-
s’appuie sur 5 principes clés : responsabilité, transparence, explicabilité, équité, proportionnalité ;
-
et vise à accompagner les acteurs du secteur dans la construction d’une IA soutenable, humaine et alignée avec les valeurs du soin.
Le guide s’inscrit dans une dynamique plus large, en cohérence avec la Stratégie nationale pour la recherche et l’innovation en santé et les exigences du nouvel AI Act européen.