Activité du praticien, Responsabilité

L’intelligence artificielle, quel impact sur la responsabilité des professionnels ?

Le développement de l’intelligence artificielle et de la robotisation en santé dans le champ sanitaire et médico-social est inéluctable. Ces évolutions technologiques sont majeures, à la fois en termes économiques et pour l'organisation du système de soins. Mais quid de la responsabilité des professionnels de santé ? David Gruson, membre de l'initiative académique et citoyenne Ethik-IA dont l’avis a été suivi en septembre 2018 par le Comité Consultatif National d'Ethique, y répond.

En quoi le Big Data, collecte massive de données, est-il un vecteur majeur d’avancées en santé ?

Le Big Data est essentiel pour progresser vis-à-vis de la qualité des soins, des droits des patients ainsi que de la connaissance scientifique. De nombreuses situations de non-pertinence ou de sous-efficience des soins pourraient être évitées par plus de pilotage des données de santé. L’innovation numérique doit être encouragée, et celle-ci se développe très vite dans le domaine de la reconnaissance d’images.

Quel sera l’impact de la médecine algorithmique sur la responsabilité des professionnels ?

Je n’attends pas d’impact immédiat de l’Intelligence artificielle (IA) sur ce plan. En effet, 99,9% des cas aujourd’hui peuvent être réglés par les régimes actuels de responsabilité des professionnels. En droit civil français, on reste dans le cadre du régime de « responsabilité du fait des choses ». Voici un exemple : lorsqu’un robot, un appareil ou un logiciel cause un dommage, son gardien ou son concepteur est responsable, ainsi qu’un directeur d’établissement ou le professionnel lui-même exerçant en libéral.

De plus, dans le cas d’une défectuosité, d’un dysfonctionnement du robot ou de l’algorithme d’aide à la décision, « la responsabilité du fait des produits défectueux » s’applique. Mais un cas de figure va se présenter sous la forme d’un « risque de développement ». En effet, dans le cadre de l’IA et plus spécifiquement du Machine Learning (machine ou logiciel auto-apprenants), il existe un risque qui ne pouvait pas être connu lors de la commercialisation du produit. Prenons un cas concret : une IA d’aide au diagnostic en imagerie afin de détecter une tumeur. Avec le temps, l’IA va se transformer (« auto-apprendre »), à tel point qu’elle sera, à terme, très différente de sa forme d’origine, notamment parce qu’elle aura écarté les hypothèses diagnostiques aberrantes. Aller rechercher la responsabilité du concepteur en cas de dommage sera alors impossible. Ce type de sinistralité n’existe pas encore, mais ne saurait tarder car le Machine Learning est en plein essor.

Il ne faut pas pour autant modifier en urgence le régime de responsabilité actuel, pour que la France ne devienne pas un repoussoir à l’innovation.

En faisant confiance à l’IA, est-on vraiment maître de notre décision ?

La puissance des capacités du service de pilotage algorithmique de l’IA peut éroder notre propre capacité à prendre du recul. Cela concerne le citoyen, le médecin, le patient. On parle du « risque de délégation » de la décision médicale avec l’IA. Voici un exemple pour mieux comprendre : l’algorithme signale une tumeur avec 99,9% de certitude. Le risque est que le médecin ne prenne aucun recul par rapport à l’avis de la machine. Ce risque s’applique aussi au patient qui reçoit une proposition thérapeutique.

Il existe aussi avec l’IA le fameux dilemme entre le choix individuel et collectif. Quelle est réellement la possibilité de dommages individuels ?

L’aide à la décision est obtenue à partir du traitement de Big Datas. L’IA écarte donc les hypothèses individuelles, en réalité des situations humaines. D’où en effet, la possibilité de dommages individuels. Cela se posera par exemple dans la proposition ou non d’une thérapeutique pour un individu, où l’IA agira dans l’intérêt du plus grand nombre, pour favoriser la qualité et l’efficience du système de santé. L’IA tirera les conséquences de sa programmation et pourra être confrontée à des arbitrages entre la valeur de la vie individuelle et la préservation d’impératifs collectifs de santé publique. Un risque théorique à ce jour et qui ne doit pas remettre en cause les innovations en santé obtenues au moyen de l’IA et du numérique. Ce serait même non-éthique.

 

Hélène Joubert, avec David Gruson, à l’occasion des JPRS (Journées Pneumologie respiration Sommeil, 4-6 octobre 2018).

David Gruson, membre du comité de direction de la Chaire santé de Sciences Po Paris, vient de publier le premier polar bioéthique* « S.A.R.R.A. : Une intelligence artificielle ». Éditions Beta Publisher, 318 pages, 12,99 €

Send this to a friend