Bioéthique, l’affaire de tous

Médecin et robot : amis, pour le meilleur et pour le pire ? (1)

L’avis n° 129 du Comité consultatif national d’éthique, qui va servir de base à la prochaine loi de bioéthique, se penche sur l’évolution des pratiques médicales et conclut à une réduction de la place de l’humain. Cette évolution est due à l’utilisation croissante des nouvelles technologies telles que les robots médicaux. De plus en plus de chirurgies se font avec des robots. Cela permet d’être plus précis lors de l’opération. Néanmoins, les robots n’opèrent pas encore tous seuls les patients. Le médecin est derrière, c’est un médecin augmenté. Or, si l’opération se passe mal, qui sera responsable ? Le robot ? Le médecin ? Le créateur du robot ? On a essayé de comprendre en interrogeant Luc-Marie Augagneur, avocat spécialisé en droit des nouvelles technologies.

Nord Êka ! : Le Comité a estimé qu’il n’y avait pas encore besoin de s’interroger sur l’indemnisation d’un patient qui aurait subi des blessures suite à une opération menée par un médecin aidé d’un robot. Qu’en pensez-vous ? 

Luc-Marie Augagneur : Les robots chirurgicaux concernant un domaine très particulier de la robotique. Il faut déjà se demander pourquoi on se pose des questions sur la responsabilité du fait de l’utilisation des robots. L’un des facteurs est l’autonomie que peut avoir un robot qui va l’amener à avoir des actions autonomes, indépendantes de l’humain. Cependant, les robots chirurgicaux ne sont pas autonomes. Ils sont toujours sous la main du médecin. Il est donc logique que le Comité consultatif national d’éthique (CCNE) n’envisage pas vraiment la question de l’indemnisation d’une personne qui aurait été blessée par un robot durant, par exemple, une opération chirurgicale. C’est plutôt la question du médecin augmenté. Ces robots sont dotés d’une précision supérieure à celle des êtres humains. Et cette question est déjà réglée par les lois françaises.

Nord Êka ! : Mais alors, comment envisager la responsabilité d’un « médecin augmenté » ?

Luc-Marie Augagneur : Bien évidemment, cette problématique du médecin augmenté pose des questions en termes de compétence et de sécurité. C’est une responsabilité du médecin et des personnes qui participent à la maintenance du robot c’est-à-dire une chaîne de responsabilité. À titre principal, c’est la responsabilité du médecin. Aujourd’hui, la question de la responsabilité du fait du robot ne se pose pas en matière médicale, car les robots ne sont pas autonomes. Le robot est toujours sous la supervision et le contrôle constant du médecin et des équipes médicales.

Bien sûr, le médecin est confronté à une nouvelle machine. Peut-être, cela lui donne-t-il un sentiment de toute-puissance…

Nord Êka ! : Aujourd’hui, il existe quand même dans le domaine médical des robots qui aident les médecins à faire des diagnostics, comme le robot Watson créé par International Business Machines Corporation (IBM). Ces robots sont considérés comme semi-autonomes. Ils prennent des décisions sans l’aide des humains. Que se passerait-il s’il se trompait ? 

Luc-Marie Augagneur : Le robot Watson qui est une intelligence artificielle, c’est-à-dire qu’il est autonome en apprenant avec les données que les humains lui transmettent. Il est capable d’établir des corrélations entre un tas de choses. Plus on va lui le nourrir de données, plus il connaitrait de choses dans le domaine médical. Pour établir sa responsabilité, il est nécessaire de répondre à deux questions. La première est : « À partir de quand considère-t-on que le robot a appris suffisamment pour que les données soient fiables ? ». Le travail d’apprentissage du robot est quand lui faisant ingurgiter des données et en voyant ce qui dit, on vérifie que ce qu’il dit est conforme à un diagnostic humain. Une fois que le robot a un taux de réponse suffisamment juste. Un médecin qui prendrait une décision uniquement sur la base de données informatiques sans établir une causalité, c’est là qu’est tout le problème. Un robot ne détecte une maladie qu’avec la loi des grands nombres, il n’a pas appris la médecine, comme un humain pourrait le faire. Il peut y avoir des biais dans les données. On déplace le niveau de l’erreur : de l’erreur humaine (fatigue, mauvaise vue…), on le déplace sur le champ des biais qui peuvent affecter l’apprentissage du robot. On a donc un nouveau domaine de responsabilité. La deuxième question est : « Est-ce que la décision médicale a été prise sur la seule base de l’information du robot ou il y a eu une intervention humaine ». C’est tout ça le fond de la problématique de la responsabilité et de l’éthique.

Marie Terol et Alice Vitard (@vitardalice)

S’abonner

Retrouvez toute l’actualité de la science en Hauts-de-France directement dans votre boite mail

Je m’abonne

Commenter l’article

Je m’abonne à Nord Êka !

Restez au courant de l’actu scientifique en Hauts de France

L’adresse de la page a été copiée dans le presse-papier.