Intelligence artificielle et santé • 10 propositions anti-brouillard pour régulation éclairée

Cyrille Dalmont, chercheur associé à l’Institut Thomas More

              

Novembre 2018 • Note 29 •


Les développements de l’Intelligence artificielle dans le domaine de la santé sont immenses. Les répercussions pour les patients comme pour les soignants vont être considérables. Loin des fantasmes de certains, les appels à la prudence et à l’intervention de la puissance publique pour établir un cadre réglementaire se multiplient, en particulier dans le monde des chercheurs et des professionnels du numérique et de l’Intelligence artificielle. Alors que le Parlement révisera la loi relative à la bioéthique en 2019, l’Institut Thomas More fait 10 propositions opérationnelles qui dessinent un cadre juridique clair, des règles de pratique prudentes et des limites aux risques de dérives.

Pour la troisième fois depuis l’adoption des lois de 1994, la France s’apprête à réviser son dispositif législatif relatif à la bioéthique. Après la tenue des États généraux de la bioéthique au premier semestre 2018 et les travaux de la Mission d’information de l’Assemblée nationale, le Parlement devrait se prononcer sur un nouveau texte de loi courant 2019. La question – multiforme et aux contours parfois flous – des implications de l’Intelligence artificielle et de son développement fulgurant dans les champs couverts par la loi nécessite toute notre attention.

L’Intelligence artificielle, la robotique et la domotique envahissent notre quotidien à une vitesse inimaginable      Le monde de la santé, de la recherche, de la médecine du quotidien (notamment la télémédecine) ou de la médecine prédictive va être totalement transformé et impacté par des technologies qui n’existaient pas quand les soignants d’aujourd’hui ont commencé leurs études.

La vitesse de propagation des objets connectés et des logiciels experts est en effet exponentielle. Il y a dix ans lorsque l’on parlait de domotique, il s’agissait de portes de garages électriques. Il y a cinq ans, il s’agissait d’interphones vidéo. Aujourd’hui nous parlons de montres qui calculent en temps réel le rythme cardiaque, la pression artérielle, le taux d’oxygène dans le sang d’une personne, tout en stockant ces informations sur un cloud qu’une Intelligence artificielle à l’autre bout du monde peut analyser en une fraction de seconde afin d’en déduire son état de stress, de fatigue, de capacité au travail, etc.

Pour une approche prudente face à un « fait majeur irréversible »    Le Comité consultatif national d’éthique (CCNE) qualifie ce rythme de diffusion du numérique au sein de notre système de santé de « fait majeur irréversible » (1). Le monde de la santé comme le reste de notre environnement va donc changer. Les répercussions pour les patients et les soignants vont être majeures. Le législateur va pourtant devoir décider dans un véritable brouillard d’incertitudes scientifiques et techniques. L’approche prudente que nous proposons ici, plus éthique et juridique que technique, permet d’appréhender ces transformations à leur juste mesure et de formuler des propositions opérationnelles qui donneraient corps à une régulation véritablement éclairée.

Formation et information • Décider dans l’incertitude

La révision de la loi relative à la bioéthique va devoir se faire sur la base de connaissances existantes mais également dans une logique d’anticipation bien délicate de ce que sera l’état de la science et de la technique dans les prochaines années.

Une approche prospective    Le législateur va en effet devoir anticiper des évolutions tech-niques qui ne sont parfois même pas à l’état d’idées ou d’intuitions dans la tête des chercheurs et qui, sous cinq à dix ans, seront présents dans notre quotidien. Les juristes redoutent toujours cette approche prospective, tant ils sont habitués à étayer leurs raisonnements sur des normes et des outils déjà existants (responsabilité du fait d’autrui, responsabilité du fait des animaux, responsabilité du fait des produits défectueux, responsabilité du fait des choses, etc.) : réflexe naturel mais raisonnement partiel car aucun de ces régimes juridiques ne résiste à une analyse poussée de la situation qui se profile devant nous en matière d’Intelligence artificielle (2).

Cette incertitude dans laquelle va devoir réfléchir le législateur se devinent au travers de deux indices récents    Tout d’abord, le rapport de synthèse du CCNE relatif aux États généraux de la bioéthique (EGB) nous apprend que la participation citoyenne sur le site des EGB a été particulièrement faible sur les questions relatives aux données de santé (avec 2 730 participants et 1 188 contributions), celles relatives aux neurosciences (avec 2 877 participants et 1 458 contributions) et celles relatives à l’Intelligence artificielle (avec 4 512 participants et 1 853 contributions). A titre de comparaison, la thématique « Procréation et société » a mobilisé 17 559 participants et 29 106 contributions) (3).

Deuxième élément, il nous paraît révélateur que la Contribution à la révision de la loi de bioéthique du CCNE (avis 129) s’appuie si peu – trois fois seulement – sur le rapport du mathématicien et député Cédric Villiani, paru en mars 2018 et présenté comme un temps fort de la réflexion sur l’Intelligence artificielle en France (4). Cela s’explique sans doute par le fait que ce rapport se présente comme une sorte de Summa technologiae, compilation d’avis d’experts et de techniciens sur l’état d’avancement de l’intelligence artificielle, de la robotique, de la domotique et de l’humain augmenté, qui laissent la portion congrue aux enjeux éthiques et à leur prolongements politiques, les questions de régulation.

Le fait que ces aspects soient encore si peu traités et constituent une sorte d’angle mort du débat public, n’est pas tant dû à un désintérêt pour ces sujets qu’à un déficit d’informations, à un retard dans la prise en compte des problématiques de l’Intelligence artificielle par les pouvoirs publics et, par voie de conséquence, à la faiblesse du niveau de formation des Français sur le sujet.

Pourtant, en matière de santé et de biomédecine, les questions ne sont pas pour demain : elles sont déjà posées    C’est par exemple Antoine Geissbuhler, médecin-chef du service de cybersanté et télémédecine et responsable du Centre de l’innovation des Hôpitaux universitaires de Genève, qui explique que « les géants du numérique auront le monopole de la santé du futur puisque leurs investissements dépassent les capacités des États. L’enjeu n’est pas de lutter contre l’avancée de ces géants – ils ont déjà gagné – mais de se battre pour conserver le choix de dire non et garder un contrôle sur ses données » (5). Ou c’est la récente étude de la MACSF qui nous informe que 73% des médecins estiment que la télémédecine fera partie de leur quotidien professionnel en 2030 (6).

Entre un trop faible niveau d’informations et une accélération des transformations, force est donc de constater que les enjeux liés au développement de l’Intelligence artificielle sur le monde de la santé, nous plongent dans un brouillard d’incertitudes. Cette réalité, qui ne constitue pas un jugement de valeur, devrait inviter le législateur à la retenue et à la prudence au moment des débats parlementaires.

Un besoin de régulation • Entendre la demande des professionnels du numérique et de l’IA

Une prudence que d’ailleurs nombre d’acteurs du secteur réclament avec insistance, ainsi que l’adoption d’un cadre législatif et réglementaire clair. Il convient en effet de ne pas se laisser noyer par des considérations techniques – comme l’a fait, selon nous, le rapport Villani. Car, réelles ou fantasmées, elles ne laissent plus assez de place à l’analyse éthique et à la réflexion sur la régulation dans le débat public.

Nombres d’instances reconnues ont appelé de leurs vœux une régulation politique ces dernières années    Nous n’en citons que quelques-unes :

Avril 2018  Demande, par la Chambre des Lords du Royaume-Uni, de la création d’un Conseil pour l’intelligence artificielle afin d’informer les gens dès lors qu’une décision cruciale qui les touche ne sera pas prise par des humains.

Avril 2018  Deux cents experts publient l’Open Letter to the European Commission : Artificial Intelligence and Robotics, pour tenter de dissuader la Commission européenne d’attribuer une personnalité juridique aux robots.

Novembre 2017  Signature de la Déclaration de Montréal pour une IA responsable, initiative de l’Université de Montréal, vise « l’amélioration du bien-être collectif dans le respect et l’intérêt de tous ».

Septembre 2017  Rapport du Comité international d’éthique (CIB) concernant les mégas-données et la santé.

Septembre 2017  Rapport de la Commission Mondiale d’Ethique des connaissances scientifiques et des technologies (COMEST) sur l’éthique de la robotique.

Février 2017  Résolution du Parlement européen contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique.

Janvier 2017  Recommandations de l’OCDE sur la gouvernance des données de santé.

Octobre 2016  Déclaration de l’Autorité mondiale du médicament (AMM) sur les considérations éthiques concernant les bases de données de santé et les bio-banques.

A cela s’ajoute des déclarations et des pétitions régulières de scientifiques, de chercheurs et d’industriels    Ils appellent à la retenue et à la prise en main de la question par la puissance publique par la voie de la régulation. Aussi paradoxal que cela paraisse, le monde de l’Intelligence artificielle est en effet de plus en plus demande de l’intervention de la puissance publique. Qu’on en juge :

25 octobre 2018  Pionnier du deep learning, le chercheur canadien Yoshua Bengio déclare lors du forum « Éthique et IA, quels enjeux ? » de Montréal que « personne ne peut décider seul de ce qui est bon ou pas. Il est urgent de débattre le plus largement possible des orientations que nous voulons prendre. Il y a un danger à débattre de l’IA au sein d’une élite et que les gens ordinaires se sentent laissés pour compte, ou pensent que l’on décide pour eux des choses qui ne sont pas bonnes ».

24 octobre 2018  A l’occasion de la Privacy Conference organisée à Bruxelles, le PDG d’Apple Tim Cook lance une attaque contre le « complexe industriel des données personnelles », en déclarant que nos données personnelles – de notre vie quotidienne jusqu’à notre plus grande intimité – sont aujourd’hui utilisées contre nous avec « une efficacité toute militaire ». Toutes ces informations, inoffensives en elles-mêmes, sont minutieusement assemblées, synthétisées, échangées et vendues.

Avril 2018  Les salariés de Google protestent pour demander le retrait du projet Maven, en collaboration avec le Pentagone (programme de recherche basé sur l’Intelligence artificielle ayant pour objectif l’analyse d’images vidéo par l’armée afin de faire de la surveillance et planifier des frappes par drones).

26 avril 2018  Lors de la Web Conf 2018 à Lyon, Tim Berners-Lee, inventeur d’Internet, lance un appel aux grandes multinationales et aux États afin de réguler l’utilisation des données personnelles et de l’Intelligence artificielle, « deux sujets intimement liés ».

Juillet 2017  Le patron de Tesla et de SpaceX appelle à un contrôle pro-actif de l’Intelligence artificielle, lors de l’université d’été de l’Association américaine des gouverneurs nationaux, à Providence (Rhode Island). Pour Elon Musk, l’Intelligence artificielle présente « un risque fondamental » pour l’humanité.

Janvier 2017  Plus de 1 000 scientifiques adoptent des principes visant à encadrer le développement de l’IA et de la robotique après un séminaire du Future of Life Institute à Asilomar, en Californie. Les 23 principes d’Asilomar ne sont pas sans rappeler les trois lois de la robotique de l’écrivain Isaac Asimov.

Octobre 2016  L’astrophysicien britannique Stephen Hawking déclare, lors de sa conférence inaugurale au Leverhulm Center for the Future of Intelligence de l’Université de Cambridge, que l’Intelligence artificielle pouvait détruire la culture humaine. Elle peut être « le meilleur mais également le pire de l’histoire de l’humanité ».

Juillet 2015  Une lettre ouverte signée par plus d’un millier de personnalités, dont une majorité de chercheurs en Intelligence artificielle et en robotique, réclame l’interdiction des Systèmes d’armes létales autonomes (SALA) capables « de sélectionner et de combattre des cibles sans intervention humaine ».

Les responsables politiques, et en premier lieu le législateur, doivent entendre ces appels et y répondre sans se laisser impressionner par la technique et les techniciens. Il est vrai que, ces dernières années, l’action publique a pu paraître à la traîne lorsque ses interventions touchaient des domaines complexes et techniques. L’idée sous-jacente d’un certain nombre d’acteurs était que les évolutions technologiques seraient affaire d’experts et de spécialistes de haut niveau ne pouvant appartenir qu’au secteur privé. Tout récemment encore, Laurent Alexandre brocardait dans la presse « la nullité scientifique des politiciens » (7)

C’est pourtant le rôle du politique que d’imposer un cadre, et un cadre prudent, à ces évolutions techniques    Ils ne doivent pas se laisser impressionner par des experts qui ont souvent une vision très parcellaire du problème, car trop réductrice en fonction de leurs spécialités. Ce n’est pas le rôle des entreprises privées non plus, quel que soit leur domaine d’activité et leur puissance financière, de s’auto-réguler, et cela malgré l’existence de comités d’éthique chez quasiment tous les GAFAM américains (Google, Apple, Facebook, Amazon, Microsoft), les BATX chinois (Baidu, Alibaba, Tencent, Xiaomi) ou les grands laboratoires pharmaceutiques mondiaux. C’est bel et bien à la puissance publique de fixer des règles et des limites quant à l’émergence de technologies qui sont potentiellement dangereuses pour nos libertés, notre intimité, voire notre humanité et notre devenir commun.

Enjeux et défis • 10 propositions anti-brouillard pour régulation éclairée

Quelles réponses doivent-elles être apportées à ces appels à la prudence et à la régulation dans le domaine de la santé ? Tout simplement un cadre, des règles, des limites. Pour en dessiner les contours, nous formulons ici dix propositions qui visent à nourrir la réflexion du législateur dans le cadre du débat sur la révision de la loi de bioéthique… et sans doute au-delà.

Traitement et collecte des données de santé des patients    La collecte et le traitement des données des patients est le premier enjeu. Sur ce point, les robots sont imbattables : le logiciel Watson d’IBM peut aujourd’hui parcourir un dossier médical de trois cents pages en une demi-seconde. Au-delà des idées de « plateforme de santé nationale » ou de « hub », portée par le Président de la république et le CCNE (8), il faut appréhender la question des données dans son intégralité pour être efficace. Ainsi, des données brutes qui ne présentent aucun aspect sensible prises individuellement et qui sont collectées plus ou moins librement par une multitude d’opérateurs, malgré le Règlement général sur la protection des données (RGPD) (9), peuvent rapidement, une fois concaténées entre elles, révéler des aspects majeurs de l’état de santé d’un patient.

Face à ce risque, pourrait assez simplement être mis en place un code couleur en fonction du degré de confidentialité ou de sensibilité des données et de leur traitement avec une labellisation par l’État des entreprises et de leur niveau d’habilitation (proposition 1) à traiter certaines données, en fonction d’un cahier des charges précis et des garanties de sécurités apportées par les entreprises et organismes publics habilités. A titre d’illustration, les données permettant de réaliser de la médecine prédictive devraient être classées comme les plus sensibles avec une interdiction absolue de diffusion auprès de certaines institutions ou acteurs économiques (assurances, mutuelles, banques ou bailleurs par exemple) afin d’éviter toute précarisation numérique de l’individu qui ne pourra plus s’assurer, se soigner, contracter un emprunt ou louer un bien si ses facteurs de risques sont trop importants.

Relation entre patients et soignants face au diagnostic médical    Les relations entre pa-tients et soignants sont déjà impactées par le développement d’Internet et des réseaux sociaux, qui diffusent de l’information médicale sans hiérarchie et sans garanties. Plus profondément, « ce nouveau rapport à l’information biomédicale correspond à l’émergence d’une biocitoyenneté, centrée sur une politisation de la santé individuelle et sur l’émergence de revendications identitaires reliées à des questions d’ordre biomédical » (10). Mais cette relation sera plus profondément transformée encore par l’apparition de diagnostics et d’ordonnances issues d’intelligences artificielles.

Avec le développement des systèmes experts dans un premier temps puis des intelligences artificielles de santé, un grand nombre de diagnostics seront réalisés dans le futur par des machines de plus en plus autonomes. C’est déjà une réalité pour un certain nombre de pathologies (11). A la suite de ce diagnostic, elles seront capables de délivrer une ordonnance médicale sans intervention humaine. Si l’efficacité de ces machines est réelle, il n’en reste pas moins qu’il existe là un véritable risque de déshumanisation de la relation entre soignants et patients, dont ces derniers ont d’ailleurs parfaitement conscience : six Français sur dix ne seraient pas prêts à interagir avec un robot dans le domaine de la santé (12).

Afin d’identifier de manière certaine les diagnostics réalisés par des intelligences artificielles, il serait assez facile de concevoir un pictogramme à imposer de manière systématique sur tous les actes, images ou ordonnances réalisées par une Intelligence artificielle. Ce pictogramme permettrait également au patient de se prévaloir d’une intervention humaine en dernier recours (proposition 2) qui devrait dorénavant s’imposer comme un droit fondamental (13). Le CCNE parle, lui, de l’inscription au niveau législatif du « principe fondamental d’une garantie humaine » (14).

Mais la question de la sécurité du patient est également majeure. En effet, en partant du principe que toute machine est piratable, fait que les adversaires de toute régulation n’évoquent jamais, un protocole très strict de contrôle régulier des actes devrait être mis en place afin de maîtriser le plus strictement possible les risques de hacking ou de cyberterrorisme médical (proposition 3) à grande échelle.

Responsabilité civile de la machine     La création ou non d’une personnalité juridique pour les robots fait actuellement l’objet d’un vif débat juridique dans le monde. Une lettre ouverte, signée par plus de deux cents experts, chercheurs ou chefs d’entreprise, a d’ailleurs été publiée en avril 2018 pour tenter de dissuader la Commission européenne d’attribuer cette personnalité juridique aux robots. Selon eux, « un statut juridique pour un robot ne peut pas découler du modèle de la personne physique, puisque le robot aurait alors des droits humains […]. Le statut juridique d’un robot ne peut pas dériver du modèle de la personne morale, puisqu’elle implique l’existence de personnes physiques derrière elle pour la représenter et la diriger. Et ce n’est pas le cas pour un robot » (15). La Commission a d’ailleurs renoncé à légiférer pour le moment. « La technologie change très vite, donc nous devrons continuer à surveiller la situation et sommes prêts à agir en cas de besoin », a indiqué Elżbieta Bieńkowska, Commissaire chargé du marché unique (16). Pour autant, si les partisans de la personnalité juridique ont perdu cette bataille, il ne fait pas de doute qu’ils vont revenir à la charge.

Pour y répondre, on pourrait imaginer une solution prudente consistant à rattacher obligatoirement et systématiquement toute intelligence artificielle et tout robot actif dans les services de santé à un spécialiste référant et à son assurance (proposition 4) afin de protéger les patients contre une recherche de responsabilité en cascade qui risquerait finalement de se transformer en recherche de non-responsabilité.

Prothèses numériques et mécaniques    Le handicap est un domaine majeur dans lequel les espoirs suscités par l’Intelligence artificielle et la robotique sont grands pour les personnes touchées. Ainsi, par exemple, l’équipe Agathe (Assistance aux gestes et applications thérapeutiques) travaille actuellement, au sein de l’Institut des systèmes intelligents et de robotiques, sur une prothèse robotisée destinée aux personnes amputées activable par la pensée. « Il faut pour cela développer un langage entre l’humain et le robot, mais aussi entre le robot et l’humain, afin que les informations circulent dans les deux sens », explique l’un des chercheurs (17).

Autre exemple : les progrès de l’impression 4D permettent aujourd’hui de créer des objets qui changent de forme, de couleur ou même de texture sans intervention humaine tel que des tissus vivants artificiels, des prothèses autonomes ou structures qui s’assemblent sans intervention humaine. Le laboratoire pharmaceutique Servier et la société de biotechnologie Poietis viennent de signer un partenariat portant sur l’utilisation de la technologie de bio-impression 4D pour le développement et la production de tissus hépatiques (18). Dans un autre champ de recherche, Éric Arquis, chercheur à l’Institut de mécanique et d’ingénierie (I2M) de Bordeaux et président de l’Association française de mécanique (AFM), estime que la modélisation biomécanique personnalisée du corps humain est l’une des pistes les plus prometteuses pour concevoir des dispositifs médicaux (prothèses, implants osseux, etc.) adaptés à la géométrie propre du patient et aux efforts internes liés à ses activités physiques (19).

Tout cela est impressionnant. Mais ces recherches recèlent également un risque non-négligeable de dérives qui doivent être anticipées. Ainsi, concernant les prothèses numériques et mécaniques, la loi devrait tracer la frontière entre la prothèse, qui permet de pallier la défaillance de fonctionnement normal d’un membre d’un individu, et la recherche de l’augmentation humaine (proposition 5). Dans le premier cas, on est dans le cadre du soin et rien ne s’oppose éthiquement à la démarche. En revanche, si l’on cherche à dépasser la limite humaine, on franchit une frontière dangereuse pour notre humanité, à savoir une recherche d’humain augmenté avec un risque d’eugénisme à terme.

Opérations chirurgicales par une machine autonome    Née à la fin des années 1990, la robotique chirurgicale a rapidement connu un développement exponentiel, avec plus de 700 robots implantés en Europe et plus de 2 700 aux Etats-Unis l’an dernier (20). La chirurgie robotique est donc déjà une réalité : « on ne parle même plus de chirurgie d’avenir, mais de chirurgie du présent », indique Raphaël Ginot, urologue à l’hôpital de Périgueux qui l’utilise depuis le mois de juillet (21). A Nancy, ce sont près de 4 000 patients qui ont été opérés par chirurgie robotique cette année dans des domaines aussi variés que l’urologie, la chirurgie digestive et générale, la chirurgie cardiaque, la chirurgie vasculaire et endoluminale, l’ORL et la chirurgie cervico-faciale, la gynécologie et la chirurgie pédiatrique (22). La pénétration de la chirurgie robotique est extrêmement rapide, même en ambulatoire. Ainsi, en août 2017, la clinique Saint-Jean de Toulouse a-t-elle réalisé une colectomie par chirurgie robotique sur une patiente âgée de 82 ans, rentrée chez elle à la fin de la journée (23).

La question qui se pose pour demain n’est donc pas celle de la robotisation des opérations chirurgicales, mais celles de leur automatisation totale et du maintien, ou non, d’une présence humaine auprès de la machine. Les conditions dans lesquels une machine autonome pourra opérer un patient constituent l’enjeu de demain.

Deux règles simples devraient s’imposer en plus du consentement renforcé du patient. Tout d’abord, la présence systématique d’un spécialiste référent durant l’opération devrait être imposée (proposition 6) – aujourd’hui c’est une évidence mais, lorsque demain ce type d’opération deviendra une routine, notamment dans le cadre de la médecine ambulatoire, des tentations financières risquent de faire leur apparition avec l’intervention d’un simple opérateur non spécialiste.

Ensuite, l’existence d’un protocole d’arrêt d’urgence au niveau « hardware » et un test obligatoire de son fonctionnement avant toute intervention devrait être imposé (proposition 7) en partant du principe que toute machine, encore une fois, est piratable.

Formation des acteurs de santé     Le World Economic Forum vient de rappeler que la France est mal partie dans la formation de ses salariés à la révolution numérique : ainsi, la durée moyenne nécessaire à former ou à perfectionner les compétences des salariés varie de 83 jours pour les entreprises suisses à 105 jours pour les entreprises françaises (le plus mauvais score du classement) (24). Dans le domaine de la santé, l’état des lieux est inquiétant : moins de trois médecins sur dix s’estiment bien formés sur les logiciels dont ils disposent aujourd’hui et neuf sur dix n’ont aucune idée de la manière dont ils se formeront aux outils de demain (25)… Le besoin de formation est donc immense (26).

Les personnels soignants, comme tous les salariés, devront évoluer et se former de manière totalement différente face à une révolution industrielle dont les premiers effets se produiront à très courte échéance – moins de cinq ans. La formation continue devra donc devenir le prolongement naturel de la formation initiale. C’est une impérieuse nécessité, dans un avenir interfacé homme-machine, que de vouloir préparer les salariés à des technologies et des métiers que nous ne connaissons pas encore, voire que nous n’imaginons même pas.

Pour cela il sera nécessaire dans un premier temps de créer un « crédit de formation de transition technologique » pour les professionnels en fonction des évolutions techniques (proposition 8) afin de leur permettre de rester dans la course ou de changer de domaine d’activité s’il n’y a plus aucun avenir humain dans celui-ci. Cette nouvelle possibilité devra se faire au travers des différents crédits de formation existants.

A long terme, la formation professionnelle devra prendre la forme d’un « contrat en alternance à vie » avec des périodes de travail et des périodes de formations successives (proposition 9), dans des organismes de formations mais également à l’université.

Instances de régulation éthique    Le CCNE appelle à la création d’un comité d’éthique spécialisé dans les enjeux du numérique (27). Cette idée trouve un sens certain au travers des révisions programmées à l’avance de la loi relative à la bioéthique.

Elle devrait cependant être complétée par la mise en place d’un recours systématique à des comités d’éthiques mutualisés par branche ou secteurs (proposition 10), pour tous les acteurs qui demain participeront à notre système de soins, même si leur champ de compétence paraît à première vue éloigné du monde de la santé : entreprises informatiques, moteurs de recherches, entreprises de robotiques ou de domotiques, bailleurs collectant des données sur leurs locataires (et donc leurs modes de vie), assurances et banques, etc. 

Notes

(1) Comité consultatif national d’éthique, Contribution à la révision de la loi de bioéthique, avis 129, 25 septembre 2018, disponible ici.

(2) Conclusion à laquelle arrivent Jullia Petrelluzzi et Marie Milliotis, L’intelligence artificielle : ses enjeux en droit civil européen, Éditions universitaires européennes, 2017.

(3) En France, des États généraux ont été institués par la loi du 7 juillet 2011 relative à la bioéthique, disponible ici.

(4) Cédric Villani, Donner un sens à l’intelligence artificielle : pour une stratégie nationale et européenne, mars 2018, disponible ici.

(5) « Médecine du futur : les données sont le pétrole de demain » 24heures.ch, 16 octobre 2018.

(6) « Pour trois quarts des médecins, la téléconsultation fera partie du quotidien en 2030 », Le quotidien du médecin, 14 septembre 2018.

(7) « La nullité scientifique des politiciens », L’Express, 23 octobre 2018, disponible ici.

(8) A la suite de la remise du rapport Villani, le président de la République a annoncé la création d’un Health Data Hub comme un des points forts de la stratégie de l’Intelligence artificielle française. Agnès Buzyn, ministre de la Santé, a lancé une mission de préfiguration de cette plateforme d’exploitation des données de santé le 12 juin 2018. Voir aussi Comité consultatif national d’éthique, Contribution à la révision de la loi de bioéthique, avis 129, p. 100.

(9) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, disponible ici.

(10) Dominique Folscheid, Anne Lécu et Brice de Malherbe, Le transhumanisme, c’est quoi ?, éditions du Cerf, 2018, p. 31.

(11) Un seul exemple : la commercialisation d’un système d’intelligence artificielle IDx-DR qui dépiste la rétinopathie diabétique mieux que les ophtalmologistes, avec un taux de précision de l’ordre de 90%, a été autorisée aux États-Unis en avril 2018. Voir « Pivotal trial of an autonomous AI-based diagnostic system for detection of diabetic retinopathy in primary care offices », nature.com, 28 août 2018.

(12) Baromètre santé 360° : L’humain dans la santé, sondage Odoxa pour Orange Healthcare, MNH GROUP, FHF, Le Figaro santé et France Inter, 22 janvier 2018.

(13) En France, la Constitution de 1958 ne mentionne pas la notion de « droits fondamentaux », ni ne comporte de liste complète de ces droits, à la différence de pays comme l’Espagne ou l’Italie. Cependant, la garantie constitutionnelle d’un grand nombre de libertés et de droits fondamentaux est assurée par le préambule de la Constitution, qui vise trois sources : la Déclaration des droits de l’homme et du citoyen (DDHC) de 1789, le préambule de la Constitution de 1946 et la Charte de l’environnement (« adossée » à la Constitution en 2005).

(14) Comité consultatif national d’éthique, Contribution à la révision de la loi de bioéthique, avis 129, p. 105.

(15) Open Letter to the European Commission : Artificial Intelligence and Robotics, avril 2018, disponible ici.

(16) « Bruxelles joue la prudence sur la responsabilité des robots », Euractiv, 9 mai 2018.

(17) « Main dans la main avec les robots », Inserm.

(18) « Servier et Poietis collaborent sur un projet de bio-impression 4D de tissus hépatiques », My Pharma Editions, 12 novembre 2018.

(19) « Quels seront les prochains défis de la mécanique ? », Le Journal du CNRS, 20 septembre 2018.

(20) Voir par exemple Jacques Hubert, Chirurgie assistée par robot : principes et indications, formation et évaluation des compétences, communication scientifique, Académie de médecine, 19 septembre 2017, disponible ici.

(21) « Périgueux : un robot chirurgical en service à l’hôpital », Sud-Ouest, 6 novembre 2018.

(22) « Plus de 4 000 patients ont bénéficié de la chirurgie robotique au CHRU de Nancy », Hospitalia, 9 novembre 2018.

(23) « À la Croix du sud, une première pour réduire le temps d’hospitalisation », La Dépêche, 12 novembre 2018.

(24) World Economic Forum, The Future of Jobs Report 2018, septembre 2018, disponible ici.

(25) Sondage Ipsos pour l’Agence des systèmes d’information partagés de santé (Asip santé), janvier 2017.

(26) Voir, dans le domaine chirurgical uniquement, Jacques Hubert, Chirurgie assistée par robot : principes et indications, formation et évaluation des compétences, op. cit.

(27) Comité consultatif national d’éthique, Contribution à la révision de la loi de bioéthique, avis 129, p. 110.