croix

Veuillez effectuer une recherche.

Veuillez effectuer une recherche.

IA : comment protéger les données personnelles ?

David Gruson, fondateur d’Ethik-IA, participe ce mercredi 25 septembre, à Nancy à une table ronde intitulée « L’intelligence artificielle peut-elle être éthique » dans le cadre des Journées de rentrée de la Mutualité Française. A cette occasion, voici le texte de son débat avec Anne-Charlotte Cornut, rapporteure de la mission Villani sur l’intelligence artificielle, sur la protection des données personnelles publié dans le magazine « Mutations » consacré à l’intelligence artificielle, daté de janvier 2019.

Faut-il, selon vous, encadrer la production de données ?

Anne-Charlotte Cornut – Les données ne sont pas encore considérées comme un asset [ressource numérique, NDLR] industriel alors qu’elles le devraient : elles recèlent des potentiels dont il est difficile de prendre la mesure, tout en nécessitant de nombreux investissements pour pouvoir en tirer parti.

La question n’est pas forcément de produire davantage de données mais, surtout, de mutualiser celles qui existent déjà, d’en faciliter l’accès et la circulation, parce que croisées entre elles et exploitées en plus grand volume, elles sauront rendre les algorithmes plus efficaces. Une recommandation du rapport Villani, remis au Premier ministre en mars 2018, propose, par exemple, de mettre en place le « don de données », sur le modèle du don du sang, par des citoyens volontaires. Ce serait pertinent pour accélérer la constitution de bases exploitables, afin notamment que les scientifiques avancent dans leurs recherches.

Cependant, le don de données n’implique bien évidemment pas « vente ». En droit européen, les données personnelles sont une expression de soi ; elles nous définissent, elles sont une part de notre dignité. Nous n’en sommes pas propriétaire et, à ce titre, ne pouvons les vendre. C’est pourquoi il est primordial d’en encadrer l’accès et l’usage !

David Gruson – La mission du Comité consultatif national d’éthique (CCNE) concernant l’éthique du numérique et de l’intelligence artificielle en santé que j’ai co-dirigée avec Claude Kirchner président du conseil d’éthique d’Inria (1) a également émis le constat d’une insuffisance du pilotage pour les données de santé. Cette insuffisance fait peser un risque sur la qualité et l’efficacité du système.

Ces données doivent être plus largement partagées mais en suivant des principes de régulation éthique, tout en évitant l’écueil de la sur-réglementation. Si l’on crée trop de normes opposables, le risque est important de freiner l’innovation et de facto, d’inciter professionnels et patients à recourir à des solutions d’intelligence artificielle développées dans d’autres pays, dans un cadre éthique moins contraignant et ne correspondant pas à nos standards.

 

Dès lors, le Règlement général sur la protection des données (RGPD) constitue-t-il, selon vous, une protection ou un frein ?

David Gruson – Le RGPD a complété un dispositif juridique déjà important en France, et c’est une avancée indéniable ! L’Europe a mis en place l’environnement le plus protecteur au monde, garantissant le droit à la protection des données personnelles. Toutefois, il me semble essentiel de percevoir une des limites de ce règlement : sa dimension abrasive. L’idée de Big Data participe d’une vision – inexacte sur le plan opérationnel et sans doute dangereuse au plan éthique – consistant à mettre sur le même plan l’ensemble des données.

Or, toutes ne se valent pas. Entre celles du smartphone et celles du génome, il y a une grande différence ! Une lecture trop formaliste de la mise en œuvre du RGPD risque de ralentir le partage des données les moins sensibles, et donc de freiner les gains de qualité et d’efficience du système pour les patients, et de ne pas être assez attentif à une protection renforcée de celles qui le sont.

Anne-Charlotte Cornut – Il est vrai que le RGPD est un cadre important car il met l’individu au centre. Recueillir le consentement éclairé et informer sur l’usage des données est capital, si l’on souhaite que l’intelligence artificielle devienne un projet de société. C’est une condition pour qu’il y ait à la fois acceptation de la part des citoyens et création d’un marché économique domestique. Les consommateurs seront en confiance pour utiliser des solutions françaises ou européennes parce qu’elles offrent des garanties sur la façon dont sont traitées leurs données. Parce que les données de santé sont sensibles, elles constituent une catégorie juridique en soi, et à ce titre, sont plus strictement encadrées par le RGPD.

Il serait opportun de préciser à l’avenir certaines dispositions. Par exemple : qu’est-ce que le consentement éclairé à l’âge de l’intelligence artificielle ? Il faudra sans doute réfléchir à des notions de « consentement dynamique », où l’autorisation est donnée pour un certain scope [champ, NDLR] d’utilisations.

David Gruson – J’ajouterai que des crans supplémentaires sont nécessaires pour parer les risques réels en pratique. Avec l’institut hospitalo-universitaire Imagine, nous avons mené, avec l’initiative Ethik IA, un travail de construction d’un référentiel de bonnes pratiques ayant pour but de créer un périmètre sécurisé, où les données génomiques peuvent être plus largement croisées avec les données cliniques. Ces dernières seraient importées dans cet espace, évitant ainsi que les solutions d’intelligence artificielle qui pilotent le système de l’hôpital « pompent » en quelque sorte les données génétiques.

Anne-Charlotte Cornut – Au-delà des enjeux techniques de sécurisation, il me paraît essentiel que les Français comprennent la finalité. Il faut restituer à chacun la valeur de ses données, non pas sous une forme pécuniaire, mais sous la forme d’utilité : qu’est-ce que cela nous apporte en tant que consommateur ou en tant que patient, sur le plan individuel et sur le plan collectif ?

 

A la suite du rapport Villani, le président de la République a annoncé la création d’un « Health Data Hub », autrement dit une plateforme d’exploitation des données de santé. Quel serait son apport ?

Anne-Charlotte Cornut – C’est structure répond à la volonté de mutualisation des données, dans un cadre national sécurisé, sous l’égide des pouvoirs publics. La base de données médico-administrative de l’assurance maladie est une des plus riches au monde, même si elle n’a pas été conçue pour permettre le développement de l’intelligence artificielle….

David Gruson – S’intégreront également à cette plateforme les données cliniques des professionnels de santé et des établissements, l’idée étant de surmonter la partition existant en France entre bases de données médico-administratives et entrepôts de données cliniques. De quelle manière cette plateforme sera-t-elle alimentée ? Le CCNE propose une piste, sous la forme d’un régime de consentement présumé, à l’image de celui qui existe pour les prélèvements d’organes : nous sommes tous donneurs, sauf si nous avons exprimé notre opposition.

Une dynamique pourrait ainsi être enclenchée, sur la base d’un intérêt légitime et commun. Un récent sondage Odoxa montre que les attentes des Français vis-à-vis de la santé numérique ont évolué : ils placent l’accès à un service médical performant avant la protection de leur vie privée, alors que c’était encore l’inverse il y a deux ans !

 

Le rapport Villani propose la création d’un comité consultatif d’éthique des technologies numériques et de l’intelligence artificielle. Pour quelle finalité ?

Anne-Charlotte Cornut – Ce comité vise à organiser le débat public et à faire des propositions. Mais au-delà de ce comité, le rapport propose aussi des outils de terrain, comme la création d’un corps d’audit des algorithmes, car il est possible de prendre connaissance de nombreux éléments avant de se heurter à l’opacité de l’algorithme.

Le développement de l’intelligence artificielle ne requiert pas forcément un renforcement de la législation, mais il faut des organes de contrôle dédiés, connus de tous, pour incarner l’éthique et que les citoyens pourraient saisir. Il sera également crucial de mener une réflexion, métier par métier, sur la coopération entre l’humain et l’intelligence artificielle pour définir précisément ce que le premier peut céder à la seconde.

David Gruson – Si l’on crée une instance de régulation transversale aux différents secteurs, il y a peu de chance qu’elle devienne rapidement opérationnelle, et particulièrement dans le champ de la santé. Or, les progrès technologiques dans ce domaine se font à grande vitesse. Une voie intermédiaire peut être trouvée, en renforçant la composition du CCNE avec des personnalités du numérique et en mettant en place, sous l’égide de la Haute Autorité de santé, un pilotage qualité, sur la base d’un dispositif de R&D pour produire des projets de référentiels de bonnes pratiques. La régulation positive par la soft law, au contraire de la multiplication des normes opposables, est un rempart pour porter une vision ouverte et protectrice de la médecine algorithmique.

 

(1) Institut national de recherche en informatique et en automatique