Utopiales 2022 : De l'autodoc à l'avocat mécanique

 De l'autodoc à l'avocat mécanique

 

Comme tous les ans, avertissements de rigueur : je retranscris ici les notes que j'ai prises pendant la conf ; il est donc tout à fait possible que j'aie fait des contresens et tout à fait certain qu'il manquera des bouts (sans parler du côté décousu et de ma difficulté à me relire 😳). Les éventuels commentaires entre [ ] sont de moi, et les passages entre guillemets sont censés être des citations.

Par ailleurs, je consulte ces notes plusieurs mois après les avoir prises, ce qui multiplie le risque des fautes susmentionnées. Si vous préférez l'audio, il est sur le site d'ActuSF.


Intervenants : Sandie Cabon, Jean Baret, _lila* *

Modérateur : Karim Si-Tayeb

 

KST, JB, _lila*, SC.

SC est ingénieure et développe des méthodes pour l'exploitation des données médicales.

_lila* est illustratrice et graphiste et milite pour l'accès au numérique des minorités.

JB est auteur de SF et avocat.


KST fait un rappel sur les origines des robots et de l'IA (tout est antérieur à 1956). Le but de l'IA est de reproduire l'activité du cerveau humain. Comment les encadrer ? Comment ne pas tomber dans le tout-technologique ?

SC : L'IA, c'est comment imiter ce qu'un humain ferait. Il existe déjà des "IA symboliques" déployées à l'hôpital. Il y a aussi des "IA numériques", comme celle qui sait identifier les fractures sur les radios, par exemple [on peut rapprocher ça des mécanismes de Captcha, qui servent à entraîner les IA].

KST : Les IA sont des outils d'aide aux médecins.

SC : Le raisonnement de l'IA n'est pas toujours connu quant à comment elle arrive à sa décision (parce que beaucoup de données sont analysées). Elle-même travaille avec médecins et soignants pour la création des algorithmes.

KST évoque l'Open Data, en 2016, qui donne accès à des données judiciaires anonymisées.

JB est assez sceptique sur son efficacité, parce que le droit est un domaine très humain, ce n'est pas une science. Ca peut aussi être mal reçu, parce que ça ne correspond pas à notre définition de la justice. Ca peut cependant faire remonter les biais des juges et des circonscriptions, ce qui est interdit car la justice est censée être la même partout.
Chaque cas du droit est particulier car les règles du droit sont adaptables. On a des revirements de jurisprudences. Comment un algorithme pourrait-il être utile ? Ca ne montre que des statistiques !

_lila* : Les IA ne sont pas son sujet [ce qui est dommage, parce qu'au moment où a eu lieu cette conférence, il y avait déjà un débat sur les IA graphiques comme Midjourney, notamment du point de vue légal/copyright], ni la médecine ou la justice. Mais la technologie, oui.
Elle travaille dans une asso d'aide aux victimes de cyberviolences. Elle évoque la modération par IA [sur les forums et autres serveurs de discussion] et les biais de ceux qui conçoivent ces IA (racisme, sexisme...).

KST pose la question des données exploitées : pour être exploitables, elles doivent être normalisées et croisées (notamment dans le domaine médical).

SC : Si les données ont des biais, l'IA les aura aussi. Elle-même essaie de tester avec des cas biaisés, pour voir le résultat : si le biais reste, alors on restreint le diagnostic à des cas particuliers.
Il y a aussi la question de l'anonymisation des données et du respect de la vie privée (elle salue au passage le travail de la CNIL)

KST évoque les données sur l'indemnisation des préjudices (DataJust) [qui a été abandonné].

JB : Ca peut aider à normaliser [harmoniser ?] ce genre de choses, mais est-ce qu'on veut ça ? Est-ce qu'on veut que le juge se base sur des statistiques pour prendre sa décision ?
"Ca veut créer un Sur-Juge, une entité divine infaillible, et le souhaite-t-on vraiment ?"
On ne veut pas de neutralité, on veut de la compassion.

KST : Les IA américaines ont des biais racistes, donc en Europe, on a essayé d'établir cinq lois pour éviter ces biais [par contre, je ne les ai pas notées, à supposer qu'elles aient été citées 😳].

_lila* : Même sans IA, ces cinq lois ne sont pas accessibles, il n'y a pas de transparence. Derrière, il y a le capitalisme et le patriarcat. On n'a pas de prise sur les outils qui nous facilitent la vie, même sans parler d'IA. Est-ce que ma voiture va vendre mes données personnelles ?
Beaucoup d'abus sont possibles de la part de ceux qui savent comment les choses sont faites.

SC : Une IA ne pourra pas être déployée tant que ses créateurs n'auront pas validé ces cinq points. Elle-même espère que ça "redescendra" sur les processus pré-IA.

_lila* : Les chartes sont revues à la baisse si elles s'opposent aux profits capitalistes.

SC n'a pas de problèmes avec les GAFAM, car en France, on ne travaille pas avec eux dans le domaine des IA médicales.

JB évoque les différences entre les données juridiques, qui sont peu accessibles (comme LégiFrance), et les données anonymisées utilisées par les IA. Il parle aussi du droit à l'oubli et du déréférencement.

KST : Est-ce qu'on peut s'opposer au traitement de nos données, même anonymisées ?

SC : C'est le cas dans le domaine médical, mais peu de gens le font, car "c'est connu" que ça aidera d'autres patients.

JB : Ce n'est pas possible, le nom doit figurer dans l'acte de jugement (même si ça peut ensuite être anonymisé en vue d'un traitement par IA). Il n'en est pas sûr à 100%, mais à priori, c'est non.
Et la justice a besoin de moyens humains [c'est le moins qu'on puisse dire, entre les bâtiments vétustes et le manque dramatique de personnel...].

_lila* se demande si on a besoin de mettre des IA partout. Et beaucoup de données personnelles sont trop accessibles.

JB rappelle le XIXe siècle et ses tentatives de profiling du criminel-type (avec la phrénologie etc.). Il craint que les IA judiciaires ne reviennent à ça, cf Minority Report.

Remarque du public : Ce n'est pas de l'intelligence, ce sont des algorithmes. On a peur des manipulations par l'armée, qui est souvent derrière ce genre de choses.

Question (de ma part) sur Dall-E et les autres IA graphiques :

_lila* n'est pas inquiète, "ça ne change pas mon quotidien" et "de toutes manière, les artistes ne sont pas payés" [sic].

Question du public : On anonymise, oui, mais en recoupant les bases de données, on peut retrouver les gens. Et beaucoup de données sont récoltées sans notre consentement.

SC : Ils extraient des données qui ne permettent pas de revenir à un patient. C'est trop retraité pour ça, mais ce n'est pas dans ses travaux à elle.



* : oui, son pseudo s'écrit avec une astérisque.

Commentaires