L’indomptable intelligence artificielle

mercredi, 08.07.2020

Xavier Comtesse*

Xavier Comtesse

L’intelligence artificielle (IA) semble échapper à toutes régulations! Est-ce une fatalité? Comment ses algorithmes, ses données et son code informatique fonctionnent-ils? Une IA est-elle juste une boîte noire dont les actions sont intraçables? Existe-il un moyen de les encadrer? Toutes ces questions et bien d’autres sont au centre de la réflexion d’un groupe d’experts au nom de code: «CODE-IA».

Le Code justement. Il est le moyen et la finalité. Il est algorithmique pour les programmeurs, il est juridique pour les justiciables. C’est donc sous cette bannière qu’un groupe de professionnels issus des rangs de l’informatique et du droit s’est récemment constitué pour adresser ces questions. Pour eux: Le code fait loi.

Résumons ici les discussions initiales et rendons les publiques.

Selon Adrian Ruault, Ingénieur en Machine Learning chez Visium: une IA est un programme informatique auto-apprenant; c’est-à-dire capable de résoudre des problèmes complexes à l’aide d’un jeu d’algorithmes et d’une grande quantité de données. Ces programmes sont non-déterministes, de sorte que l’on ne sait pas forcément quelles solutions vont sortir de la boîte noire qui représente ce dispositif. De plus les données peuvent contenir un biais. Bref c’est une «machine» peu prédictive. Ces caractéristiques représentent un enjeu majeur pour l’application du droit qui, elle, présuppose l’établissement d’un lien de causalité, dixit Anaïs Avila.

Ainsi, en cas d’incident causé par une IA (par exemple, un accident provoqué par un véhicule autonome), se pose la question de l’attribution des effets de la responsabilité. En d’autres termes, qui est responsable? Le «conducteur», le constructeur ou l’IA? Pas évident de le savoir, soulève Lezgin Polater (Archipel), car si l’on n’arrive pas à déterminer avec certitude la cause de l’accident, la désignation d’un responsable en particulier peut s’avérer délicate. Autrement dit, «pas de causalité, pas de responsabilité».

Un véritable défi 

Ce problème de causalité, induit par le phénomène de la boîte noire, constitue un véritable défi pour le droit, qui devrait pourtant être relevé au nom de la justice. Mais comment? 

Faut-il certifier les IA? Faut-il labéliser la qualité des IA? Faut-il assurer les IA contre les risques? Y-a-t-il d’autres démarches possibles?

C’est précisément le but d’exploration et de réflexion que s’est donné ce groupe de travail (CODE-IA), réunit dans le cadre d’un workshop de la Fondation Dalle Molle à l’occasion des célébrations de son 50ème anniversaire.

De brillants avocats comme Nicolas Capt (Quinze Cours des Bastions) ou Janelise Favre (Archipel) entourent des informaticiens et la réflexion débouche sur une première piste: une approche par les soft laws. 

A l’image de ce qu’avait produit Internet avec ses RFC (Request for Comment), sorte de registre des propositions d’évolution d’Internet qui ont pendant longtemps servi de «code de conduite» pour sa gouvernance, on peut imaginer une législation légère, voire «soft», qui organiserait l’avenir de l’IA. A défaut de contrats d’assurance ou de labels existants, on pourrait prendre alors le chemin de l’étiquetage comme pour les produits alimentaires avec une identification de la valeur ou de la dangerosité des ingrédients, ici algorithmes et ensemble de données.

Ainsi l’IA, cette bête aujourd’hui terrifiante pour beaucoup, pourrait être domptée. 

*Manufacture Thinking






 
 

AGEFI



...