L’intelligence artificielle, sans foi ni loi?

mardi, 25.02.2020

Xavier Comtesse*

Xavier Comtesse

Avec la généralisation de l’usage de l’IA dans toutes sortes de domaines, allant de la voiture autonome à la médecine de précision, en passant par la maintenance prédictive à la gestion du trafic aérien, un enjeu nouveau apparaît: celui de la responsabilité en cas de préjudice causé par une IA.

L’ordre juridique suisse, comme celui de la plupart des pays avancés, n’apporte pas de réponse claire à cette question. Comme une IA est immatérielle (software), mais incorporée dans des machines (hardware), il est difficile d’en extraire son comportement spécifique au-delà de l’action qu’elle co-commande avec l’homme. Son autonomie grandissante (co-apprentissage) va la rendre de jour en jour plus autonome de l’action humaine. On l’a bien vu avec le jeu de go où les logiciels d’AlphaGo puis d’AlphaGo Zero se sont complètement détachés de l’action de l’homme.

Entretenons-nous avec Anaïs Avila qui vient de déposer avec succès un mémoire de master en droit à l’Université de Genève pour y voir plus clair sur cette thématique:

Y-a-t-il en Suisse une loi spécifique sur la question de la responsabilité de l’IA en cas de préjudice?

Non, il n’existe à ce jour aucune loi spéciale dédiée à l’IA. De plus, l’IA est une chose immatérielle dépourvue de personnalité juridique et de patrimoine, de sorte qu’elle ne peut être tenue responsable de ses actes. Pour l’heure, il faut appliquer les régimes de responsabilité civile existants, en tentant de les adapter aux circonstances. A cet égard, la loi sur la responsabilité du fait des produits (LRFP) permet actuellement de rechercher le producteur en responsabilité en cas de préjudice causé par un défaut de son produit; encore faudrait-il que tous les logiciels soient considérés comme des produits au sens de la LRFP. Il appartiendra à la jurisprudence de préciser certains points, tels que la notion de produit, de défaut et l’établissement du lien de causalité.

A vos yeux faudrait-il une telle loi?

Oui, à terme, il faudra créer un encadrement juridique des systèmes d’intelligence artificielle (SIA). Un encadrement juridique qui ne bride pas l’innovation, mais qui offre une protection efficace aux potentielles victimes. Tout est une question d’équilibre. A cet égard, plusieurs pistes sont proposées, parmi lesquelles la création d’une personnalité électronique. L’idée est d’attribuer aux systèmes d’intelligence artificielle (SIA) un statut juridique, comme on l’avait finalement fait à l’époque de la première révolution industrielle pour les sociétés anonymes. Comprenez bien que la 4e révolution industrielle est en train de faire naître un tout nouveau monde dans lequel le «machine learning», le «deep learning», les «réseaux de neurones» et toutes les nouvelles technologies de l’IA vont conduire les affaires du monde. Un monde dans lequel la généralisation de l’usage de l’IA sera une généralité, pas une exception comme aujourd’hui. Tout dépendra de l’IA. Nous avons intérêt, nous les humains, à définir son statut et créer un cadre juridique cohérent et efficace.  

En effet, cela change tout. Comment s’y prendre alors?

L’autonomie de l’IA et sa capacité d’auto-apprentissage sont sources de préjudices difficilement prévisibles. Par exemple, une fois installée sur un véhicule, l’IA peut très bien évoluer indépendamment du constructeur ou du conducteur. A qui attribuer les effets de la responsabilité en cas de préjudice?

* Manufacture Thinking






 
 

AGEFI



...