Les robots font peur!

mardi, 13.10.2020

Xavier Comtesse *

Depuis longtemps, dans l’imaginaire des civilisations, existent des représentations d’êtres, plus ou moins humains, qui nous dépassent. La dernière en date est mécanique : le robot* (1920). Avec l’arrivée du digital, son image à petit à petit été associée à l’Intelligence Artificielle.

Ainsi est né le mythe moderne d’une machine intelligente qui nous dépasserait un jour. Pour pouvoir suivre la progression de l’IA, le mathématicien de génie Alan Turing a imaginé en 1950 un test qui est censé marquer le passage à l’ère de la domination des robots. Le test consiste à avoir une conversation simultanée avec un être humain et une machine, et si l’on n’est pas capable de savoir «qui est qui» alors le test est réussi.

En d’autres termes, selon le test l’Intelligence Artificielle simule parfaitement l’être humain. Le 8 septembre dernier, le célèbre journal anglais : The Guardian a fait écrire un article par GPT-3 (une IA d’OpenAI). Stupéfaction ! L’article est tellement bon que l’on se demande si un humain ne l’a pas écrit. En bref, le logiciel GPT-3 a passé le test de Turing.

Et maintenant: quelle est la prochaine étape?

Contrôler vos données (Big Data de Google), anticiper vos souhaits (e-commerce de Zalando), vos intentions (Minority Report), prendre vos jobs (Kiva d’Amazon), faire la guerre (Terminator), etc. On voit que la pensée « imaginaire » continue. Mais en même temps, on sait que beaucoup de choses vont se réaliser ou sont déjà réalisés.

Cela fait donc naturellement peur à tous.

Faut-il pour autant légiférer pour donner un cadre de loi à l’IA et aux robots ? Isaac Asimov avait évoqué en 1942 les 3 lois de la robotique** censé protéger la vie humaine. Mais les drones des armées contemporaines sont déjà capables de tuer par géolocalisation autonome leurs victimes. Où est la limite. L’avons-nous déjà franchie ?

À vrai dire. On n’en sait rien car on n’a pas fixé dans la loi les limites exactes accordées aux robots intelligents.

Que devons-nous faire alors ?

Légiférer ou laisser faire. Est-il même possible de légiférer ? Pouvons-nous vraiment nous comparer aux machines ? Est-ce que la solution serait de considérer l’IA et les robots comme possédant une entité juridique à part ? 

En tous les cas on pourrait s’inspirer des avions et des oiseaux. Tous les deux volent mais on n’a jamais essayé de les comparer tant leurs différences sont grandes. C’est donc sans doute un bien meilleur chemin à suivre : cherchons nos différences et nos complémentarités plus que nos ressemblances. Car une chose est sûre : on va devoir vivre ensemble pour toujours. 

  • Le terme « robot » apparaît pour la première fois dans la pièce de théâtre : Rossum's Universal Robots, écrite en 1920 par l'auteur Karel Capek. Le mot a été créé par son frère Josef à partir du mot tchèque «robota» qui signifie «travail, besogne, corvée».

  • Les 3 lois de la robotique selon Isaac Asimov :
  1. Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger ;
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.

* Manufacture Thinking





 
 
 

AGEFI

Rafraîchir cache: Ctrl+F5 ou Wiki




...