L’intelligence artificielle pour les nuls: deuxième partie

mardi, 11.09.2018

Xavier Comtesse et Lev Kiwi*

Xavier Comtesse

La notion d’intelligence fascine les chercheurs depuis le début du XXe siècle siècle. Bien que le concept pose encore beaucoup de questions, les psychologues de l’American Psychological Association s’accordent à définir l’intelligence comme étant la capacité mentale à apprendre de ses expériences, à s’adapter à de nouvelles situations, à comprendre et manipuler des concepts abstraits ainsi que de précisément utiliser ses connaissances acquises pour influencer son environnement. Et l’intelligence artificielle se définit comme étant la capacité des ordinateurs à effectuer des tâches exécutées en général par des êtres intelligents.

Bien que l’intérêt pour cette nouvelle forme d’intelligence fût présent dès le milieu du XXe siècle, il a fallu encore une cinquantaine d’années avant qu’on arrive à produire des systèmes informatiques capables de formuler des formes d’intelligences s’apparentant à celle de l’homme. Aujourd’hui, il existe plusieurs types d’intelligences artificielles.

L’approche classique consiste à préprogrammer tous les cas possibles en amont. On a ainsi une approche déterministe et un algorithme relativement compréhensible. Pour un même input, on aura toujours le même output. C’est en quelque sorte une mécanique digitalisée. Cette approche a été pendant longtemps le standard dans le domaine. Elle a notamment été utilisée dans l’algorithme de Deep Blue pour battre Kasparov aux échecs.

L’algorithme d’IBM calculait «simplement» des mouvements en avance et utilisait un algorithme «minmax» pour évaluer la position qui lui serait la plus favorable. Evidemment, calculer tous les mouvements possibles est impossible. Cependant, l’algorithme de Deep Blue calculait entre six et huit coups d’avance. A chacun de ses mouvements, il attribuait une évaluation à l’aide d’une fonction. Cette fonction a été codée à la sueur du front des développeurs et contenait plus de 8000 cas. Aujourd’hui, la grande majorité des applications que l’on trouve sur le marché implémentent de tels mécanismes. L’intelligence émerge simplement de la complexité de ces algorithmes. Par exemple, les moteurs de recherches, comme Google Search, ont pendant longtemps fonctionné avec une telle approche classique en utilisant notamment PageRank.

Cependant, aujourd’hui des logiciels d’intelligences artificielles comme celle Watson, AlphaGo et Libratus utilisent des algorithmes plus sophistiqués dit auto-apprenants, ou de «Machine Learning», pour certaines tâches spécifiques. Cette nouvelle approche de la programmation est non-déterministe. En revanche, elle est probabiliste. Prenant leurs fondements dans les statistiques, ces algorithmes prédictifs utilisent des données pour définir et ajuster leurs paramètres internes. Ainsi on n’a plus besoin de rentrer les instructions ligne par ligne en fonction des cas, mais on initialise un modèle qui va ensuite être ajusté avec des données. L’algorithme est auto-apprenant dans le sens où il va se façonner et s’adapter aux données afin d’essayer de fournir la réponse la plus optimale. Conséquemment pour un même input, nous n’aurons pas forcément le même output. Il dépendra du jeu de données à disposition.

Comment ce nouveau paradigme va-t-il façonner l’économie, l’industrie et la société de demain? Cet question et bien d’autres seront abordés dans la suite de nos articles. À la semaine prochaine!

* Mathématiciens






 
 

AGEFI




...