L’Intelligence Artificielle

Signaler

Ensemble de théories et de technologies diverses, l’intelligence artificielle permet la résolution de problèmes complexes. Si elle obtient des résultats impressionnants, il faut distinguer la réalité de la fiction.

I. Naissance de l’Intelligence Artificielle

1) Définition et origines de l’IA

L’Intelligence artificielle ou IA est définie par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques s’adonnant à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau ».

Bien que l’idée d’une machine reproduisant les comportements humains remonte aux légendes antiques, ce que l’on nomme aujourd’hui IA est théorisé par Alan Turing en 1950.

À partir de là, des systèmes de plus en plus performants verront le jour, capables de surpasser l’humain pour des tâches bien précises ou de l’assister au quotidien.

À noter

Développé par IBM au début des années 1990, l’ordinateur Deep Blue, spécialisé dans le jeu d’échecs, bat Garry Kasparov, le champion de l’époque, en 1997.

2) Les techniques d’IA

Il n’existe pas une seule mais plusieurs techniques d’IA, dont la classification est toujours sujette à débat. On peut cependant discerner trois grandes techniques.

Les systèmes experts reproduisent des opérations précises trop laborieuses ou trop longues à réaliser pour un être humain. Ils permettent ainsi gain de temps et aide à la décision, notamment dans la finance et le secteur médical.

La résolution de problèmes détermine la bonne solution ou le meilleur chemin à emprunter en fonction de contraintes de départ, comme par exemple pour le GPS.

Le machine learning ou apprentissage automatique utilise des méthodes statistiques et d’énormes quantités de données combinées à des algorithmes « auto-apprenants ».

Mot-clé

Un algorithme est dit « auto-apprenant » lorsque son comportement évolue dans le temps, en fonction des données qui lui sont fournies.

Par extension, les réseaux neuronaux tentent de simuler le fonctionnement synaptique du cerveau humain dans les échanges d’informations et permettent une forme évoluée de machine learning, appelée deep learning. Celui-ci est très utilisé pour la reconnaissance d’images, bien que les cerveaux humains soient encore largement plus efficaces dans ce domaine.

II. Applications de l’IA : entre réalité et SF

1) Les applications des IA faibles et fortes

Les IA actuelles dites faibles trouvent des applications dans une grande variété de domaines : traitement des images et des vidéos, traitement du langage, analyses prédictives, jeux vidéo, automatisation intelligente, conception de robots, santé, simulations complexes ou même art.

Pour ces IA faibles, le système se contente de reproduire un comportement spécifique mais ne le comprend pas, il imite l’intelligence humaine dans un domaine précis pour résoudre des problèmes et apprendre. La machine donne donc l’impression d’être intelligente mais ce n’est qu’une simulation.

Une IA dite forte est capable de comprendre ses propres raisonnements, de réfléchir à ses actions voire d’avoir une conscience de soi et de ses émotions. Elle pourrait ainsi égaler l’humain, voire le dépasser, ce qui pose des questions éthiques.

À noter

Ce type d’IA n’appartient, pour l’instant, qu’au domaine de la science-fiction et l’estimation de sa faisabilité fait toujours débat parmi les spécialistes du domaine.

2) Algorithmes et biais

Un des problèmes récurrents avec les différentes IA actuelles, et notamment celles utilisant le machine learning, vient du fait qu’on ne se doute pas forcément de comment, et selon quels critères, celle-ci va choisir et faire évoluer son algorithme. Il est donc difficile de voir quels vont être ses biais et quelles sont les erreurs ou discriminations non voulues qu’elle va effectuer.