Algérie

L’histoire exemplaire de l’intelligence artificielle (1re partie)



L’histoire exemplaire de l’intelligence artificielle (1re partie)
Publié par Baddari Kamel le 07.11.2021 dans le quotidien Le Soir d’Algérie

Par le Pr Baddari Kamel(*)
Jamais une discipline scientifique, au même titre que l’informatique qui lui est sous-jacente, n’a connu un progrès aussi fulgurant que l’intelligence artificielle (IA). Elle est devenue, en l’espace de quelques dizaines d’années, une science à part entière avec son langage et ses propres méthodes.
Elle a remotivé les chercheurs et les industriels dans nombre de domaines en leur fournissant les outils nécessaires à la sortie des difficultés sur lesquelles ils butaient. Dans cette contribution, il sera question de l’histoire de cette discipline devenue mature, malgré son jeune âge.

Un point d’histoire de l’IA
Comme toute science à ses débuts, l’IA a connu des hauts et des bas depuis son avènement en 1956. Déjà en 1958, on avait prédit qu’un programme informatique aura un jour la performance d’un maître d’échecs. Plus tard, effectivement, un programme soviétique a triomphé d’un programme nord-américain lors du congrès IFIP 1974 de Stockholm ; pourtant, durant ces années, en URSS, l’informatique était considérée comme un outil entre les mains de la bourgeoisie, ce qui a d’ailleurs retardé son développement grand public dans ce pays, comme quoi le développement de la recherche scientifique et l’innovation sont indissociables de leurs contextes politique et culturel. Plus tard, la Russie s’est rattrapée pour devenir une puissance en la matière. Une journaliste scientifique américaine avait usé, dans les années 80, d’un comparatif loin d’être burlesque, portant sur le rapprochement des intelligences de l’homme et de la machine, en disant que «les raisons invoquées aujourd’hui pour argumenter l’infériorité de l’intelligence des ordinateurs par rapport à l’intelligence des êtres humains sont exactement les mêmes que celles que l’on utilisait au XIXe siècle pour démontrer que les femmes ne seraient jamais les égales intellectuelles de l’homme».
À l’heure actuelle, les communautés scientifiques s’interrogent sur la supériorité de la machine sur l’homme, malgré les progrès immenses réalisés par l’IA.
Époque 1 - (Avant l’an 2000)
Balbutiements et naissance de l’IA
1950 : Publication d’un article de Alan Turing, «Computing Machinery and intelligence», visant à mettre au point une méthode pour définir la conscience d’une machine. Cette méthode est connue aujourd’hui sous l’appellation de «Test Turing», fort bien connue chez les informaticiens.
1956 : Conférence de Dartmouth aux États-Unis, à l’issue de laquelle une déclaration sur l’IA a été proclamée comme étant un domaine scientifique à part entière. Cette conférence a réuni les pionniers de l’IA, à savoir John McCarthy et Marvin Lee Minsky du Massachusetts Institute of Technology (MIT) et deux scientifiques, Claude Shannon et Nathan Rochester d'IBM.
1960 : Implication des travaux de recherche dans de grands laboratoires pour le développement du domaine de l’IA.
Il faut à cet effet souligner que les années 1950 à 1960 sont aux USA une période qui favorise la recherche scientifique et technologique pour diverses raisons, parmi lesquelles la guerre froide avec les pays de l’Est qui, plus est, allait être revigorée par l’explosion de la 1re bombe atomique soviétique en 1949 ainsi qu’avec le choc de la fusée Spoutnik en 1957. C’est pour ces raisons que des crédits importants étaient alloués à des sociétés pour tester les idées les plus folles.
Époque 2 - (1974 – 1990)
Baisse d’intérêt, malgré les systèmes experts
1974 : Période nommée le «AI Winter» où le domaine a connu une baisse d’intérêt et de financement au niveau mondial.
1980 : Réintégration des projets de l’IA grâce aux systèmes experts.
Durant cette période, un projet japonais de nom ICOT, portant l’intitulé «La cinquième génération, le pari de l’IA à l’aube du XXIe siècle», a été annoncé. Le projet fait suite à l’article «Machines Who Think» de la journaliste américaine Pamela McCorduck. Il promettait la mise en œuvre d’un ordinateur entièrement intelligent pour l’année 1988. Nous savons par la suite que ce projet n’a pas donné les résultats escomptés. Il s’agissait d’une tentative au but inavoué de réveiller un marché à fort potentiel, mais qui n’arrivait pas à décoller, et interpellait brillamment aussi bien les industriels que les cercles scientifiques.
Époque 3 - (1990 – 2000)
Incertitudes et espoirs
1990 : Début de l’exploitation de l’IA sur le terrain.
1997 : Redéploiement de l’IA grâce au supercalculateur «Deep Blue» d’IBM, d’architecture parallèle.
Époque 4- (Après l’an 2000)
Grâce à l’informatique
Cette quatrième époque de l’IA se caractérise par son impact sur la société et sur divers domaines (l’informatique, la musique, les films…).
Les périodes marquantes durant cette époque sont :
Début des années 2000 : L’utilisation de l’IA dans les films de science-fiction pour réaliser des scénarii proches de la réalité.
2001-2010 : Implication de l’IA dans la société grâce au développement de l’informatique.
Après 2010 : Développement de nouveaux processus, le « Machine Learning », et leur utilisation dans les domaines vitaux de la société (médecine, commerce, réseaux sociaux, gouvernance…).
Alors, qu’est-ce que l’IA ?
Définir l’IA n’est pas une mince affaire. L’IA est un domaine vaste qui comprend plusieurs axes et diverses définitions, selon le point de vue où l’on se place. Généralement, on pourrait dire que l’IA est un système construit autour de données et d’algorithmes d’apprentissage en vue d’effectuer des prédictions. Dans Facebook ou Youtube, l’algorithme d’apprentissage se base sur les vidéos regardées et les endroits cliqués par l’utilisateur pour rechercher ses centres d’intérêt (vidéos qui lui seront suggérées, amis à ajouter...).
De façon générale, l’IA vise à développer des machines capables d’accomplir des tâches pour résoudre les problématiques qui se posent à l’homme, autrement dit toute problématique qui fait appel à des procédés cognitifs pour sa solution, tels que : 1/La reconnaissance et la localisation des objets (dans une image, une séquence vidéo…) ; 2/la planification, la réalisation et le contrôle de mouvements robotiques ; 3/la conduite autonome des engins roulants (véhicules,…) ; 4/la détection des symptômes de quelques maladies ; 5/le commerce et les déclarations intelligentes des impôts ; 6/les élections sécurisées ; 7/la justice et les banques, etc.
La réussite de telles tâches est conditionnée par la capacité d’apprentissage de la machine IA dans la mesure où un système intelligent ne peut guère augmenter ses performances ou développer ses compétences de prédiction sans un apprentissage cohérent et constructif. C’est à la manière du cerveau d’un enfant, la seule instruction qu’il a est d’apprendre au risque de détruire pour toujours apprendre.
Le rôle de Noam Chomsky
Noam Chomsky est un mathématicien de haut niveau et pape de la linguistique contemporaine. Il est de nationalité américaine. Versé dès les premières heures dans le développement de l’IA, il est l’un des rares scientifiques mondiaux à n’avoir pas perdu l’espoir dans cette discipline depuis son avènement. Travaillant sur l’analyse du langage naturel dans une approche cognitiviste, il créa dans les années soixante «la grammaire transformationnelle» ou «grammaire générative» qui allait devenir un outil de référence pour les chercheurs dans les années 70, et donna lieu par la suite à d’autres grammaires (réseaux sémantiques, ontologie…). Chomsky considérait que le traitement du langage naturel doit reposer essentiellement sur la syntaxe, ce qui est à notre sens un pari facile à gagner.
La grammaire de Chomsky allait servir aussi bien pour l’analyse des textes que pour la reconnaissance de la parole et de la synthèse vocale. Les écoles françaises, canadiennes et britanniques utilisant entre autres cette grammaire ont fourni des outils pertinents pour le développement de l’IA, principalement le traitement des langages naturels. Abordant la non- concrétisation à ce jour du test de Turing, Chomsky affirme que, sans la compréhension des mécanismes constitutifs du langage humain, l’IA «ne parlera peut-être jamais notre langage» !
L’IA d’aujourd’hui
L’IA a connu une période de latence, voire d’incertitude jusqu’en 2000.
À partir de cette date, des chercheurs, considérés comme les pionniers du «Machine Learning» (Yoshua Bengio, Geoffrey Hinton, et Yann Le Cun), allaient sauver la discipline. Partant des travaux de plusieurs chercheurs, ils allaient redorer le blason de cette discipline grâce à l’utilisation des réseaux de neurones artificiels auparavant mis au point par Frank Rosenblatt en 1957. Malheureusement, pour des raisons de capacité de calcul des ordinateurs qui ne permettaient pas d’entrevoir le développement d’applications nécessitant justement une puissance de calcul et une grande capacité de stockage de l’information, l’IA allait de nouveau connaître une période de somnolence.
Il a fallu attendre le début des années 2010 avec l’essor des Big Data et du traitement en parallèle pour qu’elle dispose enfin des conditions de son épanouissement, à savoir la puissance de calcul et le stockage des données dans le Cloud ou autres.
Le connexionnisme est né. Il permet à un réseau de neurones, dont le fonctionnement s’inspire des neurones du cerveau humain, d’apprendre à reconnaître des objets sur des images, inférer sur des textes… et de fil en aiguille, rendre plus fins ses raisonnements et ses argumentations. De nos jours (2021), les réseaux de neurones ne cessent de s’améliorer pour être au cœur de la recherche scientifique. Ils sont utilisés dans le «Machine Learning» dont une sous-catégorie est appelée l’apprentissage profond ou «Deep Learning», le plus répandu actuellement. Il repose sur des algorithmes bien élaborés permettant au réseau de neurones d’apprendre sur des exemples pour s’entraîner à effectuer des prédictions.
Les exemples sont préalablement étiquetés pour que le réseau puisse savoir de quoi il s’agit.
À titre d’exemple, un réseau de neurones peut être utilisé pour apprendre à reconnaître un objet tel qu’une voiture, une moto ou une plaque de signalisation… Pour ce faire, si on considère l’exemple d’une voiture, on présente au réseau un grand nombre de voitures et l’algorithme se met à apprendre à reconnaître cette voiture sur de nouvelles images représentant des voitures de tout genre.
Ainsi, en analysant des milliers de photos de voitures, le réseau de neurones artificiel apprendra à reconnaître une voiture donnée sur n’importe quelle photo qui lui sera présentée. C’est la phase d’apprentissage capitale pour l’IA.
Les niveaux faible et fort de l’IA ?
De par les possibilités et le niveau d’intelligence intégré dans une machine (un robot par exemple), on distingue essentiellement deux types : l’IA faible et l’IA forte. La première est utilisée pour effectuer des tâches précises. Elle est experte dans un domaine précis comme d’ailleurs un système expert. Sortie de son domaine de prédilection, elle devient inutile.
C’est la seule qui existe pour l’instant. Elle agit de la manière dont elle a été programmée. Son handicap est qu’elle ne possède pas de sens commun à l’image de l’être humain. Elle est modélisée par une machine capable de percevoir les composantes de son environnement et de prendre des décisions en fonction d’observations effectuées sur la base de ces perceptions. L’exemple le plus connu est le «Deep Blue» de la société IBM qui a battu le champion d’échecs Garry Kasparov en 1996. Ce type de machines est le plus ancien. Elle est aussi modélisée par une machine à base d’images qui s’appuie sur des représentations du monde réel (le monde effectif tel qu’il existe) pour prendre une décision.
La conduite autonome de voitures en est un exemple. Une voiture autonome étant dotée d’un ensemble de représentations de son environnement à un instant donné, lui donnant la capacité d’ajuster sa vitesse ou sa trajectoire en fonction des éléments qu’ils enregistrent en temps réel tels que l’état du trafic, la situation de la route, les plaques de signalisation, le climat…
Quant à l’IA forte qui fait actuellement l’objet d’une recherche intensive dans quelques pays, elle a l’ambition de créer des machines qui seraient à l’image de l’être humain, dotées d’une intelligence cognitive avancée comme le cerveau humain en est capable de réaliser naturellement. Elles seraient autonomes et dotées d’une conscience et du sens commun. De par les domaines qui lui sont sous-jacents comme l’intelligence émotionnelle, l’intelligence cognitive…, l’IA forte soulève de véritables interrogations et constitue le défi essentiel au développement de l’IA.
L’IA forte se décline en deux sous-types de machines : la machine à base de « la théorie de l’esprit » et la machine à base de l’auto-conscience.
La première désigne « la capacité mentale d’inférer des états mentaux à soi-même et à autrui et de les comprendre». Grâce à cette théorie, les robots seront capables d’appréhender et classifier les représentations du monde, comprendre et hiérarchiser les émotions selon le degré d’influence sur le comportement humain…
La machine à base de «l’auto-conscience» est une machine consistant à construire des représentations avec autonomie et indépendance complètes. Les machines auto-conscientes comprennent les émotions humaines et les appliquent ensuite aux différents scénarii afin de prédire d’autres situations.
Apprendre, toujours apprendre
Un réseau de neurones ne peut être programmé directement pour effectuer une tâche. L’exemple précédent montre que pour reconnaître une voiture d’un genre particulier, le réseau apprendra à la reconnaître sur une quantité importante de voitures pour qu’à la fin, il puisse l’identifier sur n’importe quelle autre photo qui lui sera présentée. La phase d’apprentissage est donc capitale pour le fonctionnement d’une IA. Ceci dit, dans le «Machine Learning», on distingue trois méthodes d’apprentissage distinctes : l’apprentissage supervisé, l’apprentissage non supervisé et l’apprentissage renforcé. L’apprentissage supervisé consiste à faire des prédictions à partir de données annotées (étiquetées), au contraire de l’apprentissage non supervisé où les données ne sont pas annotées. Il suffit que le réseau de neurones analyse l’ensemble de données pour se donner une fonction-coût lui indiquant dans quelle mesure il est éloigné du résultat souhaité.
Le réseau modifie sa fonction-coût pour s’adapter et augmenter la précision de l’algorithme. On utilise l'algorithme de rétro-propagation de gradient pour déterminer et améliorer cette fonction-coût.
Enfin, avec l'apprentissage par renforcement, un «agent» effectue des tâches, reçoit ou non des récompenses et apprend à maximiser ces «récompenses» dans un environnement. La voiture autonome en est un exemple. L’«agent» est récompensé s’il évite les collisions, obéit aux règles de circulation et atteint le point de sa destination. Lorsque l’une de ces actions n’est pas atteinte, l’«agent» est pénalisé (ne reçoit pas la récompense attendue). Dans l’un ou l’autre cas, la machine apprend de ses performances ou de ses erreurs.
Pour ce faire, l'«agent» commence par effectuer des actions aléatoires à la recherche des séquences d'actions qui offrent de meilleures récompenses grâce aux commentaires qu’il reçoit de son environnement (l’état de la route de circulation dans l’exemple).
B. K.
(À suivre…)
(*) Professeur des Universités en mathématiques et en physique. Expert de l’enseignement supérieur et de la recherche scientifique. Expert en conduite de changement. Université de M’sila.



Votre commentaire s'affichera sur cette page après validation par l'administrateur.
Ceci n'est en aucun cas un formulaire à l'adresse du sujet évoqué,
mais juste un espace d'opinion et d'échange d'idées dans le respect.
Nom & prénom
email : *
Ville *
Pays : *
Profession :
Message : *
(Les champs * sont obligatores)