Algérie

L’intelligence artificielle et ChatGPT (1re partie)



L’intelligence artificielle et ChatGPT (1re partie)
Publié le 15.05.2023 dans le Quotidien Le Soir d’Algérie
Par le Dr. Ali Kahlane(*)

Dans les recoins silencieux d'un laboratoire de recherche, l'émergence d'une nouvelle ère technologique se préparait : créer une intelligence artificielle capable de converser avec les humains de manière authentique. Pendant des décennies, les chercheurs se sont heurtés aux limites du langage naturel, à ses subtilités insaisissables et à ses nuances complexes. Mais aujourd’hui, tout a changé avec l'avènement de ChatGPT.
Comme un protagoniste, sorti tout droit d'un film de science-fiction, ChatGPT est apparu sur la scène technologique prêt à défier les conventions et à repousser les frontières de l'interaction homme-machine. Les premiers essais ont suscité l'étonnement général : cette IA conversationnelle démontrait une compréhension impressionnante, naviguant avec aisance dans les dédales sinueux de notre langage quotidien. Les experts se sont frottés les yeux, incrédules face à sa capacité à saisir les subtilités et à répondre de manière cohérente aux questions les plus complexes.
L'excitation a rapidement cédé le pas à un sentiment d'appréhension. Si une machine pouvait surpasser les humains dans l'art de la conversation, que signifiait réellement cette avancée technologique ? Les questions éthiques ont émergé, mêlées à une pointe d'inquiétude. Quelles seraient les implications pour notre société ? ChatGPT serait-il un allié précieux ou un rival redoutable ? Les avis divergent, mais tous s'accordent sur une chose : ChatGPT a bouleversé le monde de l'intelligence artificielle et ouvert une nouvelle ère de possibilités.
Ainsi, en quelques mois seulement, ChatGPT est devenu le témoin d'une transformation majeure, propulsant l'intelligence artificielle conversationnelle au-devant de la scène mondiale. Alors que nous explorons ce nouveau territoire, nous nous demandons quelles surprises nous réserve l'avenir et comment cette technologie continuera à façonner notre manière de communiquer et d'interagir.
Cet article offre un aperçu de l'historique de l'IA depuis les travaux de scientifiques musulmans jusqu'aux modèles de langage actuels tels que GPT-3 et GPT-4 sur lesquels est basé ChatGPT. Il examine les progrès de l'intelligence artificielle (IA) au fil du temps, mettant en lumière les principaux contributeurs et réalisations, tout en abordant les enjeux éthiques associés, notamment l'automatisation, les pertes d'emplois, la vie privée et les biais algorithmiques. L'article met l'accent sur les implications des applications d'IA dans un contexte culturel et religieux, et explore les avancées récentes dans des domaines tels que la défense, les marchés financiers et la recherche, en utilisant l'apprentissage par renforcement et l'apprentissage profond pour résoudre les défis actuels.

Introduction
Le métier à tisser mécanisé, au dix-neuvième (XIXe) siècle, était muni de cartes perforées pour réaliser les différents motifs sur le textile. Ces mêmes cartes perforées seront utilisées par les premiers ordinateurs, 120 ans plus tard, popularisées par la compagnie IBM et adoptées dans tous les équipements informatiques, elles seront abandonnées dans les années 1970 et, un quart de siècle plus tard, en 1997, Deep Blue, une intelligence artificielle, construite par ce même IBM, bat le champion du monde des échecs Garry Kasparov.
L'intelligence artificielle (IA) est un domaine de recherche en informatique qui vise à créer des machines et des programmes capables de réaliser des tâches qui nécessitent normalement l'intelligence humaine. En d'autres termes, l'IA permet aux ordinateurs d'apprendre, de raisonner, de comprendre et d'interagir de manière similaire à la façon dont les humains le font. L'objectif est de faciliter notre vie quotidienne et d'améliorer les performances dans divers domaines, tels que la médecine, la finance, l'industrie et la recherche en général.

L'histoire de l'intelligence artificielle

Sans les mathématiques et les algorithmes, il n’y aurait eu point d’IA. Ils sont un élément-clé de l'IA et les travaux d'Al-Khawarizmi ont jeté les bases de cette discipline, en contribuant au développement des outils mathématiques nécessaires à la création de systèmes intelligents.
Il est considéré comme le père de l'algèbre et a joué un rôle-clé dans le développement des mathématiques, ce qui a finalement contribué à l'essor de l'IA. Ses travaux sur l'algèbre ont conduit au développement de la programmation informatique moderne, qui est à la base de l'IA. Son livre Al-jabr wa'l-muqabala a introduit des concepts tels que les équations, les algorithmes et les variables, qui sont fondamentaux pour la résolution de problèmes mathématiques complexes et pour la programmation informatique.
L’autre pilier de l’IA moderne était Al Jazari, un ingénieur, un inventeur et un mécanicien célèbre de son temps, qui a conçu de nombreux dispositifs mécaniques sophistiqués, notamment des horloges et des automates. Ses inventions ont influencé le développement ultérieur de la robotique et de l'automatisation, qui ont finalement contribué à l'essor de l'IA.
L'histoire de l'IA moderne remonte à l'époque d'Alan Turing, un mathématicien britannique qui a joué un rôle-clé dans le décryptage des codes nazis pendant la Seconde Guerre mondiale. En 1950, Turing a publié un article intitulé «Computing Machinery and Intelligence» dans lequel il a proposé le fameux test de Turing, un critère pour déterminer si une machine peut ou non penser comme un être humain. Le test de Turing consiste à poser des questions à une machine et à évaluer si les réponses sont suffisamment intelligentes pour tromper un humain, en pensant qu'il parle à un autre humain. Un test que les GPT passeraient allégrement aujourd’hui.
En 1956, un groupe de chercheurs en informatique, comprenant John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon, a organisé une conférence à Dartmouth College pour discuter de l'IA. Cette conférence est souvent considérée comme le point de départ officiel de l'IA en tant que domaine de recherche distinct.
Pendant les années 1950 et 1960, les chercheurs en IA ont développé des programmes informatiques capables de résoudre des problèmes simples tels que la résolution de problèmes mathématiques, la reconnaissance de caractères et l’aide à la prise de décision.

Le manque de puissance des ordinateurs : le premier «hiver» de l’IA
Dans les années 1970 et 1980, les progrès de l'IA ont été relativement lents, principalement en raison de la complexité des tâches à accomplir et de la difficulté à obtenir des ordinateurs suffisamment puissants pour gérer de grands ensembles de données dont le stockage et l’accès posaient aussi des problèmes insolubles à l’époque.
Cependant, cette période a vu l'émergence de nouvelles approches pour résoudre les problèmes d'IA, notamment l'apprentissage automatique, la recherche en logique et les systèmes experts. Ces systèmes ont été largement utilisés dans les années 1980 pour automatiser des tâches dans des domaines tels que la médecine, l'ingénierie et la finance. Ces systèmes sont basés sur des règles simples qui sont utilisées pour résoudre des problèmes spécifiques comme l’aide au diagnostic médical. Les experts humains sont souvent impliqués dans le développement de ces systèmes pour garantir leur précision.
La recherche en logique a également joué un rôle important dans les développements de l'IA des années 1970 et 1980. Les chercheurs ont exploré des méthodes telles que la programmation logique et la résolution de problèmes pour améliorer la capacité des ordinateurs à effectuer des tâches d'IA.
Dans les années 1990, l'IA a connu un renouveau grâce à la montée en puissance des ordinateurs et à l'essor d'internet. Cette période a vu l'émergence de nouveaux domaines de recherche, tels que l'apprentissage profond et les réseaux neuronaux. Ces réseaux sont modélisés sur le cerveau humain et sont capables d'apprendre des caractéristiques à plusieurs niveaux de complexité.
Cette approche a été utilisée pour améliorer la reconnaissance vocale, la classification d'images et la traduction automatique.

Le manque de financements : le deuxième «hiver» de l’IA
Au tournant du millénaire, l'IA a connu un autre «hiver» avec un manque de financement et de progrès, mais avec l'avènement d'internet et des ordinateurs plus puissants, la recherche en IA a rebondi. Au cours de la décennie suivante, il y a eu des avancées significatives dans les réseaux neuronaux profonds, les systèmes experts, la robotique et l'accessibilité des outils d'IA. Ces avancées ont permis des améliorations dans la reconnaissance d'images, la reconnaissance vocale, la production industrielle, la chirurgie et bien d'autres domaines. La recherche en IA a connu une renaissance à la fin des années 1990.
Elle a connu une croissance exponentielle depuis lors. Tout s’est accéléré dès le milieu des années 2010. Grâce à une combinaison de facteurs, tels que l'augmentation de la puissance de calcul des ordinateurs, la disponibilité de grandes quantités de données pour l'apprentissage automatique, les avancées dans les algorithmes d'apprentissage en profondeur et l'essor de la technologie de cloud computing. Cependant, il convient de noter que la recherche en IA a connu des périodes de progrès et de ralentissement tout au long de son histoire.
Les grands modèles de langages ou LLM
Tout le monde est habitué au confort que nous avons en tapant du texte sur nos claviers de smartphone ou ordinateur et que ces derniers pré-tapent, souvent en grisé, la suite d’un mot ou d’une expression, à notre place ou ces corrections automatiques de mots qui nous font très souvent tressauter ou sourire. Cela fait désormais partie de notre vie d’hyperconnecté.
C’est ce principe simple, que nous connaissons et utilisons tous, sur lequel est basé le fonctionnement de GPT ainsi que tous les autres modèles de langages connus (Fig. n°3). Ce sont des modèles d'apprentissage automatique qui sont utilisés pour prédire la probabilité de la prochaine séquence de mots dans un texte et la générer. Les LLM, ou Modèles de Langage à Grande Échelle, sont des systèmes d'intelligence artificielle conçus pour comprendre et produire du texte. Ils apprennent à partir de grandes quantités de données pour mieux saisir les règles et les subtilités de la langue. Ces modèles peuvent répondre aux questions, écrire des textes et dialoguer avec les utilisateurs de manière fluide et cohérente.
Le programme informatique GPT de la compagnie OpenAi, dont il est surtout question ici, est un grand modèle de langage, en anglais Large Language Model (LLM). C’est un programme informatique qui peut comprendre ce que les gens écrivent ou disent et prédire ce qu'ils pourraient dire suite à cela. Il génère des phrases et du texte (Generative) parce qu’il entraîne sur une masse astronomique de données (Pre-trained) ce qui lui permet de les transformer (Transformer) en quelque chose de cohérent.

ChatGPT
ChatGPT, en revanche, est une application spécifique basée sur les modèles GPT. ChatGPT est conçu pour interagir avec les utilisateurs en langage naturel, en fournissant des réponses et en ayant des conversations cohérentes. Il s'agit essentiellement d'un chatbot intelligent qui utilise la puissance des modèles GPT pour comprendre et répondre aux requêtes des utilisateurs. C’est ainsi que la version gratuite GPT-3.5 analyse déjà un grand nombre de textes pour apprendre la probabilité qu'un mot apparaisse dans un certain contexte. Il utilise pour cela 175 milliards de paramètres, qui sont des instructions spéciales qui aident l'ordinateur à comprendre et à prédire le langage humain.

C’est quoi un paramètre pour l’IA ?
Imaginons que GPT soit un apprenti cuisinier qui apprend à préparer de nombreux plats différents. Les paramètres sont comme les ingrédients et les techniques de cuisson que l'apprenti doit maîtriser pour réussir chaque plat. Lorsque GPT étudie d'énormes quantités de textes, il apprend à ajuster ces «ingrédients» et «techniques de cuisson» (paramètres) pour mieux comprendre et reproduire les structures et les nuances du langage humain. Plus il y a de paramètres, plus GPT peut saisir les détails subtils du langage, ce qui lui permet de générer des réponses plus précises et cohérentes. Ainsi, les milliards de paramètres sont comme des milliards d'ingrédients et de techniques que GPT doit apprendre pour maîtriser le «plat» du langage humain. En ajustant et en affinant ces paramètres, le modèle devient plus compétent pour comprendre et imiter notre façon de communiquer.
Tous les paramètres ont été générés automatiquement par l'ordinateur lors de l'entraînement du modèle, car il serait trop difficile pour les humains de les créer manuellement. Ils sont un peu comme des briques de construction qui lui permettent de comprendre les mots, les phrases et le contexte.
Une information très importante, bien qu’il soit, pour le moment, limité aux informations d’avant 2021 et qu’il n’est pas connecté à internet, c'est malgré tout comme avoir une bibliothèque entière de toute la connaissance et le savoir humains à portée de main.

Qu’est-ce que ne peut pas faire ChatGPT ?
ChatGPT, en plus d’être un chatbot, est un agent conversationnel et un agent personnel comme il en existe de plusieurs types depuis longtemps (Siri, Alexa, Ok Google…). ChatGPT peut écrire et aider à écrire des textes, répondre à des questions ou fournir des informations sur tout ou presque.
C’est comme un artiste intelligent qui apprend en observant des exemples et crée ensuite de nouvelles choses à partir de ce qu'il a appris. Il peut créer du texte, des images, de la musique ou des vidéos en s'inspirant de ce qu'il a vu auparavant, mais en produisant quelque chose d'unique et de différent. Nous verrons plus bas que GPT-4 s’en approche encore beaucoup plus, surtout en ce qui concerne les images et les vidéos, ce que n’est pas capable de faire la version 3.5.
C’est ainsi que ChatGPT peut, en un tour de main, compléter un email ou une lettre, répondre à une question posée sur un site web ou même générer des idées créatives pour un projet. C’est un rédacteur et un créateur de contenu hors pair. Il peut rédiger une poésie ou une prose, écrire des nouvelles ou des histoires courtes sur des sujets variés.
Il peut tout aussi bien rédiger des articles de blog sur des sujets d'intérêt général, des conseils, des opinions ou des critiques. Il est capable de préparer des discours pour une occasion spéciale, comme une remise de prix ou une présentation professionnelle.
Il est tout aussi à l’aise pour rédiger des rapports et des essais académiques avec un texte structuré et argumenté comme tout travail universitaire ou de recherche. Il peut aisément préparer des curriculum vitae professionnels pour mettre en valeur les compétences et expériences professionnelles et rédiger des lettres de motivation.
Il peut alimenter les réseaux sociaux (Facebook, Twitter, Instagram, etc.) avec du contenu de qualité ou préparer des synopsis et des pitchs pour présenter un projet créatif ou entrepreneurial. Comme il est aussi capable de préparer et rédiger des documents didactiques pour enseigner une compétence ou un processus ou enfin écrire des biographies en racontant l'histoire d’une vie ou celle d'une personne inspirante. En fait, on devrait plutôt se demander qu’est-ce qu’il ne peut pas faire ?

ChatGPT-4
GPT-3.5 a dernièrement évolué vers une version 4 plus avancée. GPT-4 aurait plus d’un trillion de paramètres, soit plus de 500 fois plus que GPT-3.5. Alors que cette dernière est toujours disponible et gratuite, GPT-4 est, par contre, payante.
La différence essentielle entre GPT-3.5 et GPT-4 réside dans la taille de leurs modèles respectifs et dans leurs données d’entraînement. Le modèle GPT-4 est beaucoup plus grand, ce qui signifie qu’il peut traiter des tâches plus complexes et générer des réponses plus précises. Cela est dû à un ensemble de données d’entraînement plus étendu, qui lui donne une base de connaissances plus large et une meilleure compréhension du contexte. Grâce à ChatGPT, l'IA va forcément être encore plus présente dans notre vie quotidienne.
Les chatbots, les assistants vocaux et les agents conversationnels basés sur l'IA seront de plus en plus courants et naturellement installés dans toutes les unités connectées qui nous entourent, offrant une expérience utilisateur plus personnalisée et plus conviviale.
A. K. (À suivre)
(*) Vice-président CARE (Cercle d'action et de réflexion pour l'entreprise). 



Votre commentaire s'affichera sur cette page après validation par l'administrateur.
Ceci n'est en aucun cas un formulaire à l'adresse du sujet évoqué,
mais juste un espace d'opinion et d'échange d'idées dans le respect.
Nom & prénom
email : *
Ville *
Pays : *
Profession :
Message : *
(Les champs * sont obligatores)