Intelligence artificielle
Préambule
La révolution de l’intelligence artificielle a débuter dans les années 1950 quand Allan Turing a poser les bases de cet discipline avec son article fondateur « Computing Machinery and Intelligence » et le test éponyme évaluant si une machine peut imiter l’humain. S’en est suivie de multiple échecs et de déceptions au des décennie qui ont suivis dus au manque de ressources matériel et de financement. Mais la poursuite du rêve de Turing a gagné en popularité au sein de la communauté scientifique. La transition jusqu’à chatGPT n’est finalement qu’une succession d’étapes.
L’IA Symbolique
L’IA symbolique est des programmes qui manipulent des règles logiques (algorithme) et des connaissances explicites pour raisonner (arbre de décision statique). La première est « Logic Theorist » de Newell et Simon en 1956, premier programme à prouver des théorèmes mathématiques, et « ELIZA » en 1966, un chatbot simulant un thérapeute via des motifs de reconnaissance. Ces systèmes experts comme « MYCIN » (1976) pour le diagnostic médical excellaient dans des domaines étroits mais était peu pertinent face à des problèmes complexe réel.
Les « Réseaux Neuronaux »
Dès 1957, Frank Rosenblatt invente le Perceptron, un classificateur binaire inspiré des neurones biologiques, capable d’apprendre à distinguer des formes géométrique simples. Avec cette application, la brique de base, le neurone, de l’apprentissage fait son apparition. Les neurones artificiels cherchent à imiter le fonctionnement des neurones du cerveau.
En réalité, le Perceptron est une fonction mathématique. Les données d’entrée (x) sont multipliées par les coefficients de poids (w). Le résultat produit est une valeur. Cette valeur peut être positive ou négative. Le neurone artificiel s’active si la valeur est positive. Il ne s’active donc que si le poids calculé des données d’entrée dépasse un certain seuil. Le résultat prédit est comparé avec le résultat connu. En cas de différence, l’erreur est rétropropagée afin de permettre d’ajuster les poids.
Toutes fois, les limites matériels (calcul mathématiques) et les coupes budgétaires réduisent fortement la recherche de 1974 à 1980. L’approche par le jeu comme des programmes d’échecs comme Turochamp (1952) ou Kaissa (1974) continue de progresser.
Le « Machine Learning »
Les années 1980 voient renaître les réseaux avec la rétropropagation et les systèmes experts commerciaux mais le système est rigide et difficilement transposable à des applications.
En 1987, le machine learning ou l’apprentissage automatique, a constitué une véritable révolution dans la manière dont les machines acquièrent des compétences. Plutôt que de suivre des algorithmes, elles commence à apprendre par l’analyse de jeu de données massives. Ce changement de paradigme a ouvert la voie à des applications capables de s’adapter, de prédire et d’évoluer avec le temps.
Le « Deep learning »
Vers 2010, la méthode se perfectionne avec l’émergence du deep learning ou apprentissage profond. Inspiré du fonctionnement du cerveau humain, il repose sur des réseaux de neurones artificiels multicouches, ou profonds, capables de traiter des données non structurées comme les images, le texte ou l’audio. Des architectures clés comme les CNN (Convolutional Neural Networks) pour la vision par ordinateur, introduites par Yann LeCun en 1998, et les RNN/LSTM pour les séquences temporelles, ont propulsé le domaine dès 2012.
Le « Large Langage Model »
L’arrivée de ChatGPT, basée sur les Transformers (introduits en 2017 par Vaswani et al.), marque un saut qualitatif. Ces modèles attentionnels traitent les séquences entières en parallèle via des mécanismes d’auto-attention, éliminant les limitations récurrentes des RNN et permettant l’entraînement de LLM (Large Language Models) comme GPT-4 avec des milliards de paramètres. En 2026, les évolutions se concentrent sur les modèles multimodaux (texte + image + vidéo, ex. GPT-4o) et les systèmes multi-agents, où des IA spécialisées collaborent pour des tâches complexes.
L’IA Agentique
L’IA agentique représente une nouvelle étape après les grands modèles de langage. Elle désigne des agents logiciels qui perçoivent un environnement (API, fichiers, outils métiers), formulent un plan, exécutent des actions et s’adaptent en fonction des retours pour atteindre un but. Contrairement à une IA « assistant » qui répond à une requête ponctuelle, un agent gère des chaînes de tâches complètes de manière proactive, avec une supervision humaine minimale.
Une nouvelle limite prends forme
Malgré ces progrès, l’IA se heurte des limites : besoin massif de données labellisées et de puissance GPU, hallucinations dans les LLM, et incapacité à raisonner de manière fiable sur des problèmes abstraits comme les Tours de Hanoï au-delà de quelques disques. Des approches hybrides, combinant neuro-symbolique ou world models, émergent pour dépasser ces murs vers une IA plus robuste.
Citations
« Je n’ai pas échoué. J’ai trouvé 10 000 solutions qui ne fonctionnent pas. » Thomas EDISON
« Les hommes ont un jour confié leur pensée aux machines dans l’espoir d’être libérés. Mais cela n’a fait que permettre à d’autres hommes, dotés de machines, de les asservir. » – Frank Herbert, Dune
