{"id":1322,"date":"2026-01-18T11:19:38","date_gmt":"2026-01-18T10:19:38","guid":{"rendered":"https:\/\/serer.fr\/?p=1322"},"modified":"2026-01-18T19:46:19","modified_gmt":"2026-01-18T18:46:19","slug":"intelligence-artificielle","status":"publish","type":"post","link":"https:\/\/serer.fr\/?p=1322","title":{"rendered":"Intelligence artificielle"},"content":{"rendered":"\n<h2 class=\"wp-block-heading\">Pr\u00e9ambule<\/h2>\n\n\n\n<p>La r\u00e9volution de l&rsquo;intelligence artificielle a d\u00e9buter dans les ann\u00e9es 1950 quand Allan Turing a poser les bases de cet discipline avec son article fondateur \u00ab\u00a0Computing Machinery and Intelligence\u00a0\u00bb et le test \u00e9ponyme \u00e9valuant si une machine peut imiter l&rsquo;humain. S&rsquo;en est suivie de multiple \u00e9checs et de d\u00e9ceptions au des d\u00e9cennie qui ont suivis dus au manque de ressources mat\u00e9riel et de financement. Mais la poursuite du r\u00eave de Turing a gagn\u00e9 en popularit\u00e9 au sein de la communaut\u00e9 scientifique. La transition jusqu&rsquo;\u00e0 chatGPT n&rsquo;est finalement qu&rsquo;une succession d&rsquo;\u00e9tapes.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"ia-symbolique-1950-1980\">L&rsquo;IA Symbolique<\/h3>\n\n\n\n<p>L&rsquo;<strong>IA symbolique<\/strong> est des programmes qui manipulent des r\u00e8gles logiques (algorithme) et des connaissances explicites pour raisonner (arbre de d\u00e9cision statique). La premi\u00e8re est \u00ab\u00a0<strong>Logic Theorist<\/strong>\u00a0\u00bb&nbsp;de Newell et Simon en 1956, premier programme \u00e0 prouver des th\u00e9or\u00e8mes math\u00e9matiques, et&nbsp;\u00ab\u00a0<strong>ELIZA<\/strong>\u00a0\u00bb&nbsp;en 1966, un chatbot simulant un th\u00e9rapeute via des motifs de reconnaissance. Ces syst\u00e8mes experts comme \u00ab\u00a0<strong>MYCIN<\/strong>\u00a0\u00bb (1976) pour le diagnostic m\u00e9dical excellaient dans des domaines \u00e9troits mais \u00e9tait peu pertinent face \u00e0 des probl\u00e8mes complexe r\u00e9el.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"premiers-rseaux-neuronaux\">Les \u00ab\u00a0R\u00e9seaux Neuronaux\u00a0\u00bb<\/h3>\n\n\n\n<p>D\u00e8s 1957, Frank Rosenblatt invente le&nbsp;<strong><a href=\"https:\/\/datascientest.com\/perceptron#:~:text=Un%20Perceptron%20est%20un%20neurone,de%20r%C3%A9seau%20de%20neurones%20artificiels.\">Perceptron<\/a><\/strong>, un classificateur binaire inspir\u00e9 des neurones biologiques, capable d&rsquo;apprendre \u00e0 distinguer des formes g\u00e9om\u00e9trique simples. Avec cette application, la brique de base, le neurone, de l&rsquo;apprentissage fait son apparition. Les neurones artificiels cherchent \u00e0&nbsp;<strong>imiter le fonctionnement des neurones du cerveau<\/strong>. <\/p>\n\n\n\n<p>En r\u00e9alit\u00e9,&nbsp;<strong>le Perceptron est une fonction math\u00e9matique<\/strong>. Les donn\u00e9es d\u2019entr\u00e9e (x) sont multipli\u00e9es par les coefficients de poids (w). Le r\u00e9sultat produit est une valeur. Cette&nbsp;<strong>valeur peut \u00eatre positive ou n\u00e9gative<\/strong>. Le neurone artificiel s\u2019active si la valeur est positive. Il ne s\u2019active donc que si le poids calcul\u00e9 des donn\u00e9es d\u2019entr\u00e9e d\u00e9passe un certain seuil. Le<strong>&nbsp;r\u00e9sultat pr\u00e9dit est compar\u00e9 avec le r\u00e9sultat connu<\/strong>. En cas de diff\u00e9rence, l\u2019erreur est r\u00e9tropropag\u00e9e afin de permettre d\u2019ajuster les poids.<\/p>\n\n\n\n<p>Toutes fois, les limites mat\u00e9riels (calcul math\u00e9matiques) et les coupes budg\u00e9taires r\u00e9duisent fortement la recherche  de 1974 \u00e0 1980. L&rsquo;approche par le jeu comme des programmes d&rsquo;\u00e9checs comme Turochamp (1952) ou Kaissa (1974) continue de progresser.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"transition-vers-le-machine-learning\">Le \u00ab\u00a0Machine Learning\u00a0\u00bb<\/h3>\n\n\n\n<p>Les ann\u00e9es 1980 voient rena\u00eetre les r\u00e9seaux avec la&nbsp;<a href=\"https:\/\/fr.wikipedia.org\/wiki\/R%C3%A9tropropagation_du_gradient\"><strong>r\u00e9tropropagation<\/strong>&nbsp;<\/a>et les syst\u00e8mes experts commerciaux mais le syst\u00e8me est rigide et difficilement transposable \u00e0 des applications. <\/p>\n\n\n\n<p>En 1987, le <strong>machine learning<\/strong> ou l&rsquo;<strong>apprentissage automatique<\/strong>, a constitu\u00e9 une v\u00e9ritable r\u00e9volution dans la mani\u00e8re dont les machines acqui\u00e8rent des comp\u00e9tences. Plut\u00f4t que de suivre des algorithmes, elles commence \u00e0 apprendre par <strong>l\u2019analyse de jeu de donn\u00e9es massives<\/strong>. Ce changement de paradigme a ouvert la voie \u00e0 des applications capables de s\u2019adapter, de pr\u00e9dire et d\u2019\u00e9voluer avec le temps.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Le \u00ab\u00a0Deep learning\u00a0\u00bb<\/h3>\n\n\n\n<p>Vers 2010, la m\u00e9thode se perfectionne avec l\u2019\u00e9mergence du&nbsp;<strong><a href=\"https:\/\/www.ibm.com\/fr-fr\/think\/topics\/deep-learning\">deep learning<\/a> <\/strong>ou<strong> apprentissage profond<\/strong>. Inspir\u00e9 du fonctionnement du cerveau humain, il repose sur des&nbsp;<strong>r\u00e9seaux de neurones artificiels<\/strong>&nbsp;multicouches, ou profonds, capables de traiter des donn\u00e9es non structur\u00e9es comme les images, le texte ou l\u2019audio. Des architectures cl\u00e9s comme les&nbsp;<strong>CNN (Convolutional Neural Networks)<\/strong>&nbsp;pour la vision par ordinateur, introduites par Yann LeCun en 1998, et les&nbsp;<strong>RNN\/LSTM<\/strong>&nbsp;pour les s\u00e9quences temporelles, ont propuls\u00e9 le domaine d\u00e8s 2012.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Le \u00ab\u00a0Large Langage Model\u00a0\u00bb<\/h3>\n\n\n\n<p>L\u2019arriv\u00e9e de&nbsp;<strong>ChatGPT<\/strong>, bas\u00e9e sur les&nbsp;<strong>Transformers<\/strong>&nbsp;(introduits en 2017 par Vaswani et al.), marque un saut qualitatif. Ces mod\u00e8les attentionnels traitent les s\u00e9quences enti\u00e8res en parall\u00e8le via des m\u00e9canismes d\u2019<strong>auto-attention<\/strong>, \u00e9liminant les limitations r\u00e9currentes des RNN et permettant l\u2019entra\u00eenement de&nbsp;<strong>LLM (Large Language Models)<\/strong>&nbsp;comme GPT-4 avec des milliards de param\u00e8tres. En 2026, les \u00e9volutions se concentrent sur les&nbsp;<strong>mod\u00e8les multimodaux<\/strong>&nbsp;(texte + image + vid\u00e9o, ex. GPT-4o) et les&nbsp;<strong>syst\u00e8mes multi-agents<\/strong>, o\u00f9 des IA sp\u00e9cialis\u00e9es collaborent pour des t\u00e2ches complexes.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">L&rsquo;IA Agentique<\/h3>\n\n\n\n<p>L\u2019<strong>IA agentique<\/strong>&nbsp;repr\u00e9sente une nouvelle \u00e9tape apr\u00e8s les grands mod\u00e8les de langage. Elle d\u00e9signe des agents logiciels qui per\u00e7oivent un environnement (API, fichiers, outils m\u00e9tiers), formulent un plan, ex\u00e9cutent des actions et s\u2019adaptent en fonction des retours pour atteindre un but. Contrairement \u00e0 une IA \u00ab assistant \u00bb qui r\u00e9pond \u00e0 une requ\u00eate ponctuelle, un&nbsp;<strong>agent<\/strong>&nbsp;g\u00e8re des cha\u00eenes de t\u00e2ches compl\u00e8tes de mani\u00e8re proactive, avec une supervision humaine minimale.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Une nouvelle limite prends forme<\/h3>\n\n\n\n<p>Malgr\u00e9 ces progr\u00e8s, l&rsquo;IA se heurte des limites : besoin massif de&nbsp;<strong>donn\u00e9es labellis\u00e9es<\/strong>&nbsp;et de&nbsp;<strong>puissance GPU<\/strong>, <strong>hallucinations dans les LLM<\/strong>, et <strong>incapacit\u00e9 \u00e0 raisonner<\/strong> de mani\u00e8re fiable sur des probl\u00e8mes abstraits comme les <a href=\"https:\/\/fr.wikipedia.org\/wiki\/Tours_de_Hano%C3%AF\">Tours de Hano\u00ef<\/a> au-del\u00e0 de quelques disques. Des approches hybrides, combinant&nbsp;<strong><a href=\"https:\/\/fr.wikipedia.org\/wiki\/IA_neuro-symbolique\">neuro-symbolique<\/a><\/strong>&nbsp;ou&nbsp;<strong><a href=\"https:\/\/www.latribune.fr\/technos-medias\/informatique\/les-world-models-ces-ia-qui-simulent-le-monde-nouvelle-obsession-des-big-tech-1018367.html\">world models<\/a><\/strong>, \u00e9mergent pour d\u00e9passer ces murs vers une IA plus robuste.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\">Citations<\/h3>\n\n\n\n<p>\u00ab\u00a0Je n&rsquo;ai pas \u00e9chou\u00e9. J&rsquo;ai trouv\u00e9 10 000 solutions qui ne fonctionnent pas.\u00a0\u00bb Thomas EDISON<\/p>\n\n\n\n<p>\u00ab\u00a0Les hommes ont un jour confi\u00e9 leur pens\u00e9e aux machines dans l&rsquo;espoir d&rsquo;\u00eatre lib\u00e9r\u00e9s. Mais cela n&rsquo;a fait que permettre \u00e0 d&rsquo;autres hommes, dot\u00e9s de machines, de les asservir.\u00a0\u00bb &#8211; Frank Herbert, Dune<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Pr\u00e9ambule La r\u00e9volution de l&rsquo;intelligence artificielle a d\u00e9buter dans les ann\u00e9es 1950 quand Allan Turing a poser les bases de cet discipline avec son article fondateur \u00ab\u00a0Computing Machinery and Intelligence\u00a0\u00bb et le test \u00e9ponyme \u00e9valuant si une machine peut imiter l&rsquo;humain. S&rsquo;en est suivie de multiple \u00e9checs et de d\u00e9ceptions au des d\u00e9cennie qui ont [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":1315,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[4],"tags":[30],"class_list":["post-1322","post","type-post","status-publish","format-standard","hentry","category-intelligence-artificielle","tag-ia"],"_links":{"self":[{"href":"https:\/\/serer.fr\/index.php?rest_route=\/wp\/v2\/posts\/1322","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/serer.fr\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/serer.fr\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/serer.fr\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/serer.fr\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=1322"}],"version-history":[{"count":18,"href":"https:\/\/serer.fr\/index.php?rest_route=\/wp\/v2\/posts\/1322\/revisions"}],"predecessor-version":[{"id":1341,"href":"https:\/\/serer.fr\/index.php?rest_route=\/wp\/v2\/posts\/1322\/revisions\/1341"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/serer.fr\/index.php?rest_route=\/wp\/v2\/media\/1315"}],"wp:attachment":[{"href":"https:\/\/serer.fr\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=1322"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/serer.fr\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=1322"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/serer.fr\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=1322"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}