top of page
Rechercher
Photo du rédacteurRedha Moulla

Le mythe des servantes d'or

On peut faire remonter les origines de l'intelligence artificielle moderne à 1956, à la conférence de Dartmouth, où celle-ci a émergé en tant que discipline scientifique, comme on peut la faire remonter à 2012, avec la renaissance du deep learning, tirée par l'introduction de l'entraînement sur GPU et sur des données massives. Mais on peut également considérer que l'intelligence artificielle est le produit de siècles de rêves et de fantasmes que les conditions matérielles modernes ont rendus possibles. Après tout, le deep learning existait dès les années 80 (et le concept même est bien antérieur), mais les ressources de calcul nécessaires pour entraîner de tels modèles n'étaient pas disponibles. De même, les automates dans les différentes mythologies - indienne, grecque, etc. - et leur évolution à travers l'histoire sont des projections des désirs humains, longtemps restées inaccessibles techniquement. On peut ainsi faire remonter les origines de l'intelligence artificielle aux anciennes mythologies et saisir cette technologie à l'état de mythe ; peut-être que cela nous éclairera un peu mieux sur ses différents aspects, notamment les moins techniques.


L'un de ces mythes qui préfigure l'intelligence artificielle d'aujourd'hui est celui des servantes d'or. Il nous vient de la Grèce antique par les écrits d'Homère. Celui-ci nous décrit dans son Iliade un dieu forgeron, nommé Héphaïstos, dont l'art consistait à fabriquer des automates de toutes sortes, dotés de capacités mécaniques (comme se mouvoir, etc.), mais également de capacités de parler et d'agir d'une manière autonome - d'intelligence. Ces automates, qu'Homère appelle des jeunes filles en or, étaient décrits comme beaux et sophistiqués, capables d'assister leurs créateurs dans des tâches complexes. Il n'est peut-être pas inutile de noter ici que ces qualités idéales attribuées à ces assistantes étaient en contraste avec celles de leur dieu créateur, Héphaïstos, décrit comme laid et boiteux. Comme s'il y avait quelque chose de l'ordre du dépassement de ses propres limites dans la création de ces assistantes qui, elles, étaient infaillibles.


Dans un célèbre commentaire extrait de son livre La Politique, Aristote a évoqué ce mythe des servantes d'or, en établissant un lien avec la production et l'automatisation des tâches, 25 siècles avant notre ère ! "Si chaque instrument, en effet, pouvait, sur un ordre reçu, ou même deviné, travailler de lui-même, comme les statues de Dédale, ou les trépieds de Vulcain, « qui se rendaient seuls, dit le poète, aux réunions des dieux » ; si les navettes tissaient toutes seules ; si l'archet jouait tout seul de la cithare, les entrepreneurs se passeraient d'ouvriers, et les maîtres, d'esclaves".


De l'intelligence artificielle aux agents intelligents


Il y a sans doute plusieurs histoires possibles de l'évolution de l'intelligence artificielle depuis son avènement, il y a maintenant près de 70 ans ; il y a plusieurs fils qui peuvent être déroulés d'une manière cohérente en prenant un point de vue technique (celui de l'évolution des moyens de calcul, par exemple), ou un point de vue économique (évolution des cas d'usage), etc. Je voudrais ici tirer un de ces fils, qui consiste à voir l'évolution de l'intelligence artificielle comme celle d'une autonomie toujours croissante accordée à la machine.


Il y a d'abord eu les systèmes experts, qui représentaient une forme d'autonomie de la machine, dans la mesure où celle-ci était désormais capable de prendre des décisions (accorder un crédit, statuer sur un diagnostic médical, etc.). Mais ces systèmes étaient basés sur des règles explicites dictées et codées par des humains. Ils sont parfaitement prévisibles et leur marge de manœuvre, en quelque sorte, est très étroite.


Le développement de l'apprentissage automatique (machine learning) a introduit une autonomie plus avancée ; les machines pouvaient maintenant apprendre leurs propres règles de décision directement à partir des données, en s'affranchissant des règles dictées par les humains. Cette approche leur confère indéniablement une plus grande autonomie par rapport aux systèmes experts, mais les machines restent encore très largement dépendantes de l'intervention humaine, notamment quand il s'agit du choix des caractéristiques (les features comme disent les data scientists) utilisées pour la prise de décision. Celles-ci sont en effet explicitement et soigneusement sélectionnées par les développeurs selon des considérations mathématiques et métier.


Cependant, avec l'avènement du deep learning dans les années 1980 - et surtout après 2012 avec l'émergence de la puissance de calcul et des données massives -, ce processus de définition des caractéristiques se retrouve confié à la machine. Les modèles de deep learning sont en effet réputés pour leurs capacités à extraire à partir des données, notamment non structurées (images, texte, etc.), les caractéristiques nécessaires pour accomplir leurs tâches de manière performante. À titre d'exemple, un modèle de deep learning est capable typiquement d'identifier les caractéristiques qui distinguent un chat d'un chien sur les images, sans spécification humaine. Ils sont ainsi nettement plus autonomes que les autres modèles de machine learning, d'où d'ailleurs leurs performances supérieures sur les données non structurées. Mais les modèles de deep learning classiques (autres que les LLMs) sont entraînés pour des tâches très spécifiques (identifier si un mail est un spam ou non, par exemple) ; ils sont généralement incapables de s'adapter à d'autres tâches.


L'avènement des Large Language Models (LLMs) autour de 2020 a permis aux modèles de deep learning, sur les données textuelles du moins, de surmonter cette limite ; ils sont désormais capables de s'adapter à différentes tâches comme la génération de texte, de code, la résolution de problèmes, etc. Il n'y a plus besoin d'intervention humaine pour les réentraîner à chaque fois pour une nouvelle tâche ; ces modèles sont donc bien plus autonomes, en ce sens, que les modèles de deep learning classiques. Mais il s'agit tout de même d'une autonomie limitée, car les LLMs ne sont capables d'exécuter que des tâches simples, atomiques, qui n'impliquent pas des sous-tâches intermédiaires.


Plus récemment, l'émergence de ce que l'on appelle l'IA agentique (agentic AI) rend possible l'exécution de tâches complexes. L'agent, généralement un LLM qui interagit avec lui-même ou avec d'autres LLMs, peut décider, d'une manière autonome, d'exécuter des tâches intermédiaires pour accomplir la tâche finale qui lui a été assignée, comme par exemple effectuer une recherche sur internet, exécuter un script Python et analyser son résultat, etc. L'ensemble des tâches intermédiaires est généralement défini par l'humain, qui met à la disposition de l'agent les outils lui permettant de les exécuter quand celui-ci estime que c'est nécessaire.


L'ère des agents artificiels


Qu'est-ce qu'un agent artificiel finalement ? Il n'y a pas de consensus autour de sa définition, et ce concept peut renvoyer à différents systèmes d'intelligence artificielle. Je définirais ici l'agent comme un programme ou un automate capable d'exécuter, de manière autonome, des tâches intermédiaires pour atteindre un objectif final prédéterminé. Ce type d'agents est en réalité déjà là depuis quelque temps : les versions récentes de ChatGPT (depuis GPT-4) sont des agents dans la mesure où elles sont capables de prendre des actions en toute autonomie, comme naviguer sur le web, produire un script et l'exécuter pour répondre à certaines requêtes, etc. De tels agents sont déjà utilisés par des millions de personnes à travers le monde comme aide dans les tâches quotidiennes : produire du code, du contenu rédactionnel, etc. Ils évoluent d'ailleurs vers des fonctionnalités qui les positionnent de plus en plus comme des assistants. On trouve également dans le paysage de l'IA des agents spécialisés dans certains domaines, comme Cursor et Replit, pour le développement logiciel.


Les agents artificiels sont appelés à conquérir d'immenses territoires d'usages, à court et moyen terme, en entreprise comme dans la sphère personnelle. Les briques technologiques permettant leur expansion sont déjà là ; l'émergence des LLMs et leur popularisation en est sans doute le principal facteur. Ces modèles représentent la partie cognitive des agents ; ils ont des capacités de compréhension, d'interprétation et de génération de langage naturel qui leur confèrent une certaine autonomie d'action et de prise de décision. Ainsi, en fonction du contexte, un LLM est capable de choisir l'action la plus pertinente pour atteindre une fin. Ces actions peuvent consister en une réponse simple à une requête de l'utilisateur ; mais elles peuvent également consister en l'utilisation d'outils extérieurs mis à la disposition du LLM par le concepteur - utilisation d'une API pour naviguer sur le web ou pour générer des images, exécution d'un script Python, accès à des bases de données, etc. Cette capacité des LLMs à se doter d'outils extérieurs est un saut décisif qui les rend capables d'exécuter des tâches de plus en plus complexes, et non plus de simples réponses à des requêtes. Par ailleurs, les LLMs sont également capables de traiter des données autres que le langage naturel, comme les images et le son, ce qui leur permet d'accéder à d'autres modes d'interaction avec l'environnement extérieur et les utilisateurs. Les fonctionnalités d'Advanced voice de ChatGPT, par exemple, s'inscrivent dans cet esprit ; elles rendent l'interaction avec l'utilisateur plus fluide et plus naturelle, comme s'il s'agissait d'échanges proprement humains - un élément qui tend à ancrer davantage ces agents comme des assistants.


Du point de vue purement technique, nous avons vu ces deux dernières années l'émergence de tout un écosystème de librairies en Python qui facilitent le développement et le déploiement de tels agents ; je pense notamment à LangChain. Bien que ces outils ne soient pas encore complètement stables, ils rendent le développement des agents accessible à peu près à tout le monde (sous réserve d'avoir quelques éléments en LLMs et en Python quand même !) en abstrayant certaines parties du processus de développement.


Si la technologie est déjà là pour permettre un déploiement massif de ces agents, le besoin l'est également. Un développeur utilisant Cursor ou Replit peut désormais déléguer à son agent une partie de l'écriture du code, de la documentation, voire du debugging. Un marketeur pourra, demain, confier à son agent la génération de contenus, l'analyse des retours clients et la personnalisation des messages. Un chercheur pourra demander à son agent d'effectuer une revue préliminaire de la littérature, de suggérer des pistes d'investigation et d'analyser les données. Et on peut multiplier ainsi les cas d'usage dans quasiment tous les domaines ; de fait, ces agents s'imposent comme une nouvelle interface pour les tâches complexes.


Des défis et des questions éthiques


Le déploiement massif des agents ne va pas sans risque, et pose de véritables questions éthiques, à plusieurs niveaux. Au niveau le plus élémentaire, il y a tout simplement le risque de faire des erreurs. Les LLMs, constituant la partie cognitive de ces agents, sont aujourd'hui une technologie qui n'est pas infaillible (capacités de raisonnement limitées, hallucinations, etc.). Mais, paradoxalement, ce risque est peut-être le moins dangereux car il est visible et relativement facile à détecter ; il peut être contenu avec des garde-fous adaptés.


Au niveau supérieur, on trouve le risque lié à l'essence même de ces agents, à leur autonomie. Accomplir des tâches complexes suppose de décider, à chaque étape, du choix de l'action la plus pertinente à exécuter pour atteindre une finalité. Or, quand ce processus implique une longue chaîne d'étapes intermédiaires, il y a un risque que l'agent emprunte un chemin indésirable, voire dangereux, mais tout à fait efficace pour atteindre une finalité déterminée ; l'objectif final est bien atteint, mais au prix de conséquences potentiellement néfastes, dues au mauvais chemin emprunté par l'agent - un peu comme dans le labyrinthe de Dédale, aux multiples embranchements, où le concepteur lui-même perdrait le fil d'Ariane vers la sortie.


Plus haut, au troisième niveau, on trouve les risques systémiques, liés à l'interaction entre agents. À mesure que les agents se multiplient et interagissent les uns avec les autres, des effets émergents peuvent apparaître, qui sont difficiles à prédire même en ayant une connaissance intime du fonctionnement de chaque agent isolément. C'est déjà le cas dans certains domaines, comme la finance, où des agents de trading automatisé peuvent créer des cascades de réactions conduisant à des crashes.


Le dernier niveau de risque, plus sournois, est celui de la dépendance. À mesure que nous déléguerons des tâches de plus en plus complexes à des agents, nous risquons de perdre la capacité à les effectuer nous-mêmes. Cette dépendance pourrait devenir particulièrement critique dans des domaines stratégiques comme la cybersécurité, la gestion des infrastructures critiques, ou la prise de décision financière. Mais cette dépendance, déjà perceptible aujourd'hui, nous interroge sur son impact même sur l'évolution de nos capacités cognitives.


Homère nous décrit des servantes d'or qui se rendaient d'elles-mêmes à l'assemblée des dieux ; mais il ne nous dit pas ce que ces créatures artificielles y faisaient, si elles participaient aux délibérations et influençaient les décisions qui affectaient le sort des mortels. Cela dépend encore des humains - non pas de leur génie technique et créatif cette fois, mais de leur sagesse à manier le feu transmis par Prométhée.

657 vues0 commentaire

Posts récents

Voir tout

Habiter l'incertitude

Le passage au nouvel an, cette année, est empreint d'une ambiance particulière. Une forme de conscience que nous entrons dans une...

DeepSeek-V3 : innover avec peu de moyens

Nous n'avons pas beaucoup de GPU mais nous avons beaucoup d'idées, pourraient dire les Chinois de DeepSeek. J'ai déjà évoqué ici cette...

La déraisonnable efficacité des LLMs

John McCarthy est très connu pour avoir inventé le concept d'intelligence artificielle ; mais il a également inventé un autre concept -...

Comments


bottom of page