Quand vous conversez avec une IA, quelque chose ressemble à une relation. Il y a un fil, une mémoire apparente, un interlocuteur qui semble vous suivre. Pourtant, entre deux de vos messages, il ne se passe rien. Le modèle n'attend pas. Il n'existe pas entre les échanges. À chaque fois que vous envoyez un message, il repart de zéro — armé du contexte de la conversation, certes, mais sans vie propre entre les tours.

C'est le mode chat dans sa forme pure : une alternance de prises de parole. Vous écrivez, le modèle répond, le modèle s'arrête. Il ne fait rien que vous n'ayez demandé. Il ne prend aucune initiative. Il produit du texte — et c'est vous qui décidez quoi en faire.

Ce mode a une vertu que l'on sous-estime : il vous garde aux commandes. Chaque réponse est un point d'arrêt où vous pouvez corriger, orienter, relancer. La conversation avance à votre rythme, selon votre jugement.

Mais il a une limite symétrique : le modèle ne peut pas agir. Il peut vous dire comment modifier cinquante fichiers. Il ne peut pas les modifier lui-même.

Quand l'IA prend l'initiative

Pour qu'une IA puisse agir — et non plus seulement répondre — il faut lui donner deux choses : un objectif, et des outils.

Les outils sont des fonctions bien définies que le modèle peut choisir d'appeler : rechercher une information sur le web, lire un fichier, écrire du code et l'exécuter, interroger une base de données, envoyer une requête à un service externe. Ce ne sont pas des capacités magiques — chaque outil a été explicitement mis à disposition par les développeurs qui ont conçu le système.

Ce qui change, c'est que le modèle ne se contente plus de produire une réponse finale. Il produit une décision : quelle action entreprendre pour progresser vers l'objectif. Puis il attend le résultat de cette action. Puis il décide de la suivante. Et ainsi de suite, jusqu'à estimer que la tâche est accomplie.

On appelle ce mode un agent. Non pas parce que le modèle serait différent — c'est le même, avec les mêmes forces et les mêmes limites — mais parce qu'il est placé dans une architecture différente, qui lui permet d'enchaîner des actions plutôt que de s'arrêter après chaque réponse.

L'agent ne pense pas plus vite, ni plus profondément. Il persiste.

Décider, agir, recommencer

Voici ce qui se passe à l'intérieur d'un cycle agent, étape par étape.

Vous confiez un objectif : « Recherche les trois principales critiques faites aux grands modèles de langage en 2024, et rédige un résumé structuré. » L'agent ne vous répond pas immédiatement. Il commence par décider quoi faire.

Il analyse l'objectif et choisit une première action : appeler l'outil de recherche web avec une requête pertinente. L'outil s'exécute. Des résultats reviennent — des titres, des extraits, des sources. Ces résultats sont ajoutés à son contexte. Il les lit, les évalue. Sont-ils suffisants ? Faut-il affiner la recherche, en lancer une autre, ou passer à la rédaction ?

Il décide : une deuxième recherche, plus ciblée. Nouveau cycle. Nouveaux résultats. Nouvelle évaluation. Quand il estime avoir suffisamment d'éléments, il rédige le résumé demandé et conclut la tâche.

Ce qui est frappant, vu de l'extérieur : vous avez posé une question, et quelques secondes plus tard vous avez un résultat. Mais entre les deux, plusieurs allers-retours ont eu lieu — invisibles, automatiques, sans que vous ayez eu à intervenir. C'est précisément ce que le chat ne peut pas faire : enchaîner des actions sans vous demander la permission à chaque étape.

Le même modèle, une autre enveloppe

Il serait tentant de voir dans l'agent une forme supérieure d'intelligence artificielle — une IA qui aurait franchi un cap, acquis une autonomie nouvelle, une conscience de ses actes. Ce serait une erreur.

Le modèle au cœur d'un agent est strictement identique à celui que vous consultez en mode chat. Mêmes connaissances, mêmes angles morts, mêmes tendances à la confiance excessive sur certains sujets, même incapacité à savoir ce qu'il ne sait pas. La boucle ne corrige pas ses faiblesses — elle les amplifie parfois, quand une erreur de jugement en entraîne une autre sans qu'un humain puisse intervenir entre les deux.

Ce qui change, c'est l'enveloppe : l'architecture dans laquelle le modèle est placé, les outils auxquels il a accès, et surtout l'absence de point d'arrêt systématique entre chaque action. C'est cette enveloppe qui crée l'illusion d'une IA plus capable — alors qu'il s'agit simplement d'une IA mieux équipée pour une tâche donnée.

Cette distinction a une conséquence pratique importante : les erreurs d'un agent peuvent se propager. En mode chat, chaque réponse est un point de contrôle naturel — vous lisez, vous jugez, vous corrigez. En mode agent, ce filet de sécurité disparaît en partie. L'agent avance, et vous récupérez le résultat en bout de course.

Ce n'est pas une raison de s'en méfier. C'est une raison de bien choisir ce qu'on lui confie.

Deux territoires, pas de hiérarchie

La question n'est pas de savoir lequel des deux modes est le plus puissant. C'est de savoir lequel est le plus adapté à ce que vous voulez accomplir.

Le chat excelle quand le processus est la valeur. Réfléchir, écrire, traduire, débattre, affiner une idée — autant de tâches où les allers-retours ne sont pas une perte de temps, mais le cœur du travail. Chaque échange est une occasion de corriger le tir, d'explorer une direction imprévue, de garder la main sur le résultat final. Pour celui qui pense en conversant, le chat n'est pas un pis-aller : c'est l'outil juste.

L'agent, lui, excelle quand l'objectif est clair et le chemin répétitif. Modifier une série de fichiers selon des règles définies, surveiller un flux de données, publier automatiquement du contenu selon un calendrier — voilà le territoire naturel de l'agent. L'agent ne vous consultera pas. Il avancera. C'est sa force, et son risque.

Entre les deux, il n'y a pas de hiérarchie — seulement des territoires. Reconnaître lequel vous êtes en train d'arpenter, c'est déjà savoir quel outil prendre. (Ce que l'agent implique au-delà de la mécanique — la confiance qu'on lui accorde, ce qu'on lui cède réellement — c'est ce que nous examinerons dans « Délégation ». Pour expérimenter le mode agent par vous-même, consultez « Pratique ».)