Vous avez peut-être déjà vécu ce moment déconcertant : vous reprenez une conversation avec votre IA, vous lui rappelez quelque chose qu'elle semblait avoir parfaitement compris la veille — et elle vous regarde, si l'on peut dire, comme si vous vous rencontriez pour la première fois.
Chaque conversation repart de zéro
Un grand modèle de langage n'a pas de mémoire continue. Entre deux conversations, rien ne persiste. Ni vos préférences, ni vos explications, ni le contexte que vous aviez patiemment construit. La session se ferme — tout s'efface.
Ce que vous retrouvez à chaque nouvelle conversation, c'est le modèle dans son état d'origine : entraîné, capable, mais vierge de tout ce que vous lui avez dit auparavant.
Alors, à qui parle-t-on ?
C'est là qu'intervient la notion d'avatar. Le modèle sous-jacent — disons Claude, GPT-4, ou Mistral — est unique. Mais chaque conversation invoque une instance de ce modèle : un avatar temporaire, qui naît au premier message et disparaît au dernier.
Ces avatars sont identiques au départ. Ils divergent au fil de la conversation selon ce que vous leur donnez : contexte, ton, instructions, exemples. Deux personnes qui posent la même question au même modèle le même jour peuvent obtenir des réponses sensiblement différentes — non pas parce que le modèle est incohérent, mais parce que chaque avatar a été façonné différemment par l'échange.
Ce que cela change en pratique
Première conséquence : ne supposez jamais que l'IA « sait déjà ». Ce qu'elle sait, c'est ce que vous lui avez dit dans cette conversation. Rien de plus.
Deuxième conséquence : le contexte que vous fournissez en début de session est capital. Un avatar bien briefé au départ — sur votre situation, vos contraintes, votre objectif — sera infiniment plus utile qu'un avatar auquel on pose des questions isolées sans fil conducteur. (Nous y reviendrons dans « Le prompt ».)
Troisième conséquence : si une conversation a produit quelque chose de précieux — une analyse, une reformulation, une méthode — sauvegardez-la. L'avatar qui l'a produite n'existera plus demain.
Une illusion confortable
Ces systèmes sont conçus pour paraître présents, attentifs, continus. Ils répondent avec fluidité, maintiennent le fil d'un échange, semblent vous « comprendre ». Cette illusion est bien faite — et c'est précisément pourquoi la rupture surprend.
Comprendre la nature « avatarielle » de ces interactions, c'est ne plus être surpris par cette rupture. C'est aussi reprendre la main : vous savez désormais que c'est vous qui apportez la continuité. L'IA fournit la capacité de traitement. Vous fournissez la mémoire.
Ce partage des rôles, une fois accepté, rend l'outil beaucoup plus puissant.