Un tour d'horizon complet pour comprendre où on en est, d'où ça vient, et vers quoi tout ça nous mène.
Alan Turing pose la question fondatrice : "Can machines think ?" Il propose un test pour évaluer l'intelligence d'une machine en la comparant à un humain.
La conférence de Dartmouth lance officiellement le champ. Les chercheurs sont optimistes — trop. Ils pensent résoudre le problème en quelques décennies.
Les promesses ne tiennent pas. Les financements s'assèchent. L'IA entre dans une longue période de disgrâce, par deux fois.
L'ordinateur d'IBM bat le champion du monde d'échecs. L'IA symbolique prouve qu'elle peut surpasser l'humain dans des domaines précis et définis.
AlexNet gagne ImageNet par une marge écrasante. Les réseaux de neurones profonds, dopés aux GPU et aux données massives, relancent tout le domaine.
Google publie "Attention is all you need". Ce papier change tout : c'est la fondation de tous les grands modèles de langage modernes (GPT, Claude, Gemini…).
ChatGPT, Midjourney, Claude, Gemini, Sora… L'IA générative entre dans le quotidien de centaines de millions de personnes en quelques mois.
C'est là où on en est aujourd'hui. Une IA qui excelle dans une tâche précise : reconnaître des visages, traduire du texte, jouer aux échecs. Elle ne "comprend" rien au-delà de sa spécialité.
OÙ NOUS SOMMESUne IA capable de raisonner et d'apprendre comme un humain, dans n'importe quel domaine. Le Saint Graal de la recherche. Certains pensent qu'elle est proche ; d'autres que c'est encore loin.
HORIZON INCERTAINUne hypothétique IA qui dépasserait l'intelligence humaine dans tous les domaines. Sujet de spéculation intense et de débat éthique — le scénario qui inquiète le plus les chercheurs.
HYPOTHÉTIQUELa vieille approche : coder des règles à la main (si X alors Y). Efficace dans des domaines bornés, rigide face à l'ambiguïté. Les systèmes experts des années 80 en étaient la forme la plus avancée.
APPROCHE CLASSIQUEOn ne code plus les règles : on donne des exemples, et la machine apprend seule à trouver les patterns. La révolution conceptuelle qui a relancé l'IA dans les années 2000.
PARADIGME DOMINANTSous-catégorie du ML qui crée du contenu nouveau : texte, images, sons, vidéos, code. GPT, Claude, Midjourney, Stable Diffusion en sont les représentants les plus connus.
LA VAGUE ACTUELLEUn Large Language Model (grand modèle de langage) est un réseau de neurones artificiel entraîné sur des quantités astronomiques de texte — des milliards de pages du web, des livres, du code, des articles scientifiques.
Il apprend statistiquement quels mots suivent quels autres dans quels contextes. En faisant ça à une échelle colossale, il développe des capacités émergentes surprenantes : raisonnement, traduction, génération de code, etc.
Un LLM ne "pense" pas au sens humain. Il ne "comprend" pas. Il prédit le prochain token (fragment de mot) le plus probable dans un contexte donné.
Il n'a pas de mémoire entre les conversations. Il peut se tromper avec confiance. Il n'a pas accès à internet par défaut. Et il a une date de coupure de ses connaissances.
Phase 1 : pré-entraînement sur des milliards de textes (prédit le mot suivant). Phase 2 : fine-tuning avec des humains qui évaluent les réponses (RLHF). Coût : des dizaines à centaines de millions de dollars.
Les "paramètres" sont les poids du réseau (GPT-4 : ~1 000 milliards). Un "token" est ~¾ d'un mot. La "fenêtre de contexte" est la quantité de texte que le modèle peut "voir" en même temps.
L'art de formuler ses demandes à un LLM. Un bon prompt peut transformer radicalement la qualité d'une réponse. Un domaine entier — le "prompt engineering" — est né autour de cette pratique.
Le déclencheur de la vague actuelle. Fondé en 2015 comme lab à but non lucratif, devenu la startup la plus valorisée du monde. Financé massivement par Microsoft.
Fondé par d'anciens d'OpenAI (dont Dario Amodei). Focalisé sur la sécurité et l'alignement. Développe Claude avec une approche "Constitutional AI".
La fusion de Google Brain et DeepMind. Auteur du papier Transformer original. Dispose des ressources les plus vastes. En retard commercialement, en avance en recherche.
Joue la carte de l'open source. Llama est le modèle open-source le plus utilisé au monde. Stratégie : affaiblir les concurrents en donnant les outils gratuitement.
Le champion européen. Fondé en 2023 par des ex-Google et ex-Meta. Modèles efficaces et compacts. Porte l'espoir d'une IA souveraine européenne.
La société d'Elon Musk, créée après sa rupture avec OpenAI. Modèle Grok intégré à X (ex-Twitter). Accès aux données temps réel comme avantage différenciant.