GUIDE 2024–2025

L'Intelligence
Artificielle,
de zéro.

Un tour d'horizon complet pour comprendre où on en est, d'où ça vient, et vers quoi tout ça nous mène.

↓   DÉFILER POUR EXPLORER
01

Une brève histoire de l'IA

1950

Le Test de Turing

Alan Turing pose la question fondatrice : "Can machines think ?" Il propose un test pour évaluer l'intelligence d'une machine en la comparant à un humain.

1956

Naissance officielle du terme "IA"

La conférence de Dartmouth lance officiellement le champ. Les chercheurs sont optimistes — trop. Ils pensent résoudre le problème en quelques décennies.

1970–1980

Les "hivers de l'IA"

Les promesses ne tiennent pas. Les financements s'assèchent. L'IA entre dans une longue période de disgrâce, par deux fois.

1997

Deep Blue bat Kasparov

L'ordinateur d'IBM bat le champion du monde d'échecs. L'IA symbolique prouve qu'elle peut surpasser l'humain dans des domaines précis et définis.

2012

La révolution du deep learning

AlexNet gagne ImageNet par une marge écrasante. Les réseaux de neurones profonds, dopés aux GPU et aux données massives, relancent tout le domaine.

2017

L'architecture Transformer

Google publie "Attention is all you need". Ce papier change tout : c'est la fondation de tous les grands modèles de langage modernes (GPT, Claude, Gemini…).

2022–2025

L'explosion de l'IA générative

ChatGPT, Midjourney, Claude, Gemini, Sora… L'IA générative entre dans le quotidien de centaines de millions de personnes en quelques mois.

02

Les grandes familles de l'IA

🧠

IA étroite (Narrow AI)

C'est là où on en est aujourd'hui. Une IA qui excelle dans une tâche précise : reconnaître des visages, traduire du texte, jouer aux échecs. Elle ne "comprend" rien au-delà de sa spécialité.

OÙ NOUS SOMMES
🌐

IA générale (AGI)

Une IA capable de raisonner et d'apprendre comme un humain, dans n'importe quel domaine. Le Saint Graal de la recherche. Certains pensent qu'elle est proche ; d'autres que c'est encore loin.

HORIZON INCERTAIN

IA superintelligente (ASI)

Une hypothétique IA qui dépasserait l'intelligence humaine dans tous les domaines. Sujet de spéculation intense et de débat éthique — le scénario qui inquiète le plus les chercheurs.

HYPOTHÉTIQUE
📜

IA symbolique

La vieille approche : coder des règles à la main (si X alors Y). Efficace dans des domaines bornés, rigide face à l'ambiguïté. Les systèmes experts des années 80 en étaient la forme la plus avancée.

APPROCHE CLASSIQUE
🔗

Machine Learning (ML)

On ne code plus les règles : on donne des exemples, et la machine apprend seule à trouver les patterns. La révolution conceptuelle qui a relancé l'IA dans les années 2000.

PARADIGME DOMINANT
🎨

IA générative

Sous-catégorie du ML qui crée du contenu nouveau : texte, images, sons, vidéos, code. GPT, Claude, Midjourney, Stable Diffusion en sont les représentants les plus connus.

LA VAGUE ACTUELLE
03

Les LLM — comment ça marche ?

C'est quoi un LLM ?

Un Large Language Model (grand modèle de langage) est un réseau de neurones artificiel entraîné sur des quantités astronomiques de texte — des milliards de pages du web, des livres, du code, des articles scientifiques.


Il apprend statistiquement quels mots suivent quels autres dans quels contextes. En faisant ça à une échelle colossale, il développe des capacités émergentes surprenantes : raisonnement, traduction, génération de code, etc.

Ce que ce n'est PAS

Un LLM ne "pense" pas au sens humain. Il ne "comprend" pas. Il prédit le prochain token (fragment de mot) le plus probable dans un contexte donné.


Il n'a pas de mémoire entre les conversations. Il peut se tromper avec confiance. Il n'a pas accès à internet par défaut. Et il a une date de coupure de ses connaissances.

⚙️

Entraînement

Phase 1 : pré-entraînement sur des milliards de textes (prédit le mot suivant). Phase 2 : fine-tuning avec des humains qui évaluent les réponses (RLHF). Coût : des dizaines à centaines de millions de dollars.

🔢

Paramètres & tokens

Les "paramètres" sont les poids du réseau (GPT-4 : ~1 000 milliards). Un "token" est ~¾ d'un mot. La "fenêtre de contexte" est la quantité de texte que le modèle peut "voir" en même temps.

🎯

Prompting

L'art de formuler ses demandes à un LLM. Un bon prompt peut transformer radicalement la qualité d'une réponse. Un domaine entier — le "prompt engineering" — est né autour de cette pratique.

04

Les grands acteurs du secteur

OpenAI
🇺🇸 ÉTATS-UNIS

Le déclencheur de la vague actuelle. Fondé en 2015 comme lab à but non lucratif, devenu la startup la plus valorisée du monde. Financé massivement par Microsoft.

GPT-4o o1 / o3 Sora DALL-E
Anthropic
🇺🇸 ÉTATS-UNIS

Fondé par d'anciens d'OpenAI (dont Dario Amodei). Focalisé sur la sécurité et l'alignement. Développe Claude avec une approche "Constitutional AI".

Claude 3.5 Claude 4
Google DeepMind
🇺🇸 / 🇬🇧

La fusion de Google Brain et DeepMind. Auteur du papier Transformer original. Dispose des ressources les plus vastes. En retard commercialement, en avance en recherche.

Gemini 2.0 AlphaFold
Meta AI
🇺🇸 ÉTATS-UNIS

Joue la carte de l'open source. Llama est le modèle open-source le plus utilisé au monde. Stratégie : affaiblir les concurrents en donnant les outils gratuitement.

Llama 3 Llama 4
Mistral AI
🇫🇷 FRANCE

Le champion européen. Fondé en 2023 par des ex-Google et ex-Meta. Modèles efficaces et compacts. Porte l'espoir d'une IA souveraine européenne.

Mistral Large Mixtral
xAI (Grok)
🇺🇸 ÉTATS-UNIS

La société d'Elon Musk, créée après sa rupture avec OpenAI. Modèle Grok intégré à X (ex-Twitter). Accès aux données temps réel comme avantage différenciant.

Grok 3
05

Glossaire essentiel

LLM
Large Language Model. Un modèle de langage entraîné sur d'énormes corpus de texte. C'est ce qu'est Claude, GPT, Gemini, etc.
Token
Unité de traitement d'un LLM. Environ ¾ d'un mot en français. Les LLM "lisent" et "écrivent" en tokens, pas en mots.
Hallucination
Quand un LLM invente des faits avec assurance. Il ne "ment" pas — il prédit ce qui semble probable, même si c'est faux.
Prompt
L'instruction ou la question que vous donnez à l'IA. La qualité du prompt influence énormément la qualité de la réponse.
RAG
Retrieval-Augmented Generation. Technique pour connecter un LLM à une base de données externe afin qu'il réponde avec des infos à jour.
Fine-tuning
Ré-entraîner un modèle existant sur des données spécialisées pour l'adapter à un domaine précis (médecine, droit, etc.).
Multimodal
Un modèle capable de traiter plusieurs types de données : texte + images + sons + vidéo. GPT-4o et Gemini sont multimodaux.
Alignement
L'enjeu de faire en sorte qu'une IA agisse conformément aux valeurs humaines. Problème ouvert et central dans la recherche sur la sécurité de l'IA.
Agentique
Mode où l'IA agit de manière autonome : elle planifie, exécute des actions, utilise des outils, et s'auto-corrige pour atteindre un objectif.
Open source
Un modèle dont les poids sont publics et librement utilisables. Ex : Llama (Meta), Mistral 7B. Opposé aux modèles fermés comme GPT-4.
AGI
Artificial General Intelligence. Une IA qui égale ou dépasse l'humain dans tous les domaines cognitifs. Pas encore atteinte — date très débattue.
GPU
Graphical Processing Unit. Les puces (NVIDIA en tête) qui permettent l'entraînement des modèles. La ressource la plus précieuse et disputée du moment.