NLP : quand les machines apprennent à lire (et à faire semblant de comprendre)
Ou : Soixante-dix ans pour apprendre à un ordinateur que « il fait un froid de canard » n’a rien à voir avec la température des canards
Le langage humain est un désastre d’ingénierie. Ambiguïtés partout, exceptions à chaque règle, sens qui change selon le contexte, l’intonation, la culture, l’heure de la journée et l’humeur du locuteur. « C’est pas mal » peut vouloir dire « c’est bien » ou « c’est médiocre ». « On se fait un truc ? » est une invitation. « On s’est fait un truc » est un constat de catastrophe.
Le NLP — Natural Language Processing, ou traitement automatique du langage naturel — c’est le domaine de l’informatique qui essaie de faire fonctionner des machines avec ce matériau impossible. Pas en simplifiant le langage (on a essayé, les humains refusent). En enseignant aux machines à naviguer dans le chaos.
Aujourd’hui, quand vous parlez à un LLM, vous utilisez du NLP. Quand Google traduit une page web, c’est du NLP. Quand Siri comprend (parfois) ce que vous dites, c’est du NLP. Le domaine est devenu tellement omniprésent qu’on ne le remarque plus — ce qui est, en un sens, le signe ultime de son succès.
De la traduction mot à mot aux modèles qui écrivent des dissertations
Les débuts : règles, espoir et déceptions
L’histoire du NLP commence en 1954 avec l’expérience Georgetown-IBM : un système qui traduisait automatiquement 60 phrases du russe vers l’anglais. Le résultat était suffisamment impressionnant pour que les chercheurs annoncent que la traduction automatique serait un problème résolu « dans trois à cinq ans ». On est en 2026, et Google Translate fait encore des erreurs spectaculaires sur les expressions idiomatiques. Mais passons.
Les premières décennies du NLP étaient dominées par l’approche symbolique — des règles écrites à la main. Des linguistes codaient des grammaires formelles, des dictionnaires de règles, des arbres syntaxiques. L’influence de Noam Chomsky et de la linguistique générative était énorme : si le langage est un système de règles, alors il suffit de coder ces règles.
ELIZA, créée par Joseph Weizenbaum au MIT en 1966, illustre parfaitement cette approche. Ce « psychothérapeute » virtuel reformulait les phrases de l’utilisateur en questions (« Je me sens triste » → « Pourquoi vous sentez-vous triste ? »). Aucune compréhension réelle — juste du pattern matching. Et pourtant, des utilisateurs s’y attachaient émotionnellement. Weizenbaum en a été horrifié1.
Le problème des approches par règles : le langage ne suit pas ses propres règles. Ou plutôt, il a tellement de règles et d’exceptions que les coder toutes est un projet sans fin. Chaque nouvelle phrase peut révéler un cas non couvert. La couverture augmente, mais l’horizon recule toujours.
Le tournant statistique : laisser les données parler
Dans les années 1990, un changement de paradigme s’opère. Au lieu de coder des règles, on laisse les algorithmes apprendre des patterns à partir de grandes quantités de texte. C’est le tournant statistique.
L’idée : si vous avez assez de texte traduit (anglais-français, par exemple), un algorithme peut apprendre les correspondances statistiques entre les langues sans jamais connaître une seule règle de grammaire. « The cat is on the mat » → « Le chat est sur le tapis ». Pas parce que l’algorithme sait ce qu’est un chat, mais parce qu’il a vu assez d’exemples pour apprendre que « cat » correspond à « chat » dans la plupart des contextes.
Les modèles n-grammes, les modèles de Markov cachés (HMM), les machines à vecteurs de support (SVM) — toute une panoplie de techniques statistiques a transformé le NLP. La qualité a bondi. Pas parce que les algorithmes comprenaient le langage, mais parce que le langage est, à un niveau superficiel, remarquablement prédictible.
Les tâches fondamentales du NLP
Le NLP n’est pas une seule tâche — c’est un ensemble de sous-problèmes, chacun avec ses défis :
| Tâche | Ce qu’elle fait | Exemple |
|---|---|---|
| Tokenization | Découper le texte en tokens | « aujourd’hui » → « aujourd’ », « hui » |
| POS Tagging | Identifier la nature grammaticale de chaque mot | « La/DET chat/NOM mange/VERBE » |
| NER | Repérer les entités nommées (personnes, lieux, organisations) | « Macron a visité Berlin » |
| Analyse de sentiment | Déterminer le ton (positif, négatif, neutre) | « Ce film est nul » → négatif |
| Traduction automatique | Traduire d’une langue à l’autre | « Hello » → « Bonjour » |
| Résumé automatique | Condenser un texte long en version courte | Article de 5 000 mots → 200 mots |
| Question answering | Répondre à une question à partir d’un texte | « Qui a peint la Joconde ? » → « Léonard de Vinci » |
Pendant des décennies, chaque tâche avait ses propres modèles, ses propres datasets, ses propres compétitions. Un modèle entraîné pour la NER ne savait pas faire de la traduction. Un modèle de sentiment ne comprenait rien à la syntaxe. Le NLP était un archipel de spécialités.
La révolution neuronale : de Word2Vec à BERT
Tout a changé entre 2013 et 2018.
En 2013, Word2Vec a montré qu’on pouvait encoder le sens des mots sous forme de vecteurs numériques. En 2017, le Transformer a remplacé les architectures récurrentes par un mécanisme d’attention pure. En 2018, BERT (Google) et GPT (OpenAI) ont démontré qu’un seul modèle pré-entraîné sur des masses de texte pouvait ensuite être adapté (fine-tuné) pour pratiquement n’importe quelle tâche NLP.
L’archipel est devenu un continent. Un seul modèle — pré-entraîné une fois, à grands frais — pouvait ensuite faire de la NER, de l’analyse de sentiment, de la traduction, du résumé, du question answering. La spécialisation par tâche n’a pas disparu, mais elle est devenue secondaire par rapport à la puissance du modèle de base.
L’ère des LLM : le NLP a-t-il disparu ?
Question provocatrice mais légitime : avec GPT-4, Claude, et Gemini, le NLP existe-t-il encore en tant que discipline distincte ?
La réponse est nuancée. Les LLM ont effectivement subsumé la plupart des tâches classiques du NLP. Vous n’avez plus besoin d’un modèle spécialisé pour l’analyse de sentiment — vous demandez à un LLM et il le fait. Vous n’avez plus besoin d’un pipeline NER dédié — le LLM extrait les entités en language naturel.
Mais le NLP en tant que science n’a pas disparu. Les questions fondamentales restent : comment les machines traitent-elles le langage ? Pourquoi les LLM hallucinent ? Comment évaluer la « compréhension » d’un modèle ? Comment traiter les langues à faibles ressources ? Comment gérer l’ambiguïté, l’ironie, l’implicite ?
Les LLM sont le produit le plus spectaculaire du NLP. Ils n’en sont pas la fin.
Le dialogue du pipeline obsolète
DevOps Dave : J’ai construit un pipeline NLP pour analyser les avis clients. Tokenization, stemming, TF-IDF, puis un classifieur SVM pour le sentiment.
Security Sarah : Ça marche bien ?
DevOps Dave : 78% de précision. Pas mal, non ?
Security Sarah : Tu as essayé de juste envoyer les avis à Claude avec le prompt « classe ce commentaire en positif, négatif ou neutre » ?
DevOps Dave : … Non.
Security Sarah : Tu auras 95% de précision. Sans pipeline, sans entraînement, sans maintenance.
DevOps Dave : Mais alors, tout mon pipeline…
Security Sarah : Bienvenue en 2026. Ton pipeline n’est pas mauvais. Il est obsolète. Ce qui est pire.
Tableau récapitulatif
| Concept | En une phrase |
|---|---|
| NLP | Domaine de l’IA qui traite le langage humain — de la tokenization à la compréhension. |
| Approche symbolique | Coder des règles linguistiques à la main (années 60-80). |
| Tournant statistique | Apprendre des patterns à partir de données (années 90-2000). |
| Révolution neuronale | Word2Vec, Transformer, BERT — un modèle pour tout (2013-2018). |
| NER | Repérer les noms de personnes, lieux, organisations dans un texte. |
| POS Tagging | Identifier la nature grammaticale de chaque mot. |
| Analyse de sentiment | Déterminer si un texte est positif, négatif ou neutre. |
Le mot de la fin
Le NLP est un de ces domaines qui a le mieux illustré la trajectoire de l’IA : des décennies de progrès lent et laborieux, puis une accélération brutale qui rend obsolète la plupart du travail précédent. Les chercheurs qui ont passé des années à construire des analyseurs syntaxiques artisanaux ont vu un Transformer entraîné sur Wikipedia les surpasser en quelques heures.
C’est injuste. C’est aussi comme ça que la technologie avance — par sauts, pas par marches. Et chaque saut repose sur les décennies de marches qui l’ont précédé. Word2Vec n’existe pas sans les travaux sur la sémantique distributionnelle des années 90. Le Transformer n’existe pas sans les recherches sur l’attention dans les réseaux récurrents. Les LLM n’existent pas sans soixante-dix ans de chercheurs qui ont essayé, échoué, et appris de quoi le langage était fait.
Le NLP a toujours été le domaine de l’IA le plus humble — parce que le langage humain vous rappelle tous les jours à quel point il est complexe. Les modèles actuels font semblant de le comprendre mieux que jamais. Mais ils font toujours semblant.
Weizenbaum a été tellement perturbé par la réaction émotionnelle des utilisateurs envers ELIZA qu’il a écrit un livre entier sur le sujet — Computer Power and Human Reason (1976) — dans lequel il argumente que certaines applications de l’IA ne devraient pas être développées, même si elles le peuvent. C’est un des premiers textes d’éthique de l’IA, écrit par un informaticien qui avait vu de ses propres yeux à quel point les humains projetaient de la compréhension sur un programme qui n’en avait aucune. ↩︎