Le Prompt Engineering : L'art de la formulation
Le Prompt Engineering consiste à rédiger soigneusement des instructions pour obtenir de bons résultats d'un modèle de langage. C'est unpeu comme apprendre à bien formuler une demande pour obtenir exactement cequ'on veut. Par exemple : "Agis comme un expert en droit français et explique-moi la différence entre une faute délictuelle et une faute contractuelle."
Cette approche fonctionne bien pour les cas simples et les expérimentations. Elle permet une prise en main intuitive des LLMs, ce qui explique sa popularité initiale. Cependant, elle révèle rapidement ses limites quand on cherche à créer des systèmes fiables et performants.
Le principal défi du Prompt Engineering réside dans sa nature artisanale. Chaque prompt est conçu manuellement, rendant difficile la standardisation et la montée en charge. C'est efficace pour des tests ponctuels, mais insuffisant pour des applications professionnelles robustes.
Le Context Engineering : Une vision systémique
Le Context Engineering part d'une observation simple mais fondamentale : un modèle de langage ne voit pas seulement la phrase qu'on lui écrit, mais l'ensemble du contexte qu'on lui fournit. Et ce contexte peut être immense - jusqu'à 128k ou 1 million de tokens selon les modèles.
Cette approche reconnaît que l'efficacité d'un LLM dépend de tout l'écosystème d'informations qui l'entoure, pas uniquement de l'instruction finale.
Les ingrédients d'un contexte optimisé
Un contexte bien conçu ressemble à une boîte à outils complète pour le modèle :
Les exemples concrets (few-shot learning) montrent au modèle comment bien faire. C'est comme donner des modèles de réponses réussies pour guider ses futures productions.
Les documents pertinents sont intégrés via le RAG(Retrieval-Augmented Generation). Le modèle peut ainsi puiser dans une base de connaissances actualisée et spécifique, plutôt que de s'appuyer uniquement sur ses données d'entraînement.
L'historique des conversations maintient la cohérence des échanges et évite les répétitions, particulièrement crucial pour les assistants conversationnels.
Les outils externes (APIs, bases de données, calculatrices)étendent les capacités du modèle au-delà de la simple génération de texte, lui permettant d'accomplir des actions concrètes.
La structuration claire (formats JSON, schémas définis)facilite l'interprétation et l'exécution des tâches par le modèle.
L'objectif : créer l'environnement idéal
Le Context Engineering vise à construire un environnement informationnel optimal où le LLM peut produire des réponses cohérentes, fiables et spécifiques, sans nécessiter de modification du modèle lui-même.
Pourquoi ce changement de perspective ?
Andrej Karpathy et d'autres experts remettent en question le terme "Prompt Engineering", qu'ils jugent trompeur. Leur argument : dans les systèmes réels, la performance ne dépend pas d'une instruction magique, mais de l'orchestration intelligente de multiples composants.
Cette perspective révèle une différence fondamentale d'approche. Le Prompt Engineering se concentre sur l'optimisation d'instructions isolées, tandis que le Context Engineering embrasse une vision architecturale globale. Il ne s'agit plus d'être doué pour écrire des prompts, mais de concevoir des stratégies d'alimentation dynamique des modèles.
Cas pratique : Un assistant RH intelligent
Prenons l'exemple d'un assistant RH destiné à répondre aux questions des collaborateurs sur les congés payés.
Approche Prompt Engineering
L'implémentation traditionnelle se résumerait à : "Tu es un assistant RH. Réponds précisément aux questions sur les congés payés."
Cette approche génère des réponses génériques, potentiellement inexactes, et non alignées avec les politiques spécifiques de l'entreprise. C'est un peu comme demander à quelqu'un de vous conseiller sur un sujet qu'il ne connaît qu'en surface.
Approche Context Engineering
L'implémentation optimisée intègre :
- Récupération automatique des documents RH actualisés
- Extraction des politiques personnalisées selon le profil utilisateur (CDI, CDD, statut cadre, etc.)
- Exemples de questions similaires déjà résolues
- Format de réponse structuré (points clés, références légales, contact du service RH)
- Historique des interactions pour personnaliser l'expérience
- Connexion aux systèmes de gestion des congés pour des calculs précis
Cette approche produit un assistant qui connaît vraiment son sujet et peut donner des réponses fiables et actionnables.
Récapitulons dans un tableau de comparaison

L'évolution vers la maturité : sous conditions
Le Context Engineering représente une évolution naturelle vers des pratiques plus matures. Cette approche répond aux exigences des déploiements professionnels en proposant une méthodologie rigoureuse et évolutive.
Pour les entreprises souhaitant tirer parti des LLMs dans des contextes de production, le Context Engineering devient incontournable. Il exige une réflexion sur l'architecture des systèmes, la gestion des sources de données, les mécanismes de mémoire et les formats d'instructions. Reste que cette approche pose aussi des questions sur l'acquisition et la transformation des données. Le contexte brut est rarement utilisable en l'état et comme souvent, il faudra nettoyer, formater et parfois enrichir les données.
De même, avec de grands volumes de contexte, la sélection des informations les plus pertinentes et leur priorisation est indispensable pour éviter une surcharge du modèle et améliorer la performance.
Le prompt, dans cette approche, devient ce qu'il aurait toujours dû être : un composant final d'un système de génération plus vaste et sophistiqué. Cette évolution marque la maturité du secteur et ouvre la voie à des applications plus robustes et performantes des technologies d'IA conversationnelle.
Mais, maîtrisée, cette approche est au coeur des architectures des agents autonomes. Le contexte permet à l'agent de prendre des décisions, utiliser les outils et planifier des actions.
Pour conclure, Le Context Engineering est une approche holistique qui transforme l'interaction avec les LLMs d'une simple "conversation" à la construction d'un "environnement intelligent" où le modèle peut opérer avec une efficacité et une fiabilité maximales. C'est la voie vers des applications d'IA plus autonomes et performantes.
En somme, si le Prompt Engineering vous a appris à parler à l'IA, le Context Engineering vous apprend à créer l'environnement dans lequel elle peut vraiment exceller.