
On entend souvent dire que les intelligences artificielles "raisonnent" ou "pensent comme des humains". Bien sûr, pourquoi un processeur ne serait pas doué de pensée 😊 ?
Dans cet article, on vous explique de façon simple pourquoi les fameuses "chaînes de pensée" qu'on voit dans les IA peuvent être trompeuses... et pourquoi ça compte pour la formation, la fiabilité et la compréhension de ces outils.
Une chaîne de pensée, c'est quoi ?
C'est quand on demande à une IA d'expliquer son raisonnement pas à pas avant de répondre. Par exemple :
Q : Si j'ai 3 pommes et que j'en achète 4, combien j'en ai ? Réponse : J'ai 3 pommes. J'en ajoute 4. 3 + 4 = 7. Donc j'ai 7 pommes.
Cela peut donner l'impression que l'IA "pense comme nous" avec toutes les étapes fastidieuses du raisonnement. Mais cette impression est trompeuse.
Ce que l'IA fait vraiment (et ce qu'elle ne fait pas)
Scoop : les IA comme ChatGPT, Claude ou Gemini ne réfléchissent pas comme un humain. Elles prédisent les mots les plus probables, en se basant sur d'énormes bases de données.
Quand elles expliquent leur réponse, elles peuvent en fait l'avoir trouvée avant, puis inventer une explication plausible après coup. C'est ce qu'on appelle une rationalisation post-hoc.
En clair : l'IA devine bien, puis elle brode pour avoir l'air logique.
Parfois c'est juste, parfois c'est à côté. Et parfois, c'est très convaincant, mais totalement faux, ce que l’on appelle les « hallucinations ». Pour certaines IA, ce taux d’hallucination est de 60% sur certains types de question.
Quand ça déraille
Certaines chaînes de pensée sont longues, creuses ou même incohérentes :
Q : Quel est le plus grand entre 0.1, 0.01 et 0.001 ? Réponse IA : 0.001 a plus de chiffres, donc c'est le plus grand.
Mauvais raisonnement, bien formulé. C'est dangereux, surtout si on fait confiance à la forme sans vérifier le fond.
Pourquoi c'est important pour la formation et l'usage pro
Si les IA présentent des chaînes de pensée qui ne reflètent pas leur vraie façon de fonctionner :
- On risque de croire qu'elles comprennent vraiment (alors qu'elles excellent à faire semblant)
- On perd des outils utiles pour les corriger ou les guider
- On peut difficilement leur faire confiance dans des contextes sensibles (formation, décision, orientation)
Des pistes pour rendre les IA plus lisibles ?
Des chercheurs testent aujourd'hui des alternatives plus robustes :
- Arbre de pensée (Tree of Thought) : l'IA explore plusieurs pistes à chaque étape et compare avant de conclure.
- Raisonnement en groupe (multi-agents) : plusieurs "IA" débattent entre elles pour valider une réponse.
Celle-ci est ma préférée. Dans votre prompt, vous pouvez soumettre la réponse à trois profils différents :
- Un psychologue
- Un chef de projet rompu aux méthodes agiles
- Un business developper.
Chacun exposera son point de vue et tentera de trouver une faille dans le raisonnement des deux autres. Au final, une réponse consensuelle selon chaque point de vue. On retrouve bien ici le côté « conversationnel » des LLM.
Ces techniques sont prometteuses, mais encore gourmandes en ressources. Elles pourraient à terme améliorer la fiabilité des outils qu'on utilise en formation.
IA : Ne pas confondre style et véritable compréhension
L'intelligence artificielle peut être bluffante. Mais il faut garder en tête qu'une réponse bien présentée n'est pas forcément bien pensée. En tant que formateurs, responsables pédagogiques ou simples utilisateurs, savoir faire la différence est essentiel pour intégrer ces outils de façon responsable et efficace.
Envie d'essayer ?
Essayez de simuler un raisonnement en arbre ou avec plusieurs IA qui débattent. C'est simple à faire avec un prompt bien pensé, et très formateur pour comprendre comment fonctionne (ou pas) une intelligence artificielle.