Ne tournons pas autour du pot : formateurs professionnels comme occasionnels, nous sommes confrontés à un usage exponentiel des IA par nos apprenants, que cet usage soit “contrôlé”, quand nous (ou l’entreprise) leur proposons d’utiliser nos IA, ou incontrôlable quand l’apprenant utilise ses IA à lui sur ses propres “devices” ! (Chat GPT – Gemini – Claude et autres, cumuleraient 1,5 milliards d’utilisateurs particuliers dans le monde, à titre gratuit ou onéreux).
Le hic : prompter une IA et la faire travailler, c’est bien mais pas suffisant pour devenir compétent dans son job ! On devient capable et autonome quand on est capable d’agir et réfléchir par soi-même, pas quand on utilise l’IA comme une prothèse !
En tant que “pédagogues”, regardons aujourd’hui comment aider nos apprenants, via 9 conseils fondamentaux, pour qu’ils apprennent efficacement avec les IA, les nôtres ou les leurs, en développant leur esprit critique !
Le mythe des apprenants autonomes !
Les IA dites “conversationnelles” pénètrent rapidement les usages en formation professionnelle. Les apprenants “habiles” se servent des IA pour chercher du contenu de qualité, rédiger mieux, résumer, reformuler, restructurer des connaissances, simuler un jeu de rôle, se tester, prendre du recul sur leurs acquis, etc. Mais ces apprenants “très autonomes”, au sens de capables de diriger et réguler leurs propres apprentissages (métacognition) sont rares : une minorité de la population !
Les apprenants autonomes sont un peu comme les poissons volants : ils existent mais ils sont loin de constituer la majorité du genre des apprenants !
Et l’apprentissage chez l’adulte ne se résume pas, loin s’en faut, à un enchaînement de dialogues de type “questions – réponses” avec ses IA préférées ! Se former, apprendre c’est d’abord un parcours singulier, non linéaire, non prédictif, jalonné par des expériences concrètes avec ses pairs et des rebondissements dans le monde réel “physique”, nécessitant de s’adapter !
Apprendre, c’est un processus lent, fait d’engagement personnel, de questions, de doutes, d’intuitions, de vérifications, d’erreurs, de tâtonnements, de corrections, d’arbitrages, de capitalisation, de mise en action dans son contexte, de réflexivité, de partage, de remise en questionnement, etc. Bref, le risque n’est pas d’apprendre avec l’IA ou l’usage non contrôlable des IA par nos apprenants : c’est l’illusion de compréhension et de maîtrise rapide que l’IA peut entretenir chez une partie de nos apprenants.
9 réflexes pour apprendre correctement avec l’IA
Voici donc 9 réflexes sur lesquels “entrainer” nos apprenants. Chaque réflexe répond à un piège fréquent des IA génératives et se conclut par une action concrète, immédiatement transférable en situation de formation ou au travail. Si l’on applique en tant que formateur-formatrice ces 9 principes avec nos apprenants, nous sommes vraiment dans notre rôle de “facilitation exigeante” !
1. Ne pas confondre fluidité et exactitude des réponses de l’IA
Les IA calculent une suite de réponses les plus probables, par rapport aux questions qu’on leur pose. Les IA peuvent donc produire des phrases impeccables sur des connaissances… fragiles ou inexactes. Ce décalage entre forme et fond est notamment le terreau de leurs « hallucinations » (qui ont tendance à s’amenuiser) mais surtout de leurs approximations. Lorsqu’on maîtrise un domaine, on s’en rend vite compte : l’IA répond comme un élève qui a bien révisé sa leçon mais guère au delà. Lorsqu’on est un néophyte, on se contente du rabachage du cours mais c’est insuffisant !
Action clé de l’apprenant : Pour chaque contenu important donné par une IA, le bon réflexe juste après est de lui demander de chercher la source primaire de ce qu’elle avance (date, mesure, nom, référence, source, etc.). L’apprenant peut aussi lui demander de chercher une publication institutionnelle, académique ou reconnue par les pairs et consigner sa vérification dans la suite des questions qu’on lui pose.
2. Déjouer l’effet « Yes‑Man » de l’IA
Nos IA sont comme dans le film Yes Man où Jim Carrey joue une personne incapable de dire autre chose que OUI ! Si l’on pose à l’IA une question de manière orientée, on obtiendra donc une réponse… orientée. L’IA tend à confirmer le cadre implicite de notre consigne, au lieu de le contester. Elle ne sait pas vous dire : “non, tu prends une fausse piste !”
Action clé de l’apprenant : Demander systématiquement une “objection” de l’IA, ou alors ce qu’on appelle un “scénario d’échec” ou une alternative crédible dans sa réponse. L’apprenant peut aussi reformuler sa question en inversant complètement son hypothèse de départ. (Du temps de ma jeunesse, on utilisait cette approche pour rédiger une dissertation avec thèse – antithèse et synthèse).
3. Rendre visibles les hypothèses, des deux côtés !
Beaucoup d’erreurs proviennent d’hypothèses tacites dans son prompt : public visé ou persona qu’on demande à l’IA de jouer, contraintes de temps, cadre légal, niveau attendu, etc.. Si ces paramètres et nos propres hypothèses ne sont pas bien posés, la réponse de l’IA reste générique, tronquée ou trompeuse.
Action clé de l’apprenant : Exiger du modèle IA, qu’il énonce et précise ses hypothèses et aussi ses limites, puis expliciter les siennes et redemander enfin un retour sur ce que l’IA peut produire de manière 100% fiable sur des hypothèses vérifiées des 2 côtés !
4. Exiger la traçabilité avant d’adopter la réponse de l’IA
Une idée utile est une idée vérifiable. Les modèles peuvent mélanger des références de différents niveaux de “vérificabilité” ou carrément improviser et en inventer. Sans traçabilité des références, impossible de juger la qualité de la réponse IA. Important : la traçabilité demandée n’est pas une preuve de fiabilité, elle marque le départ de notre processus de vérification de l’IA.
Action clé de l’apprenant : Demander à l’IA des titres d’ouvrages ou d’articles ou de contenus, les auteurs, années de référence ou de publications et si possible, un lien internet vers le contenu ou la source ! En cas de doutes, vérifier l’existence et la pertinence de la source et du contenu, soit par recoupement par un moteur de recherche, soit en utilisant une IA concurrente.
Un peu de publicité en passant : C-Campus forme vos formateurs internes à intégrer l’IA dans leurs formations. Nos consultants peuvent aussi vous accompagner sur l’intégration de l’IA dans votre fonction L&D. À travers nos prestations de conseil, de coaching individuels et d’équipe et évidemment de formation hybride, combinant cours digitaux et temps de formation présentiel et/ou distanciel, nous vous partagerons nos retours d’expérience et accélèrerons votre intégration de l’IA en formation. Contactez-nous : formation@c-campus.fr
5. Recontextualiser la réponse IA dans son métier, son environnement, sa culture, etc.
La réponse « moyenne » obtenue d’une IA peut ignorer des contraintes sectorielles, culturelles ou réglementaires. Un prompt valable dans notre monde franco-français perd tout son sens si la question posée ne tient pas compte d’un contexte très différent. Si je pose par exemple une question sur le système d’apprentissage par alternance au Japon, je vais obtenir des réponses IA de qualité médiocre…alors que si j’utilise d’abord un simple moteur de recherche pour lire des publications (traduites) du ministère du travail japonais (ou équivalent) sur l’alternance à la japonaise, je pourrai ensuite mieux calibrer mon prompt grâce à un premier niveau de connaissances personnelles.
Action clé de l’apprenant : Dans ses prompts, l’apprenant précisera des éléments tels que : public visé, risques à prendre en compte, ressources utiles, critères métier. Puis il testera la proposition sur un cas réel dans son contexte puis documentera au formateur (ou à ses collègues), l’ajustement obtenu dans la seconde réponse “recontextualisée” de l’IA.
6. Rester “l’auteur” de son propre apprentissage
Confier la production de devoirs, travaux dirigés, contenus, réponses à un test de connaissances, etc. à la machine n’équivaut pas à apprendre et comprendre. L’appropriation (et la mémorisation) d’un savoir passe par le travail personnel, l’analyse, l’explication, la synthèse et la justification personnelle.
Action clé de l’apprenant : Réécrire / reformuler la proposition de l’IA avec ses propres mots. Puis expliciter à l’IA ce qu’on a compris (et pourquoi) et retenu de ce qu’elle nous a raconté, ce qui reste encore flou ou incertain et ce que l’on a envie de vérifier ou d’approfondir.
7. Utiliser l’IA comme un accélérateur de sa réflexion, pas un remplaçant !
Le meilleur usage n’est pas la quête de la « meilleure réponse possible ». Vouloir être le “meilleur de la classe” grâce à l’IA, c’est vain ! La démarche réellement apprenante, c’est la construction d’un meilleur questionnement à l’IA. Bien dirigée, une IA peut être un miroir de nos angles morts ou de nos biais cognitifs, un générateur d’options différentes et de contre‑exemples, qui éclaireront ou approfondiront notre pensée.
Action clé de l’apprenant : Demander une cartographie d’options différentes, les risques et avantages associés, des critères de choix et un plan de vérification proportionné. Puis demander à l’IA de “critiquer” la qualité du questionnement qu’on vient de lui faire et enfin reformuler ses questions à l’IA, en tenant compte des angles morts et faiblesses de notre raisonnement, qu’elle a pointé !
8. Apprendre à calibrer le niveau de confiance accordé à l’IA
Les apprenants ont fréquemment une vision binaire des IA : soit “je fais confiance”, soit “je me méfie de tout”. Or, dans la réalité professionnelle, dans la “vraie vie”, on dose la confiance selon plusieurs paramètres, notamment : le niveau d’enjeu, l’irréversibilité de la décision qu’on prend, le risque associé à l’erreur possible.
Action clé de l’apprenant : Avant d’exploiter une réponse IA, se poser explicitement deux questions à soi et y répondre. Que se passe-t-il pour moi, si cette réponse IA est fausse ? Quel niveau de vérification dois-je proportionner par rapport au risque réel que je prends ?
9. Identifier ce que l’IA ne peut toujours pas faire
Se former à l’IA et avec l’IA, ce n’est pas seulement apprendre à l’utiliser, c’est aussi apprendre à reconnaître ses zones structurelles d’incompétence.
Par exemple :
-
l’IA ne sait pas arbitrer des valeurs,
-
L‘IA ne comprend pas les éléments de contexte ou une politique interne,
-
L’IA ne sait pas ce que c’est une ambiance d’équipe,
-
L’IA n’a aucune conscience, aucune éthique et ne peut pas porter une responsabilité juridique ou morale.
Action clé de l’apprenant : À la fin d’un échange avec l’IA, se demander : Qu’est-ce que cette réponse ne peut pas décider à ma place ?
Pour finir, 10 punchlines pour marquer nos apprenants
En conclusion, voici quelques “punchlines” pour bien marquer les esprits de nos apprenants sur les pièges à éviter dans l’apprentissage avec les IA :
- L’IA ne pense pas à notre place : elle nous oblige, à penser mieux.
- Un bon prompt, c’est surtout une série de bonnes questions ou un problème bien posé.
- L’IA est forte pour parler, parler… mais pas du tout pour comprendre ce qu’elle nous dit.
- On apprend bien avec l’IA seulement si on sait déjà un peu sur le sujet.
- Ne pas croire tout ce que l’IA dit : la faire travailler, la contredire, la pousser dans ses retranchements.
- L’IA ne rend pas les gens idiots. Elle rend idiots ceux qui ne pensent déjà plus.
- L’IA n’est pas un bon devin : c’est un perroquet statistique, qui se trompe régulièrement.
- Discuter avec l’IA, c’est aussi dialoguer avec ses propres biais, il faut s’en méfier.
- Le problème n’est pas que l’IA se trompe, c’est qu’elle se trompe avec beaucoup d’assurance et de certitude.
- Une IA raisonne dans le cadre qu’on lui donne, même s’il est faux et bancal !

Un peu de publicité en passant : C-Campus forme vos formateurs internes à intégrer l’IA dans leurs formations. Nos consultants peuvent aussi vous accompagner sur l’intégration de l’IA dans votre fonction L&D. À travers nos prestations de conseil, de coaching individuels et d’équipe et évidemment de formation hybride, combinant cours digitaux et temps de formation présentiel et/ou distanciel, nous vous partagerons nos retours d’expérience et accélèrerons votre intégration de l’IA en formation. Contactez-nous : 
