Le blog de C-Campus

Jonathan Pottiez : “l’évaluation est un outil de décision, pas une formalité administrative !”

Docteur en sciences de gestion et expert en évaluation de la formation, Jonathan Pottiez a une double activité. Il est responsable de l’Académie Agesys et consultant indépendant sur les sujets de l’évaluation et de l’amélioration de l’impact des formations. Il est aussi un ancien collaborateur de C-Campus qui a rédigé plusieurs articles de ce blog. À l’occasion de la publication de la 4e édition de son livre L’évaluation de la formation (Dunod, 2025), désormais coécrit avec Jean-Luc Gilles, nous nous entretenons avec lui pour connaître sa vision de l’évaluation.

L’évaluation est un serpent de mer de la formation, tout le monde en parle mais on voit peu de choses concrètes. Pourquoi si peu de réalisations ?

JONATHAN POTTIEZ : C’est une réalité : l’évaluation de la formation est probablement l’un des sujets les plus discutés… et les moins réellement mis en œuvre. On peut citer un certain nombre de raisons expliquant cet état de fait.

Il y a d’abord l’héritage historique. Pendant des décennies, les organisations se sont limitées à l’évaluation dite « à chaud », centrée sur la satisfaction. C’est simple, rapide, peu coûteux. Comme nous le rappelons dans le livre, le niveau 1 est techniquement assez simple à concevoir, peu coûteux et facilement industrialisable. Cette facilité a fini par créer une illusion : celle d’évaluer, alors que l’on ne mesure en réalité que la qualité perçue, influencée par l’ambiance, la sympathie du formateur ou encore le confort de la salle.

Ensuite, l’évaluation est souvent perçue comme une contrainte : elle prend du temps, implique des acteurs qui ne s’y sentent pas toujours engagés, et fait craindre l’« usine à gaz ». Beaucoup d’organisations pensent que mettre en place des évaluations de niveaux 2, 3 ou 4 nécessite des moyens disproportionnés. Ceci n’est vrai… que si l’on s’y prend mal.

Enfin, les responsables formation n’ont pas toujours les compétences, les outils ou la méthodologie pour construire une démarche solide. C’est l’un des constats qui nous a conduits, dans cette nouvelle édition, à proposer une ingénierie complète et progressive de l’évaluation, afin de sortir des pratiques ponctuelles ou symboliques.

En France, des évolutions comme Qualiopi ont contribué à faire bouger un peu les lignes. La certification a amené les organismes à s’interroger sur la pertinence des objectifs, la cohérence pédagogique, l’évaluation des acquis… mais cela n’a pas suffi à diffuser une véritable culture de l’évaluation et du résultat en formation, qui reste encore inégale selon les secteurs.

Pourquoi est-ce important d’en parler ? En quoi l’évaluation doit-elle être abordée avant même l’ingénierie pédagogique ?

J.P : Parce que l’évaluation est un outil de décision, pas une formalité administrative. Elle permet d’aligner la formation sur les enjeux réels de l’organisation. On peut citer trois raisons majeures justifiant que toute démarche de formation commence par l’évaluation :

  • Former moins, mais former mieux : sans évaluation sérieuse, impossible d’identifier ce qui fonctionne réellement. Les organisations multiplient parfois les actions sans savoir lesquelles mériteraient d’être arrêtées, optimisées ou transformées. Évaluer permet de rationaliser, d’éviter le catalogue pléthorique et de maximiser l’impact.
  • Piloter les budgets et justifier les investissements : au fil des réformes du système français et de la raréfaction des financements disponibles, chaque euro consacré à la formation doit de plus en plus prouver sa pertinence. Si l’on considère la formation comme un investissement et non comme une simple dépense, il importe de faire la démonstration de ce « retour sur investissement ». L’évaluation est le seul moyen d’apporter une réponse crédible.
  • Clarifier les attentes en amont : commencer par l’évaluation, c’est se poser des questions qui vont complètement structurer l’action de formation : qu’attend-on vraiment de cette formation ? Quel comportement doit évoluer, quel résultat doit être visible, quel enjeu d’équipe ou d’organisation vise-t-on, etc. ?

Cette logique, que les Kirkpatrick appellent « commencer par la fin », est un excellent moyen de s’assurer que la formation répond à des enjeux réels, qu’elle est connectée à la stratégie de l’entreprise et à ses préoccupations opérationnelles.

En résumé, penser évaluation avant de penser pédagogie, c’est ce qui permet d’éviter de « former pour former ».

Votre livre fait référence au modèle Kirkpatrick. Pouvez-vous nous le résumer ?

J.P : Le modèle Kirkpatrick est la référence mondiale en matière d’évaluation de la formation. Il propose quatre niveaux, chacun décrivant un type d’effet attendu. Dans notre ouvrage, nous présentons la nouvelle version du modèle, en reprenant les définitions officielles :

  • Niveau 1 – Réaction : à quel point les participants trouvent la formation satisfaisante, impliquante et pertinente par rapport à leur travail.
  • Niveau 2 – Apprentissage : à quel point les participants acquièrent les connaissances, les compétences, l’attitude, la confiance et l’engagement attendus du fait de leur participation à la formation.
  • Niveau 3 – Comportement : à quel point les participants appliquent ce qu’ils ont appris pendant la formation lorsqu’ils sont de retour au travail.
  • Niveau 4 – Résultats : à quel point les résultats visés sont atteints à la suite de la formation, et du programme de soutien et de responsabilisation (correspondant aux actions menées en parallèle de la formation, notamment pour favoriser le transfert).

Ces définitions montrent que Kirkpatrick n’est pas un simple outil d’évaluation : c’est une grille de lecture complète des effets d’une formation. Nous rappelons aussi dans le livre que le modèle repose sur une causalité positive implicite : une bonne expérience de formation favorise l’apprentissage ; un bon apprentissage favorise le transfert ; un bon transfert produit des résultats. Cette causalité n’est pas automatique, mais elle reste un repère utile.

NDLR : Pour les lecteurs qui ne seraient pas spécialistes des 4 niveaux d’évaluation de Donald Kirkpatrick, n’hésitez pas à lire l’article réalisé dans notre blog par Jonathan Pottiez en février 2019 – cliquez ici et évidemment à vous procurer la 4ème édition de son livre – cliquez-là.

Pourquoi ce modèle est-il toujours d’actualité ?

J.P : Parce qu’il reste lisible, accessible et adaptable, y compris hors du monde de la formation (par exemple pour évaluer les résultats de prestations d’accompagnement, de coaching, etc.). Les quatre niveaux correspondent intuitivement à ce que toutes les parties prenantes attendent. Pour simplifier :

  • Le participant veut être satisfait de son expérience ;
  • Le formateur veut que les participants apprennent ;
  • Le manager veut que ça se voit dans les pratiques ;
  • L’organisation veut un résultat concret, visible sur les indicateurs de performance.

Ce modèle permet aussi de parler un langage commun : il crée une culture du résultat partagée. C’est pourquoi il demeure le plus populaire et le plus utilisé dans le monde pour structurer l’évaluation de la formation.

Mais surtout, si le modèle Kirkpatrick est toujours pertinent en 2026, c’est parce qu’il a évolué, en tenant compte des critiques formulées à son encontre. Il détaille ainsi davantage le contenu de chaque niveau, insiste beaucoup sur les actions à mener en parallèle de la formation pour que le transfert des apprentissages ait lieu, souligne l’importance de « commencer par la fin » (le niveau 4), etc.

James et Wendy Kirkpatrick en ont fait un véritable modèle d’ingénierie de l’efficacité, qui articule formation, management et performance. Il ne s’agit plus seulement d’évaluer après, mais de préparer avant ce qui fera réussir après. Dans un contexte où la formation doit démontrer son utilité, ce cadre reste donc un socle solide.

Pour être tout à fait honnêtes et transparents, et nous le mentionnons dans l’ouvrage, il a été découvert assez récemment que Donald Kirkpatrick n’était peut-être pas le seul à l’origine des quatre niveaux d’évaluation. Des travaux antérieurs de Raymond Katzell, professeur américain de psychologie, en posaient déjà les fondations, ce qui conduit certains chercheurs à parler aujourd’hui d’un modèle à double paternité : le modèle Kirkpatrick-Katzell. Cette relecture enrichit l’histoire du modèle et souligne qu’il s’inscrit dans un mouvement de fond, plus que dans une idée individuelle.

Y a-t-il d’autres modèles d’évaluation qui ont émergé depuis ?

J.P : J’avais recensé des dizaines d’autres modèles d’évaluation des formations dans ma thèse de doctorat, et d’autres apparaissent encore.

L’un des plus notables est celui de Will Thalheimer : le LTEM (Learning-Transfer Evaluation Model). Son modèle apporte une finesse d’analyse supplémentaire, notamment sur les apprentissages et leur transfert. Il s’avère plus rigoureux d’un point de vue scientifique que celui de Kirkpatrick.

Son créateur formant également des professionnels de la formation à la maîtrise de ce modèle, il tend à se diffuser progressivement dans le monde francophone.

Il est important d’en tenir compte et de ne pas se limiter à un seul modèle. C’est pourquoi je conseille toujours à mes interlocuteurs qui débutent sur le sujet de l’évaluation de se familiariser avec Kirkpatrick qui, comme dit précédemment, reste accessible et simple à comprendre, avant d’aller plus loin et de s’approprier un modèle plus valide mais qui exige aussi davantage de réflexions et d’efforts.

Vous proposez dans votre livre une véritable ingénierie de l’évaluation. Pouvez-vous nous l’expliquer simplement ? Quels bénéfices concrets apporte-t-elle ?

J.P : Oui. Dans le livre, nous expliquons que l’évaluation ne peut plus se réduire à un questionnaire de satisfaction : il faut une démarche structurée, pensée comme un véritable processus qualité. C’est l’objectif du cycle de Construction et de gestion qualité des évaluations (cycle CGQE) développé par le GIRIEF et inspiré du cycle PDCA de Deming (Plan, Do, Check, Act).

Le cycle CGQE fournit ainsi un cadre qui est à la fois rigoureux et adaptable, permettant de construire une évaluation sur-mesure sans se perdre dans la complexité. L’idée est de proposer une approche d’ingénierie qui soit à la fois théoriquement solide, en s’appuyant sur les sciences de l’éducation, et très opérationnelle.

Le cycle se décompose ainsi en neuf étapes, depuis l’identification des enjeux (étape 0) jusqu’à la macro-régulation afin d’améliorer en continu le dispositif d’évaluation (étape 8), en passant par les étapes de conception du dispositif, de mise en œuvre, d’analyse et d’exploitation des résultats…

Cette démarche apporte de nombreux bénéfices concrets. D’abord, elle renforce la qualité et la fiabilité des évaluations en réduisant les biais. Ensuite, elle aligne l’évaluation sur les enjeux stratégiques grâce à l’étape initiale des « Enjeux ». Elle favorise aussi l’engagement des acteurs, puisque chacun comprend le sens et le fonctionnement de l’évaluation. Enfin, elle permet d’aller au-delà de la satisfaction pour mesurer réellement les apprentissages, le transfert et l’impact, en transformant l’évaluation en un outil de pilotage efficace.

En résumé, le cycle CGQE fait passer l’évaluation du statut de formalité administrative à celui de démarche structurante afin de démontrer, améliorer et valoriser l’impact des formations.

Cet article vous a intéressé ? N’hésitez pas à commander le livre “L’évaluation en formation“. Si vous souhaitez suivre les contributions de Jonathan Pottiez sur ce thème, vous pouvez également vous abonner à son infolettre, très complémentaire à la newsletter de C-Campus à laquelle vous devez absolument vous abonner en cliquant ici si ce n’est pas déjà fait !

Marc Dennery

Marc Dennery