Le blog de C-Campus

Comment s’appuyer sur l’évaluation pour prioriser ses formations ?

Évaluer l’efficacité de ses formations est souvent considérée à tort comme une démarche à mener en aval des formations. Comme cela a déjà été dit ici, l’évaluation aide à structurer complètement l’action de formation. En effet, comment déterminer à quoi et comment former, si l’on n’est pas au clair sur le pourquoi et le pour quoi de la formation (critères de succès, résultats attendus, objectifs…) ?

Mais l’intérêt de l’évaluation en amont ne se limite pas à cela. L’évaluation peut aussi aider à déterminer objectivement (en se basant sur des éléments factuels) où allouer vos ressources pour créer le plus d’impact possible. En un mot : prioriser. C’est d’ailleurs le premier objectif du programme de certification à l’évaluation Kirkpatrick Four Levels® (niveau bronze).

Pour évaluer et améliorer l’efficacité de vos formations, inscrivez-vous à la prochaine session 100 % à distance du programme de certification Kirkpatrick (14 heures, du 22/11 au 03/12/2021).

Prioriser en fonction de l’impact espéré

En matière d’évaluation, il n’est plus raisonnable de se baser sur les taux ou scores de satisfaction, obtenus via des questionnaires d’évaluation dits “à chaud” distribués aux participants en fin de session ou complétés en ligne, pour déterminer les formations prioritaires (celles qui feront l’objet d’une attention particulière). Si l’on s’en tient à ce critère, cela signifie que l’on considère la formation comme devant être essentiellement un événement générant un niveau élevé de satisfaction. Si tel est le cas, quid de l’apprentissage ? de l’amélioration des comportements ou pratiques en situation de travail ? de l’impact sur l’organisation, par exemple au travers de l’évolution des indicateurs de résultats ? Les lecteurs assidus de ce blog, entre autres, auront ici reconnu les niveaux 2, 3 et 4 du modèle de Kirkpatrick.

Ce modèle doit être parcouru en commençant par le dernier niveau (selon la démarche du retour sur les attentes ou ROE). Cela permet d’identifier les différents niveaux d’objectifs d’une formation. Ainsi, après avoir déterminé les résultats souhaités et les indicateurs avancés (niveau 4), on questionne les comportements attendus chez les apprenants, une fois de retour en situation de travail, pour faire évoluer les indicateurs en question (niveau 3), puis les apprentissages qui seront nécessaires pour générer ces comportements (niveau 2), etc.

Mais ce questionnement ne se déroule pas toujours de manière aussi fluide. Ainsi, il n’est pas rare (et c’est même fréquent) qu’il n’y ait pas d’attentes des commanditaires au niveau 4 (même en les “challengeant” un peu). Cela ne doit pas nous empêcher de questionner ensuite les comportements. Et s’il n’y a pas de comportements attendus, on s’intéressera uniquement aux objectifs d’apprentissage, etc. On considèrera donc, que la formation ne vise pas tel ou tel niveau, et que le dispositif d’évaluation sera adapté en conséquence. Inutile en effet de chercher à une évaluer une formation au niveau 4 si les commanditaires n’attendent pas ce niveau de résultats. Ce serait comme “acheter une Ferrari pour aller chercher son pain” : des ressources démesurées au vu des résultats visés.

Mettons les pieds dans le plat : une formation qui ne vise que des réactions positives chez les apprenants (niveau 1) ou des apprentissages (niveau 2), sans espérer d’avoir impact réel tant sur les pratiques des collaborateurs au travail (niveau 3) que sur leur organisation (niveau 4), mérite-t-elle que l’on lui alloue des ressources importantes ?

Dans un contexte où il est de plus en plus demandé de faire “plus avec moins”, la question mérite d’être posée.

Utiliser les critères d’évaluation comme outil de priorisation

Une action fréquemment mise en œuvre par les participants au programme de certification Kirkpatrick (après avoir rapidement modifié leurs questionnaires d’évaluation en intégrant quelques bonnes pratiques vues en formation) consiste à déterminer lesquelles de leurs formations doivent être évaluées à tel ou tel niveau.

L’exercice est assez simple en apparence mais exige quand même une bonne dose de réflexion. En voici les principales étapes.

1. Dans un tableau/tableur, listez les actions de formation réalisées récemment (par ex. au cours des 12 derniers mois) et qui devraient être à nouveau mises en œuvre dans les 12 prochains mois. Cela concerne tant les services de formation des entreprises, que les organismes de formation internes ou externes.

2. En colonnes, listez les critères qui vous semblent pertinents pour caractériser une action de formation de façon à déterminer jusqu’à quel niveau elle doit être évaluée. Quelques exemples de critères :

  • la durée de la formation ;
  • son coût ;
  • la nature du demandeur (apprenant, manager, commanditaire/direction, etc.) ;
  • le niveau de ses objectifs (vous pouvez vous aider de la taxonomie de Bloom, par exemple, pour déterminer si cette formation a réellement un objectif d’application et, donc, de transfert des acquis) ;
  • l’effectif moyen visé ;
  • etc.

3. C’est maintenant que la phase de brainstorming peut commencer ! En petit groupe de travail, écrivez les règles qui permettront de déterminer quelles formations doivent être évaluées jusqu’au niveau 4, ou uniquement jusqu’au niveau 3, ou uniquement jusqu’au niveau 2, voire uniquement au niveau 1.

C’est ainsi que l’on voit des règles de ce type se matérialiser :

  • Les formations ayant une durée inférieure à X jours/heures et coûtant moins de X euros par participant ne seront évaluées qu’au niveau 1.
  • Les formations ayant une durée supérieure à X jours/heures, coûtant au moins X euros par participant et ayant été demandées par une direction seront évaluées jusqu’au niveau 4.
  • Etc.

4. Une fois qu’elles ont été écrites, testez les règles pour voir quel pourcentage de vos formations sont évaluées jusqu’à tel ou tel niveau. Des ajustements sont évidemment possibles, notamment si vous vous retrouvez avec la très grande majorité des formations évaluées uniquement au niveau 1 ou, a contrario, évaluées jusqu’au niveau 4.

5. Une fois que cette modélisation est à peu près stable, vous disposerez d’un excellent outil de priorisation. Logiquement, si l’on est cohérents, en cas de restrictions budgétaires, ce sont les formations évaluées uniquement au niveau 1 qui devraient être retirées, puis celles évaluées uniquement jusqu’au niveau 2 si besoin. En effet, si elles ne sont évaluées qu’à ce niveau, c’est que les résultats attendus correspondent justement à l’objet de ce niveau : ce sont des formations qui visent prioritairement la satisfaction des apprenants ou leur apprentissage (niveaux 1 et 2), mais pas l’impact sur le terrain (niveaux 3 et 4).

Ainsi, l’effort de formation se concentre là où il y a le plus de valeur à générer (montée en compétences réelle des apprenants sur le terrain et impact organisationnel) et là où les commanditaires ont le plus d’attentes (et ils sont, accessoirement, ceux qui décident généralement de l’allocation des budgets).

C’est une chasse au “gaspillage” pragmatique, dans la lignée de pratiques héritées du Lean Management, qui ne se limite pas à la chasse aux coûts : elle permet d’aligner les ressources sur les objectifs stratégiques et, donc, prioritaires de l’entreprise.

Pour les formations peu ou pas stratégiques (uniquement évaluées au niveau 1, voire jusqu’au niveau 2), d’autres modalités d’apprentissage pourront être trouvées (par ex. accès à des modules de formation en ligne, utilisation du CPF à titre personnel exclusivement, etc.). Mais elles ne sont plus gérées comme de véritables projets de formation qui exigent des ressources conséquentes, à commencer par le temps et l’énergie des acteurs de la formation. Pour faire “plus avec moins” et, surtout, pour obtenir plus avec moins, il est en effet essentiel de concentrer ses ressources sur les formations processus.

Jonathan Pottiez

Jonathan Pottiez

The selected Optin Cat form doesn't exist.
Abonnez-vous à notre newsletter