Suivi des apprentissages : apprécier plutôt que mesurer ?

Depuis les origines de la formation digitale, suivre un apprentissage, c'est le mesurer. Compléter un module, obtenir une note, atteindre un score : autant d'événements que l'on enregistre, que l'on aligne, que l'on agrège. Le tracking est né comptable, et il l'est resté.

Mais un apprentissage n'est pas une série d'événements. C'est une transformation, parfois lente, souvent silencieuse, dont la richesse échappe aux chiffres. Le bulletin scolaire le sait bien : à côté des notes, il a toujours laissé une place aux appréciations. C'est dans cet espace qualitatif, longtemps marginal dans le monde digital, que se joue peut-être l'avenir du suivi.

L'IA rebat les cartes. Non pas parce qu'elle apporterait une nouvelle métrique miracle, mais parce qu'elle rend possible, à grande échelle, ce qui était jusqu'ici réservé au regard humain : apprécier. Lire une trajectoire. Comprendre une difficulté. Reconnaître une compétence acquise sans diplôme.

Et si le tracking devenait moins une affaire de mesure, et davantage une affaire d'appréciation ? Voyons où ce chemin nous mène.

Completion, for ever ?

Depuis les origines de la formation digitale, on trace la complétion des modules e-learning, et plus largement l'achèvement des activités pédagogiques. C'est le plus célèbre des indicateurs de suivi, et sans doute le plus pauvre.

Les raisons étaient d'abord réglementaires, dans l'industrie aéronautique notamment (AICC), puis se sont élargies à la mesure de l'engagement et de la progression des apprenants (SCORM).

Mais la complétion mesure une présence, pas un apprentissage. Comme un carnet d'absences, elle dit que l'apprenant était là — pas ce qu'il a appris. On peut lancer un module et le dérouler sans rien retenir, comme on peut s'asseoir au fond de la classe et rêver.

La complétion subsistera, sans doute, pour des raisons réglementaires ou comme signal faible d'engagement. Mais elle ne peut plus prétendre au rôle d'indicateur central.

L'évaluation en question

Le second pilier du suivi, c'est l'évaluation. Le plus souvent automatisée, le plus souvent un quiz. Là encore, on mesure : un score, un pourcentage de bonnes réponses, un seuil franchi.

Ce pilier vacille à son tour. Pour un élève malin, utiliser un agent IA intégré à un navigateur permet de prendre la main et passer le quiz à sa place, question après question.

Online assessment is generally broken at this point and won't be saved. -- Marc Watkins, Agentic AI Invading the LMS and Other Things We Should Know

Reste l'évaluation par preuves de capacité — une réalisation concrète, un exercice pratique, une production que l'on peut soumettre au regard d'un évaluateur. Une telle production ne se résume pas à un score : la dépouiller demande du temps et du discernement. C'est précisément ce qui en fait la valeur. On ne mesure plus, on apprécie.

Prove what you can do, not just what you know. -- SAP, Validating real skills in the age of AI

Newsletter

Vous aimez ce type de contenu ? Chaque mois, je partage mes analyses sur l'IA, la Data et le Digital Learning.

S'abonner →
  • Nouveaux articles
  • Actualités du mois
  • Tendances observées
  • Ressources dénichées

Redonner de l'importance aux déclarations

Face à une mesure défaillante, il faut se tourner vers ce qu'on a longtemps écarté : la déclaration. Celle du formateur sur ses apprenants, celle de l'apprenant sur lui-même.

On lui reproche sa subjectivité. C'est vrai. Mais cette subjectivité est aussi une richesse : un formateur capable d'observer un comportement perçoit des choses qu'aucun système ne capte. Une auto-évaluation par l'apprenant, conduite dans une démarche réflexive, révèle les doutes ou la confiance — données précieuses, par essence absentes des journaux d'événements.

Les déclarations portent généralement sur les compétences plutôt que sur les actes d'apprentissage. Elles fournissent donc directement un niveau d'abstraction, qui complète utilement les traces générées automatiquement.

Apprécier une compétence peut prendre deux formes : numérique ou textuelle. La première a toujours été facile à traiter, la seconde beaucoup moins. C'est précisément ce verrou que l'IA fait sauter : elle sait lire, comparer, synthétiser des appréciations rédigées en langue naturelle. Ce qui hier restait coincé dans des cases de commentaires libres devient désormais exploitable.

Tracer les expériences individuelles

À mesure que les parcours linéaires laissent place à des cheminements personnalisés, ou à des conversations avec des agents IA, chaque expérience d'apprentissage devient unique. Il ne s'agit plus de collecter des indicateurs comparables, alignables dans un tableau, mais de retracer l'histoire de chaque apprenant.

Sur ce point, le standard xAPI a été précurseur. Apparu en 2013, il a souvent été détourné pour faire ce qu'il ne devait pas faire : remplir, sous une autre forme, le rôle des indicateurs standardisés que SCORM remplissait déjà. Pourtant son nom — Experience API — disait l'intention : tracer des expériences, pas des résultats.

xAPI connaît aujourd'hui un retour en grâce, parce qu'il retrouve enfin l'usage pour lequel il a été conçu. La diversification des parcours lui rend justice, treize ans après.

For years, xAPI provided the perfect language to capture complex learner data, but there lacked the scalable intelligence to utilize it. Now, AI is the horsepower that processes those vast xAPI statements... -- Rustici, DevLearn 2025

Les traces générées par l'IA

À l'heure des tuteurs IA, une nouvelle catégorie de traces apparaît : celles que l'IA produit elle-même. En analysant ses échanges avec l'apprenant, un tuteur IA peut générer des synthèses — compétences développées, difficultés rencontrées, points à consolider.

Ces traces portent, elles aussi, une part de subjectivité. Mais elles sont issues d'interactions riches, et dans certains cas elles se rapprochent de ce qu'aurait pu produire un formateur attentif. Une appréciation, en somme — automatisée, mais une appréciation.

L'IA ne se contente pas d'analyser ses propres échanges. Elle est aussi capable de poser un regard sur des expériences individuelles existantes, par exemple sur des séquences de traces longues et hétérogènes. Ce traitement, jusqu'ici difficilement automatisable, devient accessible.

C'est là que l'IA agit en catalyseur, dans les deux sens : elle permet de proposer des expériences plus individuelles et elle rend possible l'analyse de ces expériences à grande échelle. La personnalisation et son suivi cessent d'être contradictoires.

L'apprentissage informel

Reste un dernier pan, longtemps oublié des systèmes de suivi : l'apprentissage informel. Celui que nous faisons tous les jours sans nous en rendre compte, en travaillant, en lisant, en échangeant avec nos collègues.

Par définition, il échappe à toute mesure automatique — il n'y a rien à enregistrer, aucun module, aucune session. Mais il ne se dérobe pas pour autant à l'appréciation. Une déclaration, du collaborateur ou de son manager, peut donner forme à ces apprentissages diffus, motivée par la valorisation des compétences acquises sur le terrain.

C'est par la couche compétences que se rejoignent alors apprentissage formel et informel. Et c'est là, peut-être, la plus belle promesse du suivi par appréciation : ne plus enregistrer seulement ce qui est fait, mais reconnaître les compétences qui se développent.

Pour finir

Le suivi des apprentissages a longtemps été dominé par la mesure, parce que l'appréciation à grande échelle n'était pas faisable. Cet équilibre se renverse. L'IA ne supprime pas les chiffres — la complétion subsistera, les évaluations aussi — mais elle déplace le centre de gravité : l'image fidèle d'un apprentissage se compose désormais d'appréciations autant que de mesures.

Pour les concepteurs, les formateurs, les responsables L&D, c'est un changement de posture. On ne se contente plus d'enregistrer ce qui se passe ; on cherche à comprendre ce qui se joue. Et comprendre un apprentissage, ce n'est pas le réduire à ce qu'on peut compter, c'est lui rendre justice dans toute sa profondeur.