Après l’évaluation : Préparation d’un conseil des maîtres avec les professeurs des écoles de GS / cycle 2. publié le 05/03/2019

Annexe 1

Évaluations nationales, précisions apportées par Franck RAMUS sur son blog
Franck Ramus, est membre du Conseil scientifique de l’Education Nationale et a participé à la conception des évaluations CP et CE1. Psycholinguiste, il est directeur de recherches au CNRS et professeur attaché à l’Ecole Normale Supérieure.
Ses recherches portent sur le développement cognitif de l’enfant, ses troubles (dyslexie développementale, trouble spécifique du langage, autisme), ses bases cognitives et cérébrales, et ses déterminants génétiques et environnementaux.
Il répond à des questions sur les évaluations CP et CE1

On ne comprend pas l’intérêt de certains tests. Ils ne correspondent à rien de ce qui est enseigné en maternelle ou en CP.

De manière générale, un test n’a pas la même fonction et donc pas les mêmes caractéristiques qu’un exercice à visée pédagogique.
Contrairement à un exercice, un test vise à évaluer une fonction cognitive bien précise. Cela amène parfois à lui donner une forme ou des caractéristiques qui sont différentes de celles des exercices, et qui sont peu familières pour les élèves. Cela ne remet pas en cause la validité du test, bien au contraire.
Les documents d’accompagnement des évaluations reçus par les enseignants incluent un descriptif et une explication de l’intérêt de chaque test inclus dans les évaluations (encadré « Pourquoi ce test ? »).
A deux exceptions près ("discrimination visuelle" et "utiliser le nombre pour exprimer une position"), tous les tests inclus dans les évaluations de début-CP se basent sur les attendus en fin de maternelle, tels que spécifiés dans les programmes. Les compétences associées à chaque test dans le guide du maître reprennent même littéralement ces attendus (par exemple : "reconnaître les lettres de l’alphabet", "Comprendre des textes écrits sans autre aide que le langage entendu", "Discriminer des sons"), pour que lien soit absolument évident pour les enseignants. Néanmoins, ces évaluations n’ont pas pour objectif d’évaluer ce qui a été fait à la maternelle ou dans les deux premières semaines du CP. Elles ont pour objectif d’évaluer un certain nombre de compétences cognitives qui sont des prérequis pour le programme de français et de mathématiques du CP. Certains de ces prérequis ont été enseignés à la maternelle, d’autres pas, mais ils n’en sont pas moins importants.
Ce qui justifie l’inclusion de ces tests dans les évaluations, ce n’est pas ce qui a été enseigné auparavant ou pas, c’est leur valeur pronostique et diagnostique pour l’apprentissage de la lecture et des mathématiques au CP, ainsi qu’il est expliqué dans les documents d’accompagnement.

Certains exercices semblent trop difficiles pour le début de CP

A nouveau, un test n’a pas la même fonction et donc pas les mêmes caractéristiques qu’un exercice à visée pédagogique.
Alors qu’un exercice est conçu pour pouvoir être réussi par la plupart des élèves, un test vise à être le plus sensible possible aux différences individuelles entre les élèves. Il est conçu pour révéler les difficultés, pas pour les masquer. De ce point de vue, un test qui donnerait le score maximal à 95% (ou à même à 50%) des élèves serait peu informatif. C’est pour cela que les tests sont conçus de manière à ce que l’obtention du score maximal soit difficile. Le symétrique est vrai également : si tous les élèves échouent, le test est aussi peu informatif. La plupart des tests visent donc une difficulté intermédiaire de manière à observer la plus grande variabilité possible.
Tous les tests proposés à la rentrée 2018 ont fait l’objet d’une étude pilote menée par la DEPP sur 6000 élèves, en collaboration avec de nombreux enseignants, de la conception au pilote. La difficulté des tests proposés ne doit donc rien au hasard, elle a au contraire été soigneusement calibrée sur la base de l’étude pilote.
Les résultats de l’étude pilote montrent d’ailleurs que les craintes sur la difficulté des exercices sont en large part infondées. Par exemple, dans l’étude pilote réalisée à la fin de GSM pour les tests de début CP, plus de la moitié des élèves ont réussi au moins 5 items sur 8 au test consistant à repérer le mot commençant par le même phonème que le mot cible. Ce test est donc tout à fait au bon niveau de difficulté. De même, le texte sur la glande pinéale qui offusque certains enseignants a donné 53% de réponses correctes chez les élèves dans l’étude pilote, qui ont été testés en fin de CP. Ce test est donc aussi au niveau de difficulté recherché. Il ne nécessite de connaître aucun mot compliqué comme glande pinéale ou mélatonine (les questions ne portent pas là-dessus).
Cela étant dit, certains exercices sondent effectivement des compétences qui sont probablement encore insuffisamment développées chez les élèves de début CP. Ces exercices ont été inclus parce qu’ils ont été jugés importants pour leur valeur diagnostique, ainsi que pour mesurer les progrès entre le début et le milieu du CP. Les analyses des résultats permettront de vérifier si c’est bien le cas. S’il s’avère que ces compétences sont très importantes pour la suite, et qu’elles sont insuffisamment maîtrisées par la plupart des élèves en début de CP, cela serait un argument fort pour motiver l’introduction de ces compétences dans les programmes de maternelle.
Le fait qu’un élève ne parvienne pas à faire un exercice ne doit pas poser de problème. Comme précisé dans les instructions, les enseignants doivent prévenir les élèves qu’ils ne parviendront pas à faire certains exercices, que cela est parfaitement normal, et que cela n’aura aucune conséquence. L’important est simplement que les élèves fassent de leur mieux sur chaque test.

Pourquoi certains tests sont en temps limité et impossibles à terminer ?

Encore une fois, un test n’a pas la même fonction et donc pas les mêmes caractéristiques qu’un exercice à visée pédagogique.
Contrairement à un exercice, un test vise à évaluer une fonction cognitive bien précise. Dans certains cas, la fonction cognitive qui est visée par le test n’est pas juste la capacité à faire quelque chose (par exemple, reconnaître des lettres), mais l’automaticité de cette capacité (ce qui peut être très important, par exemple pour la fluence de lecture). Dans de tels cas, la mesure pertinente est le nombre de réponses correctes qu’un élève est capable de produire dans un temps donné.
A nouveau, de manière à être le plus sensible possible aux différences individuelles, il importe que tous les élèves ne puissent pas donner toutes les réponses dans le temps imparti. C’est pour cela que la liste d’items est trop longue pour pouvoir être terminée.
Et encore une fois, cela n’a pas lieu d’engendrer de la détresse ou de la frustration chez les élèves, dans la mesure où les enseignants prennent bien la précaution de leur expliquer qu’il est parfaitement normal de ne pas terminer le test dans le temps imparti. La collaboration des enseignants pour rassurer les élèves par rapport à leur performance est absolument cruciale.

Pourquoi certains tests comportent-ils des "pièges" ?

Il n’y a évidemment aucune intention de « piéger » les élèves dans le but de les faire échouer.
Mais comme vous l’avez maintenant bien compris, un test n’a pas la même fonction et donc pas les mêmes caractéristiques qu’un exercice à visée pédagogique.
Si un test vise à évaluer, par exemple, la sensibilité aux phonèmes (est-ce que deux mots commencent par le même phonème ?), il est crucial de s’assurer que les réponses des élèves reflètent bien leur sensibilité aux phonèmes, et pas aux rimes, ni au sens des mots, ni à toute autre similarité de surface entre deux mots. Par conséquent, pour s’assurer que les bonnes réponses reflètent bien la compétence visée et aucune autre, il convient de mettre parmi les mots proposés comme réponse possible certains qui présentent d’autres similarités que celle qui est testée. Ainsi, si un élève choisit régulièrement la bonne réponse, on est sûr que c’est bien le phonème initial qu’il a repéré. Si au contraire il se laisse souvent « piéger » par un mot qui rime, alors c’est qu’il ne maîtrise pas encore parfaitement la distinction entre rime et phonème. Dans le cadre d’un test, il importe de le savoir, c’est justement ce niveau de précision qui va aider les enseignants à mieux connaître les besoins des élèves.
En résumé, ces différences entre les tests des évaluations nationales et les exercices habituels, qui semblent dérouter certains enseignants, ce sont précisément les caractéristiques qui leur donnent leurs qualités psychométriques, et qui font que ces évaluations nationales sont plus précises, plus valides et plus fiables que tout autre outil à leur disposition. Elles sont donc un complément indispensable à la panoplie d’exercices qu’utilisent déjà les enseignants.

Impression

  Imprimer

  L'article au format pdf

Auteur

 Michel Collin

Partager

   

Dans la même rubrique

 Après l’évaluation : Préparation d’un conseil des maîtres avec les professeurs des écoles de GS / cycle 2.
 Différencier après l’évaluation : l’atelier d’apprentissage avec l’enseignant