jump to navigation

Faut-il boycotter les évaluations au CP et en CE1 ? 18 septembre 2018

Par Thierry Klein dans : Speechi.
Lu 5 fois | trackback

Je vois passer sur les réseaux sociaux des messages indignés d’enseignants qui contestent le bien fondé du processus des évaluations en CP qui vient d’être lancé par le Ministère. Certaines critiques (ici sur Twitter) se focalisent sur la forme de certains exercices.*

Ainsi, dans l’exemple ci-dessus, l’élève doit barrer le nombre le plus grand et il a une minute (pas plus !) pour faire ses 60 comparaisons. Les critiques qu’on peut lire sont de 2 types:

  1. Sur le bien fondé de l’exercice.
    Selon les détracteurs des évaluations, l’exercice est trop compliqué.“Aucun élève ne peut réussir cet exercice en CP en 1 mn, il est absurde de demander un aussi grand nombre de comparaisons: si l’élève a compris de quoi il en retourne et une dizaine de comparaisons suffisent pour le vérifier”
  2. Sur l’esprit de l’exercice
    L’objectif caché de l’exercice serait donc de mettre l’élève en échec. Ou de classer les élèves selon leur performance, ceci étant “le symptôme d’un système scolaire productiviste et sélectionnant par l’échec”.

Je voudrais simplement commenter ces exercices pour ce qui est de leur intérêt en tant qu’outil d’évaluation des élèves.

Pourquoi il est important pour le succès de l’évaluation qu’aucun élève n’aille au bout de l’exercice.

Supposons que sur 100 élèves testés, 50 aillent au bout de l’exercice. Pour ces 50 élèves “ayant réussi l’exercice”, l’évaluation aura échoué en ceci qu’elle ne pourra absolument pas les différencier. Je rappelle qu’une évaluation est une sorte de tube à essai pédagogique: il s’agit d’observer au maximum les différences, la variation de couleur du tube pour pouvoir tirer des conclusions les plus fines possibles. Donc, très probablement et de façon très logique aussi, cet exercice est conçu précisément pour qu’aucun élève ne le finisse !

Très probablement d’ailleurs, ces tests eux mêmes ont déjà été “pré-testés” sur des échantillons significatifs et retouchés de façon à ce que les résultats soient différenciés au maximum, pour cette raison précise d’observabilité. Les concepteurs de l’étude connaissent déjà plus ou moins la moyenne des réponses et leur répartition.

Pourquoi il est important de tester 60 cas et non pas 5 ou 10

Les concepteurs de l’exercice ci-dessus n’ont pas simplement voulu tester l’aptitude de l’élève à comparer 2 chiffres, ils ont voulu voir si l’élève faisait ceci de façon automatique ou non. Et donc la vitesse à laquelle on accomplit l’exercice est importante.

Pour réussir cet exercice, il faut d’abord savoir “lire” les nombres, c’est-à-dire associer le symbole “6” à une quantité puis comparer les quantités entre elles. Si l’enfant a des problèmes de lecture (déchiffrage du symbole “6”), il va être ralenti dans cet exercice ou faire des erreurs. Plus tard, il peut se trouver dans l’incapacité de comparer rapidement des nombres, donc de les soustraire, donc de comprendre ce qu’est un nombre négatif. Il apparaîtra peut-être alors comme un “mauvais en maths” – tout ça parce qu’on a laissé passer des choses très simples au CP. Si l’enfant va vite mais fait des erreurs “aléatoires”, il doit aussi être possible avec ce genre de test de commencer à détecter au plus tôt des dyslexies sans qu’elles ne condamnent l’enfant à devenir plus tard un “mauvais élève”.

Tout ce que j’écris ci-dessus, ce sont des conjectures. Je ne sais pas moi-même quel est l’objectif de cet exercice mais à la lecture des évaluations proposées, une logique s’en dégage indiscutablement. J’ajoute que les hypothèses ci-dessus peuvent être testées, corrélées grâce aux outils statistiques mis en place. Ainsi, on pourra voir, dans 5 ou 6 ans, si les élèves de 5ème qui “échouent” à l’exercice ont eu des difficultés en maths ou dans d’autres matières ou si au contraire, leur déficit de lecture a été récupéré “automatiquement” ensuite. Dans le premier cas, on attirera l’attention des enseignants sur ce point. Sinon, on ne fera rien. Des dizaines d’exercices  sont proposés précisément pour que les actions de “mise à niveau” puissent être entreprises de la façon la plus fine possible.

Glande pinéale et mélatonine

L’autre exemple qui a circulé est celui-ci. L’enfant doit lire ce texte et répondre aux questions suivantes.

Des enseignants et le syndicat Snuipp-FSU jugent cet exercice “très inquiétant car “renfermant des pièges” et “nécessitant des compétences expertes“. Principal argument : un élève de CP ne peut pas savoir ce qu’est une glande pinéale ou la mélatonine ! Ca semble imparable, mais qu’en est-il ?

Pourquoi ce test est-il adapté ?

D’abord, je rappelle que ce test est calibré pour être le plus différenciant possible. S’ils ne permet pas, pour chaque question, de répartir les élèves en 3 groupes à peu près équilibrés – et ceci doit avoir été pré-testé sur des échantillons d’élèves, il perd son intérêt statistique pour les enquêteurs. En ce sens, il est adapté aux élèves. Beaucoup ont dû bien répondre, sinon les questions n’auraient même pas été posées.

Si on rentre dans le pourquoi de ce test lui-même, il est évident que les concepteurs ont justement voulu tester la compréhension d’un texte dont les enfants n’avaient jamais eu l’occasion de lire ni d’entendre certains mots et n’avaient donc aucune chance d’en comprendre le sens. On ne demande pas, évidemment aux enfants, cela n’aurait absolument aucun sens, la signification des mots “glande pinéale” ou “mélatonine”. On leur pose des questions simples sur le texte. Or qu’est-ce que savoir lire ? C’est savoir associer un sens à un texte, même si certains mots restent inconnus, ce qui pour un texte suffisamment complexe est souvent le cas même pour nous, adultes. Si l’enfant ne sait pas “donner du sens” à un texte contenant des mots qu’il n’a jamais lus ni entendus, il ne sait pas bien lire. Bref, il s’agit d’un test assez avancé de lecture. C’est un non sens de l’interpréter comme un simple test de vocabulaire.

Une évaluation n’est pas un examen

Sur le côté “très inquiétant” de l’exercice qualifié par ce syndicat de “traumatisant pour les élèves” et de “détruire l’école de la confiance“, il montre simplement une incompréhension totale de ce qu’est une évaluation. Une évaluation n’est pas un concours ni un examen, c’est une observation expérimentale permettant de créer une carte du niveau scolaire (progresse-t-on ? recule-t-on au niveau national ?) et si possible des enseignements pour l’apprentissage futur des élèves. C’est une sorte de “tube à essai pédagogique” permettant en outre, si possible, d’identifier de façon simple les lacunes à combler car elles pourraient être préjudiciables plus tard à l’élève (voir l’exercice sur la comparaison des nombres ci-dessus). La notion de succès ou d’échec n’a absolument aucun sens. Les enseignants devraient bien expliquer ceci à leurs élèves et aux parents plutôt que de dénigrer par principe cette approche (ce qui a sans doute, paradoxalement, un effet traumatisant auto-réalisateur sur les élèves).

No pasaran

On est en France et il y a toujours un bon prétexte pour faire la révolution.

Certains enseignants, invoquant leur sacro-sainte “liberté pédagogique”, appellent à l’insoumission et préconisent de ne pas faire passer les évaluations aux élèves. Ils sont complaisamment relayés par “Le café pédagogique”  qui par vocation se devrait pourtant d’être ouvert à toutes les approches scientifiques visant à améliorer la pédagogie. On se demande surtout en quoi faire passer l’évaluation fait peser la moindre contrainte sur la pédagogie future de l’enseignant. A ma connaissance, aucune directive pédagogique n’a été émise à ce jour. L’appel au grand soir me paraît donc, à ce stade, largement anticipé.

Les vrais bénéfices de l’évaluation

Je rappelle que les bénéfices de l’évaluation sont immenses. D’abord, pour quiconque analyse de façon critique les exercices proposés, il y a très clairement une logique cohérente qui s’en dégage et je n’ai aucun doute que les enseignements devraient être nombreux. Les bénéfices iront aussi en s’améliorant avec le temps car lorsque les élèves actuellement en CP seront en 6ème, en 3ème, etc, on pourra les corréler avec leur niveau scolaire et donc, pour les nouveaux élèves qui seront alors en CP, corriger au plus tôt les lacunes qui leur sont le plus préjudiciables. On saura aussi, au fil des ans, produire des tests de plus en plus significatifs et différenciés, tester des capacités de plus en plus fines. Les professeurs informés devraient alors bénéficier de méthodes simples leur permettant de faire progresser les élèves. Ainsi, dans l’exemple de comparaison des nombres, on voit assez simplement quels exercices peuvent être proposés à l’élève en difficulté.

L’autre avantage est que dorénavant, chaque enseignant dispose d’un référentiel de comparaison national à peu près fixe. Aux enseignants et aux écoles, ils doit permettre à terme de situer les difficultés des élèves et donc d’agir en conséquence. Aux rectorats, il doit permettre de repérer les “zones à risque”, celles où des actions doivent être menées, des moyens investis pour les élèves – et de juger du succès des moyens mis en place. Au Ministre, il doit permettre d’évaluer le niveau moyen et d’en être le garant devant la nation.

Je rappelle que depuis 40 ans, les études ont été souvent biaisées, la baisse du niveau très largement masquée (1). Plutôt que d’en critiquer le principe, les enseignants devraient se saisir de l’évaluation pour en faire le meilleur outil possible.


(1) Rapport de la Cour Des Comptes 2010 :  « Plusieurs instances sont chargées en France de l’évaluation du système scolaire (inspections générales et direction de l’évaluation, de la prospective et de la performance du ministère, Haut conseil de l’éducation), mais leur influence est limitée par plusieurs éléments : le Haut conseil de l’évaluation de l’école a été supprimé ; un refus a pu être parfois opposé à la direction de l’évaluation, de la prospective et de la performance et aux inspections générales de publier certains résultats; enfin le ministère ne tire pas suffisamment les conséquences des évaluations dont il peut disposer. ».

Voir aussi  “Des statisticiens accusent l’éducation nationale de faire de la rétention d’information“. Le Monde du 4 novembre 2011. On peut aussi lire, avec les précautions qui s’imposent,  ce communiqué syndical qui met en évidence une division par deux du nombre des études publiées depuis 2 ans.

Billets associés :

Commentaires»

no comments yet - be the first?