ÉDITORIAL

  

Les « évaluations diagnostiques CP » de la rentrée 2017 sont-elles un outil valide et pertinent ?

  

A.N.A.E. N° 145 – DECEMBRE  2016

 

Le ministère de l’Éducation nationale (MEN) a proposé en fin d’été à tous les enseignant-e-s des « évaluations diagnostiques » destinées aux élèves de CP. Ces évaluations sont maintenant accessibles à tous sur le web. Il ne fait pas de doute qu’évaluer les capacités des enfants est très important. Le MEN défend maintenant, et à juste titre, une approche des questions éducatives qui soit davantage éclairée par les résultats des travaux de recherche. Cependant, l’analyse de ces évaluations révèle de sérieux problèmes quant à leur validité scientifique et pédagogique. De plus, en raison de leur nature (voir ci-après), elles risquent même de provoquer dans la communauté enseignante un rejet du principe même de l’évaluation.

 

Le premier problème concerne le but affiché de ces « évaluations diagnostiques CP » : faire ressortir les élèves ayant (ou risquant d’avoir) des difficultés de lecture afin de pouvoir les aider.

 

Elle concerne aussi l’absence de données indiquant, pour chaque exercice mis à disposition des enseignants, comment se comportent « normalement » les enfants de ce niveau scolaire scolarisés en France à une période similaire (début de CP). Cette absence de « repères statistiques » ne permet pas de « diagnostiquer » (ou plutôt repérer) les capacités déficitaires qui doivent être travaillées en priorité chez les enfants susceptibles de rencontrer des difficultés lors de l’apprentissage de la lecture ou du nombre.

 

De plus, il n’est pas précisé clairement comment les enseignants vont être formés et accompagnés dans cette tâche à la compréhension de l’outil et des exercices sélectionnés, aux conditions de passation, et surtout à l’interprétation non seulement des résultats individuels mais aussi des résultats globaux de leurs classes et écoles. Ces conditions sont primordiales pour un usage raisonné et utile d’un véritable « outil diagnostique ».

 

Le second problème concerne la pertinence du contenu des épreuves. D’après plusieurs études sur les débuts de l’apprentissage de la lecture (par exemple, Gentaz, Sprenger-Charolles & Theurel, 2015), 5 capacités permettent de prédire en grande partie le futur niveau de compréhension écrite. Il s’agit, d’une part, du niveau de compréhension orale d’énoncés et de mots, de celui du décodage (utiliser les correspondances graphème-phonème pour lire des mots isolés) et de deux capacités reliées : celle qui permet d’isoler les phonèmes dans un mot (comprendre qu’il y a 3 phonèmes dans le mot oral « tour » qui correspondent aux graphèmes t+ou+r), la conscience phonémique et le niveau de prélecture, souvent évalué par la lecture de syllabes simples (la, bon, bol, peur…), voire la connaissance du son des lettres.

 

Dans ce cadre de référence, l’examen des « évaluations diagnostiques CP » montre notamment que sur 13 exercices proposés, 3 seulement portent sur la compréhension du langage oral (au niveau du mot, de l’énoncé et du texte), et 2 sur le décodage, 7 des 8 autres exercices posent des problèmes sérieux, en particulier la plupart des 4 tâches centrées sur la conscience syllabique, incluant l’exercice 7 (‘é’ dans étoile, éponge… ou ‘to’ dans photo, manteau… sont en effet des syllabes) dans lequel un seul des items évalue la conscience phonémique (barrer l’image du mot qui ne commence pas comme cerise : serpent, ciseaux, singe, bougie). De fait, pour ce type d’exercice, et pour éviter de confondre découpage syllabique et phonémique, il faut utiliser des mots  monosyllabiques (voir Gentaz et al., 2015). Deux autres exercices portent sur le nom des lettres. Or pour écrire la majorité des symboles représentant les voyelles du français, il faut soit 2 lettres (ou, eu, an, in, on, un), soit une seule lettre avec un signe diacritique (é, è). de plus, ce sont uniquement des consonnes qu’on voit utilisées dans ces 2 exercices. Or les consonnes ne peuvent pas se prononcer en isolat : elles doivent « sonner » avec une voyelle d’appui (dans l’alphabet, ‘p’ se dit pé, le mot pays peut donc s’écrire PI, tout comme Hélène, peut s’écrire LN). Pour ces raisons, c’est le son des lettres qui compte, leur nom pouvant même entraver l’apprentissage de la lecture-écriture (voir Kipffer-Piquard & Sprenger-Charolles, 2013).

 

En conclusion, il serait plus raisonnable, dans ces conditions, de réunir une commission composée de spécialistes de chaque domaine disposant notamment d’items-cibles cruciaux avec les normes statistiques correspondantes, ainsi que d’enseignants. Cette nouvelle commission serait alors, en mesure de proposer une nouvelle évaluation basée sur les résultats de la recherche, et l’expertise des enseignants. Il faudrait ensuite la tester (avec ses modalités de passation et d’interprétation) auprès d’un échantillon d’élèves représentatifs de la diversité de la population française. Avec ma collègue Liliane Sprenger-Charolles, nous avons déjà alerté le MEN sur ces problèmes et nous espérons qu’il sera capable de les prendre en compte dans l’intérêt de la communauté éducative et, surtout, dans celui des enfants.

 

 Pr Édouard Gentaz

 Professeur de psychologie du développement à Université de Genève et

 Directeur de recherche au CNRS (LPNC-Grenoble)

 Rédacteur en chef d’A.N.A.E.

  

RÉFÉRENCES

GENTAZ., É., SPRENGER-CHAROLLES, L. & THEUTEL, A. (2015). Differences in the predictors of reading comprehension in first graders from low socio-economic status families with either good or poor decoding skills. PLoS ONE. 10(3), e0119581.

 

PIQUARD-KIPFFER, A. & SPRENGER-CHAROLLES, L. (2013). Early predictors of future reading skills: A follow-up of French-speaking children from the beginning of kindergarten to the end of the second grade (age 5 to 8).Année psychologique,  

113 (4), 491-521.