L’école face à la révolution numérique: le discours de la méthode. 12 juin 2012
Par Thierry Klein dans : Speechi.Lu 1 fois | trackback
Comme l’ont montré Descartes ainsi que le grand débat national sur l’Ecole organisé il y a une dizaine d’années par Claude Thélot, qui avait recueilli pas moins de 50 000 contributions, « le bon sens est, avec les opinions sur l’école, la chose au monde la mieux partagée ».
Au nom de leurs visions respectives sur l’école, les nombreux ministres de l’Education Nationale n’ont eux-mêmes cessé, depuis 30 ans, de secouer l’Education Nationale.
Pour l’un, la clé est dans l’apprentissage de la lecture. Pour l’autre, c’est le soutien individualisé. Pour un troisième, il s’agit de la motivation des professeurs, du nombre d’élèves par classe, du rythme scolaire ou bien encore de la quantité de graisse disponible sur le mammouth.
Tout y passe, donc. Mais quel est le point commun entre ces différentes « visions » ? C’est que vraies ou fausses, elles ne sont pas fondées. Elles ne s’appuient pas sur des faits scientifiquement prouvés mais sur des a priori, des préventions, selon le terme employé par Descartes.
« Considérant combien il peut y avoir de diverses opinions touchant une même matière, qui soient soutenues par des gens doctes, sans qu’il y en puisse avoir jamais plus d’une seule qui soit vraie, je réputais presque pour faux tout ce qui n’était que vraisemblable. »
« C’est pourquoi, dit Descartes, s’adressant à nos ministres avec presque 400 ans d’avance, je ne saurais aucunement approuver ces humeurs brouillonnes et inquiètes, qui, n’étant appelées ni par leur naissance ni par leur fortune au maniement des affaires publiques, ne laissent pas d’y faire toujours en idée quelque nouvelle réformation ».
La méthode expérimentale qu’invente Descartes dans le Discours de la méthode n’est pas une théorie scientifique, mais bien une façon de trancher entre les théories (par l’expérience) et d’avancer dans la découverte scientifique (en divisant un problème d’apparence complexe en plusieurs problèmes plus simples).
A partir de Descartes, le progrès scientifique est continu quel que soit le rythme des découvertes. Même la reconnaissance qu’une idée est fausse constitue souvent un progrès utile. Ainsi, si je prends le cas de l’équipement numérique des écoles, aucune étude sérieuse n’existe sur le bénéfice que les élèves peuvent retirer de cet équipement. Soit, donc, cet équipement est inutile, auquel cas des budgets peuvent être dégagés pour d’autres investissements plus intéressants, soit il est utile et il importe alors de dire en quoi il est utile, de dégager son cadre d’utilisation, les usages optimaux, les matières où il doit être utilisé, etc.
Jusqu’à aujourd’hui, la méthode décrite par Descartes est restée quasiment inapplicable dans l’enseignement pour deux raisons principales :
- La complexité de la validation de la théorie : à l’opposé des sciences exactes où des expériences ont souvent pu rapidement déterminer la validité d’une théorie, valider une théorie portant sur la pédagogie nécessitait jusqu’à présent des évaluations lourdes, coûteuses, longues et complexes. En conséquence, ces évaluations ne pouvaient être réalisées qu’en petit nombre et ne pouvaient réellement influencer la politique des états, la durée de l’évaluation étant en général nettement supérieure à la longévité du Ministre.
- Le flou des critères : là où, dans les sciences exactes, les critères sont mesurables et le plus souvent accessibles à l’expérience, les données à observer sont complexes à définir dans le cas de l’enseignement. Comment juger avec certitude le niveau d’un élève ? la qualité d’un professeur ? D’une méthode ? Ces termes mêmes ont-ils un sens ? Et si on peut apporter un début de réponse – ou une réponse imparfaite – aux questions précédentes, comment observer de façon quantitative que « l’enfant est bien dans sa peau à l’école », ce qui lui permet « d’exprimer sa créativité », comme le préconisent certains courants ?
Or, il se trouve que deux développements scientifiques récents vont permettre d’appliquer la méthode expérimentale à l’école.
Bien qu’intimement liés à la révolution numérique en cours, ils n’ont jamais, à ma connaissance, été mis en relation. Les progrès qu’ils permettent d’envisager sont immenses. La pédagogie scolaire, presque figée depuis le temps d’Aristote qui a inventé simultanément le cours magistral, les petites classes et la ressource documentaire, va pouvoir suivre un chemin d’amélioration permanent, continu et observable, comparable à celui que la science a suivi depuis l’écriture du Discours de la méthode.
Le premier est la méthode d’évaluation aléatoires mise au point par une chercheuse français, Esther Duflo.
Le second est l’avènement des « big data » autrement dit la possibilité d’utiliser des masses de données d’information récoltées sur les élèves. Ces données sont aujourd’hui exclusivement utilisées pour des besoins publicitaires par des sociétés telles que Facebook ou Google. Or elles peuvent aussi être utilisées de façon décisive pour améliorer l’enseignement.
La méthode d’évaluation aléatoire.
La méthode aléatoire repose sur des évaluations faites sur des petits groupes (quelques centaines d’élèves) dont les caractéristiques sont identiques au départ. Un de ces petits groupes adopte un “processus nouveau” (par exemple il va utiliser une méthode de lecture nouvelle jugée prometteuse). On compare ensuite, sur des critères précis, la performance de ces groupes (rapidité de lecture, compréhension, etc.).
Depuis quelques années, Esther Duflo, a utilisé la méthode aléatoire pour évaluer les effets des politiques de lutte contre la pauvreté avec des résultats remarquables. Les techniques qu’elle a développées peuvent être appliquées à l’école.
Avec des moyens très faibles, la méthode aléatoire a donné, en Inde, plus de renseignement sur les usages du numérique que dans tous les pays développés.
“Lorsque l’on compare les écoles équipées en informatique avec les autres, on constate que les élèves ont de meilleurs résultats dans les premières. Mais est-ce vraiment dû aux ordinateurs ? La différence de résultats ne s’explique-t-elle pas plutôt par le fait que ce sont généralement des écoles urbaines, déjà relativement favorisées, qui sont équipées en ordinateurs ?
Une expérimentation permet d’isoler l’impact réel des ordinateurs. Dans une ville indienne, toutes les écoles en étaient équipées, mais généralement, ils restaient dans leur boîte, parce que les enseignants n’étaient pas formés ou ne disposaient pas des logiciels appropriés. Nous avons sélectionné un groupe d’écoles de manière aléatoire et avons mis à leur disposition un formateur et des logiciels de mathématique, de sorte que tous les enfants bénéficiaient de quelques heures d’informatique par semaine. Un an plus tard, nous avons comparé les performances. Les écoles qui avaient pu utiliser les ordinateurs recueillaient de meilleurs résultats en mathématique.
De nombreuses expériences peuvent être menées dans le domaine de l’éducation, permettant de tester l’impact de facteurs fort divers. Une étude a par exemple montré que l’embauche d’une personne chargée du soutien scolaire a un impact équivalent à l’achat d’ordinateurs, tout en étant bien moins onéreuse.“
Les processus d’évaluation actuels sont lourds, coûteux, longs et ne peuvent pas influencer les politiques d’éducation. En les remplaçant, ou en les complétant, par un grand nombre de micro-évaluations aléatoires peu coûteuses, rapides à effectuer, bien ciblées et déterminées avec méthode, on peut disposer d’un outil remarquablement efficace, permettant d’obtenir des premiers résultats en quelques mois, d’infléchir les politiques et de mieux dépenser l’argent public.
Avec les outils d’évaluation adéquats, l’école peut devenir un processus « optimisé sous contraintes ». Comme le processus d’évolution améliore en permanence la performance des êtres vivants, toutes les initiatives peuvent être évaluées, et les meilleures sélectionnées et généralisées.
Le facteur clé de succès de cette politique de guidage réside dans la rapidité d’exécution (de l’ordre de quelques semaines) et la quantité des évaluations mises en place – pour reprendre un terme utilisé en informatique, dans leur agilité.
Ce processus pourrait être mis en place par la Direction de l’Evaluation de l’Education Nationale, sous le contrôle éventuel d’un grand corps du Numérique, constitué en priorité d’ingénieurs sur le modèle du corps des Mines ou des Ponts et qui aurait pour objectif de mener à bien la réforme numérique dans l’administration française et à l’école.
L’utilisation des « Big Data ».
Alors que pour l’instant les principales applications numériques utilisées à l’école concernent les usages, l’évaluation à l’école est, selon moi, le facteur le plus important et le plus méconnu de la révolution numérique en cours.
Dans la dernière décennie, ordinateurs, tableaux interactifs, environnements numériques de travail ou autres cartables numériques sont rentrés à l’école, sans que l’on sache vraiment d’ailleurs, en l’absence de toute méthode, quel est leur impact réel sur le niveau des élèves. Qui plus est, ces technologies ont pour vocation presqu’unique d’améliorer l’apprentissage et non pas de l’évaluer.
Or, à partir du moment où on rassemble suffisamment de données (on parle ici en petaoctets, c’est-à-dire en million de gigaoctets), la statistique permet de dégager des “lois” générales profondes. Dans un article polémique, mais fondateur, intitulé « La fin des théories : le déluge de donnée rend la méthode scientifique obsolète », Chris Anderson a montré comment ces données peuvent être utilisées non seulement pour conquérir des marchés publicitaires, comme l’a fait Google, mais aussi peut être aussi pour se débarrasser de qui était auparavant le but de toute science, à savoir le modèle ( ce qu’on appelle en général « la théorie scientifique »).
Google ne cherche pas à modéliser le comportement des utilisateurs ou à « comprendre » le contenu des pages Web, mais utilise des outils statistiques afin de dégager des corrélations (patterns) à partir desquels les bandeaux de publicité sont proposés. Pas de modèle, la corrélation suffit.
Quel rapport avec l’école ?
Les évaluations actuelles mises en place par l’Education Nationale sont mal acceptées parce qu’exceptionnelles, complexes et lourdes et génèrent très peu de données, en quantité, par rapport aux mécanismes de captation de données mis en place par Google ou Facebook, qui sont eux volontairement – et souvent frénétiquement – utilisés par les élèves à partir de leur ordinateur, tablette numérique ou téléphone portable.
Il est grand temps d’utiliser ces données dans un objectif d’intérêt général et d’intégrer massivement ces technologies dans l’enseignement, a minima pour évaluer les élèves.
Dans le cadre des évaluations aléatoires que j’ai déjà évoquées, ces équipements numériques mobiles rendent l’évaluation des élèves et des politiques scolaires beaucoup plus rapide, facile et économique, à tel point qu’il devient possible aujourd’hui, en multipliant les micro-évaluations, de réellement diriger toute la politique scolaire.
Ensuite, l’usage de ces matériels doit être systématisé de façon à obtenir un maximum de données permettant d’évaluer les élèves et de récolter ces données d’évaluation. Dans la mesure du raisonnable, la plupart des évaluations, devoirs, questionnaires devraient être demandés aux élèves sous forme numérique, dans un format permettant aux outils statistiques de type « big data » d’être utilisés.
Les outils permettant d’interroger les élèves de façon numérique (par exemple sous forme de questionnaire à choix multiples) existent déjà mais ne sont pratiquement utilisés que dans l’enseignement supérieur, et de façon parcellaire. A partir du moment où le volume de données recueillies devient suffisant, où ils sont systématiquement mis en place partout dans les écoles, ces outils permettront non seulement de déterminer le niveau réel des élèves avec une profondeur bien supérieure aux techniques d’évaluation actuelles, mais aussi de déterminer des quantités de lois pédagogiques, ou plutôt de corrélations, nouvelles et non contestables.
Il convient de préciser, car l’objection sera évidemment faite, que « Big data » n’est pas nécessairement « Big brother ». Toutes ces données sont personnelles mais peuvent – et sans doute pour la plupart doivent – rester anonymes. La question de l’identité de l’élève qui a répondu importe peu à l’outil statistique, ce qui importe, c’est de connaître l’ensemble de ses données, sur l’ensemble de son parcours scolaire.
Il va devenir possible d’identifier les « meilleurs professeurs » (ceux qui font le plus progresser le niveau moyen de leurs élèves et non pas ceux qui, disposant probablement au départ des meilleurs élèves, obtiennent les meilleurs résultats au baccalauréat) et de s’inspirer de leurs méthodes pour former les autres professeurs. La formule « bon professeur » n’a peut être pas un grand sens dans l’absolu, mais on peut envisager aussi de déterminer, grâce à des corrélations, quel est le professeur qui conviendra le mieux à un élève déterminé, quel est l’élève qui apprend mieux en lisant qu’en écoutant, quel est celui qui est à même de profiter le plus d’un soutien personnalisé…
Bref, les « big data » vont nous fournir des renseignements très précieux permettant d’améliorer professeurs, élèves, méthodes pédagogiques, mécanismes d’orientation, etc. Il est impossible à l’heure actuelle de prédire quelle ampleur prendront ces progrès.
Il est simplement possible de prédire que le pays qui tirera le plus d’avantage de la révolution numérique sera celui qui aura su le mieux utiliser ces nouveaux outils de captation des données et d’évaluation car, nous dit Descartes:
« Ceux qui ne marchent que fort lentement peuvent avancer beaucoup davantage, s’ils suivent toujours le droit chemin, que ne font ceux qui courent et qui s’en éloignent. »
C’est bien un nouvel âge de l’école qui s’ouvre.
Billets associés :
Commentaires»
no comments yet - be the first?