Ecole numérique: attaquons-nous à la cause du problème, pas aux symptômes. 3 janvier 2013
Par Thierry Klein dans : Speechi.Lu 5 fois | ajouter un commentaire
“Je vois deux approches extrêmes pour s’y prendre. L’une est celle du marteau et du burin, quand le problème posé est vu comme une grosse noix, dure et lisse, dont il s’agit d’atteindre l’intérieur, la chair nourricière protégée par la coque. Le principe est simple : on pose le tranchant du burin contre la coque, et on tape fort. Au besoin, on recommence en plusieurs endroits différents, jusqu’à ce que la coque se casse – et on est content.
Je pourrais illustrer la deuxième approche, en gardant l’image de la noix qu’il s’agit d’ouvrir. La première parabole qui m’est venue à l’esprit tantôt, c’est qu’on plonge la noix dans un liquide émollient, de l’eau simplement pourquoi pas, de temps en temps on frotte pour qu’elle pénètre mieux, pour le reste on laisse faire le temps. La coque s’assouplit au fil des semaines et des mois – quand le temps est mûr, une pression de la main suffit, la coque s’ouvre comme celle d’un avocat mûr à point ! Ou encore, on laisse mûrir la noix sous le soleil et sous la pluie et peut-être aussi sous les gelées de l’hiver.
Quand le temps est mûr c’est une pousse délicate sortie de la substantifique chair qui aura percé la coque, comme en se jouant – ou pour mieux dire, la coque se sera ouverte d’elle-même, pour lui laisser passage.”
Les lignes ci-dessus sont d’Alexandre Grothendieck, un des plus grands mathématiciens de l’histoire. Et sa parabole me fait penser à l’enseignement de l’informatique en France.
Depuis 30 ans qu’on a identifié nos faiblesses, on s’entête à tenter d’en enseigner les usages plutôt que d’enseigner la matière elle-même.
Les investissements visant à faire utiliser les technologies numériques par les élèves se multiplient (tableaux interactifs, classes numériques) mais, avant le niveau bac, les formations leur permettant de comprendre comment ces technologies sont développées sont presque absentes– je parle de cours de programmation, de génie logiciel, d’algorithmie et d’architecture des ordinateurs, bref, de tout ce que les anglo-saxons recouvrent sous l’appellation “Computer Science”.
L’informatique est devenue la science la plus importante pour résoudre les problèmes cruciaux qui se posent à l’humanité, du développement durable à la faim dans le monde (un exemple, en anglais). Elle est devenue un levier peut être plus important encore que les mathématiques pour toutes les sciences, de la biologie à la physique et sans doute même pour tout ce qui ne peut pas encore être appelé science et est appelé un jour à le devenir (une bonne partie des sciences humaines).
De tels enseignements sont devenus indispensables pour comprendre le monde qui nous entoure. Ils font partie de la culture générale que devrait avoir tout bachelier qui se destine à faire des études supérieures (avec – et non pas contre – le latin, la philosophie, les mathématiques…).
Il ne s’agit pas de créer une génération d’informaticiens, pas plus qu’il ne s’agissait de créer une génération de latinistes ou de mathématiciens. Simplement de créer des citoyens cultivés dans ce domaine, capables de comprendre et, pour les meilleurs, de créer les outils de demain.
On n’obtient pas cet effet en faisant utiliser des IPADs aux élèves, mais en leur expliquant comment ils sont faits.
Enseignez l’informatique le plus tôt possible à l’école, dès la sixième, et vous verrez que les problèmes récurrents et non résolus depuis 30 ans, fracture et retard numériques, absence de secteur numérique industriel digne de ce nom, absence de lien entre la recherche et l’industrie, tous ces symptômes sur lesquels on tape “au marteau et au burin” disparaîtront d’eux-mêmes au fil du temps sans qu’on s’en aperçoive, comme s’assouplit naturellement la si sympathique coque de noix de Grothendieck.
Très bonne année à tous.
Billets associés :- Ecole numérique: attaquons-nous à la cause du problème, pas aux symptômes.
- “L’école doit apprendre à lire, écrire, compter et programmer”
- Que signifie la création d’un CAPES informatique ?
- Grandeur et faiblesses de l’enseignement de spécialité informatique en classe de première : une analyse critique
- Ce que le joueur d’échecs d’Edgar Poe nous apprend sur la révolution numérique
Le tableau interactif fixe est mort. Vive l’écran interactif ! 26 septembre 2012
Par Thierry Klein dans : Speechi.Lu 2 fois | ajouter un commentaire
Si un écran plat interactif, de type LCD, coûtait le même prix qu’un tableau interactif fixe – pour une image de même taille, lequel achèteriez-vous ?
Il est clair pour tous que ce serait très probablement l’écran plat, qui présente de multiples avantages. Quand on compare les matériels, il n’y a pas photo, si j’ose dire:
- meilleure qualité d’image sur l’écran LCD (contraste supérieur, meilleur piqué, définition bien meilleure)
- image mieux réglée et plus simple à obtenir sur l’écran LCD (aucun réglage de l’image nécessaire)
- plus grande durée de vie pour le LCD (20 000 heures contre 2 000 ou 3000 heures pour une lampe de vidéoprojecteur)
- aucune d’ombre portée sur l’écran plat => confort d’écriture maximal, alors qu’un tableau interactif fixe, même muni d’un vidéoprojecteur à courte focale, à toujours une ombre portée.
- une meilleure qualité d’interactivité (doigt + stylet) qui fait que l’écran plat interactif ressemble à un IPAD géant (en mieux, car il est beaucoup plus naturel d’écrire sur l’écran interactif géant que sur l’IPAD…)
Depuis 2007, date de mon premier article sur le sujet, le coût des écrans LCD diminue régulièrement et en septembre, une étape importante a été franchie:
Pour la première fois, le coût d’un écran interactif devient, sur une durée de vie de 6 ans, inférieur à celui d’un tableau interactif (ou d’un vidéoprojecteur interactif).
Le coût sur 6 ans d’un tableau interactif fixe installé, utilisé 2000 heures / an, avec la maintenance et les lampes, est d’environ 6 500 € HT.
Depuis cet été, les prix des écrans LCD installés sont passés sous la barre des 6 000 € (pour une taille de 65″ environ) et les écrans de taille 80″ devraient passer, d’ici un an au plus, sous la barre des 8 000 € HT. Pour ce prix, on aura une installation de meilleure qualité et plus fiable, avec une garantie de 20 000 heures au moins pour l’écran lui-même…
J’ai écrit déjà l’année dernière comment les tableaux interactifs fixes sont en train de disparaître au profit des vidéoprojecteurs interactifs. En fait, toutes les technologies fixes à base de projecteurs seront progressivement remplacées par des écrans LCD – le prix de ceux-ci baissera, à cause des volumes de production supérieurs, bien plus vite que le prix des projecteurs.
Il restera alors deux marchés principaux pour l’interactivité en milieu scolaire:
- les technologies mobiles, qui ont leur avantages propres (partage, mobilité, coût)
- les technologies interactives fixes, (écrans LCD et leurs évolutions à venir, OLED, etc…).
- Le coût d’usage d’un écran interactif est devenu inférieur à celui d’un tableau interactif ou d’un vidéoprojecteur interactif
- Nous ne faisons pas des écrans interactifs, nous transformons les entreprise
- Ecran interactif sous Android : de la voiture à cheval à l’automobile
- Nos nouveaux écrans interactifs géants sont à l’interactivité ce que l’iPhone a été a la téléphonie.
- Lunettes numériques : en attendant l’EyePod
Que font les constructeurs de tableaux interactifs ? 14 septembre 2012
Par Thierry Klein dans : Speechi.Lu 4 fois | ajouter un commentaire
IPAD géant (tableau interactif)Pour la première fois, les ventes d’IPAD ont dépassé celles des PC dans les écoles américaines. La dynamique du phénomène montre que les PC ne sont pas près de repasser devant car il est dû a à la fois une forte demande (nouvelle) pour l’IPAD mais aussi à une cannibalisation du marché du PC, en milieu scolaire, par l’IPAD.
C’est une nouvelle manifestation d’une tendance lourde dont je vous parle depuis (au moins 5 ans), à savoir l’avènement inéluctable des solutions nomades.
Il y a 10 ans, les PC portables ont d’abord dépassé les PC de bureau, puis, en 2007, les téléphones intelligents sont passés devant les PC portables.
On ne peut pas dire que ce phénomène n’ait pas été annoncé, ni expliqué. Des raisons profondes, à la fois conjoncturelles (la crise) et structurelles (la loi de Klein) permettent de prédire que toutes les technologies utilisées dans la salle de classe, ou presque, seront à terme nomades.
Pourtant les logiciels permettant à un tableau interactif de fonctionner avec un IPAD, un Iphone ou même avec une tablette Androïd restent quasi inexistants. Il est impossible pour un enseignant d’arriver en cours avec son IPAD, de le connecter (sans fil) à son tableau interactif et à son vidéoprojecteur et de faire cours (1) comme il peut le faire avec son PC. Une telle application paraît pourtant “évidente”.
Toute une industrie, qui se targue pourtant d’être novatrice et visionnaire, fait comme si les professeurs n’utilisaient pas de tablettes…
Elle risque de s’en mordre les doigts car il me semble pas du tout impossible que, d’ici 5 ans, le terme “tableau interactif” soit remplacé par celui “d’IPAD géant”. (2)
(1) Certains concepteurs de TBI (Luidia, Smart) permettent aux élèves de suivre sur IPAD le cours fait au tableau. C’est intéressant pour l’enseignement à distance mais d’utilité plus marginale dans la salle de classe, hors certains types de sessions collaboratives. Surtout, c’est une application “élève” par opposition au TBI, qui est une application “professeur”.
(2) Des applications collaboratives sont aussi apparues, telles que des boîtiers de vote virtuels, mais elles sont en fait indépendantes des TBI.
Billets associés :- Le coût d’usage d’un écran interactif est devenu inférieur à celui d’un tableau interactif ou d’un vidéoprojecteur interactif
- Le tableau interactif fixe est mort. Vive l’écran interactif !
- Nous ne faisons pas des écrans interactifs, nous transformons les entreprise
- Ecran interactif sous Android : de la voiture à cheval à l’automobile
- De Rawls à Macron, en passant par l’école. De quoi le social-libéralisme est-il le nom ?
L’école face à la révolution numérique: le discours de la méthode. 12 juin 2012
Par Thierry Klein dans : Speechi.Lu 1 fois | ajouter un commentaire
Comme l’ont montré Descartes ainsi que le grand débat national sur l’Ecole organisé il y a une dizaine d’années par Claude Thélot, qui avait recueilli pas moins de 50 000 contributions, « le bon sens est, avec les opinions sur l’école, la chose au monde la mieux partagée ».
Au nom de leurs visions respectives sur l’école, les nombreux ministres de l’Education Nationale n’ont eux-mêmes cessé, depuis 30 ans, de secouer l’Education Nationale.
Pour l’un, la clé est dans l’apprentissage de la lecture. Pour l’autre, c’est le soutien individualisé. Pour un troisième, il s’agit de la motivation des professeurs, du nombre d’élèves par classe, du rythme scolaire ou bien encore de la quantité de graisse disponible sur le mammouth.
Tout y passe, donc. Mais quel est le point commun entre ces différentes « visions » ? C’est que vraies ou fausses, elles ne sont pas fondées. Elles ne s’appuient pas sur des faits scientifiquement prouvés mais sur des a priori, des préventions, selon le terme employé par Descartes.
« Considérant combien il peut y avoir de diverses opinions touchant une même matière, qui soient soutenues par des gens doctes, sans qu’il y en puisse avoir jamais plus d’une seule qui soit vraie, je réputais presque pour faux tout ce qui n’était que vraisemblable. »
« C’est pourquoi, dit Descartes, s’adressant à nos ministres avec presque 400 ans d’avance, je ne saurais aucunement approuver ces humeurs brouillonnes et inquiètes, qui, n’étant appelées ni par leur naissance ni par leur fortune au maniement des affaires publiques, ne laissent pas d’y faire toujours en idée quelque nouvelle réformation ».
La méthode expérimentale qu’invente Descartes dans le Discours de la méthode n’est pas une théorie scientifique, mais bien une façon de trancher entre les théories (par l’expérience) et d’avancer dans la découverte scientifique (en divisant un problème d’apparence complexe en plusieurs problèmes plus simples).
A partir de Descartes, le progrès scientifique est continu quel que soit le rythme des découvertes. Même la reconnaissance qu’une idée est fausse constitue souvent un progrès utile. Ainsi, si je prends le cas de l’équipement numérique des écoles, aucune étude sérieuse n’existe sur le bénéfice que les élèves peuvent retirer de cet équipement. Soit, donc, cet équipement est inutile, auquel cas des budgets peuvent être dégagés pour d’autres investissements plus intéressants, soit il est utile et il importe alors de dire en quoi il est utile, de dégager son cadre d’utilisation, les usages optimaux, les matières où il doit être utilisé, etc.
Jusqu’à aujourd’hui, la méthode décrite par Descartes est restée quasiment inapplicable dans l’enseignement pour deux raisons principales :
- La complexité de la validation de la théorie : à l’opposé des sciences exactes où des expériences ont souvent pu rapidement déterminer la validité d’une théorie, valider une théorie portant sur la pédagogie nécessitait jusqu’à présent des évaluations lourdes, coûteuses, longues et complexes. En conséquence, ces évaluations ne pouvaient être réalisées qu’en petit nombre et ne pouvaient réellement influencer la politique des états, la durée de l’évaluation étant en général nettement supérieure à la longévité du Ministre.
- Le flou des critères : là où, dans les sciences exactes, les critères sont mesurables et le plus souvent accessibles à l’expérience, les données à observer sont complexes à définir dans le cas de l’enseignement. Comment juger avec certitude le niveau d’un élève ? la qualité d’un professeur ? D’une méthode ? Ces termes mêmes ont-ils un sens ? Et si on peut apporter un début de réponse – ou une réponse imparfaite – aux questions précédentes, comment observer de façon quantitative que « l’enfant est bien dans sa peau à l’école », ce qui lui permet « d’exprimer sa créativité », comme le préconisent certains courants ?
Or, il se trouve que deux développements scientifiques récents vont permettre d’appliquer la méthode expérimentale à l’école.
Bien qu’intimement liés à la révolution numérique en cours, ils n’ont jamais, à ma connaissance, été mis en relation. Les progrès qu’ils permettent d’envisager sont immenses. La pédagogie scolaire, presque figée depuis le temps d’Aristote qui a inventé simultanément le cours magistral, les petites classes et la ressource documentaire, va pouvoir suivre un chemin d’amélioration permanent, continu et observable, comparable à celui que la science a suivi depuis l’écriture du Discours de la méthode.
Le premier est la méthode d’évaluation aléatoires mise au point par une chercheuse français, Esther Duflo.
Le second est l’avènement des « big data » autrement dit la possibilité d’utiliser des masses de données d’information récoltées sur les élèves. Ces données sont aujourd’hui exclusivement utilisées pour des besoins publicitaires par des sociétés telles que Facebook ou Google. Or elles peuvent aussi être utilisées de façon décisive pour améliorer l’enseignement.
La méthode d’évaluation aléatoire.
La méthode aléatoire repose sur des évaluations faites sur des petits groupes (quelques centaines d’élèves) dont les caractéristiques sont identiques au départ. Un de ces petits groupes adopte un “processus nouveau” (par exemple il va utiliser une méthode de lecture nouvelle jugée prometteuse). On compare ensuite, sur des critères précis, la performance de ces groupes (rapidité de lecture, compréhension, etc.).
Depuis quelques années, Esther Duflo, a utilisé la méthode aléatoire pour évaluer les effets des politiques de lutte contre la pauvreté avec des résultats remarquables. Les techniques qu’elle a développées peuvent être appliquées à l’école.
Avec des moyens très faibles, la méthode aléatoire a donné, en Inde, plus de renseignement sur les usages du numérique que dans tous les pays développés.
“Lorsque l’on compare les écoles équipées en informatique avec les autres, on constate que les élèves ont de meilleurs résultats dans les premières. Mais est-ce vraiment dû aux ordinateurs ? La différence de résultats ne s’explique-t-elle pas plutôt par le fait que ce sont généralement des écoles urbaines, déjà relativement favorisées, qui sont équipées en ordinateurs ?
Une expérimentation permet d’isoler l’impact réel des ordinateurs. Dans une ville indienne, toutes les écoles en étaient équipées, mais généralement, ils restaient dans leur boîte, parce que les enseignants n’étaient pas formés ou ne disposaient pas des logiciels appropriés. Nous avons sélectionné un groupe d’écoles de manière aléatoire et avons mis à leur disposition un formateur et des logiciels de mathématique, de sorte que tous les enfants bénéficiaient de quelques heures d’informatique par semaine. Un an plus tard, nous avons comparé les performances. Les écoles qui avaient pu utiliser les ordinateurs recueillaient de meilleurs résultats en mathématique.
De nombreuses expériences peuvent être menées dans le domaine de l’éducation, permettant de tester l’impact de facteurs fort divers. Une étude a par exemple montré que l’embauche d’une personne chargée du soutien scolaire a un impact équivalent à l’achat d’ordinateurs, tout en étant bien moins onéreuse.“
Les processus d’évaluation actuels sont lourds, coûteux, longs et ne peuvent pas influencer les politiques d’éducation. En les remplaçant, ou en les complétant, par un grand nombre de micro-évaluations aléatoires peu coûteuses, rapides à effectuer, bien ciblées et déterminées avec méthode, on peut disposer d’un outil remarquablement efficace, permettant d’obtenir des premiers résultats en quelques mois, d’infléchir les politiques et de mieux dépenser l’argent public.
Avec les outils d’évaluation adéquats, l’école peut devenir un processus « optimisé sous contraintes ». Comme le processus d’évolution améliore en permanence la performance des êtres vivants, toutes les initiatives peuvent être évaluées, et les meilleures sélectionnées et généralisées.
Le facteur clé de succès de cette politique de guidage réside dans la rapidité d’exécution (de l’ordre de quelques semaines) et la quantité des évaluations mises en place – pour reprendre un terme utilisé en informatique, dans leur agilité.
Ce processus pourrait être mis en place par la Direction de l’Evaluation de l’Education Nationale, sous le contrôle éventuel d’un grand corps du Numérique, constitué en priorité d’ingénieurs sur le modèle du corps des Mines ou des Ponts et qui aurait pour objectif de mener à bien la réforme numérique dans l’administration française et à l’école.
L’utilisation des « Big Data ».
Alors que pour l’instant les principales applications numériques utilisées à l’école concernent les usages, l’évaluation à l’école est, selon moi, le facteur le plus important et le plus méconnu de la révolution numérique en cours.
Dans la dernière décennie, ordinateurs, tableaux interactifs, environnements numériques de travail ou autres cartables numériques sont rentrés à l’école, sans que l’on sache vraiment d’ailleurs, en l’absence de toute méthode, quel est leur impact réel sur le niveau des élèves. Qui plus est, ces technologies ont pour vocation presqu’unique d’améliorer l’apprentissage et non pas de l’évaluer.
Or, à partir du moment où on rassemble suffisamment de données (on parle ici en petaoctets, c’est-à-dire en million de gigaoctets), la statistique permet de dégager des “lois” générales profondes. Dans un article polémique, mais fondateur, intitulé « La fin des théories : le déluge de donnée rend la méthode scientifique obsolète », Chris Anderson a montré comment ces données peuvent être utilisées non seulement pour conquérir des marchés publicitaires, comme l’a fait Google, mais aussi peut être aussi pour se débarrasser de qui était auparavant le but de toute science, à savoir le modèle ( ce qu’on appelle en général « la théorie scientifique »).
Google ne cherche pas à modéliser le comportement des utilisateurs ou à « comprendre » le contenu des pages Web, mais utilise des outils statistiques afin de dégager des corrélations (patterns) à partir desquels les bandeaux de publicité sont proposés. Pas de modèle, la corrélation suffit.
Quel rapport avec l’école ?
Les évaluations actuelles mises en place par l’Education Nationale sont mal acceptées parce qu’exceptionnelles, complexes et lourdes et génèrent très peu de données, en quantité, par rapport aux mécanismes de captation de données mis en place par Google ou Facebook, qui sont eux volontairement – et souvent frénétiquement – utilisés par les élèves à partir de leur ordinateur, tablette numérique ou téléphone portable.
Il est grand temps d’utiliser ces données dans un objectif d’intérêt général et d’intégrer massivement ces technologies dans l’enseignement, a minima pour évaluer les élèves.
Dans le cadre des évaluations aléatoires que j’ai déjà évoquées, ces équipements numériques mobiles rendent l’évaluation des élèves et des politiques scolaires beaucoup plus rapide, facile et économique, à tel point qu’il devient possible aujourd’hui, en multipliant les micro-évaluations, de réellement diriger toute la politique scolaire.
Ensuite, l’usage de ces matériels doit être systématisé de façon à obtenir un maximum de données permettant d’évaluer les élèves et de récolter ces données d’évaluation. Dans la mesure du raisonnable, la plupart des évaluations, devoirs, questionnaires devraient être demandés aux élèves sous forme numérique, dans un format permettant aux outils statistiques de type « big data » d’être utilisés.
Les outils permettant d’interroger les élèves de façon numérique (par exemple sous forme de questionnaire à choix multiples) existent déjà mais ne sont pratiquement utilisés que dans l’enseignement supérieur, et de façon parcellaire. A partir du moment où le volume de données recueillies devient suffisant, où ils sont systématiquement mis en place partout dans les écoles, ces outils permettront non seulement de déterminer le niveau réel des élèves avec une profondeur bien supérieure aux techniques d’évaluation actuelles, mais aussi de déterminer des quantités de lois pédagogiques, ou plutôt de corrélations, nouvelles et non contestables.
Il convient de préciser, car l’objection sera évidemment faite, que « Big data » n’est pas nécessairement « Big brother ». Toutes ces données sont personnelles mais peuvent – et sans doute pour la plupart doivent – rester anonymes. La question de l’identité de l’élève qui a répondu importe peu à l’outil statistique, ce qui importe, c’est de connaître l’ensemble de ses données, sur l’ensemble de son parcours scolaire.
Il va devenir possible d’identifier les « meilleurs professeurs » (ceux qui font le plus progresser le niveau moyen de leurs élèves et non pas ceux qui, disposant probablement au départ des meilleurs élèves, obtiennent les meilleurs résultats au baccalauréat) et de s’inspirer de leurs méthodes pour former les autres professeurs. La formule « bon professeur » n’a peut être pas un grand sens dans l’absolu, mais on peut envisager aussi de déterminer, grâce à des corrélations, quel est le professeur qui conviendra le mieux à un élève déterminé, quel est l’élève qui apprend mieux en lisant qu’en écoutant, quel est celui qui est à même de profiter le plus d’un soutien personnalisé…
Bref, les « big data » vont nous fournir des renseignements très précieux permettant d’améliorer professeurs, élèves, méthodes pédagogiques, mécanismes d’orientation, etc. Il est impossible à l’heure actuelle de prédire quelle ampleur prendront ces progrès.
Il est simplement possible de prédire que le pays qui tirera le plus d’avantage de la révolution numérique sera celui qui aura su le mieux utiliser ces nouveaux outils de captation des données et d’évaluation car, nous dit Descartes:
« Ceux qui ne marchent que fort lentement peuvent avancer beaucoup davantage, s’ils suivent toujours le droit chemin, que ne font ceux qui courent et qui s’en éloignent. »
C’est bien un nouvel âge de l’école qui s’ouvre.
Billets associés :- Les conséquences sociales des évaluations sur les enseignants et sur la liberté pédagogique
- Dialogue en faveur de l’évaluation
- Faut-il boycotter les évaluations au CP et en CE1 ?
- Complexe d’Orphée et Web 2.0
- Le logiciel le plus important depuis que l’école a été inventée
Les tableaux interactifs sont-ils utiles pour l’enseignement ? 2 juillet 2007
Par Thierry Klein dans : Speechi.Lu 6 fois | ajouter un commentaire
Je pense que oui, bien sûr, mais je n’en ai pas la preuve. En fait, plus la technologie se répand, et plus c’est une question tabou, puisqu’un intérêt commun réunit alors décisionnaires, acheteurs, vendeurs et utilisateurs.
Une étude du département américain de l’education vient de “montrer” que l’écart entre les résultats d’étudiants ayant utilisé ou non des logiciels dédiés à l’enseignement des maths était “non significatif”. A noter que l’utilisation des technologies ne semble pas faire baisser le niveau des élèves, ce qui est déjà un bon point ! en effet, certaines écoles, aux USA, abandonnent progressivement l’utilisation des technologies.
L’Education Nationale dispose, c’est son grand avantage, d’une direction de l’Evaluation. Alors pourquoi ne pourrait-on pas faire des comparaisons basées sur une statistique plus rigoureuse, inlcuant des centaines de classes et recensant les effets de différentes méthodologies ou exercices ?
C’est sans doute un voeu pieux, puisque même sur un sujet aussi important que l’effet de la méthode de lecture, de telles études n’ont pas été menées à ce jour.
Billets associés :- Dr House, ou le retour du Religieux
- D’un certain discours lénifiant sur le numérique à l’école vu comme un symptôme de la perte du capital scolaire.
- Les conséquences sociales des évaluations sur les enseignants et sur la liberté pédagogique
- Bienvenue au Bett Show, le salon où le délire technologique remplace l’intention pédagogique
- La communauté européenne et l’e-learning