bas de page
 

L'informatique a-t-elle un avenir à l'école ?

François Boule
 

Au moment où l'enseignement de l'informatique à l'école primaire revient au devant de la scène. Nous republions quelques articles trentenaires parus dans le Bulletin de l'EPI. Cet article de François Boule, à l'époque « Responsable École » au bureau national de l'association, trouve son prolongement dans « Informatique à l'école. Introduction et éléments d'histoire » (Dossier EPI n° 6, septembre 1984) se terminant par un tableau faisant état des diverses composantes que l'on peut envisager (en 1984) pour les activités relatives à l'informatique dans le cadre de l'école. Les trois premières parties réfèrent explicitement aux trois paragraphes de la circulaire officielle de mars 1983.
http://www.epi.asso.fr/revue/dossiers/d06p005.htm
Oui, décidément, nous partons pas de rien 

 
   La question ne peut manquer de paraître aujourd'hui anachronique et rétrograde. Qui douterait de l'opportunité du « mariage du siècle » dont l'enseignement ressortira rénové, transfiguré, enfin accordé à son siècle ? La question en effet, parait se présenter ainsi : à la fois comme l'obéissance à une nécessité (une fatalité) et l'opportunité d'une nouvelle chance. Dans les deux cas on remarquera combien est passionnel le climat qui entoure l'informatique. Il est sans doute à rapprocher de ceux qu'on suscité l'électronique dans les années 50 ou l'électricité il y a un siècle : le pressentiment en partie confirmé dès qu'aperçu de tenir là une clé de l'avenir, une sorte de baguette magique qui accablera de ses bienfaits tous les recoins de la vie individuelle et collective. Ceci, augmenté de l'envoûtement que provoque ce super jouet qu'est un micro-ordinateur explique l'enthousiasme immodéré des nouveaux convertis, l'explique mais ne le justifie pas.

   Les apparences, il est vrai, sont propres à frapper : la chute des coûts, la miniaturisation, une adaptabilité extrêmement étendue font envisager une insertion de l'informatique qui était encore peu concevable il y a quinze ans. De la « puce » à l'ordinateur, en passant par les jouets et les banques de données, les « objets informatisés » alimentent un nouveau fait social dont l'importance est d'autant plus grande dans le discours dominant qu'elle est masquée dans la réalité. Paradoxalement, la rationalité absolue de ces objets les rend magiques.

   Mais le caractère nouveau de cette magie-là est d'être d'abord lucratif. Avant qu'on ne puisse dire consommé le mariage du siècle, il s'agit d'abord du marché du siècle. J. Hebenstreit rappelait opportunément en 1974, que « l'utilisation de l'ordinateur en pédagogie est d'abord un problème de pédagogie et non un problème d'ordinateur ». Malheureusement, huit ans plus tard, ce « problème de pédagogie » n'est guère plus avancé alors même que le « problème d'ordinateur » passe souvent pour être résolu ; ou peut-être éludé puisqu'au lieu de discuter de l'opportunité de l'informatisation on s'est accoutumé à la trouver nécessaire. Et depuis dix ans, en France, le mouvement a bien été celui-ci : placer des ordinateurs dans les mains des enseignants, en se félicitant de réconcilier ainsi l'école et son environnement (en marquant bien d'ailleurs le prix de cet effort) et observer ce qui advient. Que croyez-vous qu'il en résulte ? Rien en tous cas qui annonce une révolution pédagogique.

   Avant de revenir sur les conditions actuelles de l'insertion de l'informatique dans l'école, il faut demander au passé les leçons qu'il peut donner. Elles sont de deux ordres : d'une part l'intervention des techniques audiovisuelles dans l'école depuis une vingtaine d'années, d'autre part l'expérience dite des « 58 lycées » qui a consisté en l'installation, pendant plusieurs années consécutives de mini-ordinateurs dans des établissements secondaires, auprès d'enseignants formés à cet effet.

   Pourquoi interroger la tentative d'insertion des moyens audiovisuels dans les Écoles et les Écoles Normales ? Parce que les convergences sont nombreuses.

  1. Il s'agit à l'évidence de deux phénomènes sociaux importants (la télévision là, la micro-informatique ici) qui tendent à se démocratiser assez rapidement d'une part, très vite de l'autre.

  2. Elles reposent sur les technologies de présentation et de traitement de l'information, en partie opaques (au sens où l'usager n'a accès qu'à des parties des codes et de la technologie), mais sans être réduites à cela : c'est la communication, la transmission des savoirs, le rôle de l'image, là ; le traitement des données, la conception des problèmes ici qui apparaissent sous des jours nouveaux.

  3. Ces technologies permettent de fabriquer des produits : films, bandes vidéo, programmes. Ces produits existent hors de l'école. On peut les envisager dans l'école, soit en tant qu'ils proviennent de l'environnement social, soit en tant que produits (pédagogiques) propres à l'école, et dans ce dernier cas selon un mode de pure utilisation, ou un mode de production, ou un mode mixte.

   Force est de constater que la pratique scolaire n'a été modifiée que de façon très superficielle, anecdotique et isolée ; la Télévision a été perçue comme concurrente c'est-à-dire comme menace. De la même façon, on redoute aujourd'hui que l'usage massif des calculettes ne retire à l'école l'un de ses domaines traditionnels, l'apprentissage du calcul. Et la grande majorité des manuels élémentaires croit encore à l'heure actuelle exorciser ce « péril » en l'ignorant imperturbablement.

   À moins qu'ici ou là l'on ait cru devoir célébrer la télévision comme outil de haute efficacité pédagogique, c'est la méthode de l'Outil Providentiel. Mais alors « le choix des matériels pédagogiques s'est fait selon l'offre ; l'offre a dominé la demande pédagogique, la pédagogie n'étant plus parfois qu'un service après-vente des matériel. » (F. Mariet, 1981, conférence). Qui ne voit que c'est ce qui se reproduit aujourd'hui ?

   On ne peut taire que des réflexions plus sérieuses ont été conduites, en particulier à l'occasion de la formation des maîtres. Mais les échanges sont rares ; ces réflexions demeurent marginales et quasi militantes, peu reconnues des instances officielles ; par conséquent leur impact sur le fonctionnement ordinaire de l'école est rapidement absorbé par l'inertie globale, en dépit des pieuses bénédictions qu'on ne manque pas de leur accorder.

   Le programme national des « 58 lycées », développé durant les années 70 a eu le mérite de se donner une structure expérimentale comportant une formation des maîtres et une évaluation qui neutralisaient ces risques d'absorption. Pourtant cette formation, et ce programme dans son ensemble posaient le problème en terme d'adaptation de l'informatique à l'enseignement ; et non de renouvellement des modèles d'apprentissages et des contenus d'enseignements. C'est encore la méthode de l'Outil Providentiel. Les conséquences étaient dès lors prévisibles : l'expérience ne pouvait mettre en cause aucun contenu, ni aucune relation École-société, ni aucun modèle d'apprentissage que l'on aurait pu réinvestir dans l'enseignement de masse (c'est à dire : sans ordinateur). Au terme de l'expérience l'alternative ne pouvait être que l'extinction c'est à dire le désaveu d'une coûteuse entreprise, ou l'extension. C'est bien sûr celle-ci qui a été décidée en décembre 78 sur des bases pédagogiques et épistémologiques nullement plus claires qu'en 73. Mais à l'évidence pesaient sur cette décision des impératifs relevant bien davantage de la conjoncture économique que de l'éducation (opération « dix mille micros »).

   En matière d'évaluation, au-delà de l'enthousiasme des concepteurs et des participants, et de l'intérêt suscité, semble-t-il chez les élèves – paramètres peu quantifiables – subsistent : le langage LSE créé sur mesure, et les programmes (« didacticiels ») produits par les enseignants. De tous ceux qui ont été produits et utilisés, il en subsiste moins d'une centaine. Compte tenu du prix du matériel, du coût de son fonctionnement et de sa maintenance ; du coût de la formation des enseignants et des quelques quatre cents années budgétaires attribuées en décharges à ceux-là, on peut juger de la rentabilité de l'opération ; quelle entreprise privée aurait accepté de la supporter ?

   En ce qui concerne les produits (programmes) eux-mêmes, il faut les placer dans la perspective du fonctionnement actuel de l'enseignement secondaire français. La formation continue est inexistante. La formation initiale ne fait aucune place à l'étude des modèles d'apprentissage, aux recherches en didactiques et psychologiques et très peu à la pédagogie. Les Instructions Officielles ignorent ces points de vue et s'expriment en terme de Programme, c'est-à-dire de connaissances exigibles. Dès lors il n'est pas surprenant qu'à l'exception de quelques programmes apparentés à la simulation de situation scientifiques, les didacticiels relèvent de ce qu'on nomme classiquement EAO (Enseignement Assisté par Ordinateur). C'est à dire qu'ils prennent en charge un certain domaine de connaissances, selon une organisation prévue par l'auteur, et ont pour but de conduire l'élève, ou de l'exercer, à certains savoirs ou savoir-faire. On est dans le droit-fil des Pédagogies par Objectifs c'est-à-dire d'un béhaviorisme appliqué. Il ne s'agit même pas d'une pédagogie du livre puisque les livres comportent depuis longtemps des illustrations (le LSE de l'expérimentation ne le permet pas), et que l'on peut les parcourir et les feuilleter. La connaissance d'un livre ne peut pas se passer de cette capacité de survol. On voit que la perspective EAO dépossède l'élève de la globalité de sa démarche : il ne dispose, à chaque instant que d'une fenêtre par laquelle il ne peut voir qu'une tranche d'un paysage dont l'organisation et les présupposés lui échappent totalement, et sur lequel il ne peut agir que dans l'étroite limite des réponses acceptées par la machine.

   En même temps que les présupposés d'une pédagogie EAO sont rarement analysés et de toute façon peu accessibles, le rôle attribué au langage, compte tenu des possibilités de la technologie et du LSE est prépondérant. Mais pas un langage comportant la richesse d'évocation, de représentation, d'intuitions, d'intonations, de geste, qui est celle de la communication entre personnes : un ordinateur, a fortiori un micro-ordinateur ne peut traiter que des modèles extrêmement réduits de la langue naturelle, donc s'appliquer à des champs très étroits où la codification est facile, nécessaire, et acceptée par l'élève : les champs d'élection des procédures canoniques. C'est d'ailleurs à l'origine le seul propos des Taxonomies d'objectifs que l'on a cru fâcheusement pouvoir étendre bien au-delà.

   On voit donc que cette effarante dissipation d'énergie, de talent, de temps et d'argent est la conséquence de ce que le matériel est à l'origine de l'expérience et non une réflexion sur les conceptions pédagogiques. Ce qui donne lieu à des productions qui ne risquent pas de révolutionner l'enseignement, mais qui lui empruntent dans leur immense majorité, ses canons les plus classiques. On est ici très éloigné, qualitativement des premiers apprentissages de l'enfant qui sont indissociables de l'enrichissement des représentations et du langage, et d'une expérience individuelle qui mêle dialectiquement manipulation, communication et schématisation. Il y aurait donc la plus grande imprudence à prétendre transposer à l'École ce qui a été entrepris dans les lycées, d'abord parce que cette expérience, à l'image de l'enseignement secondaire en général a paru peu soucieuse d'expliciter et d'analyser ses modèles pédagogiques, et d'autre part, parce que ceux-ci ont de bonnes raisons d'être différents de ceux qui concernent l'enfant de 6 à 12 ans.

   L'originalité du phénomène « Informatique à l'École » par rapport à celui qui intéressait l'audiovisuel est, on 1'a dit, essentiellement économique. Il va en résulter une confrontation beaucoup plus aiguë entre secteur public et secteur privé, et par conséquent des retombées significatives au niveau de la conception. On en peut juger par ce qui se serait passé si la démocratisation du magnétoscope avait été contemporaine du développement de la télévision au lieu de le suivre avec trois décennies d'écart. Bien des signes témoignent déjà de cette confrontation, notamment les structures mises en place dans le secteur public, les clubs ADEMIR par exemple. Les éditeurs ne s'y trompent pas qui considèrent ces clubs avec une grande sollicitude (« avec l'oeil désintéressé du lynx » disait Jules Renard) et n'hésitent pas à s'y infiltrer. C'est pour les uns et les autres un moyen de récupérer à peu de frais sous le label « enseignant » les fruits d'un enthousiasme juvénile et entreprenant. On suscite ainsi, sans aller jusqu'à Taiwan, sous couvert d'encourager la jeunesse et de favoriser les échanges une moisson d'idées et une main d'oeuvre consentante à bon compte.

   Quelle que soit la façon dont cette confrontation s'est engagée, la pression de l'édition privée existe. Deux aspects favoriseront le succès commercial de l'entreprise l'aspect ludique et l'aspect fâcheusement appelé « conversationnel ». Le premier est suffisamment connu, clair et « porteur » pour qu'il n'y ait pas lieu de l'examiner, sauf à remarquer ceci : le propre du Jeu est de ne renvoyer qu'à lui-même sa propre finalité. Il est d'autant plus difficile de l'inscrire dans une stratégie de formation, c'est-à-dire d'éviter l'aspect mosaïque d'un ensemble de programmes de jeux quelles que soient leurs ambitions éducatives.

   L'aspect conversationnel est plus insidieux. Il tend à faire dépasser le stade de pur répétiteur, ou fournisseur de données, pour permettre d'accéder à l'interaction dynamique. Le « comportement » de la machine s'adapte à celui de l'utilisateur à travers l'analyse de ses demandes ou ses réponses. Ce qui représente bien entendu de grandes difficultés pour la conception de programme. L'une des réponses réside dans les « langages-auteurs ». Il s'agit de formes vides adéquates à ce type de fonctionnement et qu'un enseignant non-informaticien a la possibilité d'investir d'un contenu de connaissances : il fournit la progression des questions, les critères d'analyse des réponses, les renvois consécutifs à chaque type de réponse. Il est clair que moins la compétence en informatique est exigée de la part du pédagogue (et de façon plus générale, plus les rôles sont séparés) et plus le système est figé et rigide, et la conception pédagogique pesante et primitive (« QCM » voilé ). Cette offre alléchante : « construisez vos programmes sans informatique » est un leurre pédagogico-commercial. Mais ceci ne contredit en rien qu'il soit formateur pour l'enseignant de construire « son » programme, excitant pour l'informaticien de concevoir le langage-auteur et rentable pour l'éditeur de le mettre sur le marché.

   Le seul qui ait peu à y gagner, c'est l'enfant.

   Les moyens mis en jeu, les possibilités de publicité et de diffusion interdisent à 1'Éducation nationale de prétendre concurrencera l'édition privée sur le terrain que celle-ci choisit : le micro-ordinateur « domestique » et la diffusion de programmes destinés aux familles. Ce choix impose des programmes à utilisation individuelle et autonome. Il ne peut donc s'agir que de systèmes « dinosauriens » permettant d'éviter toute possibilité d'échec du programme et présentant à l'utilisateur une opacité parfaite. Les champs recouverts seront classiques, c'est-à-dire devront répondre à l'image que le public se fait des acquisitions scolaires (calcul, orthographe, lecture, langue vivante), ce qui relève, on s'en doute, d'une pédagogie par objectifs d'assez basse altitude. Le coût de la production, très lourd, ne peut être amorti que par une diffusion importante ; ce qui impose des programmes dont la survie soit assez longue.

   Dans une classe, par contre, d'autres éléments essentiels interviennent et des interactions beaucoup plus nombreuses :

  • l'élève n'est pas isolé face au maître mais intégré à un groupe-classe, lequel est fortement lié à l'environnement social (famille et milieu social)

  • le maître est généralement lié au groupe-enseignant et à l'image de l'établissement (par rapport aux autres écoles et au public). Les produits informatiques doivent tenir compte de ces interactions originales, s'y adapter, les mettre à profit. Ils seront donc nécessairement périssables, occasionnels et d'emploi flexible. Le coût de l'investissement en temps doit inciter à s'en tenir à des produits légers, à la production en équipe (ces équipes que la Rénovation n'a guère su promouvoir), à un réseau d'échange souple et efficace (qualités dont les structures nationales n'ont pas pleinement fait la preuve). De même qu'est essentielle à l'intérieur de l'école la fonction régulatrice du ré-éducateur, la fonction d'informatisation pourrait susciter des courants d'échanges et des flux de renouvellement autour d'un maître partiellement déchargé pour sa formation, la mise au point de programmes et l'expérimentation pédagogique. On rendrait ainsi enfin possible un lien organique et décentralisé entre la recherche et la pratique alors que les recherches académiques « spontanées » ne sont à l'heure actuelle que des parodies de travaux scientifiques et les séminaires de didactique des cénacles chics.

   Ce qui précède rend dès lors peu probable et peu souhaitable l'existence d'un « profil » des utilisations du micro-ordinateur à l'École. Les règles d'or pourraient être cependant les suivantes :

  • éviter que les programmes ne proposent tout ce dont un maître ou un livre sont capables, avec une compétence très supérieure : le dialogue, l'analyse compréhensive des réponses, l'orientation de l'action, l'incitation, l'archivage raisonné des informations. Il est beaucoup plus fastidieux et fatigant de lire un texte un peu long sur l'écran que dans un livre ; notamment parce que les typographies disponibles sur les micro-ordinateurs sont encore d'une désolante pauvreté. Le tête-à-tête solitaire, immobile et muet d'un enfant et d'une boite alunie d'un écran et d'un clavier n'a rien d'une « pédagogie individualisée ». Les deux dernières décennies nous ont appris ce qu'on peut attendre, maïs ce qu'il faut redouter du travail par fiches, batteries d'exercices, et de l'atomisation des apprentissages.

   Par contre les systèmes comportant clavier, écran, voire sorties sonores ont des qualités spécifiques dont il faut tirer parti. Elles s'articulent presque exclusivement autour de l'idée de TEMPS :

  • durée d'accès à l'information extrêmement réduit, et enregistrement extrêmement rapide de grandes quantités d'informations.

  • traitement rapide de l'information donc « allers-retours » quasi instantanés.

  • possibilité de créer des images (ou des structures sonores) pour autant qu'elles ne sont pas trop complexes, et possibilité de les faire évoluer. Le livre ne permet pas cet aspect « dessin animé ». Il fournit des représentations imagées plus fines qui sont des totalités instantanées et doit recourir à des artifices pour faire apparaître un mouvement, l'évolution d'une image, ou faire saillir une partie par rapport à l'ensemble. La possibilité de disposer de « patterns » graphiques sur les micro-ordinateurs contribuerait largement à l'exploration de ce champ prometteur.

   On atteint ainsi deux ouvertures originales relativement au fonctionnement actuel de l'école :

A. L'évaluation des compétences et des acquisitions, traditionnellement représentées par le « livret scolaire » ou la sanction d'un examen procède actuellement du schéma « de l'entonnoir » : l'ensemble des activités, l'évolution, les comportements d'un enfant pendant une ou plusieurs années sont codées à travers des grilles et des filtres successifs (découpage en disciplines, contrôle continu, notations...)

   Le suc résultant de ces distillations est réduit d'étape en étape à une liste de jugements, ou de notes, ou à un adverbe ou une moyenne, ou à un signe arithmétique. Ces fantastiques réductions dans lesquelles s'estompe, s'efface et s'évanouit la personnalité du sujet s'expliquent par la difficulté de gérer un trop grand nombre d'informations et d'abord de la difficulté d'en établir une topographie. Par contre, ce qui est essentiel pour l'enfant, pour sa famille et pour le maître, c'est de pouvoir déceler à un moment donné les difficultés propres à l'enfant, ses réactions, les caractères de son activité, de ses connaissances et de ses possibilités afin de nuancer le jugement et de moduler l'action éducative. De façon plus générale, la micro-informatique devrait permettre de développer pour chaque enseignant une meilleure connaissance fondamentale de chaque enfant par un faisceau de petits programmes de diagnostic ou d'évaluation concernant les perceptions, la mémoire, les représentations, le raisonnement, l'assimilation, voire la création.

B. Une autre ouverture prometteuse concerne les phénomènes de SIMULATION. Ce concept parait concerner en premier lieu la physique et les sciences de l'Homme. Quelques essais ont été tentés dans le cadre des « 58 lycées ». Ils ne sont pas très convaincants, pour deux raisons :

  1. la simulation n'a d'intérêt que par rapport à un phénomène non réalisable en laboratoire (durée exigée trop longue, phénomène trop fugace, ou mise en oeuvre trop coûteuse). Simuler un phénomène physique très simple à réaliser, c'est aller à rebours de la démarche scientifique expérimentale.

  2. d'autre part la simulation n'a de sens que si elle met en jeu un effet de bord, ou de masse a priori inconnu ou difficile à étudier analytiquement. On est alors conduit à une démarche empirique visant, par une visualisation de l'évolution globale, à l'induction d'âne loi ou au test d'une hypothèse. Mais si la loi est contenue dans le programme, très simple (réflexion, réfraction, chute des corps...) et à découvrir en faisant varier des paramètres dont la liste est fournie, l'activité s'apparente plutôt aux devinettes ou aux mots croisés. Galilée étudiant la chute des corps ou Descartes les lois de l'optique interrogeaient le phénomène et non bien entendu, un modèle déjà formalisé, et donné comme vrai. Proposant ceci, on commet un contre sens épistémologique et historique et l'on passe à côté de ce qui constitue l'originalité et la relative modernité de la simulation.

   La capacité de combiner des fonctions et de les visualiser très rapidement permet de trouver empiriquement une approximation de fonction inconnue, ou de résoudre par approximation une équation pour laquelle on ne dispose pas de méthode analytique. Ceci peut enrichir d'un éclairage nouveau l'étude et la pédagogie de problèmes classiques, y compris en mathématiques (analyse, probabilité, géométrie plane et spatiale).

   L'enseignement élémentaire et secondaire à la double vocation de faire acquérir des connaissances (et pas seulement des informations) considérées comme un bagage nécessaire, et de développer des compétences (clarté, rigueur, compréhension, sensibilité...). La lecture des Programmes ou des Manuels peut souvent laisser croire à la prépondérance du premier objectif ; l'enseignement des mathématiques, en particulier parait avoir échoué quant au second. Peut-être est-il possible d'envisager que la pratique raisonnée de la programmation, en mettant en jeu des concepts plus clairement définis, utilisables dans des situations concrètes, et une validation immédiate, permette l'installation de structures classificatoires (listes, piles, tableaux, arbres) ou opératives (itérations, répétitions, récursion) ; indépendamment de toute revendication territoriale des disciplines classiques, et d'une portée formatrice sans commune mesure avec celle de l'Équation du Second Degré, du Thème Latin ou de la Machine d'Atwood.

PARIS, mars 1983.

François Boule
Responsable École au bureau national de l'EPI

Paru dans le Bulletin de l'EPI n° 30 de juin 1983, pages 53-65.

Cet article est sous licence Creative Commons (selon la juridiction française = Paternité - Pas de Modification). http://creativecommons.org/licenses/by-nd/2.0/fr/

haut de page
Association EPI
Décembre 2013

Accueil Articles