bas de page
 

Enseigner les sciences au XXIe siècle

Gilles Dowek
 

   Au cours de l'histoire, l'enseignement des sciences n'a cessé d'évoluer, et notre enseignement actuel ne ressemble que de très loin à l'enseignement du quadrivium de Boèce : arithmétique, musique, géométrie, astronomie, qui avait cours au Moyen Âge. Une des raisons de cette évolution est que les sciences elles-mêmes évoluent. Depuis la fin du XXe siècle, par exemple, nous vivons quatre révolutions scientifiques majeures, qui influencent déjà la manière dont nous concevons l'enseignement des sciences. Parmi d'autres, l'initiative et la spécialité Informatique et sciences du numérique illustrent ces évolutions.

L'explosion démographique

   La première des révolutions que nous sommes en train de vivre est l'explosion du nombre de scientifiques. Par exemple, on estime qu'il y avait entre 200 et 250 mathématiciens dans le monde en 1900. Aujourd'hui, il y en a environ 50 000 [1]. Et cette évolution ne semble pas ralentir : le nombre de chercheurs, toutes disciplines confondues est passé, entre 2002 et 2007, de 5,8 à 7,1 millions [2]. Cette augmentation du nombre de chercheurs s'accompagne d'une augmentation du nombre d'articles publiés. Par exemple, entre 1998 et 2008, les chercheurs américains ont publié trois millions d'articles, les chercheurs japonais 800 000, les chercheurs français 550 0000, etc. [3].

   Une conséquence de cette augmentation très rapide du nombre de chercheurs et de publications est que les scientifiques s'intéressent à des problèmes très nombreux et très différents les uns des autres. Ces problèmes se sont structurés en de nouvelles disciplines et parfois de nouvelles sciences. Les scientifiques ne peuvent plus avoir une vue d'ensemble du développement des sciences, ni même d'une seule science, non parce que leur domaine de compétence s'est réduit, mais parce que le champ de la science s'est étendu.

   Cette nouvelle situation démographique pose des problèmes nouveaux aux enseignants : au milieu de cet océan de connaissances, quel fragment enseigner ? Et est-il suffisant d'enseigner une petite partie, même bien choisie, du savoir scientifique ou faut-il aussi essayer de donner aux élèves une vue d'ensemble des grandes tendances de la science contemporaine ?

   Par contraste, enseigner les sciences au début du XXe siècle nous semble rétrospectivement bien facile. Les publications étaient peu nombreuses. Les mathématiciens comprenaient l'ensemble des mathématiques et les physiciens l'ensemble de la physique, comme Pic de la Mirandole était capable, en son temps, de discourir sur toute chose connaissable, et sur quelques autres.

   Aujourd'hui, pourquoi enseigner la mécanique des fluides plutôt que la mécanique des solides, les rudiments de la statistique plutôt que la géométrie dans l'espace, la méthode des éléments finis plutôt que les algorithmes de routage ? Bien entendu, le nombre d'utilisateurs d'une notion, son utilité pour en comprendre d'autres ou pour construire des objets techniques, l'importance de son impact sur notre vision du monde, le caractère formateur de son apprentissage, etc. nous servent de guide dans nos choix, mais ces contraintes nous laissent encore de nombreuses possibilités. Finalement, nous devons admettre que, s'il est important d'enseigner un algorithme de tri, il est sans doute sans importance d'enseigner l'algorithme de tri par insertion ou l'algorithme de tri par sélection. De ce fait, nous pouvons laisser chaque élève choisir d'apprendre un algorithme ou l'autre.

   Cette profusion de connaissances pose aussi un second problème : en enseignant un petit fragment du savoir scientifique, nous donnons à nos élèves des connaissances structurées comme celles des scientifiques du début du XXe siècle et non comme celle des scientifiques du début du XXIe siècle.

   En ce début de XXIe siècle, en effet, il y a certaines connaissances que chaque scientifique maîtrise complètement, c'est-à-dire sait utiliser pour résoudre des problèmes. Mais il y a aussi de nombreuses connaissances dont il a simplement entendu parler. Par exemple, beaucoup de scientifiques ont entendu parler de la relativité générale, ils savent que cette théorie est née de la constatation de l'équivalence entre les forces gravitationnelles et les forces d'inerties dans un référentiel uniformément accéléré, que cette théorie définit la masse comme une courbure de l'espace, qu'elle a été proposée par Einstein au début du XXe siècle, qu'elle a été testée expérimentalement lors de l'éclipse de Soleil de 1919, qu'elle permet de régler les GPS et qu'elle explique l'avance de périhélie de Mercure. Mais ils ne savent pas nécessairement calculer eux-mêmes l'avance du périhélie de Mercure. Les scientifiques acquièrent ce genre de connaissances, parfois parce qu'ils sont lecteurs de livres ou d'articles de vulgarisation, parfois parce qu'ils ont assisté à des séminaires – séminaires auxquels ils n'ont pas compris grand chose, mais dont ils ont retenu quelques éléments.

   À l'inverse, quand nous enseignons la physique, nous avons souvent tendance à enseigner comment calculer l'avance du périhélie de Mercure ou à ne pas parler du tout de la relativité générale. Par exemple, les lycéens savent, en général, résoudre les équations du second degré, mais ne savent pas que les équations du troisième et du quatrième degré peuvent également être résolues par radicaux, ni que celles du cinquième degré et au delà ne le peuvent pas.

   Un enseignement des sciences au XXIe siècle nous semble devoir intégrer une part de ce que l'on appelait, au XXe siècle, « la vulgarisation », c'est-à-dire la transmission de connaissances non suffisamment approfondies pour être utilisables pour résoudre des problèmes. Naturellement, l'évaluation de ces acquisitions inégalement approfondies reste un défi.

   Le programme de la spécialité Informatique et sciences du numérique illustre ces deux évolutions. Tout d'abord en proposant aux élèves de choisir eux-mêmes les projets qu'ils souhaitent réaliser, les programmes qu'ils souhaitent écrire, nous avons proposé un corpus de connaissances assez vaste, dans lequel chacun doit trouver sa voie.

   Par ailleurs, s'il est possible et indispensable que les élèves maîtrisent les notions de test et de boucle, c'est-à-dire sache utiliser ces connaissances pour résoudre des problèmes, il est plus illusoire d'espérer qu'ils acquièrent des connaissances utilisables dans le domaine des réseaux ou de l'architecture des ordinateurs. Toutefois, il est utile que les élèves aient entendu parler des algorithmes de routage ou qu'ils sachent faire la différence entre un circuit combinatoire et un circuit séquentiel.

Les données

   Les sciences, en particulier les sciences de la nature, la physique, la biologie, etc., se sont toujours nourries de données. L'observation des satellites de Jupiter par Galilée ou les observations recueillies par Darwin à bord de la Beagle sont des exemples de données, qui ont joué un rôle essentiel dans la construction de leurs théories.

   Cependant, la taille des données brassées par les scientifiques est aujourd'hui d'un tout autre ordre de grandeur. Par exemple le Large Hadron Collider (LHC) de la European Organization for Nuclear Research (CERN) produit chaque année de l'ordre de 15 000 Téraoctets [4], soit mille fois plus que la taille de la collection imprimée de la Bibliothèque Nationale de France, qui est de 14 millions de documents [5] – en comptant un million de caractères par document.

   Même s'il est beaucoup plus petit, le génome humain a déjà une taille de l'ordre de 3.4 milliards de paires de bases. Brasser une telle quantité de données n'était pas à la portée des chercheurs au début du XXe siècle, et de leurs cahiers de manip.

   Il se pose alors de nouvelles questions aux scientifiques. Comment faire émerger une théorie à partir d'une telle masse de données. Et quelle doit être la taille de cette théorie ? La recherche en grammaire illustre bien ces questions. Les grammairiens ont d'abord essayé de décrire les langues avec des règles comme « l'adjectif s'accorde avec le nom » en français ou « l'adjectif est invariable » en anglais. Puis ils se sont aperçu que ces règles définissaient des algorithmes qui indiquaient que les phrases « Le petit chat est mort. » et « Les petits chats sont morts. » étaient correctes alors que la phrase « Les petit chats sont mort. » ne l'était pas. Ils cherchent aujourd'hui à inférer ces règles directement à partir des corpus, ou bien par essais et erreurs, ou bien en utilisant des algorithmes d'apprentissage [6]. Dans un tel cadre, la théorie inférée à partir du corpus n'a aucune raison d'être petite : il se peut que la grammaire du français, par exemple, contiennent des milliers de règles propres à un petit nombre de mots. Par exemple, des règles qui expliquent que l'on peut dire « mercredi 22 mai », « le mercredi 22 mai » ou « mercredi prochain », mais non « le mercredi prochain ».

   Insensiblement, l'activité scientifique elle-même est en train d'évoluer. Le travail du scientifique ne consiste plus aujourd'hui uniquement à observer les données et à suggérer des hypothèses, mais aussi à concevoir des méthodes qui permettent d'inférer automatiquement des hypothèses à partir de données trop nombreuses pour être observées à l'oeil nu.

   Comprendre l'impact de cette révolution sur l'enseignement des sciences est plus difficile, car il est dans la nature de l'enseignement de sélectionner un petit nombre de données pertinentes au lieu de noyer les élèves sous un déluge de données. Toutefois, nous pouvons déjà préparer nos élèves à vivre dans un monde dans lequel leur cerveau sera en permanence connecté, par l'intermédiaire de leurs sens, à de gigantesques quantités de données.

   La première chose à apprendre est que tout apprendre par coeur est devenu à la fois inutile et impossible. Il était utile au XXe siècle d'apprendre par coeur les tables de multiplication où la formule développée de l'éthanol. Mais il est impossible aujourd'hui d'apprendre par coeur le format Unicode – 110 000 caractères – ou même le code ASCII. Il est de même illusoire de connaître par coeur les formules développées des milliards de molécules que les chimistes découvrent ou synthétisent. En revanche, il est utile de savoir retrouver ces connaissances sur le Web ou dans un livre et de savoir les ordonner, dans un cahier ou dans une base de données.

   L'apprentissage par coeur ne se justifie plus que dans deux cas. Quand il permet une meilleure compréhension des notions, par exemple, il est possible qu'apprendre la table de multiplication aide à comprendre la notion même de multiplication. Et quand des données sont utilisées suffisamment souvent pour que leur recherche à l'extérieur de soi soit un frein – un informaticien dirait ici que la mémoire du cerveau est une mémoire rapide alors qu'une bibliothèque est une mémoire de masse. Il est également possible d'initier les élèves au traitement de grandes quantités de données. Par exemple, quand on leur fait réaliser un correcteur orthographique dans lequel on vérifie que chaque mot d'un texte appartient bien à un dictionnaire, il est possible d'utiliser un véritable dictionnaire plutôt qu'un petit dictionnaire créé pour l'occasion.

   Il est tout aussi important, bien que plus difficile, d'apprendre à analyser des données et à inférer des hypothèses : faire une régression linéaire, estimer le degré d'un polynôme, essayer de comprendre si une déviation peut être attribuée au hasard ou si elle révèle quelque chose.

   Cette évolution de l'enseignement des sciences est un peu plus discrète dans le programme de la spécialité car l'inférence d'hypothèses à partir de données appartient surtout aux sciences de la nature.

   Toutefois, l'enseignement de l'informatique permet de mettre en avant l'utilisation de ressources en lignes et l'utilisation de grandes quantités de données. Par exemple, il est plus intéressant de proposer aux élèves un exercice dans lequel on leur demande de trouver sur le Web une description de l'algorithme de Bresenham et de l'implémenter que de leur proposer un exercice dans lequel on décrit cet algorithme en détails. De même, il est plus intéressant de les faire travailler sur des algorithmes de transformation d'images, à partir d'images trouvées sur le Web, ou prises avec leur appareil photo, plutôt qu'avec des images créées pour l'occasion.

L'abstraction

   Les sciences s'appuyaient naguère sur un petit ensemble de langages : l'algèbre, le calcul différentiel, la nomenclature chimique, etc. Chacun de ces langages se caractérisait par un ensemble de symboles et un ensemble de règles de manipulation des expressions formées avec ces symboles. Chacun de ces langages donnait accès à un ou plusieurs domaines scientifiques. Le calcul différentiel, en particulier, donnait accès à la fois à la mécanique et à l'électromagnétisme.

   Depuis la fin du XIXe siècle, les langages utilisés par les scientifiques n'ont cessé de se multiplier. Pour concevoir un circuit électronique, par exemple, on utilise plusieurs langages de description de matériel, qui décrivent chacun un même circuit à différents niveaux d'abstraction. En chimie, mais aussi en biologie, on utilise différentes notations pour désigner des molécules, des bases azotées, des acides aminés, des gènes, c'est-à-dire souvent un même objet à différents niveaux d'abstraction. En informatique, des formats apparaissent chaque jour pour représenter des images et qui diffèrent par le fait que les images sont représentées symboliquement ou pixel par pixel, que les informations sont compressées ou non, chiffrées ou non, etc. En théorie quantique des champs, on utilise des diagrammes de Feynman, formés de lignes qui représentent des particules et de sommets qui représentent les interactions entre ces particules. Dans de nombreux domaines du savoir des phénomènes aléatoires demandent à être modélisés en utilisant le langage des probabilités.

   Ainsi, ce qui caractérise un scientifique n'est plus sa capacité à maîtriser tel ou tel langage, mais sa capacité à en apprendre, et surtout à en créer, de nouveaux, en fonction de ses besoins, à traduire une même idée d'un langage à un autre, quand cela est possible, ou à comprendre qu'une idée peut être exprimée dans un langage, mais non dans un autre.

   Cette vision du scientifique comme manipulateur de symboles contraste en particulier avec la vision aristotélicienne selon laquelle le scientifique est en prise directe avec la réalité, indépendamment de toute médiatisation par le langage.

   Même s'il reste, bien entendu utile d'enseigner certains langages particuliers, à chaque étape de la progression des élèves, il n'est plus possible de se limiter à enseigner un petit nombre de langages présentés comme absolus, comme l'étaient naguère le langage de l'algèbre ou celui du calcul différentiel. Il devient essentiel d'inclure une réflexion sur ces langages eux-mêmes. On peut, par exemple, comparer le langage de l'algèbre à celui que l'on utilisait avant Viète et Stevin, dans lequel on disait « un cube et quatre carrés font 24 » pour exprimer l'équation « x3 + x2 = 24 ». On peut aussi comparer les expressions « tout nombre premier est impair ou égal à 2 » et « P = I ∪ {2} », et à apprendre à traduire une même idée d'un langage à un autre. Enseigner un peu de logique, théorie générale des langages, aiderait certainement ici à prendre le recul nécessaire.

   Cette prise de conscience de l'importance des langages dans les sciences et les techniques mène à relativiser l'opposition traditionnelle entre les capacités d'expression des élèves et leurs capacités scientifiques et techniques : les langages sont des techniques.

   Le programme de la spécialité Informatique et sciences du numérique, comme tout programme d'informatique, accorde une place importante à la notion de langage, de langage de programmation bien entendu, en mettant par exemple l'accent sur le fait qu'il est possible d'exprimer une même idée avec une boucle ou avec la récursion, mais aussi aux langages de descriptions de pages web, au format permettant d'exprimer des images, de sons, etc., et à la réflexion sur la différence de finalité entre ces langages. Mais c'est peut-être en architecture des ordinateurs que la réflexion est la plus facile à mener : après la présentation d'un langage graphique permettant de décrire des circuits formés de transistors, on peut nommer certains circuits : « porte non », « porte ou », etc. et commencer à les assembler en oubliant peu à peu comment ces circuits sont constitués. On voit alors émerger un nouveau niveau d'abstraction, un nouveau niveau de description des mêmes objets, qui est à la fois plus facile à utiliser mais aussi plus restreint, puisqu'il ne permet pas d'exprimer tous les circuits.

La présence des sciences

   La découverte des équations de Newton a sans doute peu changé la vie quotidienne des paysans qui constituaient la majorité de la population à la fin du XVIIe siècle. Il est même probable que les progrès des techniques agricoles, comme l'introduction de la culture attelée, aient été largement indépendants des progrès de la mécanique newtonienne. En revanche, la découverte de nouveaux algorithmes d'indexation à la fin du XXe siècle a complètement changé la vie de milliards d'individus en changeant leur rapport à l'information et à la connaissance. De la fission nucléaire à la modification du génome du soja, des algorithmes de protection de la vie privée au développement des réseaux téléphoniques, les avancées de la science sont perceptibles par chacun à chaque minute de son existence. Malgré qu'ils en aient, les scientifiques ne vivent pas dans un monde éthéré, mais ils sont aujourd'hui au coeur de la société.

   Si bien que la compréhension des sciences est aujourd'hui la clé de la compréhension des questions de société qui se posent à nous. On ne peut pas comprendre les débats sur le stockage des déchets nucléaires si on ne sait pas ce qu'est la période d'un élément radioactif, on ne peut pas comprendre les problèmes que pose le vote électronique, si l'on ne comprend pas les notions de protocole, d'authentification, d'anonymat, de vérifiabilité, etc., on ne peut pas comprendre ce qu'est le respect de la vie privée, si l'on ne comprend pas ce qu'est une propriété observationnelle d'un algorithme, on ne peut pas comprendre les lois sur la diffusion des oeuvres de l'esprit, si l'on ne sait pas ce qu'est le tatouage d'un fichier ou si l'on ne comprend pas la différence entre une adresse MAC et une adresse IP.

   Certains enseignants sont réticents à aborder ces questions de société qui, pensent-ils à tort, excèdent leur domaine de compétence, et préfèrent les laisser à leurs collègues qui enseignent la philosophie et les sciences humaines. Si ces questions sont, bien entendu, un lieu privilégié pour un travail interdisciplinaire, il ne faut pas que les scientifiques s'en désintéressent, car ce sont eux qui détiennent les clés de la compréhension de ces problèmes.

   Ces questions constituent une part modeste, mais significative, du programme de la spécialité, qui se focalise sur quelques questions paradigmatiques : l'hypermnésie, la non-rivalité et la supranationalité.

   Au bout du compte, les transformations qui s'annoncent et sont déjà partiellement à l'oeuvre, vont vraisemblablement transformer profondément l'enseignement des sciences. Certaines d'entre elles, comme la création de nouvelles disciplines, demanderont des décisions institutionnelles, mais beaucoup peuvent facilement être effectuées par chaque enseignant dans sa classe, en choisissant de situer les connaissances transmises dans un cadre plus vaste, en incitant les élèves à rechercher certaines de ces connaissances sur le Web, en attirant leur attention sur les langages dans lesquels elles sont exprimées et sur la manière dont elles transforment le monde dans lequel ils vivent.

Gilles Dowek
Directeur de recherche à l'INRIA

Cette contribution est sous licence Creative Commons (selon la juridiction française = Paternité - Pas de Modification). http://creativecommons.org/licenses/by-nd/2.0/fr/

NOTES

[1] Source : http://www.math.univmetz.fr/~tu/math/chiffres.html

[2] Source : http://www.un.org/apps/newsFr/storyF.asp?NewsID=20653

[3] Source : http://sciencewatch.com/dr/cou/2008/08decALL/

[4] Source : http://public.web.cern.ch/public/en/lhc/Computing-en.html

[5] Source : http://fr.wikipedia.org/wiki/Bibliothèque_nationale_de_France

[6] Voir par exemple : http://en.wikipedia.org/wiki/Grammar_induction

haut de page
Association EPI
Novembre 2013

Accueil Articles