bas de page
 

De l'ordinateur à l'informatique

Conférence préparée par Jacques Arsac
pour les 50 ans d'informatique à l'Université de Fribourg
septembre 1995
 

1. La question posée

   « De l'ordinateur à l'informatique » : ce titre, qui m'a été proposé par Alain Bron, pose d'entrée de jeu la question centrale : qu'est-ce que l'informatique ? Si elle est l'ensemble des activités qui mettent en jeu des ordinateurs, il faut montrer quand les conséquences économiques, sociales, voire culturelles des ordinateurs sont devenues telles qu'il a paru nécessaire de tout regrouper sous ce vocable commun.

   Si au contraire, comme je l'affirme, l'informatique est une science nouvelle, alors il faut savoir quand et comment on est passé des ordinateurs et de leurs utilisations à la science qui les sous-tend. Mais cette question se double d'une autre, plus actuelle : comment faire passer les élèves des ordinateurs, dont ils ont une perception immédiate favorisée par leur aspect ludique, à la science informatique dont ils sont les instruments privilégiés ?

   Dans le cadre d'un cinquantenaire, il me semble que c'est la perspective historique qu'il convient d'aborder. Au demeurant, elle n'est pas étrangère à la perspective pédagogique : elle fournit un chemin effectif des ordinateurs à l'informatique, dont l'enseignant pourra s'inspirer. Les difficultés n'en sont pas pour autant résolues : peut-on faire l'histoire d'un événement dans lequel nous sommes à ce point immergés que l'unanimité n'est pas du tout faite, même dans la communauté scientifique, sur l'existence de cette nouvelle science ? Il y a deux ou trois ans, « L'Institut d'histoire du temps présent » (créé en France par le CNRS) fêtait un anniversaire par un petit colloque. Les médiévistes demandèrent « comment pouvez-vous faire l'histoire d'événements dont vous ne savez pas s'ils ont une signification historique, faute d'un recul suffisant ? » À quoi les historiens du temps présent répondirent aux médiévistes par une autre question : « Comment pouvez-vous faire une histoire du Moyen Age ? Ce que vous en savez vous est donné par des documents écrits dans une langue qui n'a plus cours. Comment pouvez-vous garantir la signification que vous attachez à ces documents qui ne sont finalement que des suites de lettres ? »

   Comme si cela ne suffisait pas, je n'ai pas la compétence voulue pour écrire l'histoire des idées qui amena des ordinateurs à l'informatique. Je vais donc esquiver toutes ces difficultés par un expédient. Je présenterai seulement la façon dont j'en suis venu à l'idée d'une science informatique, à partir de ma pratique des ordinateurs, et des expériences d'enseignement que j'ai faites à partir de 1957. Je serai ainsi amené à traiter ce sujet à la première personne, non parce que je me considère comme important, mais tout simplement parce que je ne peux pas parler au nom d'un groupe de personnes. Il se trouve pourtant que ces quelques pages ne sont pas les réflexions d'un promeneur solitaire, et que d'autres, notamment des enseignants, se reconnaîtront, je l'espère dans le parcours que je vais évoquer. Peut-être ce témoignage pourra-t-il servir à des historiens du temps présent. Je l'ai déjà esquissé en d'autres circonstances. Mais la persistance du refus de la science informatique par beaucoup oblige à rechercher tout ce qui peut être trop vite dit ou insuffisamment élaboré. Cette version 1995 ne sera pas identique aux précédentes. A l'historien de s'y retrouver dans ces formes successives !

2. Premiers contacts avec l'ordinateur

   Dans les années cinquante, j'ai fait mes débuts de chercheur physicien dans le laboratoire de Radioastronomie de Jean-François Denisse, à l'Observatoire de Meudon. Peu attiré par une théorie trop formelle, pas assez minutieux pour être un bon observateur, je me suis consacré aux problèmes calculatoires de la radioastronomie. Poussé par l'astronome Jean Claude Pecker, je suis allé suivre un cours de programmation pour l'ordinateur IBM 650 en 1956. De cela je suis sûr, parce que j'ai conservé le diplôme de programmeur qui m'a été remis à la fin du stage. J'ai été immédiatement convaincu des services qu'un ordinateur pourrait rendre à l'Observatoire, lieu privilégié des « calculs astronomiques »! J'ai donc entrepris de convaincre la direction de l'Observatoire qu'un ordinateur rendrait par mon collègue Bernard Vauquois, lui aussi chercheur à Meudon. Nous avons donc fait des séminaires pour présenter l'ordinateur aux chercheurs de l'observatoire. Nous leur expliquions que ces machines étaient comparables aux calculatrices électromécaniques de bureau qu'on utilisait à l'époque : accumulateur, quatre opérations, décalages..., avec une réserve de mémoire pour conserver les résultats intermédiaires. Quant aux programmes, ils ressemblaient aux feuilles de consignes que l'on rédigeait alors pour faire exécuter des calculs par les employés d'un service de l'Institut d'Astrophysique à Paris.

   Était-ce par calcul pédagogique, pour prendre appui sur une expérience concrète des chercheurs ? Était-ce parce que c'était ainsi que Vauquois et moi percevions les ordinateurs à l'époque ? Je ne peux répondre à cette question, et Bernard Vauquois n'est malheureusement plus là pour répondre. Je peux toutefois évoquer un fait que j'ai gardé très présent dans ma mémoire. J'ai suivi peu de temps après le stage de programmation IBM, un stage de la compagnie des machines Bull pour la programmation du « Gamma AET ». Le nom déjà, à lui seul, est révélateur. Le « Gamma » était un calculateur électronique ayant 64 mots de mémoire. On lui avait adjoint une « armoire extension tambour » (AET), un tambour de 8 000 mots qui servait de périphérique, avec, il est vrai, un système très en avance pour l'époque : pendant qu'on travaillait avec une moitié de la mémoire, on chargeait l'autre depuis le tambour. Un système d'adressage permettait de commuter les deux moitiés. Ce n'est pas cela qui faisait l'essentiel du cours, mais bien plutôt la description du calculateur « Gamma ». Il ne s'agissait pas d'un ordinateur au sens moderne du terme, mais d'un calculateur électronique doté d'une extension de mémoire.

3. De nouveaux concepts

   André Danjon, alors directeur de l'Observatoire de Paris, ne fut pas trop difficile à convaincre de faire acquérir par l'Observatoire un ordinateur. Il fallait en faciliter l'accès aux chercheurs. Or c'étaient de petites machines : bien que le 650 IBM qui fut installé à Meudon pesât plusieurs tonnes, il ne possédait que deux mille mots de mémoire, et ne devait pas dépasser au mieux 2 000 opérations à la seconde. Le constructeur ne fournissait qu'un assembleur. Bernard Vauquois ayant été nommé professeur à Grenoble, je me trouvais seul pour concevoir un langage adapté à nos besoins et en réaliser le compilateur. Est-ce ce contact avec autre chose que du calcul numérique qui a modifié ma vue des ordinateurs ? Je ne sais...

   J'ai été appelé par René de Possel à l'institut de Programmation qu'il venait de créer à la Faculté des sciences de Paris, en 1964. Notons au passage qu'il ne s'est pas appelé « institut d'informatique ». Pourtant le mot existait déjà : il avait été proposé en 1962 par Philippe Dreyfus, dans un séminaire de l'AFCALTI (association française pour le calcul et le traitement de l'information). Mais il ne correspondait à rien, hormis la commodité pour laquelle il avait été forgé : « Quand on me demande ce que je fais », avait expliqué Dreyfus, « je ne sais que la création de cet institut correspondait à un besoin : il fallait former des programmeurs pour les ordinateurs qui étaient en train de se répandre, dans les laboratoires de recherche comme dans les grandes entreprises. Ces programmeurs auraient à travailler en gestion aussi bien que pour du calcul scientifique ».

   L'image de l'ordinateur changea. Mon collègue Jean Suchard insistait sur le fait qu'il est d'abord caractérisé par une mémoire, formée de cases dans lesquelles on peut ranger aussi bien des éléments du calcul que des instructions pour la machine. Il se trouve qu'on a appelé « information » ce qu'on met dans une case. J'ai très présent à l'esprit les difficultés qui en résultaient pour moi, et que je m'efforçais de ne pas manifester pour n'avoir pas à en traiter. Dans une case de mémoire, on peut ranger un nombre entier, « réel » (par abus de langage, en fait un nombre en « virgule flottante »), ou une instruction de la machine.

   Si je me trompe dans l'écriture du programme, l'ordinateur ira chercher une instruction dans une case où j'ai rangé un entier. Il ne s'en apercevra pas, interprétera cet entier comme une instruction, et le résultat en sera une erreur aux effets imprévisibles. J'avais mis un entier, la machine a lu une instruction. Or on ne peut prendre le sinus que d'un nombre. Qu'y avait-il dans la case, un nombre ou une instruction ?

   J'insistais auprès des étudiants sur le fait qu'une case de mémoire est repérée par un numéro, son « adresse », et possède un contenu : ce que l'on met dedans, et qu'on peut consulter ultérieurement. J'utilisais l'image du magasin de chaussures, avec des boîtes sur des rayonnages.

   Chaque boîte est reconnaissable par le numéro écrit dessus ; je peux y mettre aussi bien des pantoufles d'homme que des mocassins de femme...

   Il ne fallait pas confondre l'adresse d'une case et son contenu. Pas difficile, tant qu'on ne fait pas intervenir l'adressage indirect : on met l'adresse d'un élément du calcul dans une case. Le contenu d'une case est alors l'adresse d'une autre. Il y avait, dans chaque promotion, des étudiants qui avaient du mal à s'y retrouver.

   Les premiers grands langages « évolués » étaient disponibles sur les ordinateurs, alors assez puissants pour les supporter. FORTRAN avait été le premier, mais ALGOL 60, mieux construit et défini par une grammaire plus précise, avait la faveur des enseignants. Au niveau de ces langages, il n'était plus question d'adresse et de contenu. Mais les éléments du calcul étaient désignés par des noms (les « identificateurs ») et possédaient une valeur. Quand on écrit I ou ALPHA, que met-on en jeu ? le nom, ou la valeur ? FORTRAN avait introduit l'instruction diabolique :

I=I+1

   Mon collègue Jean Vignes raconte qu'il fit un exposé à des chercheurs de l'Institut Français des Pétroles pour les initier à FORTRAN. L'un d'eux, qui avait été bon étudiant en mathématiques, lui dit à la fin : « Je vous ai bien suivi jusqu'à I = I+1. Mais je n'ai pu aller plus loin ». Il fallait donc expliquer aux étudiants qu'un identificateur en partie droite d'une instruction désigne la valeur de l'objet, tandis qu'en partie gauche il désigne le nom. I= I+1 doit être lu comme « à l'objet de nom I donner pour valeur la valeur qu'à l'objet de nom I, augmentée de 1 ». On arrivait à peu près à faire passer cela, surtout quand le signe d'affectation n'était pas le signe « = » (vive ALGOL), et à condition de le prononcer de façon imagée : le « := » d'ALGOL lu comme « prend la valeur ».

   Mais que faire dans le cas d'un appel de procédure ? Que désigne I dans « appel de procédure TRUC(I) » ? ALGOL 60 distinguait l'appel par nom et l'appel par valeur, en faisant directement écho à la façon dont l'appel était compilé : transmission du nom et de la valeur. C'était une remontée de considérations venues des langages machines, au niveau des langages évolués. En sommes-nous aujourd'hui totalement débarrassés ? Combien de langages font référence à la nature des paramètres : servent-ils de données (auquel cas c'est leur valeur qui importe), ou de résultats (auquel cas, ce qui importe est le nom auquel le résultat sera affecté). Dans cette perspective, une procédure qui admet un paramètre résultat est de la nature d'une affectation, puisque l'on affecte la valeur trouvée à un objet dont on a donné le nom. En conséquence, elle est de la nature d'une instruction. Par contre, une fonction calcule une valeur à partir de la valeur de données, elle ne peut comporter de paramètres résultats, elle est de la nature d'une expression.

   Les langages du début des années soixante n'en étaient pas à ce niveau de clarté. ALGOL 60 admettait des paramètres résultats dans les fonctions, et jouait avec les effets indésirables qui en résultent (effets de bord). Ce qui veut dire que les concepts fondamentaux de nom et de valeur, la nature arbitraire du lien qui existe entre un nom et une valeur, n'avaient pas pris encore leur plein déploiement. Mais ils étaient présents dans l'enseignement dés cette période, mal maîtrisés par les enseignants, et, en conséquence, difficiles à communiquer aux étudiants. De la même façon, le concept d'information était là, avec sa caractéristique que la forme d'une information n'implique pas le sens qu'on peut lui attacher, qu'il dépend d'une interprétation, c'est-à-dire du contexte dans lequel l'information sera lue et prendra une signification.

4. Un corps de doctrine

   Ma venue à l'institut de Programmation de la Faculté des sciences de Paris n'eut pas pour seul effet de me faire changer la façon de présenter l'ordinateur aux étudiants. Cet institut devait les préparer à des applications variées. Il fallait donc aborder d'autres emplois de l'ordinateur que le calcul scientifique. Il fallait leur parler de fichiers, des supports physiques sur lesquels ils étaient enregistrés, et du fait qu'on ne peut traiter de la même façon un fichier sur bande magnétique (à accès séquentiel) ou sur disques. I1 fallait présenter des langages prenant en compte ces fichiers (ALGOL 60 n'était pas en cela un modèle du genre).

   On se trouvait ainsi obligé d'évoquer la pluralité des langages, à une époque où ils étaient en pleine prolifération. On tentait de prendre un peu de distance par rapport à eux en expliquant ce qu'ils avaient de commun (fort heureusement, LISP, APL ou SNOBOL, langages aux structures éloignées du lot commun, étaient fort peu répandus et restaient confinés dans d'étroits cercles de chercheurs). L'essentiel du cours sur les langages portait sur leurs grammaires. On parlait aussi de compilation et d'analyse syntaxique.

   Les systèmes d'exploitation étaient apparus avec les gros ordinateurs du début des années soixante. On n'en avait pas encore une idée très claire. Le parallélisme de traitements n'était pas encore monnaie courante, les ressources de l'ordinateur n'étaient pas en général partagées entre plusieurs tâches. Mais la gestion de l'ordinateur, avec ses périphériques divers, celle de la bibliothèque de logiciels offerts par le constructeur ou créés dans les centres informatiques, étaient déjà suffisamment complexes pour qu'on en parle aux étudiants.

   À côté de cours de calcul numérique, on institua des cours de « traitement de l'information non numérique ». On commença à parler de structures de données chaînes de caractères, files, piles... On fit appel aux chapitres de l'algèbre sur les arbres ou les graphes.

   Tout ceci n'était pas toujours très structuré. Mais il y avait là tout un ensemble de cours dont on pensait qu'ils faisaient partie du bagage d'un futur programmeur dont la spécialité d'application était inconnue à l'époque de formation.

   J'ai parlé de tout ceci en abandonnant le pronom personnel « je » au profit de l'indéfini « on ». C'est que l'expérience que j'ai vécue à l'Institut de programmation de Paris n'était en rien exceptionnelle. L'IFIP, fédération internationale pour le traitement de l'information, avait été créée à Paris en 1959. En 1964, elle se dota d'un « comité technique pour l'enseignement » (TC3) dont je fus nommé membre.

   Des collègues universitaires se réunissaient ainsi deux fois par an, sous la présidence du Professeur Buckingham, de Londres. Nous mettions nos expériences en commun. Nous nous étions donné pour tâche de rédiger un programme d'études supérieures en quelque chose qu'il fallait bien nommer. Je n'ai pas souvenir que nous ayons consacré une longue discussion au nom à adopter. Les anglophones utilisaient « Computer Science » les scandinaves « Datalogy ». Les discussions se faisant en anglais, je m'en tenais à « computer science ».

   Pour ce groupe, l'existence d'un corps de doctrine original fondé par l'apparition des ordinateurs ne faisait aucun doute. Sa situation n'était pas claire. Dans certaines universités américaines, le département de « computer science » était une sous division de celui des mathématiques. Dans d'autres, il dépendait du département de génie électrique. Il y eut même des universités où ces deux sous divisions co-existaient, dans une harmonie douteuse. Ce n'était pas la première préoccupation du TC3. Nous voulions élaborer un programme de cours pour l'informatique. Il parut en 1968.

   Je m'étais imaginé que j'avais très rapidement pris conscience de l'émergence d'une science nouvelle, baptisée « informatique » en France. C'est à ce propos que j'ai constaté il y a quelques années que notre mémoire peut nous jouer de mauvais tours. J'ai reçu il y a peu d'années la visite de M. Mounier-Kuhn, jeune historien travaillant en relation avec « l'institut d'histoire du temps présent » du CNRS en France. Il me présenta un document de plusieurs pages (ou plus exactement une photocopie du document), me demandant si c'était bien ma signature qui figurait au bout. Je répondis que oui. Il me laissa alors consulter ce document, dont je n'avais gardé aucun souvenir. C'était le compte-rendu d'une réunion organisée par le CNRS en 1965 sur la question de savoir s'il convenait de créer dans ce CNRS une section d'informatique. Je n'avais pas été invité à cette réunion (je n'étais pas chercheur du CNRS). Jean Delhaye, de l'Observatoire de Meudon, y avait été invité. Mais, empêché d'y participer, ou trouvant que j'étais plus à même d'intervenir, il m'avait demandé de la remplacer. À l'ouverture de la séance, on me demanda de servir de secrétaire de séance, ce que j'eus le tort d'accepter. J'étais donc le rédacteur du fameux compte-rendu que me présentait M. Mounier-Kuhn, je l'avais signé. Pourquoi insister là-dessus ? Parce que le dit compte-rendu ne comporte aucune trace d'une intervention de moi dans les débats. La plupart des participants considéraient que l'ordinateur était un outil technique au service du calcul, et qu'il n'y avait là rien d'autre, du point de vue scientifique, que des mathématiques. Certes, certains chapitres jusqu'alors marginaux prenaient tout à-coup une grande importance, comme l'algorithmique ou la théorie. Rigal fit valoir un autre point de vue, soutenant que ce corps de doctrine en train de s'élaborer autour des ordinateurs était la marque d'une discipline nouvelle. Mais il était encore trop tôt pour pouvoir en donner une définition qui en marque l'originalité. Je ne suis pas intervenu dans le débat.

   À force de fouiller dans ma mémoire, j'ai retrouvé une image confuse de la salle de réunion. Je n'ai d'autre souvenir du débat que ce que j'ai lu dans le compte-rendu. J'essaie de deviner aujourd'hui pourquoi je n'ai rien dit. Parce que, secrétaire de séance, j'étais trop occupé à noter pour pouvoir prendre la parole ? Aujourd'hui cela ne suffirait pas pour m'imposer le silence sur un sujet pareil. Il est plus vraisemblable que j'étais dans une période de doute ou d'interrogation. Je n'étais pas encore clairement conscient de l'existence d'une science informatique, je l'aurais fait savoir. Mais je ne croyais probablement plus qu'il n'y avait là que des chapitres des mathématiques, j'aurais mêlé ma voix aux défenseurs de cette thèse. Mais ceci n'est que reconstruction après coup. Une seule certitude : en 1965, je n'étais pas encore fermement convaincu de l'existence d'une science informatique.

   D'autres faits m'ancrent dans cette idée. Je n'ai jamais cessé de faire de la recherche scientifique, même au milieu de tâches d'enseignement très lourdes, comme c'était le cas à cette époque où il fallait tout créer. Quand j'étais à l'Observatoire de Meudon, j'avais constaté que les chercheurs manquaient de bonnes méthodes numériques pour le calcul d'une intégrale. Je m'étais donc lancé dans l'étude de l'approximation des opérateurs linéaires. Pour approcher l'intégrale d'une fonction sur un certain intervalle, on calculait exactement l'intégrale d'un polynôme approchant la fonction sur cet intervalle. Au lieu de cela, je me demandais comment calculer exactement un opérateur linéaire approchant celui d'intégration, appliqué à la fonction elle-même. J'ai été invité comme conférencier au colloque de l'IFIP à New York en 1965 : c'est de cela qu'on m'avait demandé de parler. En 1965, j'enseignais les ordinateurs, je faisais des recherches en analyse numérique.

5. Une science nouvelle

   Je suis incapable de dire quand je fus convaincu de l'existence d'une science nouvelle. J'ai un autre point de repère très précis dans ma mémoire, en fin avril début mai 1968. J'avais été invité par IBM à un séminaire international à Blaricum, en Hollande. C'était un séminaire polyglotte, avec traduction simultanée. Nous avions donc des écouteurs, avec de petits boîtiers munis d'un bouton à plusieurs positions, pour le français, l'anglais... Une affiche disait à quoi correspondaient les différentes positions du bouton, sauf la dernière. C'est te genre de choses qui intrigue un physicien, je n'eus donc rien de plus pressé que d'essayer la dite position. J'entendis une émission de radio en langue française. C'était très commode : quand l'exposé devenait trop technique, ou sortait de mes propres préoccupations, j'écoutais la radio, l'air très attentif à ce que disait le conférencier. C'est ainsi que j'appris qu'il y avait de fortes manifestations étudiantes à Paris, que la police bloquait l'accès à la Sorbonne. Aucun doute possible : c'était le début de mai 68, car je fus totalement surpris : il n'y avait rien en France quand j'étais parti à Blaricum.

   Un autre souvenir amusant de ce séminaire. Un conférencier vint présenter une expérience ambitieuse d'enseignement assisté par ordinateur qu'il était en train de développer. Un participant lui parla de machine de Turing. Il répondit qu'il n'avait pas consulté ce constructeur. Ce sont des petits détails de ce genre qui aident à garder trace des événements !

   Il est très vraisemblable que nous avons discuté dans ce séminaire de la nature de l'informatique : science nouvelle, ou simple branche des mathématiques. Là encore, je n'ai pas de souvenir précis d'une séance organisée sur ce thème, avec exposé et discussion. Je pense même qu'une telle séance n'eut pas lieu, elle m'aurait probablement marqué. La discussion a dû être informelle, entre participants intéressés par question, hors séance. C'est au cours de ce séminaire que Perlis, brillant chercheur et enseignant en ces années-là, me remit un texte polycopié, que j'ai gardé, dans lequel il discutait de la nature de la « computer science ». On peut faire valoir que les américains ont été les premiers à percevoir l'émergence d'une science nouvelle, car le terme de « computer science », qui comporte le mot « science », date d'environ 1965. Mon collègue M.-P. Schutzenberger, qui connaît bien les américains pour avoir travaillé plusieurs années dans des universités de ce pays, notamment avec Noam Chomsky, dit que le mot ne prouve rien. Les américains, selon lui, ne sont pas très attentifs aux mots qu'ils utilisent, on met « science » sur sa carte professionnelle parce que cela va de pair avec « université ». Ce n'est en rien une prise de position épistémologique.

   Perlis avait pris au sérieux le terme de « science », et se demandait ce qu'elle était. Son texte répondait à la question en creux, en éliminant ce qu'elle n'est pas. Elle n'est pas la science des ordinateurs, malgré son nom (« computer science »), parce qu'il n'y a pas de science d'un instrument : l'astronomie n'est pas la science des télescopes, ni la thermodynamique celle des thermomètres. Elles n'est pas, à la façon des sciences naturelles, une science d'observation qui étudierait les ordinateurs pour en découvrir les lois ou les classer en genres et en espèces : nous n'avons pas à étudier ces machines que nous avons conçues et fabriquées. Elle n'est pas la science du calcul (« computing science », comme certains ont proposé de l'appeler), parce que la science du calcul existe depuis longtemps, et s'appelle la mathématique. Il restait à dire ce qu'elle est.

   J'ai gardé un souvenir fiable d'interminables réunions comme nous avons du en subir en mai et juin 1968, pendant lesquelles je n'écoutais que d'une oreille (ce n'était pas toujours très captivant). Sans aller jusqu'à mettre en pratique ce que nous interdisait notre professeur de physique qu'en j'étais en seconde (« Ah, écoutez, vous ! vous ne pouvez pas écouter d'une oreille et lire de l'autre »), je pensais qu'il serait bon d'écrire un livre d'informatique pour un grand public, j'en construisais le plan. Je commençais à l'écrire au dernier trimestre de 1968. Ressortit alors la question de l'information, que je m'étais bien gardé d'aborder avec les étudiants. Qu'est-elle, pour que sa forme ne suffise pas à dire sa signification, et que même celle-ci soit à ce point arbitraire que je peux en prendre le sinus ou m'en servir comme instruction pour l'ordinateur (voir plus haut) ? Puis, un jour de 1969, pendant que j'étais en vacances en Haute-Loire, je me suis demandé si la dualité nom-valeur s'appliquait aussi à l'information, et si oui, était-elle de la nature d'un nom ou d'une valeur, d'une adresse ou d'un contenu ? La réponse vint aussitôt : elle est un contenant, dont la signification est le contenu. L'information est comme une boîte, dont l'aspect ne suffit pas à dire ce qu'il y a dedans. J'ai cru pendant longtemps que c'était une particularité de ce qu'on met dans des cases de mémoire, et qu'on a peut-être abusivement nommé « information ». Puis un jour, dans un château de l'Orne que fréquenta la Marquise de Sévigné, j'ai lu sur un cadran solaire « TIME ».

   Évident, l'heure en anglais. Malheureusement, il y avait devant « ULTIMAM ». « Ultirmarr. time ». Pourquoi ce mélange de latin et d'anglais ? Il m'a fallu longtemps (peut-être une demi minute), pour découvrir en « TIME » l'impératif du verbe latin « timeo » : « crains la dernière ». La donnée des quatre lettres « t i m e » ne suffit pas à déterminer la signification du mot, il y faut autre chose venu de l'extérieur.

   À partir de là, pour moi, tout se mettait en place. L'information est un texte, une suite de lettres. Ce n'est pas ce qu'y voit le journaliste ou l'historien, ce qui permet de distinguer l'informatique de l'histoire ou du journalisme : tous se préoccupent d'information, l'informatique seule s'en tient aux lettres qui la composent.

   Admettons. Comment relier cette information à celle du sens commun ? Pour celui-ci, l'information est ce qui apporte une connaissance. Si elle est écrite, elle a bien l'aspect d'un texte. Mais je ne peux pas lire un texte en japonais, je n'apprends rien d'un texte de mathématiques si je n'y comprends rien, je n'apprends rien d'un livre élémentaire car je sais déjà ce qu'il dit. L'apport de connaissance est subjectif, il n'y a de science que du général, seul le texte a un caractère objectif. Tout s'enchaînait fort bien : l'informatique est la science du traitement de l'information considérée comme le support formel des connaissances. Par un hasard providentiel, c'est à très peu près la définition qu'adoptait l'Académie Française, proposée par le même Philippe Dreyfus qui avait créé le mot « informatique ». Il m'a dit regretter cette définition : pour moi, elle relevait du génie !

   Ceci posé, la démarche informatique est évidente. On part de ce que l'on sait, disons de « connaissances données ». On les représente avec des lettres ou des chiffres sous forme « d'informations données ». On traite ces informations d'après leur seule forme et suivant les règles de la grammaire qui a présidé à leur écriture, traitement formel, puisque basé sur la seule forme. Le résultat est un texte formel. On l'interprète, dans le contexte où on sait qu'il se situe (parce que celui qui a représenté et organisé le traitement connaît ce contexte). J'ai longtemps insisté sur le problème de la représentation des connaissances données : elle doit être choisie telle que la forme obtenue implique ces connaissances, et ne puisse être interprétée autrement, faute de quoi on ne saura pas à laquelle des interprétations possibles rattacher le résultat. J'ai aussi beaucoup insisté sur le problème du traitement, car l'idée qu'on puisse traiter un texte sans s'occuper de ce qu'il peut vouloir dire était très neuve (du moins le croyais-je à l'époque. J'ai découvert depuis que dès le XVIIe siècle, le philosophe anglais Thomas Hobbes avait demandé que l'on calculât avec les mots pris indépendamment de leur signification comme on calcule avec les nombres). J'ai découvert en mai 1995 que l'interprétation des informations résultats pouvait elle aussi être source de difficulté, principalement parce qu'on oublie le contexte dans lequel il convient de les lire. Lors de l'élection présidentielle en France, nous avons été abreuvés de sondages d'opinion, auxquels les résultats du vote ont paru donner tort. On a dit que les sondages s'étaient trompés, qu'ils avaient été mal faits, voire qu'ils étaient mauvais dans leur principe. On avait tout simplement oublié de tenir compte d'un résultat pourtant fourni par ces sondages le nombre d'indécis. Si l'on s'était posé la question de savoir comment pouvaient voter ces indécis, on obtenait des résultats très différents suivant qu'ils penchaient pour l'un ou l'autre : les résultats effectifs se sont sagement rangés dans ces fourchettes d'indétermination.

   Ainsi, pour moi, tout était clair. J'avais un schéma cohérent de l'informatique, qui rendait compte des phénomènes réellement observés dans les applications de cette science. Il faisait apparaître des points sensibles correspondant à des difficultés concrètes. Il expliquait pourquoi la logique formelle est un des supports théoriques de cette science. Il répondait à une autre de mes préoccupations. On avait baptisé les ordinateurs « cerveaux électronique », et, pour moi, c'était inacceptable : je ne crois pas être de la nature d'une machine (c'est une croyance fortement ancrée en moi, et si je ne cherche à l'imposer à personne, nul ne peut me l'interdire). La différence fondamentale entre la machine et moi était là pendant qu'elle traite des caractères, je réfléchis à des idées.

6. Aujourd'hui : le jugement n'est pas encore rendu

   Avec l'aimable autorisation de la rédaction, nous reproduisons ici un article paru dans Le Canard Endimanché, en date de l'événement :

   « Un curieux procès vient de se dérouler dans la énième chambre correctionnelle de Paris. Rappelons brièvement les faits. En 1979, J.-C. Simon remit au Président de la République un rapport où il recommandait un enseignement obligatoire d'informatique à tous les lycéens. En 1980, le Ministre de l'Éducation nationale, M. Beulac, demanda au professeur Jacques Arsac (J. A. dans la suite) de créer un enseignement optionnel d'informatique dans les lycées. Partie de 12 Lycées, l'expérience se répandit pour atteindre 600 lycées, soit plus de 60 000 élèves, en 1990. Cette année là, à la suite d'un autre rapport d'un groupe d'experts, l'option fut supprimée par le nouveau ministre, M. Jospin. J. A. écrivit alors plusieurs articles très virulents, mettant en cause les experts. Ceux-ci portèrent plainte, et l'affaire est venue en jugement. Les experts étaient représentés par leur avocat, Maître Bafouillet (M. B. dans la suite). J. A. a décidé de se défendre lui-même. Très rapidement, les débats ont fait apparaître que toute la question repose sur la nature de l'informatique. Si elle est une technologie nouvelle, son utilisation repose sur un savoir-faire, qu'on acquiert dans des ateliers de pratique, comme ceux mis en place par M. Jospin. Si au contraire elle est une science, elle relève du savoir, fait partie de la culture et doit s'enseigner comme une discipline scientifique. J. A. a soutenu que l'informatique est une science, celle du traitement de l'information considérée comme le support formel des connaissances. Il a prétendu que pour fournir une connaissance nouvelle, on commence, en informatique, par représenter les données par des suites de caractères suivant la grammaire d'un langage, puis qu'on traite ces suites par des règles judicieusement choisies dans la grammaire, et qu'enfin on interprète les suites de caractères résultats en connaissances cherchées. Une vive discussion s'en est suivie entre Maître Bafouillet et J. Arsac, que nous résumons ici.

— M. B. Votre thèse est une absurdité. Vous dites qu'on représente les connaissances données par des suites de caractères dont on ne considérera que les lettres, sans faire intervenir leur sens. C'est manifestement impossible. Or l'informatique est très largement utilisée aujourd'hui.

— J. A. II n'est pas difficile de montrer par des exemples qu'il y a des domaines où on peut ne considérer que la forme des données, pas leur sens. C'est par exemple le cas dans un vote : le dépouillement ne fait pas intervenir le parti des candidats, ni les idées qu'ils défendent. Pourtant, personne n'en conteste la validité.

— M. B. Vous avez trouvé un exemple où votre schéma fonctionne. Mais la forme dans laquelle sont codées les données n'est qu'un aspect de celles-ci. La non considération de leur sens est un moins. Vous ne ferez pas sortir le plus du moins. Ce qui est perdu à l'entrée l'est définitivement.

— J. A. Je vois que Maître Bafouillet a lu le livre « Apport de l'informatique à l'enseignement des mathématiques », que J. Kuntzman a publié chez CEDIC en 1974. Mais cela ne contredit pas ma thèse, bien au contraire, parce que c'est ce que l'on observe. Le correcteur orthographique d'un traitement de texte peut corriger les fautes de forme (éléfan), pas celles liées au sens (le mâle s'enfuit impuissant, au lieu de le mal...).

— M. B. M. Arsac est un brillant sophiste, qui a réponse à tout. Mais il ne peut rien prouver avec des exemples, c'est un fait bien connu en sciences.

— J. A. Je le reconnais volontiers. J'ai construit ma thèse en considérant de nombreux exemples. Mais j'ai procédé à une généralisation, en posant comme un principe ce que j'ai constaté dans tous ces exemples. Carnot n'a rien fait d'autre quand il a posé son principe de la thermodynamique, que nul ne conteste aujourd'hui.

— M. B. Voilà que J. Arsac ose se comparer à Carnot ! Fort heureusement, il y a bien d'autres raisons de refuser sa thèse. Le schéma qu'il prétend être typique de l'informatique est en fait celui de la communication. Je représente les idées que j'ai en tête par des lettres sur une feuille de papier. Le lecteur les déchiffre, et les interprète pour y retrouver mes idées.

— J. A. Objection aisément réfutée. Dans la communication, il n'y a pas traitement : les lettres que j'ai écrites sont lues, et non l'objet de calculs tellement complexes qu'ils sont généralement infaisables sans l'aide d'une machine.

— M. B. De toutes façons, le prétendu schéma de l'informatique est inacceptable, et ne peut qu'être le fruit d'un esprit atteint de paranoïa. C'est en effet le schéma de toutes les sciences. Le physicien observe des phénomènes, les représente par des théories formelles, fait des calculs mathématiques qui ne dépendent pas de la signification physique des éléments du calcul, puis interprète les résultats formels en terme de phénomènes physiques.

— J. A. Je félicite Maître Bafouillet pour sa connaissance très profonde de la physique. Mais l'activité d'observation des phénomènes, le choix d'un bon support théorique sont tout autre chose que ce que fait l'informatique. Après avoir remarqué qu'une baguette de verre frottée avec une peau de chat attire des petits bouts de papier, poser comme modèle formel qu'on a arraché des particules électrisées à la baguette de verre est d'une autre nature que représenter des données par des caractères (comme par exemple célibataire par 1, marié par 2, veuf par 3...) Il est vrai qu'une fois le modèle théorique élaboré, il est traité formellement ce qui se fait aussi en informatique. L'informatique a pris aujourd'hui une place de choix dans la simulation de phénomènes physiques. Ainsi mon schéma n'englobe pas celui de la physique, mais, lorsque les schémas coïncident, ou plutôt dans la partie des opérations physiques où ils coïncident, alors l'informatique est une aide puissante pour la physique.

— M. B. Je pourrais aisément accuser J. Arsac de plagiat. En 1962, Peter Lucas, dans sa thèse, a montré que l'ordinateur est de la famille des machines de Turing, qu'il ne peut faire que des traitements formels, et donc qu'il ne peut rien pour les propriétés indécidables.

— J. A. Exact. Mais il n'y a pas plagiat. Lucas n'a parlé que des ordinateurs. Il n'a rien dit de la façon dont on lui fournit des données formelles, ni du problème d'interprétation du résultat. En outre, il n'a rien dit de la possibilité de traitements formels sans ordinateurs, ce qui rend impossible toute généralité. On rejette ainsi des traitements de nature informatique apparus bien avant les ordinateurs (comme le vote), et on se place dans une situation très délicate si un jour on invente une autre machine à traiter l'information qui ne soit pas du type des ordinateurs. Je signale à Maître Bafouillet que, dans l'exposé qu'il fit quand on lui remit la « Turing Award » de l'ACM (association for computing machinery), Herbert Simon définit la science des ordinateurs (mot anglais équivalent au français « informatique ») comme « l'étude des phénomènes entourant les ordinateurs ». Il la présente comme une science expérimentale, dont le principal but est la description d'un modèle de fonctionnement de l'esprit humain, la mettant ainsi au cœur des sciences cognitives. Cet exposé date de 1975. Sa définition de l'informatique n'est pas identique à la mienne, mais il y a là aussi une claire affirmation de ce qu'elle est : une science.

— M. B. Le professeur Arsac abuse de la supériorité que lui donne un long passé d'enseignement à l'Université. Mais il n'a qu'un savoir académique. L'important de l'informatique n'est pas ce qui s'enseigne dans des maîtrises spécialisées qui ne touchent qu'un petit nombre d'étudiants, c'est ce qui se pratique quotidiennement dans un grand nombre d'entreprises comme les banques ou sociétés d'assurance, ou dans de toutes petites entreprises, chez le plombier ou le garagiste qui font leur gestion sur ordinateur ou tapent leur courrier avec un traitement de texte. Ceux-là n'ont fait aucune étude, ne savent rien d'une hypothétique science. Pourtant, ils font de l'informatique tous les jours.

— J. A. Je pense que, sur sa lancée, Maître Bafouillet va nous expliquer que le marchand de légumes, au marché, qui calcule le prix des deux salades avec sa calculette de poche, fait des mathématiques. Pourtant, il n'a fait aucune étude sérieuse de cette hypothétique science donc les mathématiques ne sont pas une science.

   Le débat s'est poursuivi un certain temps de cette façon là, J. A. réfutant l'une après l'autre les diverses objections élevées par la partie civile. S'agissant des accusations portées par J. A. contre les experts, on en est resté à des procès d'intentions. Les accusations portées par les experts contre l'enseignement de l'option furent réfutées, mais toujours dans des cas particuliers. Pouvait-il en être autrement ? Celles portées par J. A. contre les experts furent déclarées relever d'erreurs de lecture, ce n'était pas ce que les experts avaient voulu dire. Après un long débat, M. B. déclara dans son réquisitoire que J. A. était habile à présenter ses idées et à leur donner l'apparence de la vérité, que cela pouvait troubler des non initiés, comme lui-même, mais que la communauté internationale ne s'y était pas trompée. Il y a plus de 25 ans que J. A. a présenté sa thèse sur l'informatique comme science, et pourtant elle n'a pas encore été adoptée par la communauté internationale. L'Académie des sciences, en France, n'a pas encore pris clairement parti sur cette question, et le mot « informatique » ne fait partie de l'intitulé d'aucune de ses sections. Dans sa réponse, J. A. nota que ce genre d'institution n'évolue que lentement, que la définition du statut de l'informatique n'est pas seulement l'affaire, de cette discipline, mais à part égale de la philosophie des sciences. Qu'il faut donc que des informaticiens se lancent dans la philosophie, ou que des philosophes s'initient à l'informatique, et que tout cela prend du temps. Pendant que se déroulent ces discussions, l'informatisation de la société progresse. Les élèves ne recevant aucun enseignement de la science informatique ne voient que des ordinateurs, et ne comprennent rien à ce qui est véritablement en jeu. Tel Cassandre, il a prédit les pires catastrophes si on continue à informatiser une société d'analphabètes. Mais qui a jamais écouté Cassandre ? Le Président a marqué un grand embarras à la fin des débats. Certes, dit-il, J. A. a manifestement insulté les experts du Ministre de l'Éducation nationale, mais ceux-ci avaient fait preuve de beaucoup de légèreté dans la rédaction de leur rapport. Quant à savoir si l'informatique est une science, les arguments présentés par J. A. paraissent très convaincants à un non spécialiste. Mais l'absence de réponse ferme de la communauté scientifique internationale incite à la prudence. Il a donc renvoyé le jugement à plus tard, sans donner de date. »

   Le lecteur me pardonnera cette fiction. Elle avait l'avantage de permettre une présentation rapide et immodeste du débat actuel. Sa conclusion est la seule qui puisse être donnée aujourd'hui. Le débat n'est pas définitivement tranché. Je ne peux donner que ma grande conviction que sera finalement reconnue la vraie nature de l'informatique, science du traitement de l'information considérée comme le support formel des connaissances.

Jacques Arsac
Professeur émérite à l'Université P. et M. Curie
Correspondant de l'Académie des Sciences

Décédé en janvier 2014.
Voir : http://www.epi.asso.fr/revue/lu/l1402j.htm

Paru dans les Actes de la cinquième rencontre francophone sur la didactique de l'informatique, les 10, 11 et 12 avril 1996 à Monastir, édition INBMI-AFDI, Tunisie, pages 475-488.

haut de page
Association EPI

Accueil Présentation de l'AFDI Historique