Université Paris VIII

Histoire, épistémologie de l'informatique
et Révolution technologique

Résumés du cours de
Gérard VERROUST
1994/1997
Maîtrise Sciences & Techniques Hypermédia - 2e année

Note

Ce document de cours est composé de 14 courts chapitres contenant chacun les notions fondamentales résumant le contenu de 2 heures 30 d'exposé. Nous y donnons les définitions précises de termes qui désignent les bases de l'univers technique d'aujourd'hui et sur lesquels circulent souvent nombre d'idées fantaisistes.

Chaque chapitre est suivi d'une bibliographie destinée à ceux qui voudraient connaître les sources ou approfondir tel ou tel point. Bien entendu nombre de références mentionnées contiennent des erreurs que nous signalons dans notre cours et qui sont en général dues à l'ignorance de faits historiques découverts ultérieurement. Parfois aussi de la part de certains historiens ou journalistes à l'incompréhension de notions scientifiques ou techniques.

Tout le contenu de ce résumé de cours peut être librement reproduit et diffusé à condition d'en mentionner la source. Il est accessible sur des serveurs universitaires et associatifs du réseau Internet.

Gérard VERROUST (Janvier 1997)
verroust@wanadoo.fr
Université Paris VIII
Maîtrise Sciences et Techniques Hypermédia - 2e année
http://hypermedia.univ-paris8.fr/Verroust/cours/TABLEFR.HTM

TABLE

01 * La formalisation du calcul d'Al Khorizmi à Turing

02 * Les instruments de calcul analogiques et numériques

03 * L'histoire des automates et de l'horlogerie

04 * La révolution industrielle et ses limites : Charles Babbage

05 * L'évolution technologique jusqu'à la synthèse de Von Neumann (1947).

06 * Rappels fondamentaux sur le fonctionnement d'une machine de Von Neumann ou ordinateur

07 * Les « générations » d'ordinateurs : grandes étapes des techniques électroniques

08 * La conquète de la mémoire

09 * Les grandes classes de langages de programmation

10 * Le dialogue homme-machine de la carte perforée à la réalité virtuelle.

11 * Cybernétique et Systémique, automates neuronaux & connexionnistes

12 * Le calcul en temps réel, la conduite de processus industriel, la robotique.

13 * Révolution informationnelle, travail, production.

14 * Révolution informationnelle & éducation, vie sociale, familiale, culturelle.

***

Histoire, épistémologie de l'informatique et Révolution technologique

Gérard VERROUST

Introduction

Le but de l'exposé

Il s'agit des notions de base des sciences de l'information et de la commande qui se trouvent au coeur de la révolution technique contemporaine.

Ce sont ces notions qui devraient faire partie de tous les programmes scolaires depuis l'enseignement primaire afin de permettre à tous les humains de maîtriser l'univers technique d'aujourd'hui et de demain.

Une grande aventure humaine, la conquète de l'intelligence artificielle

Contrairement à une idée encore répandue, l'informatique n'est pas née subitement aux USA pendant la seconde guerre mondiale. Elle est l'aboutissement actuel de millénaires de progrès, de découvertes, elle est la continuation d'une démarche qui remonte à l'origine de l'humanité mais il est aussi vrai qu'elle constitue une rupture fondamentale dans l'histoire des civilisations, souvent jugée aussi importante que la maîtrise du feu ou la domestication des animaux.

Nous allons d'abord mettre en évidence la nature de cette révolution, Quelle nouvelle découverte essentielle se trouve au coeur de cette révolution. Ce qui nous permettra d'en mesurer l'importance et les conséquences sociales et culturelles actuelles, potentielles, prévisibles dans la mesure où elle change radicalement les relations des humains entre eux ainsi qu'au travail, au monde.

L'ordinateur, qui est aujourd'hui le système artificiel intelligent le plus répandu, résulte de deux grandes rencontres entre trois histoires millénaires :
- celle du calcul, du raisonnement et de la mathématique,
- celle des instruments et systèmes de calcul,
- celle des machines et automates.

Les deux grandes rencontres furent :

- en 1834 celle de Charles BABBAGE concevant la première machine mathématique universelle par l'alliance de l'oeuvre des grands automaticiens des Lumières avec la plus perfectionnée des machines à calculer de l'époque,

- en 1947 celle de John Von NEUMANN concevant le premier ordinateur en mettant en oeuvre dans une machine de Babbage les résultats de plusieurs siècles de logique mathématique, de théorie du raisonnement.

Une histoire vivante

L'histoire de l'Informatique s'enrichit de jour en jour. Des inventeurs méconnus sont encore parfois découverts, des documents retrouvés, des antériorités prouvées, des erreurs rectifiées. Des asso-ciations, des congrès, des revues spécialisées font régulièrement le point.

Mentionnons les Annals on the History of Computing dirigées par John LEE et, se tenant en France, les célèbres congrès internationaux d'histoire de l'Informatique (Grenoble 1988, Paris 1990, Sophia-Antipolis 1993, Rennes en 1995 et Toulouse en 1998) qui n'ont pas d'équivalent ailleurs.

D'importants musées spécialisés ont été créés ces dernières années ou sont en voie de constitution (Boston, Grenoble, etc.). Toutefois de grands musées scientifiques et techniques ont de très riches collections, en particulier le Conservatoire National des Arts & Métiers à Paris, le Science Museum de South Kensington à Londres, le musée technique de Vienne à Schönbrunn, la Smithsonian Institution à Washington.

Par ailleurs l'histoire de l'informatique met en lumière des notions historiques fondamentales. Les relations entre science, technique, travail, civilisation, idéologie. On peut mesurer avec exactitude l'évolution intellectuelle d'une génération à l'autre, l'existence objective d'un progrés dans l'appropriation collective des techniques et la compréhension des notions scientifiques qui les fondent. Il convient évidemment de mesurer l'importance d'une découverte en la situant dans le contexte scientifique et culturel à l'époque de son apparition.

Les conséquences sociales, culturelles, familiales.

Bien entendu, à la lumière du passé on examinera à partir de l'état actuel de la science les perspectives actuellement réalistes de développement de cette grande aventure humaine qu'est l'intelligence artificielle ainsi que les transformations profondes de la société, du travail, de la culture, de la création, de l'enseignement, de la famille, des valeurs morales qui pourront caractériser ce qu'on considère en général comme une ère nouvelle sous des dénominations diverses (révolution nootique, informationnelle, de l'intelligence, etc.). Un consensus semble se dégager de la part d'auteurs d'horizons très divers sur un ensemble de traits communs que nous analyserons. On constatera que ce changement profond des bases matérielles de la société conduit certaines utopies anciennes à apparaître réalistes aujourd'hui.

Si, sur des exemples concrets vécus nous montrerons la pertinence des traits de cette révolution, nous nous situerons à une échelle historique qui fera abstraction des turbulences actuelles d'une fin d'époque.

Bibliographie

Dans chaque partie traitée nous mentionnerons les ouvrages qui donneraient toutes les informations complémentaires.

Toutefois deux ouvrages de référence peuvent agréablement figurer dans toute bibliothèque :

GILLE Bertrand - Histoire des Techniques - Paris, Gallimard (Encyclopédie de la Pléïade), 1978.

et surtout :

IFRAH Georges - Histoire Universelle des Chiffres - Paris, Laffont (Bouquins), 1994.

 1 

Formalisation du calcul d'Al Khorizmi à Alan Turing

Historique

Autrefois, un procédé de calcul faisait l'objet d'un discours mathématique en langage clair. L'Algorithme d'Euclide était décrit ainsi par un énoncé discursif.

La notation symbolique des nombres a été développée au VIIe siècle par un grand astronome indien : Brahmagupta. Abbou Adullah Ibn Moussa dit Al Khorizmi, né en 783, mathématicien ouzbeck de l'Empire des Samanides donna la solution de l'équation du second degré et définit les règles de transformation des expressions (algèbre) à partir des travaux de Brahmagupta. Il écrivit une encyclopédie des procédés de calcul qui sera diffusée dans le monde entier, traduite en latin. On appellera « algorithme » un procédé de calcul figurant dans cet ouvrage, le nom de l'auteur se trouvant en tête. Puis on dénommera algorithme tout procédé de calcul voire même tout raisonnement formel.

Jusqu'au XXe siècle il était admis que la solution de tout problème pouvait faire l'objet d'un algorithme et de manière plus générale qu'il existait un algorithme universel permettant de résoudre tout problème, choisissant automatiquement la méthode adaptée à sa solution.

La recherche de cet algorithme universel était un des grands problèmes de la mathématique. Il a été clairement énoncé pour la première fois par Leibnitz.

En 1901, il faisait partie de la série des problèmes ouverts proposés par Hilbert à la sagacité universelle.

L'algorithme est une classe particulière d'opérations intelligentes bien définie mathématiquement. Nous allons en donner la définition exacte :

Algorithme

Suite de prescriptions précises qui dit d'exécuter dans un certain ordre des opérations réalisables pour aboutir au bout d'un nombre fini d'opérations à la solution de tous les problèmes d'un certain type donné.

Commentaire :

Un algorithme contient tout ce qui permet de l'exécuter, il est non-ambigu et indépendant du contexte (context-free en anglais). C'est sa définissabilité.

Un algorithme définit une classe de problèmes. Il est capable de résoudre tous les problè-mes de cette classe. Exemple : l'algorithme de l'addition donne un résultat correct quels que soient les opérandes. On parle de la massiveté d'un algorithme. Il y a isomorphisme entre un algorithme et la classe de problèmes qu'il résout.

Un algorithme doit donner son résultat au bout d'un nombre fini d'opérations, même si ce nombre est très grand et si l'algorithme n'est pas physiquement réalisable. Par exemple l'algorithme combinatoire qui résout le jeu d'échecs est fini au sens mathématique, alors que sa taille interdit de le réaliser physiquement. Il faudrait une mémoire de la taille de l'Univers connaissable ! C'est le problème du « mur du combinatoire ». Un algorithme potentiellement réalisable peut n'être pas physiquement réalisable.

L'histoire de l'« algorithme universel », Alan TURING et sa machine.

Ainsi donc comme nous l'avons mentionné, durant plusieurs siècles et jusqu'à une période récente, on supposait l'existence d'un algorithme universel, c'est à dire l'existence d'un procédé de calcul permettant de résoudre sans réfléchir tout problème donné. De plus il était implicitement admis que toute opération intelligente pouvait être décrite par un algorithme.

Formulé de manière explicite par Leibniz, ce problème fut re-posé par HILBERT en 1901, puis ramené au problème dit de la « décision de la décidabilité » également par HILBERT en 1928.

En 1935, un jeune mathématicien anglais, Alan TURING imagina une machine idéale pour exécuter tout algorithme et la décrivit dans une publication célèbre en 1937.

Cette machine était constituée :

- d'une bande de papier infinie composée d'une suite de cases pouvant contenir un seul symbole ou être vide.

- d'une unité de contrôle située devant une case et qui pouvait :

- lire, écrire, effacer ce qu'il y avait dans la case située devant elle,

- se déplacer d'une case à droite ou à gauche.

À un instant donné, cette unité de contrôle est dans un certain état.

L'étape suivante ou le changement d'état est dicté par :

- ce qu'il y a dans la case,

- l'état présent de l'unité.

Les règles qui fixent l'action sont mises sous forme d'une table des états dans l'unité de contrôle qui alors opère toute seule. TURING montra qu'il existe une table des états pour tout algorithme, et donc qu'il existe une machine de ce type (maintenant appelée << machine de Turing ») pour tout algorithme. Dans le cas d'une machine de Turing binaire, il y a dans chaque case 0, 1 ou rien.

La machine de Turing est un automate algorithmique universel, et TURING pensait avoir décrit la machine intelligente universelle.

Mais en 1931, un mathématicien autrichien, Kurt GÖDEL, avait démontré un théorème célèbre dont une des principales conséquences était que certains problèmes que l'intelligence humaine savait résoudre ne pouvaient pas être résolus par un algorithme ! Et un autre mathématicien, Alonzo CHURCH, montra en 1936 que cela conduisait à l'impos-sibilité du fameux problème de la décision de la déductibilité, base de l'algorithme universel, et par conséquent à l'impossibilité de réaliser l'algorithme universel.

La vérité scientifique oblige à dire qu'on n'en tira toutes les conséquences que vingt ans après (NOVIKOV, 1955, travaillant sur les chaïnes de MARKOV) en s'interrogeant sur des difficultés rencontrées dans l'usage des ordinateurs pour résoudre certains types de problèmes. Nous verrons l'importance de cette question dans les recherches actuelles sur l'intelligence artificielle.

Les chaînes de MARKOV, formalisation des algorithmes

Un autre objet mathématique a aussi joué un rôle important dans la théorie des algorithmes : la chaîne de MARKOV (décrite en 1914 par un mathématicien norvégien, THUE, et dont les propriétés ont été étudiées par le mathématicien russe Andréi A. MARKOV). Il s'agit d'une suite de caractères alignés. Et on se pose le problème de la règle systématique qui, appliquée à cette chaîne, puis encore au résultat, permet d'arriver à une autre chaîne donnée. Ce problème qui semblerait relever des mathématiques amusantes a pris un grand intérêt lorsqu'on a montré qu'il y avait un isomorphisme entre les algorithmes et les chaînes de MARKOV. On disposait donc d'une formalisation mathématique de l'algorithme et les théorèmes sur les transformations des chaînes de MARKOV pouvaient s'appliquer aux algorithmes. Nous avons là un exemple intéressant du rôle que peuvent jouer du jour au lendemain des travaux mathématiques apparemment de la plus totale gratuité.

Bibliographie

BRETON Philippe - Histoire de l'informatique - Paris, La Découverte, 1987.

FONT Jean-Marc, QUINIOU Jean-Claude, VERROUST Gérard - Les Cerveaux non- humains, Introduction à l'informatique - Paris, Denoël, 1970.

IFRAH Georges - Histoire Universelle des Chiffres - Paris, Laffont (Bouquins), 1994.

PERRIAULT Jacques - Éléments pour un dialogue avec l'informaticien - Paris, EPHE/Mouton, 1971.

TRAHTENBROT B.A.- Algorithmes et machines à calculer - Paris, Dunod, 1963.

 2 

Les instruments de calcul analogiques et numériques

Calcul analogique

La notion de calcul analogique est très ancienne même si ce n'est qu'à une époque récente qu'elle a été explicitée clairement. Un plan, une maquette sont des modèles analogiques d'une réalité existante ou en projet. On isole certaines propriétés, grandeurs, proportions d'une réalité pour l'étudier. Il s'agit toujours d'un modèle. Et le calcul analogique relève de la théorie des modèles. Comme dit l'adage, « la carte n'est pas le territoire » et le seul modèle intégral d'une réalité est cette réalité elle-même...

Calculateur analogique :

Système physique artificiel dont certains paramètres commandables et mesurables sont reliés entre eux par les relations mathématiques qu'on veut étudier

Calculateurs analogiques

Les calculateurs analogiques travaillent donc sur des grandeurs continues. Spécialisés ou universels, ils jouèrent très longtemps un grand rôle. Depuis l'astrolabe du Moyen-âge jusqu'aux calculateurs électroniques analogiques encore en service dans les années 60 de notre siècle en passant par la règle à calcul, les planimètres intégrateurs, les cuves rhéographiques, les souffleries aéronautiques, les bassins d'essais, etc. Et jusqu'aux maquettes d'architecture remplacées maintenant dans la pratique par des modèles numériques, sauf quand on veut réaliser un objet d'art pour une exposition

Calcul numérique

Le plus ancien instrument de calcul numérique semble être le boulier. Il s'agit d'un dispositif matériel permettant d'inscrire et de modifier des nombres décimaux sous forme biquinaire afin d'y effectuer manuellement des additions. La très grande dextérité des pratiquants habituels de cet instrument permet d'effectuer des calculs à très grande vitesse. Le boulier a donné naissance à l'abaque de calcul, série de colonnes gravées sur une table et où on disposait et déplaçait des jetons. Jusqu'au XVIIIe siècle, la comptabilité publique en France se faisait encore avec des abaques à jetons. C'est sans doute l'abaque à jetons qui a donné à PASCAL l'idée de sa machine.

Calculateurs numériques

La première machine à calculer numérique est due à Wilhelm SCHICKARD, horloger, astronome et mathématicien de l'université de Tübingen en Rhénanie et ami de Kepler. Réalisée en 1623, et significativement dénommée « horloge à calculer », elle fit l'objet d'une description complète dans une lettre à Kepler. Heureusement car elle serait restée ignorée. Cette machine fut en effet détruite par un incendie en 1624. On a supposé que cet incendie aurait pu être volontaire car de telles réalisations à l'époque étaient facilement considérées comme des actes de sorcellerie. La description donnée a permis en 1961 d'en construire des exemplaires qui figurent dans quelques musées.

La machine à additionner de Blaise PASCAL fut longtemps considérée comme la première. Conçue en 1641 et réalisée en 1645 elle connut, sous le nom de « Pascaline », une grande renommée et fut fabriquée en de nombreux exemplaires sous privilège royal.

Il convient de mentionner la machine à calculer de poche conçue en 1666 par Samuel MORLAND en Angleterre, durant la révolution de Cromwell. Il s'agissait d'une version miniature de la pascaline.

La première machine effectuant des multiplications fut décrite par Gottfried LEIBNITZ en 1673. Complètement réalisée en 1694, cette machine comporte une innovation capitale : celle du tambour à dents inégales. Ce dispositif sera utilisé dans la plupart des machines à calculer mécaniques jusqu'à la Curta encore fabriquée en 1972.

Au XVIIIe siécle on construira un très grand nombre de machines à calculer, bien souvent réalisées pour être de luxueux objets de curiosité. Mentionnons les machines de Leupold (1727), Braun (1727), Vayringe (1750), Hahn (1770), Müller (1783). La machine de Stanhope (1775) comprenait un système de report des retenues qu'on ne retrouvera qu'au XXe siècle.

Et tous ces développements aboutirent à une réalisation industrielle de toute première importance : l'Arithmomètre de Thomas de COLMAR (1820). C'est le premier calculateur mécanique réalisé industriellement, qui connut une très grande diffusion et resta pratiquement sans rival durant 50 ans. On verra que cette machine robuste, performante joua un grand rôle dans l'histoire de l'informatique.

D'autres réalisations et progrès à mentionner : le pignon à dents escamotables d'ODHNER (1875), l'extraordinaire machine de Léon BOLLÉE (1889). les calculatrices à touches de FELT, TARRANT, BURROUGHS (1887, 1889), etc.

La concurrence numérique/analogique

Jusqu'à une période récente, les calculateurs analogiques et numériques se trouvèrent en concurrence pour nombre d'applications. Les progrès considérables de l'électronique numérique, entraînée par l'industrie informatique, ont donné l'avantage au calcul numérique. Même les souffleries aéronautiques ont été remplacées par des ordinateurs vectoriels de grande puissance appelés significativement par les avionneurs << souffleries numériques ».

Les calculateurs analogiques présentaient un certain nombre d'avantages :

- pouvoir résoudre certains problèmes non ou mal formalisables

Toutefois, réciproquement, les méthodes d'analyse numérique utilisées sur les ordinateurs permettent aussi de traiter de grandes classes de problèmes non formalisables mathématiquement (exemples du problème des trois corps, du chaos déterministe).

- traiter certains problèmes très complexes avec une grande vitesse

- permettre une variation immédiate facile des paramètres de calcul

Ils avaient des défauts graves :

- ils étaient toujours spécialisés dans une classe de problèmes

- ils n'avaient pas de mémorisation propre des résultats intermédiaires ou finaux

- leur précision était limitée sévèrement par la mesure des grandeurs

- le domaine de validité du calcul était celle du domaine de validité de la propriété

physique utilisée

- pour des phénomènes mal connus, l'interprétation était difficile.

On a longtemps utilisé des calculateurs hybrides où un ordinateur délégait certains traitements à un système analogique par l'intermédiaire d'actionneurs, de convertisseurs analogiques/numériques et de codeurs numériques/analogiques. On s'y intéresse toujours, en particulier pour l'utilisation de systèmes optiques traitant instantanément des problèmes massivement parallèles.

Bibliographie

IFRAH Georges - Histoire Universelle des Chiffres - Paris, Laffont (Bouquins), 1994.

LIGONNIÈRE Robert - Préhistoire et histoire des ordinateurs - Paris, Laffont, 1987.

MARGUIN Jean - Histoire des instruments & machines à calculer - Paris, Hermann, 1994.

MICHEL Henri - Les Instruments des sciences dans l'art et l'histoire - Bruxelles, de Visscher, 1980.

PASCAL Blaise - La Machine arithmétique - Paris, 1645 - Levallois, Ilias, 1996 (Édition électronique).

 3 

L'histoire des automates et de l'horlogerie

Définitions

Réaliser des automates ou systèmes artificiels autonomes animés a toujours été un vieux rêve de l'humanité, particulièrement en forme d'humains (androïdes) ou d'animaux (zooïdes). Par ailleurs, le besoin de dispositifs destinés à mesurer le temps a conduit naturellement à réaliser de tels systèmes autonomes.

Généralisant la définition ancienne on définit aujourd'hui un automate comme << un système qui se meut de soi ». Cette définition, due à DESCARTES est celle d'aujourd'hui et englobe tout système autonome animé, vivant ou non, quelle que soit sa complexité. Le schéma le plus général d'un automate est donné fig.1. La science qui aujourd'hui étudie les automates est la Systémique (ou théorie des systèmes et de l'autonomie) qui a remplacé ce qu'on appelait la Cybernétique (ou théorie des processus de direction asservis).

fig.1

Sur ce schéma, nous avons isolé arbitrairement trois types de fonctions. Les relations avec le milieu extérieur (mesure et action), le système autonome ou automate et une de ses caractéristiques essentielles : la transformation qu'il effectue sur de l'information, notion essentielle que nous serons amenés à définir.

Mentionnons tout de suite que dans la conception dualiste chrétienne de Descartes, Tout ce qui était animé hors l'homme était de même nature : animaux mêmes évolués comme horloges et était ramenable à de simples mécanismes, seul l'homme ayant une âme. Cette conception continuera à dominer jusqu'au XIXe siècle.

Historique rapide

Survolant rapidement la fascinante histoire des automates artificiels, nous mentionnerons rapidement quelques réalisations célèbres et surtout les innovations constituant des progrès décisifs.

Donc l'histoire des automates qui est une des composantes essentielles de celle de l'informatique et remonte à l'Antiquité entretient des relations étroites avec celle de l'horlogerie pour deux grandes raisons :
- Une horloge doit fonctionner de manière autonome
- Les techniques utilisées en horlogerie sont aussi celles qui servent à réaliser des automates.

Jusqu'à la fin du XVIIe siécle, tous les systèmes de mesure du temps furent basés sur des écoulements (eau, sable, poids ou ressort avec foliot ralentisseur) ou la consommatiion d'une substance (lampe à huile, bougies).

Les automates à fonction ludique, artistique ou religieuse (en général statues animées) pouvaient également être mus durant une courte période par des jets d'air chauffé, de vapeur d'eau ou de mercure. On connait le système qui permettait d'ouvrir les portes d'un temple ou d'animer brièvement des statues lorsqu'on faisait du feu sur l'autel, <<miracle>> bien décrit par Héron d'Alexandrie.

Les plus anciennes clepsydres (ou horloges à eau) connues, égyptiennes, sont datées d'environ 2 000 ans av. J.C. Les plus fameux automates de l'antiquité sont ceux de l'école d'Alexandrie (Euclide, Archimède, Ktésibios, Philon de Byzance, Héron d'Alexandrie) du IIe siècle av. J.C. jusqu'au 1er siècle.

L'horloge publique à eau la plus fameuse et la plus perfectionnée fut sans doute celle de Su Sung réalisée en 1088 à Pékin : un grand bâtiment avec de nombreux automates. Si-gnalons les automates arabes réalisés en 1206 pour Haroun Al Rachid par Al JAZARI, etc.

L'horloge mécanique date du XIIIe siècle et au cours du XIVe siècle il y eut d'innombrables réalisations et des progrès très importants :

- Système de programmation de la sonnerie des heures (chaperon),

- Carillons programmés à commande par tambour sculpté

- Nombreuses horloges astronomiques souvent avec scènes animées, jacquemarts (Rouen, Prague, Exeter, Chartres, Strasbourg, Salzbourg, Vienne, Venise, etc.). Toutes ces horloges avec programmes fixes, engrenages à taille droite, poids et foliot ralentisseur. Mentionnons la célèbre horloge astronomique réalisée en 1364 par Giovanni DONDI à Padoue.

On ignore qui, au XIIIe siècle, fut l'inventeur du chaperon de sonnerie, ingénieux dispo-sitif qui programme le nombre de coups frappés chaque heure par un carillon d'horloge.

Une invention décisive : le tambour programmable à picots mobiles permettant de changer facilement l'air joué par un carillon (Barthélémy de KOEKE en 1467 à Alost). Il est intéressant de remarquer qu'à la même époque, GUTENBERG inventait le caractère mobile d'imprimerie.

Au cours des XVIe et XVIIe siècle, la technique horlogère connut de grands développements d'abord en France, en Italie et en Allemagne. Au moment des guerres de religion, les horlogers protestants français, fuyant les persécutions se réfugièrent à Genève et à Londres où ils fondèrent une puissante industrie horlogère. Les horlogers construisaient deux grands types d'automates qui étaient toujours des réalisations de prestige : d'une part des pièces d'orfèvrerie animées, objets de curiosité destinés à de riches seigneurs, d'autre part de grands automates soit dans des jardins, soit pour des jacquemarts ou scènes animées associées à des horloges publiques de villes puissantes.

Et en 1650, une révolution décisive : l'horloge à pendule de Christian HUYGHENS, physicien hollandais. Dès ce moment, l'horloge est devenue un instrument de précision faisant consciemment appel à une loi physique. Et remarquons que c'est dès ce moment que les horloges se sont appelées <<pendules>> du nom de l'organe précis qu'elles contenaient comme les postes portatifs ont été appelés <<transistors>> le jour on y a utilisé des transistors. En 1675, HUYGHENS inventa aussi le balancier à ressort spiral permettant la réalisation d'horloges portatives précises.

Il faut remarquer que depuis HUYGHENS toutes les horloges comprennent les mêmes organes :

- un phénomène physique oscillant (pendule, quartz, oscillateur moléculaire)

- un dispositif compensant l'amortissement et captant l'information périodique: (échappement)

- des organes de calcul (mécaniques ou électroniques) convertissant la période du système physique oscillant en unités courantes (des microsecondes aux secondes, minutes, heures).

- Un système d'affichage du résultat du calcul pour l'usager (aiguilles, cristaux liquides)

- Et bien sûr une source d'énergie (poids, ressort, piles, capteur solaire).

Depuis le milieu du XVIIe siècle, l'industrie horlogère anglaise dominait l'Europe et les découvertes de HUYGHENS lui donnèrent un essor nouveau. Les tentatives pour développer une technique horlogère en France furent neutralisées par les persécutions contre les protestants (dragonnades, révocation de l'Édit de Nantes) qui entraînèrent des vagues successives d'émigration des élites vers Londres et la Suisse. Et jusqu'en 1750, la domination technique anglaise fut totale.

Automates et horloges au Siècle des Lumières

Mais au XVIIIe siècle, le mouvement des idées en France entraîna des progrès décisifs dans trois domaines en interaction :

- Les instruments de mesure du temps.

- Les automates ludiques conçus aussi comme des objets scientifiques de démonstration,

- Les machines automatiques à usage industriel.

La mécanique horlogère était au XVIIIe siècle la technique de pointe qui passionnait toutes les élites. En outre il y avait dans le cas de l'horlogerie des enjeux stratégiques importants : On ne pouvait connaitre la position d'un navire en longitude qu'à partir de l'heure embarquée dans une horloge de bord. Et il fallut bien en France soutenir les travaux de Le ROY et BERTHOUD, pour disposer d'instruments aussi précis que ceux que réalisaient à Londres HARRISON et EARNSHAW.

De ce moment-là, et du contexte scientifique et culturel des Lumières, date une domination de l'horlogerie française qui durera jusqu'en 1850, la relève étant alors prise par l'horlogerie suisse qui tirera les fruits de son approche industrielle.

On sait que Abraham-Louis BRÉGUET (1747-1823) est souvent considéré comme le plus grand horloger de l'histoire, tant par la qualité technique que par la sobre élégance de ses réalisations. Il peut aussi être considéré comme un des fondateurs du design moderne, expression plastique de la fonction d'un objet. En ce sens il est bien un homme des Lumières, frère d'un architecte comme Claude- Nicolas LEDOUX, précurseur de Le CORBUSIER, frère aussi de MOZART..

Les grands horlogers du XVIIIe siècle furent aussi souvent des constructeurs d'automates visant à imiter la vie. Et il faut remarquer que les limites de la mécanique furent atteintes à cette époque. Mentionnons des réalisations célèbres :

Les automates de Jacques de VAUCANSON (1738) : le joueur de flûte, et surtout le canard qui ingérait des aliments et en faisait une bouillie nauséabonde qu'il rejetait par l'endroit habituel. En outre il battait des ailes, etc. Et selon les conceptions dualistes cartésiennes, on pensait avoir réalisé la vie animale.

Et surtout les automates de Pierre et Henri-Louis JAQUET-DROZ toujours exposés à Neuchâtel. L'écrivain, le dessinateur et la joueuse de clavecin (1773). Le système de génération des lettres d'un texte par l'automate écrivain semble être le plus ancien exemple d'appel de sous-programme avec adresse de retour dans le programme appelant, technique bien connue des programmeurs d'aujourd'hui.

Enfin les automates industriels les plus perfectionnés, qui passionnèrent ingénieurs et savants furent les métiers à tisser automatiques.

Des progrès continus depuis le premier métier à tisser de Basile BOUCHON (1725). En 1728, Louis FALCON crée le premier métier à tisser programmable par cartons perforés. VAUCANSON réalise un métier à tisser programmé en 1745, Et nous arrivons en 1801 au célèbre métier à tisser automatique, programmable de Joseph- Marie JACQUARD qui jouera un rôle essentiel dans la genèse de l'Informatique.

Bibliographie

BRUTON Eric - Histoire des horloges, montres et pendules - Paris, Atlas, 1983.

BUCHNER Alexandre & ROUILLÉ Philippe - Les instruments de musique mécanique - Paris, Gründ, 1992.

CARDINAL Catherine - Les montres et horloges - Rennes, Ouest-France, 1980.

CARDINAL Catherine - Ferdinand Berthoud, horloger mécanicien du roi et de la marine - La Chaux-de-Fonds, MIH, 1984.

CARDINAL Catherine - La montre, des origines au XIXe siècle - Fribourg, Office du Livre, 1985.

CHAPIRO Adolphe - Jean-Antoine Lépine, horloger (1720-1814) - Paris, l'Amateur, 1988.

DAVIS Hugh in CHOPIN Henri - Poésie Sonore Internationale - Paris, Jean- Michel Place, 1979.

FAESSLER François, GUYE Samuel, DROZ Edmond - Pierre Jaquet-Droz et son temps - Le Locle, Comité des Fêtes, 1971.

JAGGER C. - Montres et horloges - Paris, Princesse, 1977.

LANDES David S. - L'heure qu'il est - Paris, Gallimard, 1987.

MEIS Reinhard - Le Tourbillon - Paris, l'Amateur, 1990.

NEGRETTI Gianpiero - Horlogerie - Milano, LGO, 1993 (Paris, CELIV, 1993).

ROUILLÉ Philippe - Le grand livre des montres - Paris, Solar, 1991.

SABLIÈRE Jean - De l'automate à l'automatisation - Paris, Gauthier- Villars, 1966.

TIEGER Norbert - Horloges anciennes - Paris, Flammarion, 1991.

TISSOT André - Voyage de Pierre Jaquet-Droz à la cour du roi d'Espagne (1758-1759) - Neuchâtel, La Baconnière, 1982.

URESOVÁ Libuse - Montres et horloges - Paris, Artia/Gründ, 1986.

 4 

La révolution industrielle et ses limites : Charles BABBAGE

Le problème des tables numériques, la "Difference Engine"

Dès le XVIIIe siècle on s'est posé le problème de l'exécution d'importantes suites de calculs en vue de la réalisation de tables trigonométriques et de logarithmes qui répondaient à d'importants besoins en développement : Cadastre, navigation, artillerie, statistiques, calculs d'intérêts, astronomie.

On utilisait la méthode des différences finies (développements en série & approximations successives) qui conduisait à effectuer de très grands nombres d'additions en chaîne.

Pour donner un exemple, Marie-Riche baron de PRONY, ingénieur des Ponts et Chaussées (1780) fut responsable du cadastre en 1791. Marie-Riche de PRONY eut connaissance des travaux d'Adam SMITH qui avait montré l'intérêt de la division du travail en tâches élémentaires, annonçant l'organisation du travail qui sera celle de la société industrielle du XIXe siècle. Il avait mis en place un centre de calcul de 80 personnes dans deux bâtiments séparés pour réaliser de grandes tables à 14 décimales. Le grand problème était celui des erreurs. C'est pourquoi on effectuait les calculs en double en deux lieux séparés. Ce centre fut significativement nommé « manufacture à logarithmes ».

En 1760 le grand astronome Jérôme de la LANDE avait réalisé avec 30 calculateurs une table portative à 6 décimales. Cette table fit l'objet de nombreuses réimpressions chaque fois agrémentée de nouvelles fautes. Le problème des fautes était si important que, dans la préface, on invitait les usagers à signaler à l'imprimeur les erreurs rencontrées.

En 1805, un procédé d'édition dit « stéréotype » dû à Firmin DIDOT permit de conserver les pages composées d'une édition à l'autre. Ainsi non seulement on n'introduisait plus de nouvelles fautes à chaque composition mais au contraire on supprimait d'une édition à l'autre les erreurs découvertes.

Un jeune mathématicien anglais de l'université de Cambridge, Charles BABBAGE, rendit visite au baron de Prony à Paris en 1819 et, impressionné par l'ampleur des tâches répétitives nécessaires pour la réalisation des tables, eut l'idée de réaliser un calculateur spécialisé effectuant automatiquement ce travail. Il faut savoir qu'outre son activité de mathématicien, BABBAGE était un inventeur qui exerça son talent dans des domaines variés et un sportif.

En 1820, il conçut ainsi sa " Difference Engine " ou machine à calculer selon les différences finies (nom traduit à tort en français par « machine à différences >> (!?)). Dès 1813, il avait déjà envisagé l'intérêt d'une telle machine.

Il en entreprit la réalisation en 1823. Cette machine ne devait pas imprimer directement les tables mais estamper des feuilles de plomb utilisées après pour l'impression. On retrouve là le souci de préparer des clichés pour l'impression de tables numériques. Il avait été très intéressé par le procédé d'impression stéréotype de DIDOT.

La tentative de réalisation de cette machine fut une véritable épopée (problèmes d'argent, contrats mal rédigés, escroqueries, etc.). Inachevée, cette machine fut cédée en l'état à la Couronne britannique en 1843. La chose se trouve exposée au Science Museum de South Kensington à Londres.

L'idée fut reprise en 1840 par un Suédois, George SCHEUTZ (1785-1873), et menée à bien sous une forme plus simple. Le financement en avait été assuré par une souscription publique après divers refus de financement institutionnel. Achevée en 1853, la première machine fut présentée dans de nombreux pays, reçut de nombreuses récompenses en Angleterre, en France (exposition universelle de 1855) mais ne trouva acquéreur qu'aux USA pour les calculs de l'observatoire d'Albany. Elle est exposée maintenant au musée technique de la Smithsonian Institution de Washington. Une seconde machine construite en Angleterre en 1859, y trouva preneur, fut exploitée jusqu'en 1914 pour calculer des tables numériques, et se trouve maintenant au Science Museum de South Kensington.

Les progrès techniques liés au développement de la mécanographie, les importants besoins en tables numériques conduisirent à la réalisation jusqu'en 1930 de diverses machines à calculer par différences finies.

Mentionnons la réalisation très élégante faite en Suède en 1859 par Martin WIBERG (1826-1905), un inventeur universel qui exerça ses talents dans pratiquement tous les domaines et suggéra la construction d'un avion à réaction ! La machine de Wiberg se trouve au Musée Technique de Stockholm.

Citons aussi le monstre réalisé en 1876 aux USA par G.B. GRANT, les projets de Léon BOLLÉE (que nous connaissons déjà) de Percy LUDGATE etc. jusqu'à la réalisation faite en 1928 à New York par W.G. ECKERT, en bricolant une tabulatrice mécanographique IBM.

L'"Analytical Engine"

Alors qu'il travaillait à la réalisation de sa "Difference Engine", Charles BABBAGE fit en 1833 une rencontre décisive : celle d'Ada LOVELACE, née en 1815, fille de Lord BYRON et personnalité scientifique exceptionnelle. De cette amitié naquit en 1834 l'idée de génie : celle d'une machine universelle à effectuer toutes sortes de suites de calculs par simple changement d'un programme de commande modifiable : l'"Analytical Engine".

L'idée fondamentale de cette machine consistait à utiliser le métier à tisser de Jacquard qui se programmait par cartes perforées pour commander un calculateur mécanique, lui envoyer des données, en extraire les résultats, imprimer ceux-ci à l'extérieur, etc.

À cette époque, les métiers de Jacquard se répandaient dans toute l'Europe ainsi que l'Arithmomètre de Thomas de Colmar qui était le calculateur le plus perfectionné alors en usage.

Charles BABBAGE définit toutes les fonctions nécessaires à la réalisation d'un calculateur universel : Entrées/Sorties des données et résultats, mémorisation interne, transfert des données, opérateur arithmétique, programmeur/organe de commande, en un mot TOUS les organes d'un ordinateur moderne.

La description complète de sa machine fut publiée par Ada LOVELACE en 1842 dans un article (en français) resté célèbre. Elle y disait : « la machine analytique tissera des motifs algébriques comme les métiers de Jacquard tissent des fleurs et des feuilles ». Dans cet article, Ada LOVELACE expliquait comment écrire des programmes et en outre suggérait (remarque essentielle dont on ne vit les conséquences que bien plus tard) qu'on modifie la machine pour agir sur le déroulement du programme en fonction de certains résultats.

Ada LOVELACE mourut en 1852. Il n'est pas inintéressant pour l'histoire de la pensée scientifique de savoir qu'elle s'était passionnée pour le mesmérisme qui constitue une des sources de la psychanalyse et des thérapies psycho-corporelles modernes.

Charles BABBAGE ne put pas non plus mener à bien la construction de sa nouvelle machine. Il mourut ruiné en 1871. Son fils Henry BABBAGE reprit son oeuvre et réalisa une partie de la machine en 1880. En 1888, elle put calculer et imprimer les 44 premiers multiples de p.

En 1896, il en fit don également au Science Museum de Londres et en 1906, on s'en servait pour calculer quelques tables d'astronomie. Elle s'y trouve toujours.

Les limitations fondamentales de la machine de BABBAGE

La machine analytique de BABBAGE possédait tous les organes d'un ordinateur moderne.

Toutefois la technologie utilisée au siècle dernier en rendait la réalisation extrêmement difficile. Une machine à vapeur avait même été énvisagée pour la commander. Mais surtout elle avait un défaut structurel qu'on ne vit vraiment qu'un siècle plus tard. Et ce défaut structurel découlait des conceptions scientifiques de l'époque. Il y avait une séparation totale entre l'organe de commande : le programmeur à cartes qui contenait les ordres de commande et les autres organes et informations, en particulier les données et résultats du calcul. L'idée que les résultats de calcul puissent réagir sur la commande était alors une hérésie intellectuelle.

Aujourd'hui, et nous le verrons plus loin en étudiant l'ordinateur, on appelle machine de Babbage opposée à l'ordinateur un calculateur universel à programme externe totalement indépendant des données et résultats de calcul.

Cette idée que le résultat d'une action puisse réagir sur une commande a émergé lentement au cours du XIXe siècle. Par contre il faudra attendre le XXe siècle pour qu'on se permette de traiter automatiquement les ordres de commande comme de vulgaires données. Nous sommes là au coeur du fondement conceptuel de la révolution informationnelle.

En effet c'est en 1865 que Claude BERNARD, fondant la physiologie comme science, montre l'importance de la rétroaction comme base des phénomènes de la vie, allant même jusqu'à pressentir la psychosomatique.

Et c'est en 1859 que, selon la même démarche intellectuelle, naquit une des plus grandes inventions de l'histoire des techniques : le servomoteur de Joseph FARCOT.

Joseph FARCOT (1824-1908) était un ingénieur spécialiste des machines à vapeur. Il avait amélioré le régulateur à boules de Watt, servomécanisme empirique. Là sans doute il trouva la solution d'un grand problème : on utilisait des machines à vapeur pour faire avancer de puissants vaisseaux cuirassés. Mais on était incapable d'utiliser la force motrice de la vapeur pour positionner un gouvernail de plusieurs tonnes. On utilisait toujours des cabestans mus par des équipes de matelots ! FARCOT eut l'idée de faire commander l'action de la vapeur sur le piston du gouvernail à partir d'une information prélevée sur la position de celui-ci. Il s'agissait d'une rétroaction : l'effet réagissant sur la commande. Les cuirassés géants devinrent immédiatement maniables à l'aide d'une simple roue de commande.

En Grande Bretagne, à peu près à la même époque et pour les mêmes raisons, John Mc FARLANE GRAY inventait un dispositif similaire. Et la théorie mathématique en fut élaborée par MAXWELL en Angleterre et WISCHNEGRADSKII en Russie.

Joseph FARCOT était un ingénieur très créatif à qui on doit un grand nombre d'inventions (turbines, pompes centrifuges, etc.). En outre, républicain convaincu, il consacra les dernières années de sa vie à combattre en faveur du scrutin proportionnel (qu'il ne connut pas car il fut instauré en 1910, deux ans après sa mort).

Le servomoteur de FARCOT se trouve actuellement dans les collections du CNAM à Paris..

Bibliographie

DIDI-HUBERMAN Georges - Invention de l'hystérie - Paris, Macula, 1982.

GAY Jean-Yves - Le feedback : quelques points d'histoire - 6e Congrès International de Cybernétique et de Systémique, Tome 1, pp.289-294 - Paris, afcet, 1984.

LIGONNIÈRE Robert - Préhistoire et histoire des ordinateurs - Paris, Laffont, 1987.

SABLIÈRE Jean - De l'automate à l'automatisation - Paris, Gauthier- Villars, 1966.

SMITH Adam - Recherches sur la nature et les causes de la richesse des nations - Paris, Gallimard, 1976, Folio, 1991.

STEIN Dorothy - Ada Byron, La comète et le génie - Paris, Seghers, 1990.

 5 

L'évolution technologique

jusqu'à la synthèse de Von NEUMANN

Les avatars de la machine de Babbage

La machine analytique de Babbage ayant connu la destinée que nous avons vue, il y eut diverses autres tentatives ou projets de quelques pionniers et en particulier celle de Percy LUDGATE (1883-1922). Cet inventeur irlandais, indépendamment de BABBAGE dont il ne connut les travaux que plusieurs années après le début de son étude, conçut pendant ses moments de loisirs une machine analytique universelle dont il rédigea une description complète en 1909. Cette machine comportait des solutions techniques très originales et pour certaines fort en avance sur leur époque :

- sous-programmes fonctionnels sur des cylindres-programme (comme l'automate écrivain de Jaquet-Droz) pouvant préfigurer la microprogrammation,

- programmation et entrée/sortie des données sur ruban de papier perforé, la perforation des résultats permettant leur réexploitation automatique

- pilotage possible par un clavier, la suite d'opérations manuelles étant perforée sur un ruban de papier utilisable comme programme de commande pour le même calcul.

En outre, cette machine était mécaniquement simple, compacte et entraînée par un moteur électrique. Hélas Percy LUDGATE ne se préoccupa pas vraiment de la construire, ce qui est fort dommage pour l'histoire de l'informatique...

Les machines logiques à raisonner

On connait l'importance dans l'histoire des mathématiques de l'école des grands logiciens anglais du XIXe siècle (Auguste de MORGAN, George BOOLE, John VENN, Lewis CARROLL) qui fondèrent l'algèbre logique.

Un économiste, mathématicien et logicien anglais, William Stanley JEVONS (1835- 1882) eut l'idée de construire une machine logique qui réalisait les opérations de l'algèbre logique binaire inventée par George BOOLE. Sa machine, appelée piano logique fut construite en 1869. Elle était uniquement destinée à l'apprentissage de l'algèbre de Boole. Les expressions logiques étaient introduites par un clavier et le résultat (vrai ou faux) était affiché.

Une autre machine logique fut construite en 1911 par un des plus féconds inventeurs de l'histoire : Leonardo TORRES Y QUEVEDO (1852-1936). Ingénieur des Ponts et Chaus-sées, logicien, automaticien, TORRES Y QUEVEDO fut l'auteur d'innombrables inventions et réalisations (ponts suspendus, téléfériques, funiculaires, calculateurs analogiques, télécomandes par voie hertzienne, ballons dirigeables, etc.) Il réalisa à partir de 1911 des jeux d'échecs électromécaniques qui gagnaient des fins de partie ultra-simples (une tour et un roi) face à un joueur humain.

Mais surtout TORRES Y QUEVEDO est l'auteur d'un ouvrage fondamental : le premier traité moderne sur l'automatisme (Essai sur l'automatisme, 1915). Il y décrit les fonctions les plus générales de tout automate : les organes sensoriels, les organes d'action, l'énergie d'entretien, la capacité de raisonnement. En outre, il se livre à une analyse de la machine de BABBAGE dont il montre l'intérêt et appelle à des technologies qui en permettraient la réalisation. Il semble aujourd'hui que ce texte, plus largement connu qu'on ne l'a longtemps pensé, ait joué un rôle décisif dans nombre de réalisations de notre siècle.

En 1937, Claude SHANNON, jeune et brillant spécialiste des transmissions et des systèmes de commutation travaillant au M.I.T. fit une remarque fondamentale. Il montra que les règles de l'algèbre logique à 2 états élaborée en 1847 par George BOOLE et qui étaient applicables à tout raisonnement logique étaient entièrement réalisables à l'aide de circuits à relais électriques. Cette célèbre publication (A Symbolic analysis of relays and switching circuits) fut republiée en 1938 dans les célèbres Transactions of IEE et donc très largement diffusée.

Ce jeune scientifique travaillait sous la direction de Vannevar BUSCH et Norbert WIENER. Il fit plus tard à la Bell Telephone d'autres travaux fondamentaux sur la théorie de l'information et des transmissions.

En fait, en 1886, deux logiciens et ingénieurs anglais (Charles PEIRCE et Allan MARQUAND) avaient fait la même remarque mais leurs travaux restèrent ignorés... Sans parler de Paul EHRENFEST, physicien autrichien ami d'Albert EINSTEIN en 1910.

Une conséquence fondamentale de cette découverte, c'est la possibilité de réaliser concrètement une machine exécutant toute opération logique et donc, pensait-on alors, toute opération intelligente. Si maintenant nous en connaissons les limites, il est essentiel de connaitre les fonctions élémentaires que toute technologie (mécanique, relais électriques, circuits électroniques à transistors ou à tubes, systèmes à fluides, optique, etc..) doit réaliser pour pouvoir construire tout automate logique, donc entre autres un ordinateur. À savoir :

- La réunion logique (fonction ou)

- L'intersection logique (fonction et)

- La négation logique (fonction non)

L'irruption et les développements de la mécanographie. La carte perforée.

Indépendamment du calcul, le XIXe siècle connut un important développement des moyens mécaniques de traitement et de transmission des informations. Bien sûr tout ce qui était conçu était prolongement direct de l'action humaine. Qu'il s'agisse de la machine à écrire ou du télégraphe.

La machine à écrire connut une longue histoire depuis les premières idées de Henry MILL en 1714, et les réalisations de von KNAUS (1753), PINGERTON (1780), etc. De 1830 à 1866, des dizaines de modèles furent créés. Et en 1866, Christopher SHOLES, Carlos GLIDDEN et Samuel SOULÉ réalisérent aux USA la première machine à écrire moderne. La technologie des machines à écrire jouera un rôle important dans les progrès des calculatrices (mécanique de précision, commandes par touches, impression).

Le télégraphe conduisit pour la première fois à utiliser l'électricité comme support d'information, et le code créé par Samuel MORSE en 1837 fut le premier code télégraphique, ancêtre du code Baudot, puis de l'ASCII.

Et là se situe une invention fondamentale: celle de la mécanographie automatique à carte perforée.

Se posaient de plus en plus au cours du XIXe siècle des problèmes de traitements de très grandes masses d'informations diverses avec des calculs très réduits voire nuls (tris, classements, recherches, totalisations). En particulier lors des opérations de recensement.

Confrontés à des transformations profondes de population dus à des immigrations massives, les États Unis mirent en place dès 1790 une politique de recensements systématiques réguliers. Cette tâche devenait de plus en plus énorme. En 1880, le dépouillement du recensement dura 7 ans pour 50 millions d'habitants. Un jeune ingénieur, Herman HOLLERITH travaillant en 1879 comme vacataire au bureau de recensement pensa qu'une solution automatique devait pouvoir être trouvée. Plus tard, ayant ouvert une agence d'ingénierie, il s'attaqua au problème. Et en 1884, il réalisa les prototypes et prit des brevets sur ce qui était le départ d'une révolution dans le traitement des informations : la carte perforée comme support universel d'information et les équipements permettant de les lire, de les manipuler, de les trier.

Il s'agit d'un simple rectangle de carton où on fait des trous, qui peut être lu par une machine, classé, trié. HOLLERITH réalisa une poinçonneuse à main, une machine à lire et totaliser et une machine à trier. Évidemment le tout était piloté à la main. Mais toutefois le succés fut immense : le recensement de 1890 ( 62.622.250 personnes ) fut dépouillé en 6 mois.

Herman HOLLERITH fonda une société qui porta son nom, et toute une industrie se répandit dans le monde (Canada, USA, Russie, Autriche, France) avec l'émergence de firmes concurrentes :

En 1909 James POWERS (Grande Bretagne) inventa la tabulatrice qui imprimait le contenu des cartes. Sur les machines Hollerith, on devait lire les compteurs, les recopier à la main et les remettre à zéro. POWERS fonda une société qui devint SAMAS et existe toujours après divers avatars sous le nom d'ICL.

En 1919 Fredric Rosen BULL (norvégien) inventa la tabulatrice imprimante parallèle, la trieuse mécanique automatique et incorpora pour la première fois dans une machine mécanographique à cartes des fonctions élémentaires de calcul. Ses travaux furent développés en France par la firme qui porta (et porte toujours) son nom.

Nous verrons que l'industrie de la mécanographie joua un rôle essentiel dans la construction de la grande industrie informatique. Signalons simplement que la société HOLLERITH changea de nom pour devenir IBM.

Les grandes réalisations des années 40

Tant les développements techniques (relais et tubes électroniques) que les résultats de SHANNON et des besoins de très gros calculs conduisirent à la fin des années 30 à de multiples initiatives pour réaliser de grands calculateurs universels.

Nous mentionnerons les plus célèbres.

Le MARK 1, conçu en 1937 par Howard AIKEN, mathématicien à l'Université de Harvard fut un monstre légendaire. C'était une gigantesque machine de Babbage électro-mécanique à relais. Elle pesait 5 tonnes, mesurait 16 mètres de long, 2 m 60 de haut, était entraînée par un moteur de 5 chevaux, était constituée pour l'essentiel de relais décimaux. Elle était alimentée par cartes ou ruban perforés. Le projet séduisit le PDG d'IBM (Thomas WATSON) qui le finança puis à la suite d'une rupture en fit construire une version sous le nom de ASCC (Automatic Sequence Controlled Calculator). Le MARK 1, inauguré en 1944, était dépassé dès sa naissance, mais le caractère spectaculaire de cette machine fit très forte impression dans le monde entier.

La réalisation de l'ENIAC (Electronic Numerical Integrator, Analyser and Computer) fut entreprise en secret en 1943 par Presper ECKERT et John MAUCHLY à l'Université de Pennsylvanie avec la collaboration de John ATANASOFF, inventeur de nombreux circuits de calcul à tubes électroniques. Il avait réalisé en 1939 à l'Université d'Iowa le premier additionneur à tubes électroniques. L'ENIAC était aussi un monstre : 17.468 tubes électroniques et 1600 relais, 30 tonnes, 150 kWatt, plus deux puissants moteurs. Occupant 160 m2 au sol. Cette machine fut inaugurée le 15 février 1946.

Mais en 1944 avait eu lieu une rencontre historique : celle du responsable de l'ENIAC et du célèbre mathématicien John von NEUMANN (1903-1957). Invité à travailler sur l'ENIAC, von NEUMANN en fit, à partir de sa vaste culture scientifique une critique structurelle décisive. L'ENIAC, comme le MARK 1 était une machine de Babbage à programme externe. Von NEUMANN montra qu'en enregistrant le programme dans la mémoire en même temps que les données, on avait un automate qui avait les propriétés de la machine de Turing, et donc une machine algorithmique universelle.

Et alors que l'ENIAC était encore en chantier, la conception d'une machine totalement nouvelle appelée EDVAC (Electronic Discrete Variable Automatic Computer) fut entreprise sous la direction de von NEUMANN par l'équipe de l'ENIAC et fit l'objet d'une célèbre publication du 30 juin 1945. Il s'agit de la première description d'un ordinateur, qu'on appelle aussi machine de von Neumann. Comme on pensait toujours que toute opération intelligente pouvait faire l'objet d'un algorithme, on pensait avoir là la machine intelligente universelle et on appela alors partout les ordinateurs « cerveaux électroniques ».

Aux USA, eut lieu une extraordinaire et complexe bataille de brevets avec d'énormes enjeux industriels compliquée par le fait que, scientifique, von NEUMANN avait mis ses idées dans le domaine public alors qu'ECKERT et MAUCHLY voulaient en faire une exploitation commerciale. Ceci fit perdre beaucoup de temps aux USA. Les premières réalisations industrielles n'en furent faites qu'en 1951 (UNIVAC 1 et IBM 701) malgré la tentative maladroite d'IBM avec le SSEC (Selective Sequence Electronic Computer) en 1948.

Le premier ordinateur construit.

Et le premier ordinateur construit le fut en Grande Bretagne en 1947 selon les idées de John Von NEUMANN par Maurice WILKES. Connaissant parfaitement les grandes réalisations américaines et conscient de la justesse des idées de Von NEUMANN, WILKES obtint les moyens de construire à l'Université de Cambridge sous le nom d'EDSAC (Electronic Delay Storage Automatic Computer) le premier calculateur universel à programme enregistré, donc le premier ordinateur qui entra en service en 1949.

En fait dès 1946, Max NEWMAN aidé d'Alan TURING avait entrepris à l'Université de Manchester la construction du premier ordinateur, mais il ne fonctionna qu'après l'EDSAC.

Bletchley Park et Alan TURING

Il fallut attendre 1975 pour que, couverts jusque là par le secret militaire, fussent connus les importants travaux réalisés durant la guerre en Grande Bretagne. L'un des services les plus importants attendus du calcul automatique était le décryptage rapide des messages chiffrés envoyés par les ennemis en temps de guerre. L'Allemagne se trouva disposer dès 1934 d'une machine mécanique à chiffrer conçue au départ (en 1919) par un hollandais pour assurer le secret des transactions commerciales. Cette machine très ingénieuse nommée ENIGMA, unique au monde, fut bien évidemment largement utilisée par l'armée allemande. L'Allemagne l'avait retirée du marché commercial mais de rares exemplaires avaient pu être achetés en Pologne et aux USA, ce qui s'avéra précieux par la suite.

Les principes de l'ENIGMA, connus en France permirent les premiers travaux visant à en décrypter les codes. La Pologne disposant, elle, d'une machine ENIGMA d'origine réalisa des prototypes d'une version militaire dénommée BOMBA. Lors de l'invasion de 1939, ils furent transmis à la France et à l'Angleterre. Et finalement tout se retrouva à Londres...

Et on alla chercher sur son campus le célèbre mathématicien Alan TURING qu'on installa dans un domaine ultra-secret, Bletchley Park, afin de travailler sur les problèmes stratégiques du Chiffre. Sa première mission fut évidemment de casser le code de l'ENIGMA. Il en réalisa d'abord une version ultra-perfectionnée opérationnelle en 1940.

Puis, en collaboration avec Maxwell NEWMAN, Turing construisit une série de machines permettant le décryptage automatique des milliers de messages chiffrés par les ENIGMAs en service dans les armées allemandes et qui parvenaient chaque jour à Bletchley Park.

La première série, celle des Robinson, démarra en 1942. Les Robinson faisaient usage de tubes électroniques et étaient pilotées par des rubans de papier. Il s'agissait de machines à calculer spécialisées sans mémoire interne mais à très hautes performances.

La critique des faiblesses des Robinson conduisit à la conception d'une nouvelle série de machines appelées COLOSSUS. Toute la conception fut revue à partir de l'expérience des Robinson. Le COLOSSUS I entra en service en décembre 1943. Il comportait 1500 tubes électroniques, l'entrée des données se faisait avec un lecteur de ruban perforé de papier à 5000 caractères par seconde (50 km/h). On verra que la Grande Bretagne aura longtemps une grande suprêmatie dans la technologie du ruban perforé.

Le succés du COLOSSUS I conduisit à la conception et à la construction du COLOSSUS II qui entra en service en juin 1944. Il comportait 2500 tubes, plusieurs lecteurs rapides en entrée, etc. Plusieurs dizaines en furent construits. Ces machines étaient à la fois plus ingénieuses et plus puissantes que le MARK I. Elles travaillaient en numération binaire, se programmaient par tableau de connexions pour des fonctions fréquemment utilisées, disposaient de plusieurs registres de calcul et même d'une instruction de branchement conditionnel selon l'idée qu'avait eue Ada Lovelace un siècle avant.

Il est incontestable que les discrètes réalisations de Bletchley Park étaient fort en avance sur les spectaculaires grandes machines américaines. On verra que certaines des idées et solutions techniques des COLOSSUS se retrouveront ultérieurement dans l'industrie informatique britannique.

Quant-à Alan TURING, qui était passé directement du College au campus de Cambridge, puis de celui-ci au domaine fermé de Bletchley Park, il fut enfin lâché dans la vie civile quelques années après la guerre. Poursuivi pour homosexualité par la justice britannique, il préféra se suicider le 7 juin 1954 en mangeant une pomme qu'il avait préalablement piquée au cyanure, pour éviter le sort d'Oscar Wilde.

L'aventure isolée de Konrad ZUSE

En 1936 un jeune ingénieur en aéronautique allemand, Konrad ZUSE (1910-1995), entreprit dans l'appartement de ses parents à Berlin la construction d'un calculateur universel automatique à programme externe réalisé en technologie à relais électromécaniques. Une autre particularité de cette machine était l'emploi de la numération binaire dont Zuse avait vu l'intérêt technique. Konrad ZUSE connaissait les travaux de Torres y Quevedo et de Schannon mais pas ceux d'Alan Turing.

Aux prises avec l'incompréhension et les aléas de la guerre, Konrad ZUSE construisit de manière quasi-artisanale entre 1937 et 1944 une série de machines électromécaniques incontestablement en avance sur toutes les autres réalisations mondiales. La plupart furent détruites lors des bombardements de la guerre. La dernière en date (V4), déménagée lors de la retraite des armées allemandes; se retrouva dans une ferme de Bavière.

Les occupants américains, qui récupéraient le potentiel scientifique et technique de l'Allemagne (en particulier dans le domaine des fusées), ne furent pas intéressés. Mais un scientifique suisse, Edouard STIEFEL, qui connaissait bien les grands travaux américains, prit contact avec ZUSE et récupéra cette réalisation pour l'École Polytechnique de Zürich (ETH) où elle entra en exploitation le 11 Juillet 1950 sous le nom de Z4.

Konrad ZUSE n'a ni inventé ni pressenti l'ordinateur. Mais ses réalisations, à mettre en parallèle avec le MARK1 sont antérieures et techniquement beaucoup plus élégantes. Il a été le premier constructeur d'une machine de Babbage à relais, binaire et travaillant de plus sur des nombres en virgule flottante (comme le préconisait Torres y Quevedo). Par ailleurs, il a défini sous le nom de Plankalkul une première forme de langage de programmation indépendant de la machine d'exécution.

Bibliographie

BRETON Philippe - Histoire de l'Informatique - Paris, La Découverte, 1987.

CARROLL Lewis (dessins de Max ERNST) - Logique sans peine - Paris, Hermann, 1966.

FONT Jean-Marc, QUINIOU Jean-Claude, VERROUST Gérard - Les Cerveaux non- humains / Introduction à l'Informatique - Paris, Denoël, 1970.

HODGES Andrew - Alan Turing ou l'énigme de l'intelligence - Paris, Payot, 1988

IFRAH Georges - Histoire Universelle des Chiffres - Paris, Laffont (Bouquins), 1994.

LIGONNIÈRE Robert - Préhistoire et histoire des ordinateurs - Paris, Laffont, 1987

MOREAU René - Ainsi naquit l'informatique - Paris, Dunod, 1981

RAMUNNI Girolamo - Louis Couffignal, un pionnier de l'informatique en France in Actes du colloque sur l'Histoire de l'Informatique en France - Grenoble, INPG, 1988

 6 

Rappels fondamentaux sur le fonctionnement

d'une machine de Von NEUMANN, ou Ordinateur

Machines de BABBAGE et Von NEUMANN

On sait que Charles BABBAGE avait défini les organes nécessaires au fonctionnement de toute machine universelle de traitement d'information.

1/ Une mémoire, dispositif inscriptible et lisible recevant les données de calcul, les résultats intermédiaires et définitifs. Dans le cas de l'ordinateur, on y trouve aussi la représentation de l'algorithme sous forme d'un programme.

2/ Un calculateur ou opérateur arithmétique et logique effectuant les opérations élémentaires nécessaires à l'exécution d'un algorithme.

3/ Des organes d'entrée/sortie destinés à recevoir du milieu extérieur les données (et programmes dans le cas d'un ordinateur) et à communiquer à l'extérieur les résultats du traitement.

4/ Un organe de commande venant chercher les instructions élémentaires, les décodant et en commandant l'exécution dans l'ordre prescrit assurant le déroulement séquentiel des opérations. Dans le cas d'une machine de Babbage, les instructions sont lues sur un dispositif externe. Dans le cas d'un ordinateur, l'organe de commande vient lire les instructions du programme dans la mémoire commune.

Par ailleurs il est nécessaire, comme BABBAGE l'avait vu, de pouvoir commander le transfert de données d'un organe à l'autre (timonerie, engrenages, portes, bus, canaux...).

Enfin on définit aussi sous le nom de mémoires externes des supports d'information gérés comme des entrées/sorties et qui contiennent des informations que le programme peut avoir besoin d'aller chercher pour s'exécuter.

La figure 1 nous montre la différence minime mais essentielle entre une machine de Babbage et une machine de Von Neumann ou ordinateur.

Dans une machine de Babbage, le programme est contenu dans un dispositif externe (ruban perforé, etc.) que l'unité de commande vient lire pas à pas pour exécuter les instructions successives qui y figurent. D'où le nom de « machine à programme externe » qu'on lui donne parfois. Dans une machine de Von Neumann, les instructions du programme sont contenues dans une zone de la mémoire où figurent données et résultats intermédiaires ou finaux. Et ces instructions peuvent elles-mêmes être l'objet de traitements comme de vulgaires données.

Dans l'unité de commande d'un ordinateur, on trouve toujours sous une forme ou une autre les organes suivants :

- Un compteur ordinal ou compteur-instruction qui contient l'adresse dans la mémoire centrale de l'instruction à exécuter,

- Un registre-instruction qui reçoit une instruction élémentaire de programme à exécuter. Ce registre est relié à toutes les portes, organes de commande, etc. des divers organes de l'ordinateur. Il comprend toujours une zone-instruction qui contient le code de l'instruction à exécuter et une zone-adresse qui peut contenir l'adresse en mémoire d'une donnée sur laquelle effectuer un traitement (entrée d'une valeur, impression vers l'extérieur, transfert vers l'opérateur arithmétique, etc.)

Le profil d'instruction définit les caractéristiques fondamentales de l'ordinateur considéré. Les codes-instruction peuvent aller d'une dizaine à plusieurs centaines. La longueur de la zone-adresse définit la taille de la mémoire qu'une seule instruction élémentaire peut aller directement adresser. C'est ce qu'on appelle mémoire interne.

Les opérations élémentaires d'un ordinateur

Dans la mesure où instructions et données sont dans la même mémoire, l'exécution d'une instruction élémentaire sur un ordinateur se décompose en général en deux cycles qui correspondent à deux accés à la mémoire. L'un va chercher l'instruction, l'autre la donnée sur laquelle cette instruction opère.

1er cycle : cycle-instruction (FETCH)

A L'adresse de l'instruction est dans le compteur ordinal

B On va chercher l'instruction à l'adresse indiquée et on la met dans le registre-instruction

C On incrémente de 1 le compteur ordinal qui contient donc l'adresse de l'instruction suivante

2ème cycle : cycle donnée-exécution (EXECUTE)

D On interprète le code instruction, le registre-instruction étant relié à travers tout un réseau de circuits logiques aux organes de l'ordinateur. En particulier l'instruction contient en général l'adresse d'une donnée à traiter.

E dans le mot-mémoire situé à l'adresse indiquée, on exécute ce que requiert l'instruction (lecture et chargement d'une donnée, transfert vers l'opérateur, écriture, etc.)

F et on revient en A pour l'instruction suivante...

Nous allons voir sur l'ordinateur le plus élémentaire comment s'exécute un programme ultra-simple.

Notre ordinateur comprend un lecteur de cartes géré par une instruction élémentaire LIR qui va lire la première carte en attente et mettre le nombre qui s'y trouve dans l'adresse-mémoire contenue dans la zone-adresse de l'instruction.

Une imprimante est gérée par une instruction élémentaire appelée ECRIR qui vient imprimer sur papier en sortie le nombre qui est dans l'adresse-mémoire spécifiée dans l'instruction.

On a un additionneur qui reçoit des opérandes, les additionne et d'où on peut sortir la somme.

Pour envoyer le contenu d'une mémoire vers l'additionneur, on dispose de l'instruction LIROP, qui vient lire le contenu de la mémoire spécifiée et l'envoie à l'additionneur. LIROP = LIRe OPérande.

Une fois les opérandes envoyés à l'additionneur, un ordre sans adresse appelé ADD vient simplement déclencher l'opération d'addition dans l'opérateur arithmétique. Il reste à récupérer le résultat.

Une instruction ECROP sert donc à écrire dans une l'adresse-mémoire spécifiée dans l'instruction le résultat de l'addition. ECROP = ECRire OPérande.

Enfin une instruction BRCH dont nous verrons toute l'importance nous sert à mettre dans le compteur ordinal l'adresse d'une instruction suivante que nous voulons imposer pour la suite du traitement. La zone-adresse de BRCH contient sera donc chargée directement dans le compteur ordinal. Une telle instruction est appelée instruction de branchement. BRCH = BRanCHement.

Bien entendu les noms donnés à ces instructions sont symboliques, En machine ce seront des nombres codes binaires. Par exemple ADD = 010, LIR = 101, ECRIR = 110, etc. (on rappelle que 3 bits permettent 8 codes différents).

Nous souhaitons écrire un programme qui vient lire des paires de cartes sur le lecteur d'entrée, en additionne deux à deux le contenu et imprime la somme sur l'imprimante. Ce programme doit se répéter sans arrêt jusqu'à ce que le lecteur de cartes soit vide.

Le programme s'écrira ainsi :

150 LIR 4    Lecture d'une carte et mise de sa valeur en 4
151 LIR 5    Lecture d'une carte et mise de sa valeur en 5
152 LOP 4    Chargement du contenu de 4 dans l'additionneur
153 LOP 5    Chargement du contenu de 5 dans l'additionneur
154 ADD      Ordre d'addition
155 ECROP 4  Recopie du résultat à l'adresse 4 (le contenu précédentute;e dans
sera donc remplacé par la somme)
156 ECRIR 4  Impression du contenu de 4 (somme)
157 BRCH 150 Retour à l'instruction située en 150 pour recommencer le;cédentute;e dans
programme en lisant les 2 cartes suivantes.

Nous l'avons chargé en mémoire à partir de l'adresse 150 (appelée a sur la figure) où il occupe 8 mots-mémoire consécutifs. Et bien entendu nous avons au départ écrit 150 dans le compteur ordinal de l'Unité de Commande. Nous avons décidé d'utiliser pour les calculs les adresses 4 et 5 de la mémoire.

      Instruction Mot4 Mot5 Compteur Ordinal
a 150 LIR   0004  0061 0000 0151 On lit sur une carte 0061
b 151 LIR   0005  0061 0037 0152 On lit sur une carte 0037
g 152 LOP   0004  0061 0037 0153
d 153 LOP   0005  0061 0037 0154
e 154 ADD         0061 0037 0155
z 155 ECROP 0004  0098 0037 0156
h 156 ECRIR 0004  0098 0037 0157 On imprime 0098
q 157 BRCH  0150  0098 0037 0150 On retourne au début en 150

Circuits & algèbre de BOOLE.

On a vu que George BOOLE avait en 1851 défini une algèbre particulière qui permettait de décrire toutes les propriétés du raisonnement logique. Cette algèbre s'appliquait à des variables qui pouvaient seulement prendre deux valeurs (faux noté 0 et vrai noté 1). Trois opérations y sont définies : réunion (ou noté " + "), intersection (et, noté " * ") et négation (pas, noté par surlignement dans le document d'origine et " - " ici). Nous en donnons rapidement les axiomes de définition :

A+1 = 1 ; A+0 = A ; A*1 = A ; A*0 = 0

A+A = 1 ; A+A = A ; A*A = 0 ; A*A = A

Associativité :(A+B)+C = A+(B+C) ; (A*B)*C = A*(B*C)

Commutativité :A+B = B+A ; A*B = B*A

Distributivité :A*(B+C) = (A*B)+(A*C)
(Double distributivité donc, A+(B*C) = (A+B)*(A+C)
ce qui est faux pour l'algèbre classique !)

-(-A) = A (deux négations valent une affirmation...)
A+(A*B) = A ; A*(A+B) = A

Et le Théorème de de MORGAN démontré à partir des axiomes :

-(A+B) = (-A)*(-B) ; -(A*B) = (-A)+(-B)

L'algèbre de Boole permettant de décrire toute opération logique, toute technologie qui en réalisera les opérations de base permettra de construire un automate logique. Or, précisément comme nous allons le montrer des dispositifs physiques réalisables simplement ont les propriétés de l'Algèbre de Boole (interrupteurs, relais, tubes électroniques, transistors..). On sait que cette remarque fondamentale fut faite par Claude SHANNON en 1937.

Bibliographie

MEYNADIER Jean-Pierre - Structure et fonctionnement des ordinateurs - Paris, Larousse, 1966, 1971...

 7 

Les « générations » d'ordinateurs :

grandes étapes des techniques électroniques

La notion de « génération » d'ordinateur

La notion de « générations » d'ordinateurs n'est pas comme on l'a dit parfois un slogan publicitaire mais résulte de la fiabilité de l'élément logique élémentaire mis en oeuvre par une technologie donnée. On définit pour un composant élémentaire (tube, relais, transistor) une caractéristique essentielle appelée MTBF (mean time between failure), temps moyen entre défaillances. De cette caractéristique on déduit le nombre maximum d'éléments de cette technologie qu'on peut rassembler dans une machine pour qu'elle puisse être utilisée entre deux défaillances d'un quelconque des éléments. Et donc on définit ainsi la taille logique maximale de l'automate qu'une technologie donnée permet de réaliser...

1re génération

La première génération est celle de l'époque héroïque des machines à tubes électroniques et à relais électromécaniques (jusqu'à 1958).

2 approches parallèles

- mécanographie

Marché très important dominé par les sociétés qui maîtrisaient la technique électromécanique des équipements à carte perforée. Mais, vu le coût élevé des matériels, l'informatique restait réservée aux gros organismes publics ou privés (administrations, banques, assurances, transports). En outre un équipement informatique nécessitait alimentation lourde, climatisation, etc.

IBM
Bull
SAMAS
Burroughs

- calcul scientifique ou militaire

Machines uniques ou en très petites séries de coût très élevé.

Recherche de Puissance de calcul

UNIVAC
IBM
SEA (François-Henri RAYMOND)
Ferranti

Technologie :

Relais électromécaniques et tubes électroniques (Lee de FOREST)

Coût très élevé des circuits logiques

Volume important, grande consommation d'électricité, fragilité (climatisation, protection)

Mémoires externes : tambour magnétique (IBM, Bull)

Invention de la mémoire à ferrites (John H. RAJCHMAN de RCA)

Traitements privilégiés : calculs importants.

Programmation difficile faisant appel à des spécialistes de haut niveau.

Deux machines très importantes de diffusion mondiale construites autour d'une mémoire à tambour sont à mentionner :
Le 650 IBM
Le GAMMA AET BULL

Un gros calculateur scientifique binaire à mot de 36 bits l'IBM 704 devient un quasi- standard dans les grands laboratoires et on y réalise le premier compilateur pour langage de haut niveau, le FORTRAN (FORmula TRANsposition) adapté ensuite à l'IBM 650.

2e génération

L'emploi du transistor (inventé en 1949 par Bardeen, Brattain & Shockley) permet de réaliser des machines bien plus fiables, moins encombrantes, plus simples d'emploi, moins coûteuses à partir du début des années 60. C'est l'emploi de transistors discrets qui définit cette 2e génération.

Deux catégories de machines d'architectures très différentes :

- Les ordinateurs scientifiques binaires rapides

- Les ordinateurs de gestion travaillant sur des données en décimal (codé binaire)

Par ailleurs, les machines étaient totalement différentes d'une taille à l'autre et il fallait réécrire tous les programmes (en assembleur) quand on devait changer de matériel pour accroître la puissance de traitement.

Le premier ordinateur à transistors fut le TRANSAC réalisé en 1954 chez PHILCO pour des applications militaires.. Aux USA, pour les usages scientifiques, l'IBM 7090 reprend avec des transistors l'architecture de l'IBM 704 et devient le gros ordinateur scientifique standard dans le monde, muni d'un bon compilateur FORTRAN. Il est intéressant de noter l'échec spectaculaire du STRETCH (IBM 7030) trop grand pour la technologie de l'époque. Chez UNIVAC (alors associé à Bull) sur une machine expérimentale construite pour le laboratoire de Livermore, le LARC, fut réalisé le premier essai de système d'exploitation.

Mais du côté de la gestion, grand succès mondial d'une machine destinée aux PME : l'IBM 1401 dont 35.000 exemplaires ont été fabriqués. Il s'agissait d'une machine de gestion spécialisée avec une unité centrale lente et conçue pour traiter des caractères et des nombres décimaux, une imprimante à chaîne, lecteur et perforateur de cartes. La bande magnétique n'y apparut que tardivement ainsi que les premiers essais de mémoire à disques (RAMAC IBM). C'est cette machine qui, malgré son architecture médiocre mais visant un bon créneau commercial, a servi de point de départ à une suprêmatie d'IBM qui a duré 25 ans.

En France, montée en puissance de Bull (alors 2ème constructeur mondial et associé à UNIVAC) et réalisation d'une machine prestigieuse d'architecture révolutionnaire en avance de 10 ans sur son temps : le GAMMA 60 destinée aux ministères et très grands organismes (SNCF, EDF).

3e génération

L'apparition en 1964 de l'IBM 360 constitue un tournant décisif dans l'histoire technique de l'informatique. Il s'agissait d'un des plus gros paris de l'histoire mondiale de l'industrie (22 milliards de francs !). Tirant parti des progrès considérables dans la technologie des semi-conducteurs IBM étudia et mit sur le marché une gamme de machines comportant un grand nombre d'innovations souhaités depuis longtemps.

Quelles étaient ces innovations ?

- Utilisation de la microprogrammation inventée par Wilkes en 1951 pour réaliser une gamme de machines ayant toutes, depuis la petite machine de gestion de PME jusqu'au géant pour banque ou grand laboratoire, le même jeu d'instructions interne.

Les instructions, câblées sur les grosses machines, étaient microprogrammées (on dit émulées) sur les petites machines.

- En outre la microprogrammation permettait d'avoir un jeu d'instructions étendu avec à la fois des instructions de calcul scientifique et destinées à la gestion (binaire fixe, flottant, décimal, caractères...). D'où une gamme unique de machines pour tous les usages.

- Un format unique de représentation des données, l'octet, soit utilisé tel quel et représentant un caractère alphanumérique, soit regroupé en mots de 32 bits ou 64 bits (pour le calcul scientifique) était utilisé partout (mémoire centrale, bandes, disques, impression, etc.)

- des canaux programmés, véritables ordinateurs spécialisés, offraient des possibilités d'entrée-sortie très évoluées.

- des instructions spéciales (SVC, Test & Set) permettaient la mise en oeuvre de systèmes d'exploitation assurant multiprogrammation, gestion efficace des ressources, etc.

- enfin le profil d'instruction prévoyait un adressage interne sur 24 bits (soit 16 millions d'octets) à une époque où les plus puissantes machines avaient 64k octets.

Alors que les premiers circuits intégrés apparaissaient, IBM avait préféré choisir une technologie de circuits à couche mince à très haute fiabilité : le micromodule. Par ailleurs, les méthodes de fabrication les plus automatisées avaient été mises en oeuvre.

IBM réalisa aussi tout un énorme ensemble de logiciels tirant parti de cette architecture (systèmes d'exploitation, compilateurs, macro-assembleur, etc.). Il faut savoir que longtemps le logiciel était fourni gratuitement avec le matériel, étant assimilé à des modes d'emploi. C'est une décision de l'administration américaine dans les années 70 qui imposa la vente séparée (l'unbundling) des logiciels, assurant ainsi le développement d'une industrie autonome.

On retrouve encore aujourd'hui des concepts du projet 360 en oeuvre dans pratiquement toute l'informatique

Le 360 assura une domination quasi-totale d'IBM sur le marché mondial de l'informatique. Les concurrents se réfugièrent dans des marchés protégés (souvent militaires) ou réalisérent des machines spécialisées à très hautes performances pour des applications de pointe (UNIVAC, CDC avec Seymour CRAY, etc.) en général en calcul scientifique. Il faut y mentionner le premier système de réservation aérienne en temps réel réalisé par UNIVAC.

L'importance de la série 360 conduisit nombre de pays, d'entreprises, à en copier l'architecture (au Japon en particulier : FUJITSU et HITACHI et aux USA : RCA, UNIVAC...)

Le mini-ordinateur

Le premier mini-ordinateur fut le PDP 8 conçu en 1966 par Edouard de CASTRO, ingénieur chez DEC. Digital Equipment Corporation est une firme créée en 1961 par un groupe d'élèves du M.I.T. pour réaliser des circuits logiques utilisables comme briques dans des systèmes de commande numériques. Puis ils en vinrent à réaliser des ordinateurs destinés aux laboratoires et programmés directement en autocodeur par des ingénieurs ou chercheurs. Trois gammes de machines toutes binaires, de longueurs de mots différents et incompatibles entre elles : 18 bits pour le laboratoire, 36 bits pour le calcul scientifique et enfin le PDP 5, une machine à mot de 12 bits pour des applications médicales.

Et Edouard de CASTRO eut une grande idée. Il avait déjà par diverses astuces réussi à construire un ordinateur qui, avec un mot de 12 bits seulement, disposait de toutes les instructions nécessaires pour effectuer tout programme en adressant un espace-mémoire interne utilisable (4096 mots).

Reprenant l'architecture du PDP 5, il conçut une machine révolutionnaire pour l'époque. D'abord montée sur une chaîne et non plus assemblée en plate-forme. Utilisant une technologie très bon marché : des composants grand public utilisés très en-deçà de leur capacité affichée et comme entrée-sortie un télétype bon marché en matière plastique (l'ASR 33). Cette machine, d'architecture très simple, et qui prit le nom de PDP 8 fut livrée avec tous ses plans et des accessoires pour la dépanner voire la modifier. Elle fonctionnant sans climatisation. On créa un club d'usagers (le DECUS) pour échanger les programmes (qui alors étaient toujours gratuits chez tous les constructeurs). Un manuel d'utilisation en livre de poche fut diffusé chez les marchands de journaux et nombre de jeunes scientifiques s'y initièrent à l'informatique. Certes le PDP 8 paraîtrait cher aujourd'hui mais pour la première fois un ordinateur quittait l'ambiance de forteresse climatisée des bureaux de calcul et des milliers d'usagers purent travailler dessus librement dans de petits laboratoires. Et pourtant, architecturalement, il s'agissait d'une machine de deuxième génération.

C'est cette réalisation qui fonda la puissance de DEC comme grand constructeur. Un mini de 3e génération à bus (le PDP 11) à mot de 16 bits lui succéda en 1970 et devint le quasi-standard mondial du mini-ordinateur. Le PDP 11 est l'ancêtre des stations de travail d'aujourd'hui. C'est sur un PDP11 que fut réalisée la première version du système UNIX. Du PDP 11 naquit le VAX.

Le microprocesseur et le microordinateur

Le microprocesseur, ensemble de circuits fondamentaux d'un ordinateur regroupés sur un circuit intégré unique, fut imaginé en 1966 à l'Université John Hopkins par Gordon E. MOORE. Sous le nom de MCS4, il regroupait quelques centaines de transistors constituant organe de commande, opérateur arithmétique et logique, portes d'échange d'un ordinateur à mot de 4 bits. MOORE travailla ensuite au laboratoire de Livermore puis fonda en 1969 la société INTEL qui réalisait des circuits intégrés à la demande. Chez INTEL, en 1971, une équipe constituée de Federico FAGGIN, Ted HOFF et Stan MAZOR réalisa le premier micro- processeur commercial (encore à 4 bits) le 4004 rapidement étendu à 8 bits sous le nom d'Intel 8008.

En Avril 1972 chez R2E, petite société française de réalisation d'automates numériques, un jeune ingénieur très dynamique, François GERNELLE, imagina de construire autour du 8008 un petit ordinateur individuel de table qu'il appela le MICRAL. Il inventa ainsi le microordinateur.

Rapidement connue aux USA où elle fit sensation, cette réalisation fut à l'origine de la création d'une pléïade de petites entreprises. Le seul marché y était celui des bricoleurs (Hobbyists) et la diffusion se faisait dans les boutiques de composants électroniques. Parmi ces petites sociétés, une d'elle se distingua par le soin apporté à la réalisation de ses produits et finit par conquérir un marché significatif : Apple. Bien présenté, facile d'emploi, muni de jeux simples, d'un mini-système d'exploitation (le CP/M), l'APPLE 2 connut un grand succès. C'était une machine à bus très ouverte, extensible construite autour d'un 8080 Intel. La tentative de réaliser une machine un peu plus chère à usage professionnel (l'APPLE 3) se solda par un échec.

Au début des années 80, IBM (qui avait manqué le rendez-vous du mini-ordinateur) prit au sérieux le succès de l'APPLE 2 et lança sur le marché avec d'énormes moyens une machine qui en reprenait les principes architecturaux (structure ouverte à bus), qui était construite autour du microprocesseur Intel 8088 et fut appelée Personal Computer (PC).

Chez APPLE, Steve JOBS s'inspirant des travaux réalisés au PARC (Palo Alto Research Center) qui était le laboratoire de recherche de Xerox, imagina un ordinateur révolutionnaire : utiliser presque toute la puissance d'un microprocesseur rapide (le MOTOROLA 6800) dans un ordinateur mettant en oeuvre les modes les plus évolués de dialogue homme-machine (écran graphique, souris, etc) et utilisable facilement par n'importe qui, sans connaissance en informatique. Appelée LISA,cette machine fut un échec commercial car trop chère, et de plus le PC IBM venait d'attaquer le marché. En catastrophe, Apple réalisa une version simplifiée du LISA, appelée Mac Intosh qui connut une grande destinée.

La 4e génération

Le développement rapide de la micro-informatique, les baisses de coût (facteur 2 tous les 18 mois) permirent la mise en oeuvre des techniques nouvelles conçues dans les grands laboratoires de recherche (MIT, PARC, Watson Center, San Jose).

On sait que depuis l'origine les progrès de l'informatique se font dans deux grandes directions :

- Augmentation de la puissance de calcul afin de pouvoir effectuer des traitements impossibles jusqu'à présent (météorologie, avionique, etc.)

- Mise en oeuvre de méthodes de plus en plus évoluées de dialogue homme-machine (graphique, interactivité, multimédia, télétraitement, décentralisation du traitement, réseaux de communication, systèmes d'hypertextes, etc.).

Et bien sûr l'évolution des coûts conduit corrélativement à une banalisation de l'informatique, l'ordinateur devenant même un appareil électroménager familial courant et le microprocesseur un simple composant électronique qu'on peut mettre partout. On sait que nous sommes dans cette phase du développement.

La future étape de l'informatique (on parle de 5ème génération) sera celle de la maîtrise des processus intelligents de tous types.

..et en France ?

On a vu le rôle essentiel joué par la maîtrise des techniques mécanographiques dans la constitution de l'industrie informatique. Or il se trouve qu'en France la Compagnie des machines BULL était le second constructeur mondial, juste après IBM. Ses équipements, légèrement plus chers, étaient au demeurant de qualité très supérieure.

Le virage de BULL vers l'informatique fut le fait d'une équipe de scientifiques conscients des enjeux historiques mais confrontés au type d'organisation financière de l'entreprise : vieille entreprise solide, cotée en bourse, fonctionnant en autofinancement, louant ses matériels et tirant le plus gros de ses revenus de la vente des consommables (cartes à perforer).

Le début des années 60 voit se développer de manière exponentielle l'industrie informatique bien que celle-ci reste limitée à la gestion des entreprises. Le carnet de commandes de BULL se remplit, de gros investissements sont nécessaires. Par sa structure BULL doit faire appel massivement au marché financier en ne garantissant que de faibles dividendes. Et en 1964 éclate l'« Affaire BULL ». Les investisseurs se jettent alors dans l'immobilier et abandonnent les placements industriels et les actions de BULL s'effondrent. D'autant plus qu'à la différence d'IBM, BULL avait négligé le marché des PME. Le groupe américain General Electric se propose de racheter BULL pour rattraper son retard et disposer d'un marché mondial. Quelques milieux isolés, conscients de l'importance historique de l'informatique tentent d'obtenir de l'État un sauvetage (participations, nationalisation). L'optique libérale l'emporte et la 4e firme française (juste après les pétroliers et l'automobile) passe sous la direction incompétente de GE. Les équipes se dispersent. Certains, passionnés par les architectures multitraitement partent vers Control Data, d'autres dans des sociétés de service qui connaissent un grand développement en France. Les auteurs du Gamma 60 qui travaillaient sur une machine qui eût été concurrente du 360 partent à la Compagnie des Compteurs de Montrouge réaliser une machine appelée Pallas. En fait dorénavant et pour longtemps, IBM n'avait en face de lui aucun concurrent sérieux.

Il fallut peu de temps pour que fût prise la mesure du désastre à la suite de circonstances imprévues. Alors dirigée par de Gaulle qui pratiquait une politique d'indépendance nationale, la France voulait se doter de l'arme nucléaire afin d'échapper à la tutelle des USA. Au nom de la politique de non-prolifération, les États-Unis prirent une série de sanctions comportant l'interdiction de livrer des équipements de haute technologie à la France. Par suite de cet embargo, le gouvernement se trouva contraint de construire une industrie française de l'informatique. Il fut mis en place un « Plan Calcul » comportant la création d'e l'IRIA, grand organisme public de recherche (devenu depuis l'INRIA), d'une grande compagnie d'informatique privée mais aidée par l'État : la CII (Compagnie Internationale d'Informatique) pilotée par Thomson et la Compagnie Générale d'Électricité. Bien entendu les applications militaires et scientifiques y furent privilégiées.

L'équipe qui avait conçu pour IBM la série 360 avait également travaillé pour RCA (le Spectra 70) et réalisé pour une petite compagnie californienne (Scientific Data Systems) un ordinateur de 3e génération de très belle architecture mais sans logiciel, orienté vers les applications militaires : le Sigma 7. Un accord avec la CII permit de récupérer cette gamme de machines, étant entendu qu'il s'agissait de la munir d'un bon système d'exploitation (ce qu'en France on sait faire). Le Sigma 7 fut rebaptisé 10070 et fut le départ d'une gamme de machines appelée IRIS (IRIS 50, IRIS 80), le système d'exploitation étant baptisé SIRIS.

Par ailleurs une industrie de la mini-informatique industrielle et militaire, fortement aidée par l'État réalisa des machines concurrentes du PDP11 dont certaines (SOLAR 16 de la Télémécanique) gagnèrent d'importantes parts du marché européen.

En parallèle était lancé un projet européen qui devait devenir UNIDATA (CII, PHILIPS, SIEMENS) et était destiné à permettre dans les années 70 l'émergence d'une grande industrie informatique européenne. La répartition des tâches mettait en oeuvre les compétences des trois participants : en France la maîtrise d'oeuvre, l'architecture des machines et le logiciel, à PHILIPS la technologie électronique, à SIEMENS les périphériques mécaniques (disques, bandes, la première imprimante xérographique bien conçue, etc.).

Une utilisation ingénieuse de la microprogrammation devait permettre à cette gamme de machines de fonctionner avec les instructions machine de la série P1000 PHILIPS, des machines SIEMENS compatibles IBM 360 et des IRIS. On a souvent qualifié le projet UNIDATA d'« AIRBUS de l'Informatique ». En même temps le célèbre MITI (Ministère de la Recherche et de l'Industrie) du gouvernement japonais lançait un plan similaire (avec d'ailleurs des choix techniques très proches)

Le succès d'UNIDATA supposait des aides publiques importantes, ce qui était le cas d'ailleurs au Japon. Or l'élection présidentielle de 1974 amena au pouvoir en France un Président ultra-libéral lié de plus à certains intérêts américains. Cette modification du rapport de forces politique entraîna en 1975 une dénonciation unilatérale par la France de l'accord UNIDATA. Cette décision, maintenant en général jugée désastreuse, fut justifiée au nom du dogme de l'orthodoxie libérale. En outre la grande crise économique (qui se poursuit toujours) débutée en 1969/1970 commençait à faire sentir ses effets et aux USA, beaucoup de firmes renonçaient à l'informatique qui demandait de gros investissements sans retour rapide de profit. (XDS, RCA, General Electric, etc.)

Il se livra une sombre bataille entre les milieux gaullistes (industries d'armement et politique colbertiste) et les milieux centristes libéraux (commerce et finance internationale). pour le partage des morceaux du Plan Calcul (CII, Télémécanique). Les marchés d'État de la CII furent attribués à la firme américaine Honeywell, propriétaire de l'ex BULL. Les prototypes et dossiers de la gamme UNIDATA furent totalement détruits sous la surveillance des représentants d'Honeywell Information Systems et un accord confidentiel (maintenant connu) engageait le gouvernement français à l'abandon définitif du projet. Thomson était lésé par cet abandon. À titre de compensation on lui livra son concurrent de La Télémécanique dont ce fut l'arrêt de mort dans l'informatique.

Dans le reste de l'Europe, PHILIPS abandonna la grande informatique, SIEMENS se tourna vers le Japon qui avait, lui, mené à bien son plan informatique national et réussi à placer trois firmes au premier plan de l'informatique mondiale. On sait que FUJITSU est le second constructeur mondial, juste derrière IBM.

Bibliographie

FAGGIN Federico - The Birth of the Microprocessor - BYTE, March 1992

JUBLIN Jacques & QUATREPOINT Jean-Michel - French Ordinateurs - Paris, Alain Moreau, 1976.

MOREAU René - Ainsi naquit l'informatique - Paris, Dunod, 1981

RAMUNNI Jérôme - La physique du calcul - Paris, Hachette, 1989

SOBEL Robert - IBM, histoire d'un empire - Montréal, L'Homme, 1984

VIEILLARD Georges - L'Affaire BULL - Paris, Chaix, 1969.

[Collectif] - Leçons d'UNIDATA - Paris, (actes à paraître), Juin 1995.

 8 

La conquète de la mémoire

L'information, le codage

Qu'est-ce que cette « information » qu'on stocke, transporte, transforme ? Tout le monde croit savoir ce que c'est. Pour le scientifique, (physicien, informaticien, etc.) l'information a une définition précise qui se réfère toujours à une modification apportée à un support matériel. Donnons-en la définition qui généralise une formulation voisine de Shannon.

L'information reçue par un système est le rapport des réponses possibles de ce système avant et après qu'on l'ait reçue.

On constate rapidement que cette notion est indissociable de l'observateur. Il s'agit d'une grandeur physique liée à un système mémoire-observateur et qui se mesure par un nombre sans dimension : En effet c'est un rapport entre deux grandeurs physiques de même nature. c'est une grandeur universelle indépendante de la nature physique du support qui la porte.

Mais de plus il est évident qu'on ne peut connaitre l'information écrite sur un objet matériel que par un système de mesure et codage de la modification que constitue cette écriture.

La mesure de l'information portée par un dispositif est inséparable du système qui sert à la lire.

Il est très important de comprendre que la quantité d'information contenue dans un objet matériel isolé n'a en elle-même aucun sens. Elle dépend de la connaissance qu'on a de la structure de la matière à un moment considéré. Il peut y avoir un univers dans l'électron...

Pour mesurer l'information on a pris un système hypothétique à deux degrés de liberté ne pouvant prendre que deux états. Et on l'a appelée bit qui est la contraction du mot anglais " binary digit " qui veut dire simplement chiffre binaire. C'est une unité internationale comme le métre ou le kilogramme. Comme son nom l'indique, le bit est représentable par un chiffre d'un système de numération à base 2.

Et nous voyons une notion essentielle : Le nombre d'états possibles décelables d'un système mesure l'information qu'il peut porter et ce système peut être utilisé pour stocker de l'information. Ce système est une mémoire.

Une mémoire peut être analogique ou numérique. Le stockage numérique suppose une représentation par un code.

Mais qu'est-ce qu'un code ?

Un code est un système conventionnel bi-univoque de représentation de chacun des éléments d'un ensemble.

La représentation d'une grandeur continue suppose une mesure qui associe les éléments d'un ensemble (centimètres, millimètres) à un codage numérique conventionnel.

La mémoire

Une mémoire est un objet physique susceptible de recevoir une modification permanente ou temporaire d'un de ses paramètres, lisible par un dispositif. C'est un support d'information. En informatique on se préoccupe de la possibilité de lire les informations à l'aide d'un dispositif artificiel qui les puisse mettre sous la forme physique utilisée par le système de traitement (signal électrique, rayon lumineux, etc).

La position d'un engrenage, d'une glissière, de perles, des trous dans du papier ou du carton furent les premières mémoires informatiques réalisées. On a exploré tous les phénomènes physiques et on continue à le faire.

* L' aimantation permanente des corps ferromagnétiques a été et continue à être très utilisée :

- tores de ferrite qui ont joué un rôle important, constituant la mémoire centrale des ordinateurs.

- surface magnétique : Bandes, tambours, disques, disquettes, cartouches, etc.

- bulles magnétiques : mémoires à bulles, disques magnéto-optiques

* Changements lisibles optiquement (Coloration, modification géomètrique, réflexion) :

- film photographique, holographie

- photochromatiques

- changements d'état cristallin

- Disque Optique Numérique (DON), CD-ROM, Optical Paper, etc.

* Régénération de signaux électriques ou sonores circulants

- lignes acoustiques à mercure, à magnétostriction

- lignes à retard électroniques,

- etc.

* Circuits électriques actifs, charges électriques, courants (bascules, ZMOS, cryotrons, etc.)

La recherche de phénomènes physiques utilisables pour réaliser des mémoires est un enjeu majeur de la recherche.

Les caractéristiques d'une mémoire.

Nous allons définir les principales aractéristiques de tout système de mémoire.

Une mémoire a un temps d'accès ou latence qui est le temps qui sépare la demande d'une infor-mation du moment où elle est disponible. Ce temps peut être :

- fixe

- variable selon la situation matérielle au moment de la demande. Dans ce cas, on définit :

- La latence maximale

- La latence moyenne (1/2 tour de disque par exemple)

La vitesse de lecture/écriture qui ne doit pas être confondue avec la latence est la vitesse de tranfert des données une fois celles-ci disponibles.

La taille en nombre de mots adressables (N) et le volume total en bits (V). Si le mot est de n bits, le volume sera V = n x N.

Le prix au bit (qui est en général en étroite relation avec la vitesse).

Évidemment, la fiabilité donne le volume maximum réalisable, l'encombrement, la consommation d'énergie, etc. sont à considérer en n'oubliant pas qu'en électronique une vitesse élevée se traduit par des impédances de circuits basses et donc des consommations en courant élevées. D'où les problèmes de refroidissement des ordinateurs rapides.

La volatilité de la mémoire est évidemment une caractéristique essentielle : c'est son comportement en l'absence d'alimentation. Certaines mémoires ont été longtemps handicapées par rapport, par exemple, aux tores de ferrite, l'information étant perdue en cas d'arrêt de la machine. Divers remèdes ont été mis en oeuvre (batteries, recopies de secours ultra-rapides, etc.).

On s'intéresse aussi à l'amovibilité de la mémoire, c'est à dire la possibilité d'en séparer le support des équipements de lecture et d'écriture (disquette, bande, dispack, DON, etc.)

La réversibilité de la mémoire, c'est à dire la possibilité d'effacer pour réécrire. On définit ainsi comme on sait les ROM (Read Only Memory), supports édités qu'on ne peut que lire, Les WORM (Write Once Read Many) où on peut écrire une fois, puis relire à volonté, les REPROM (REPROgrammable Memory) qu'on peut, hors de la machine, effacer et réécrire. Et bien entendu on a un ensemble de mémoires totalement réversibles (en général magnétiques, magnéto-optiques ou électroniques).

La lecture peut être destructive ou non-destructive. Certains dispositifs (ferrites) ne sont lisibles qu'en détruisant la donnée qui doit alors être immédiatement réécrite.

On est intéressé par la pérennité, c'est à dire la conservation de l'information sur de très longues périodes de temps (bande magnétique : 10 ans, CD-ROM : 80 ans, DON 200 ans). Bien entendu dans la pérennité un autre problème est à prendre en compte : l'obsolescence des procédés car les techniques évoluent très vite et il faut soit recopier, soit conserver en état de marche des dispositifs de lecture abandonnés.

Une caractéristique extrêmement importante est le mode d'adressage

- séquentiel : les données sont alignées à la suite l'une de l'autre et il faut faire défiler une quantité parfois importante d'information avant d'accéder à la donnée demandée. On voit que la latence peut être considérable.

- sélectif : on accède par des sous-adressages hiérarchisés. L'exemple le plus courant est celui des disques (disque, face, piste, bloc).

- aléatoire : on accède à n'importe quelle adresse dans un délai fixe. C'est la RAM (Random Access Memory).

On doit examiner la logique d'adressage :

- L'adressage localisé : une place fixe est définie par son adresse.

- L'adressage non localisé, les circuits d'adressage pouvant être modifiés dynamiquement selon les besoins du traitement (pages et base, réorganisation des bits, etc...).

- L'adressage associatif ou par le contenu (CAM : Content Addressable Memory). Ce mode d'adressage est difficile à réaliser électroniquement bien que répondant à un grand besoin pratique. Une partie des données contenues sert à retrouver instantanément l'adresse recherchée. Ce qui suppose la comparaison simultanée d'une clé d'adressage avec tous les mots de la mémoire.

On est amené à simuler la logique associative par des méthodes parfois complexes (transfor-mations de clés par « routines de conversion », adressage séquentiel indexé, etc.)

Quelques chiffres

Capacité utilisable d'un CD-ROM : 650 Mégaoctets (environ 1 bit par micron carré)

Futur CD-ROM à laser jaune (DVD) : 4,5 Gigaoctets (9 Gigaoctets en double face), fin 1996.

Disque Optique Numérique (ATG) : 12 Gigaoctets

Disquette 3" actuelle HD : 1,44 Mégaoctets

Disquette magnéto-optique (mini-disk): 140 Mégaoctets

Bande d'Optical Paper : 2 Téraoctets

Rappel :

Kilo = 1000, Méga = 1 million, Giga = 1 milliard, Téra = 1000 milliards

1 micron (μm) = 1 micromètre = 1/1000 mm,
1 angström (Å) = 1/10.000 de micron soit 10-10 mètre

OEuvres complètes de Victor Hugo : 60 millions d'octets

Annuaire téléphonique de Paris : 55 millions d'octets, de toute la France : 600 millions

Un volume de La Pléïade : 3 millions d'octets

Une grosse encyclopédie : environ 500 millions d'octets.

Le texte complet de l'Encyclopædia Universalis tient ainsi sur un CD-ROM ordinaire actuel.

Bibliographie

BOUWHUIS Gijs & al. - Principles of optical disc systems - Bristol, Hilger, 1985.

BROUSSAUD Georges - Les vidéodisques - Paris, Masson, 1984.

LELOUP Catherine - Mémoires Optiques - Paris, EME, 1987.

MATTHEWSON David - Revolutionary Technology - Cambridge, Butterworth, 1983.

ZÉNATTI Georges - CD-Rom & Vidéo-CD - Paris, HERMÉS, 1995.

 9 

Les grandes classes de langages de programmation

Tout automate séquentiel, et donc en particulier tout ordinateur suppose l'existence implicite d'un langage interne. Chaque ordre élémentaire est représenté par une information décrivant une action sur un objet physique ou une donnée.

Par suite de contraintes techniques, les ordres du langage interne d'un automate séquentiel ont en général une structure extrêmement compliquée. Ce code interne est habituellement un code binaire décodé par les circuits logiques de la machine selon les règles de l'algèbre de Boole.

L'exécution d'un algorithme sur un ordinateur se fait par l'exécution d'une suite d'ordres appelée programme. Donc :

Un programme est la suite d'ordres décrivant un algorithme pour une machine

Définition :

Un langage de programmation est un langage spécialisé non ambigu destiné à décrire des algorithmes pour un ordinateur réel ou idéal.

Comme tout langage, un langage de programmation a une syntaxe. Il comporte les éléments suivants :

Des verbes qui ordonnent une action

Des objets, données ou objets matériels sur lesquels on opère ou qu'on définit

Des attributs spécifiant la manière d'opérer

Des étiquettes permettant de repérer un endroit du texte-programme

Un langage de programmation est non-ambigu (en anglais " context-free ") : TOUT y est défini, à la différence des langues naturelles.

1er niveau : une instruction par instruction-machine physique réelle

Langage-machine

Autocodeur de base

Assembleur

2e niveau

Langages externes dépendants de la machine (1er FORTRAN)

3e niveau

Portabilité et langages indépendants de la machine

Un programme écrit en un langage de 2ème et 3ème niveau est traduit en langage-machine par un programme spécial appelé compilateur

Voici le même programme en langages de premier niveau :

Code interne Représentation en octal Autocode symbolique Assembleur
110000100    504                     LOP 4               LOP A
110000101    505                     LOP 5               LOP B
010000000    200                     ADD                 ADD
100000011    403                     ECROP 3             ECROP C

Et en langages de haut niveau :

en PL/1 C = A + B ;
en BASIC let C = A + B

Nous allons définir et caractériser les grands langages de programmation. Nous nous limiterons aux principaux car il en existe des centaines et il s'en crée chaque mois :

Les langages spécialisés :

Les premiers langages « externes » furent créés pour des domaines d'application spécialisés. La spécialisation d'un langage apparait dans les types d'objets sur lesquels il opére et le type d'opérations qu'il réalise.

Premier langage de haut niveau créé, le FORTRAN est et reste le grand langage de calcul scientifique malgré ses faiblesses syntaxiques. Pour les applications de gestion, le COBOL (COmmon Business Oriented Language) reste un standard international. Les besoins du temps réel entrainèrent la création du JOVIAL (avec primitives de synchronisation), les spécialistes d'intelligence artificielle créèrent le langage LISP (for LISt Processing) qui, entre autres, traite les relations entre objets, des congrès internationaux définirent un langage de description d'algorithmes appelé ALGOL (ALGOrithmic Language) devenu depuis PASCAL. Pour manipuler des chaînes de caractères, traiter des textes, John GRISWOLD créa le SNOBOL en 1962.

Les langages universels

L'apparition de gammes d'ordinateurs uniques pour toutes les classes d'application, le besoin de mélanger calcul scientifique et gestion de fichiers, le désir d'effectuer du traitement de listes dans des programmes scientifiques, de gérer des chaînes de caractères en gestion, etc. entraînèrent la conception de nouveaux langages de programmation offrant toutes les possibilités des divers langages spécialisés dans un langage unique. Les plus célèbres en furent le PL/1 et l'ALGOL 68.

Le PL/1 fut le langage de programmation le plus universel jamais réalisé. Il avait un gros défaut : il nécessitait une puissance de calcul énorme et beaucoup de mémoire à une époque où les gros ordinateurs n'avaient que 64k octets de mémoire ! De plus IBM en fit une arme commerciale, ce qui mobilisa contre lui tous les organismes de normalisation, enfin on avait sous-estimé le poids de l'histoire, des habitudes prises, et en particulier COBOL et FORTRAN restèrent largement en usage. De plus, dans une institution, l'usage d'un langage de programmation définit un territoire de pouvoir.

PL/1 réunissait en un seul langage dérivé d'ALGOL un système bien formalisé de gestion de fichiers (supérieur à celui de COBOL) et un bon mécanisme d'édition, toutes les fonctions de calcul scientifique (y compris sur des tableaux, des nombres complexes, avec gestion de la précision, et sur des mots de 64 bits fixes ou flottants), un mécanisme complet de traitement de listes (comme LISP), la réentrance (comme ALGOL et LISP), un jeu complet d'opérateurs pour manipuler les chaînes de caractères et de bits, des primitives de synchronisation pour gérer multitâches et multitraitement (ce qui conduisit les militaires à être les plus gros utilisateurs de PL/1). De plus le PL/1 était muni d'un macro-générateur qui permettait des extensions du langage. Par ailleurs la syntaxe de PL/1 et ses différents niveaux de codage en faisaient un langage très facile à apprendre.

Toutes ces caractéristiques conduisirent à utiliser le PL/1 (ou son dérivé le PL/S) comme langage de programmation de systèmes jusqu'au niveau des fonctionnalités élémentaires des machines. Aujourd'hui, la place du PL/1 est occupée en fait dans ce domaine par le langage C, hélas inélégant.

L'utilisation simple de certains gros progiciels (en particulier les systèmes de gestion de bases de données) conduisit à créer des langages spécialisés comportant de puissantes fonctions globales. On appelle souvent ces langages L4G (« Langages de 4e Génération >>). Le plus célèbre exemple en est le SQL, langage de commande normalisé pour les bases de données relationnelles. Le langage PROLOG conçu pour programmer les systèmes de raisonnement artificiel dits « systèmes experts » rentre dans cette catégorie, même si on a aussi utilisé les fonctionnalités relationnelles de LISP pour cet usage particulier.

Les langages interprétés sont des langages conçus pour que leurs instructions puissent être exécutées immédiatement au fur et à mesure de leur écriture par un programmeur. Leur intérêt pédagogique est évident et les langages FOCAL (créé par DEC) et surtout BASIC ont joué un rôle important. On appelle interpréteur le programme qui exécute les instructions de tels langages. Une mention doit être faite pour APL, langage interprété de haut niveau à usage scientifique, travaillant sur des tableaux de données et qui fait appel à un grand nombre de symboles spéciaux représentant ses opérateurs régis par une algèbre ingénieuse. Cela lui permettait en particulier de ne pas encombrer la mémoire centrale à l'époque où celle-ci était de très petite taille.

Les langages de commande constituent une classe particulière de langages interprétés dont les ordres visent à faire exécuter des opérations à un système matériel ou logiciel. Les instructions globales destinées à des systèmes d'exploitation en sont un exemple typique (JCL ou Job Control Language). Les progrès des matériels ont permis l'utilisation d'un langage de commande de système appelé REXX( Real Time EXecutive ). Ce langage, utilisé à la fois pour diriger de grands systèmes d'exploitation (VM, MVS) mais aussi ceux de microordinateurs (DOS, OS/2) et de stations de travail (UNIX) est par ailleurs un puissant langage de programmation.

On appelle système d'exploitation ou système de conduite (operating system) un ensemble de programmes destinés à assurer une utilisation automatisée simple et efficace de l'ensemble des ressources d'un système informatique (Entrées-Sorties, bibliothèques, écoulement des travaux, priorités, etc). Ces programmes ont été longtemps écrits en langage-machine pour plusieurs raisons : les fonctionnalités nécessaires manquaient dans les langages externes et on a besoin d'utiliser les performances maximales de la machine. Toutefois les progrès dans les langages de programmation permirent de programmer les fonctions physiques des machines en langage d'usage commode. On conçut ainsi un petit nombre de langages-système. Les plus célèbres : le PL/S qui est une extension-système du PL/1 et surtout le langage C, conçu par les auteurs du système d'exploitation UNIX afin d'assurer la portabilité de ce système sur des machines différentes. Il suffisait d'écrire un compilateur C pour chaque machine.

Les langages de programmation pour le temps réel utilisés pour programmer des systèmes industriels, militaires, etc. posent des problèmes voisins de ceux des langages-système. Il s'agit d'atteindre de hautes performances, de décrire des actions sur les dispositifs les plus divers ( des fusées aux machines-outil ) de gérer des synchronisations temporelles, etc. Le premier langage de ce type fut le JOVIAL. Le PL/1 fut beaucoup utilisé. L'armée française utilise un excellent langage non public de type ALGOL appelé LTR et l'armée américaine a fait réaliser un gros langage appelé Ada.

Les besoins de la simulation, certains problèmes de conduite en temps réel et une approche ergo-nomique ont conduit à définir une classe importante de langages, les langages orientés-objet. Ces langages associent aux objets traités un ensemble de propriétés pouvant aller jusqu'à des algorithmes qui y sont liés. Ils présentent un très grand intérêt mais posent des problèmes de mise en oeuvre efficace très délicats sur des machines monoprocesseur. L'énorme intérêt de ce type de langages pourra conduire à concevoir pour eux des architectures matérielles multitraitement bien adaptées de type MIMD. Mentionnons SIMULA conçu en Suède pour des problèmes de simulation et de conduite industrielle, SmallTalk approche originale et élégante de la programmation, C++ version orientée-objet de C, EIFFEL puissant langage orienté-objet.

On appelle macro-langage un langage de programmation spécialisé qui à partir de descriptions globales de fonctions par des macro-instructions ajoutées à un langage classique fait appel à des macro-programmes écrits au préalable et rangés dans des bibliothèques pour générer des séquences de code, parfois très importantes et résultant de traitements complexes. Lors d'une phase initiale de traitement, ces séquences de code sont placées dans le programme-source à la place de la macro-instruction et le résultat peut alors être envoyé alors à l'assembleur ou au compilateur normal. Le premier grand macro-assembleur avait été écrit pour la Série 360 et était destiné à construire automatiquement d'énormes programmes-système écrits en assembleur et taillés sur mesure pour la configuration décrite dans la macro-instruction. Une caractéristique précieuse du PL/1 était l'existence d'un macro-PL/1 permettant toute extension du langage (par exemple calcul formel, calcul matriciel, opérations graphiques, etc.).

Systèmes de conduite ( « Systèmes d'exploitation » ou "Operating Systems" )

Ils sont apparus au début des années 60 lorsqu'on a commencé à construire de gros systèmes informatiques de structure complexe, afin d'y optimiser l'usage des ressources et de tenter d'en simplifier l'emploi.

En dehors de quelques petits modules disparates, le premier système de conduite consciemment réalisé comme tel fut l'EXEC1 d'Univac pour l'Univac 3. La mémoire centrale était alors petite et extrêmement coûteuse et les entrées/sorties très lentes. On exécutait plusieurs programmes à la fois en vidant la mémoire centrale sur un tambour rapide pendant les lectures de cartes et impressions afin d'y exécuter un autre programme. Cette technique de multiprogrammation est dite de permutation ou d'échange ( plus connue sous le nom de Swapping ). Lorsque les mémoires devinrent moins coûteuses (donc plus grandes) et plus rapides, les limitations de vitesse des tambours pénalisèrent lourdement cette technique qui fut pratiquement abandonnée.

Les machines de la 3ème génération ont été explicitement conçues pour utiliser des langages de haut niveau et pour être gérées par des systèmes de conduite. Elles comportaient dans ce but des dispositifs matériels et des instructions spéciales. En même temps que le 360, IBM avait étudié un ambitieux système de conduite idéal appelé l'OS dont la réalisation s'avéra extrêmement difficile, ce qui conduisit à la commercialisation de plusieurs compromis (TOS et DOS). Univac réalisait (toujours en swap) l'EXEC II pour la série scientifique 1107, 1108, etc.

Aujourd'hui on appelle Système de conduite ( Operating System ) un

ensemble de programmes conçus dans le cadre d'une philosophie cohérente d'utilisation d'où découlent des règles strictes de normalisation, et destiné à utiliser d'une manière simple, efficace et sûre toutes les ressources d'un système.

Quelles sont ces ressources ?

- Unité de traitement/calcul

- Mémoire centrale rapide (et chère)

- Mémoires externes

- Entrées/sorties

- Bibliothèques (programmes, sous-programmes, macros, etc.)

Les différences considérables de vitesse et d'occuopation entre les différents organes conduisent à faire utiliser les ressources rapides et coûteuses par plusieurs utilisateurs ou travaux en même temps afin d'utiliser les temps d'attente imposés par les opérations mécaniques (impression, etc.).

On parle de multiprogrammation lorsque plusieurs utilisateurs totalement indépendants travaillent en même temps sur un système, et de multitâches lorsqu'un utilisateur utilise lui-même dans son programme ses temps d'attente E/S pour effectuer une partie de ses calculs.

Donc dans un ordinateur moderne l'utilisateur n'a pas accès directement aux ressources physiques de la machine. Il les utilise par l'intermédiaire de méthodes d'accès en passant par un noyau ou superviseur. Implanté dans une zone protégée de la mémoire ce superviseur exécute directement les opérations privilégiées de la machine selon les requètes qui proviennent des utilisateurs en général à l'aide d'une instruction spéciale appelée pratiquement partout SVC.

Les opérations privilégiées interdites aux utilisateurs sont bien entendu les entrées/sorties physiques, la gestion de la protection de la mémoire, les actions directes sur les registres centraux, etc.

Ce sont les méthodes d'accès des systèmes de conduite qui permettent à un usager d'ignorer les opérations souvent très complexes nécessaires pour gérer les innombrables dispositifs d'entrée/sortie. On appelle pilote ( handler ou driver ) le module-système qui assure la gestion d'un périphérique particulier à partir de requètes simples normalisées.

La baisse du coût de la mémoire a permis d'abandonner le système pénalisant du swap. en faisant résider dans des zones différentes de la mémoire centrale plusieurs programmes indépendants. Mais pour des programmes de très grande taille on a réalisé une variante du swap appelée mémoire virtuelle (Burroughs en 1968 adopté par IBM en 1974) permettant de donner à l'usager la disposition d'une mémoire directement adressable de taille supérieure à la taille physique disponible, en utilisant une extension sur disque gérée automatiquement.

Bibliographie

BOUZEGHOUB Mokrane, GARDARIN Georges, VALDURIEZ Patrick - Les Objets - Paris, Eyrolles, 1997.

MEYER Bertrand & BAUDOIN Claude - Méthodes de programmation - Paris, Eyrolles, 1978.

MOREAU René - L'approche objets, concepts & techniques - Paris, Masson, 1995.

PETERSON Wesley - Introduction to programming languages - Englewood Cliffs, Prentice-Hall, 1974.

SAMMETT Jean H. - Programming Languages : history & fundamentals - Englewood Cliffs, Prentice-Hall, 1969. Cet ouvrage fondamental est régulièrement mis à jour sous forme d'articles dans la presse scientifique spécialisée.

SITBON Evelyne & André - Les structures de listes - Paris, Masson, 1974.

 10 

Le dialogue homme-machine :

de la carte perforée à la réalité virtuelle

On a vu que les progrès de l'informatique ont porté dans trois grandes directions :

- Abaisser les coûts afin de pouvoir traiter automatiquement les problèmes les plus courants,

- Accroître la vitesse et la taille pour traiter de grands problèmes nouveaux (météo),

- Rapprocher la machine de l'homme :

- Temporellement par l'accroissement de la vitesse et le partage de temps (time sharing),

- Géographiquement par la disponibilité là où on a besoin (télétraitement),

- Conceptuellement par une adaptation aux sens et à la logique humains.

L'époque héroïque

Les ordinateurs de la première génération étaient coûteux, fragiles, encombrants et d'une fiabilité très réduite. On était bien content d'avoir réussi à les faire fonctionner mais il fallait se plier à leur rythme, à leur environnement et leur donner leurs informations sous les formes qu'on savait lire automatiquement : codification sommaire sur des cartes perforées, impression de mauvaise qualité en majuscules avec des équipements issus de l'industrie mécanographique. Sur les premières machines, le traitement dépendait de la lecture des données et de l'impression des résultats aussi a-t-on longtemps recherché la plus grande vitesse des organes d'entrée/sortie afin d'utiliser au mieux la ruineuse unité de calcul. On sait que les grandes sociétés d'informatique se sont dévelop-pées à partir d'une haute maîtrise technique de la mécanographie à cartes (lecteurs/perforateurs de cartes, tabulatrices imprimantes).

Donc :

- centralisation des traitements auprès d'une machine de coût gigantesque

- alimentation de la machine à son rythme (batch)

- données sur cartes perforées et impression sur des papiers en paravent (listing)

Les premiers centres de gestion informatique comportaient donc de grands bâtiment climatisés et ultra-protégés, dans lesquels des armées de perforatrices perforaient à longueur de journée sur des cartes des données de toutes sortes provenant de partout (chèques, factures) pour alimenter le monstre.

Télétraitement, partage de temps, consoles alphanumériques et graphiques

Depuis les années 60, les modes de communication ont connu des progrès continus ininterrompus qui rendirent l'informatique transparente, conviviale, familière et mirent fin aux effroyables servi-tudes imposées par les premiers équipements.

Certaines applications demandèrent la transmission à distance de données et on utilisa les réseaux téléphoniques sur lesquels on transmit des signaux numériques en modulant et démodulant à l'aide de dispositifs appelés MoDems. On se contenta d'abord de mettre à distance les imprimantes et unités de cartes (remote batch).

Les systèmes d'exploitation permettant le multitâches, la multiprogrammation, le partage en temps de l'unité centrale, la mise en file d'attente interne (spool) des données et résultats à lire ou imprimer permirent de dissocier les entrées/sorties du traitement. Et l'accroissement de vitesse des machines permit enfin un travail interactif en ligne dit « en temps réel » à l'aide de machines à écrire connectables.

Et la conjonction de ces deux techniques permit le télétraitement. Introduit progressivement dans les années 60, d'abord pour la réservation aérienne (UNIVAC) puis pour l'accès décentralisé des agences bancaires, cabinets d'assurances aux ressources centrales (IBM). Longtemps ne furent utilisées que des machines à écrire électriques connectables. En effet la console vidéo alphanumérique mit très longtemps à s'imposer.

Les premiers systèmes de visualisation à tube cathodique utilisaient les balayages cavaliers (flying spot) propres à afficher des graphiques. C'était utilisé sur de grands calculateurs scientifiques et on se servait de tubes circulaires de radar. La société de grands ordinateurs scientifiques CDC (Control Data Corporation) est ainsi issue d'une société spécialisée dans de tels systèmes et alors appelée DD (Data Display). Les caractères alphanumériques étaient dessinés sur l'écran par le faisceau électronique commandé par des plaques de balayage. Un dispositif appelé photostyle (light pen) permettait un dialogue simple. Il jouait le rôle de la souris d'aujourd'hui.

L'utilisation du balayage de télévision (raster scan) si courant aujourd'hui apparut tardivement par suites de difficultés de mise en oeuvre électronique. En outre la vitesse électronique rendait plus difficile l'emploi du photostyle. De plus vidéo et informatique étaient des domaines techniques bien séparés.

Comme la mémoire était très chère, on dut concevoir des dispositifs électroniques de génération de caractères parfois très complexes (masques dans le tube, ferrites tissées, etc. ).

On sait que la souris, inventée par Douglas ENGELBART permet d'assurer une interaction simple avec tous dispositif d'affichage (même statiques à cristaux liquides), étant en connexion non avec l'image vue mais avec la mémoire-image elle-même.

Les dispositifs d'affichage graphique connaissent des développements rapides (cristaux liquides en vision directe ou à projection, etc.) maintenant que s'est faite la conjonction totale de l'informatique et de l'audio-visuel.

Dialogue en langue naturelle, reconnaissance de la parole, lecture des textes manuscrits.

Les idées des années 60 sur l'absence de limitation dans l'intelligence des ordinateurs conduisirent à aborder de grands problèmes comme la traduction automatique mais aussi à envisager de donner des ordres aux machines en langue naturelle, d'abord écrite. On connait les échecs rencontrés et leur cause. Par contre la synthèse automatique de textes, problème plus simple, a fait de grands progrès (Laurence DANLOS, Jean-Pierre BALPE).

La reconnaissance de la parole, la lecture automatique des textes manuscrits posent les mêmes problèmes théoriques. Leur solution conduit à faire appel à d'autres classes d'automates que les ordinateurs. Par contre la synthèse automatique de la parole à partir d'un texte écrit en français est réalisable avec des programmes quasi-parfaits (Christel SORIN & Danièle LARREUR - CNET Lan-nion) qui donnent une bonne prosodie à partir des ponctuations, lèvent les ambiguïtés simples, etc.

La lecture automatique des textes imprimés est actuellement réalisée par des logiciels largement répandus qui s'améliorent de jour en jour. Il convient de rendre hommage au grand scientifique René de POSSEL qui construisit et fit fonctionner en 1969 la première machine à lire automa-tiquement les textes imprimés. Il découvrit alors des problèmes bien connus d'ambiguïté qu'on lève à la fois par des techniques neuronales d'apprentissage et par la correction grammaticale automatique.

De l'imprimante à chaîne à la xérographie

De l'imprimante issue de la mécanographie on est passé à des imprimantes graphiques donnant aujourd'hui des travaux sur papier sans limitation de qualité.

De grandes étapes : les imprimantes à aiguilles apparurent chez PHILIPS dans les années 60 avec un succès très limité.

Mais les grands progrès vinrent des imprimantes graphiques sans impact.

Mentionnons rapidement les imprimantes électrostatiques à mouillage maintenant abandonnées, et surtout l'imprimante xérographique. Les premières imprimantes xérographiques furent réalisées en angleterre en 1964 par XEROX et coûtaient * 200.000 (!). Seuls quelques grands services publics anglais les utilisèrent. Le passage dans le domaine public des brevets Xerox en 1975 permit la mise en vente chez IBM et chez SIEMENS des premières vraies imprimantes xérographiques largement utilisées dans les grands centres.

Il faut souligner le rôle important du Japon dans le développement des imprimantes graphiques. La nécessité d'imprimer des idéogrammes kanji en bureautique a servi de base à une puissante industrie.

La conjonction des logiciels typographiques professionnels pour composeuses optiques à laser sur film et des logiciels de traitement de textes permet maintenant de populariser les moyens de com-position de haute qualité, mais bien entendu confronte un vaste public d'usagers aux problèmes de la composition typographique et de la mise en pages qui impliquent une très haute compétence...

Les imprimantes graphiques à micro-jet d'encre sont plus lentes mais permettent pour des prix très bas des impressions en couleur de haute qualité. La première fut réalisée à l'université de Lund, en Suède, en 1967.

L'informatique documentaire, du fichier à l'hypermédia

La mécanographie (y compris à cartes) a toujours fait usage de fichiers. Collection d'enregistre-ments sur supports informatiques jouant le rôle des fiches en carton rangées dans des tiroirs et consultées manuellement. Le traitement de ces fichiers constitue une grande partie des travaux de l'informatique de gestion (mises à jour, consultation, recopie, tri et fusion, interclassement, etc.). Et l'organisation des données sur les mémoires externes a connu et continue à connaître une évolution continue au fil des progrès techniques et conceptuels.

Du fichier (représentation interne) on est passé à la base de données, d'abord hiérarchisée et organisée pour un type particulier de traitement. Une démarche de généralisation a conduit aux concepts de base de données relationnelles, de base de donnée chaînée, et plus récemment de bases de données orientées-objet. On a créé également des langages spéciaux d'interrogation (SQL) et on travaille sur l'interrogation en langue naturelle.

Par ailleurs, les capacités des mémoires permettaient de stocker non seulement des noms, chiffres, codes simples mais aussi des documents en texte intégral. Et sont ainsi nés les systèmes documentaires en texte intégral. D'abord pré-structurés selon des systèmes de classification jamais universels, ils connaissent une double évolution décisive :

- la constitution de systèmes hypertextes permettant de cheminer librement dans le corpus brut, d'y repérer des endroits, de les associer à d'autres, d'y mettre ses commentaires, etc.

- le stockage non seulement de textes mais aussi de sons, d'images fixes ou animées multimédia qui s'appellent hypermédias quand on peut les consulter, y travailler comme sur un hypertexte.

Les hypertextes et hypermédias posent des problèmes complexes de dialogue homme-machine dont la solution fait l'objet de nombreuses recherches actuelles.

La fusion entre le cinéma, la télévision et l'informatique :

la révolution du numérique, le multimédia

Les progrès naturels de l'Informatique débouchent sur véritable révolution dans la communication.

L'informatique est conduite à représenter sur un support unique tous les types d'informations : textes, sons, images fixes ou animées, etc. et d'être munie de dispositifs d'entrée/sortie aptes à les communiquer à un humain. C'est ce qu'on appelle multimédia.

L'ordinateur impose pour toutes les données la numérisation ou représentation de toutes les informations sous forme de tables numériques stockées en mémoire mais aussi sur des supports divers (Le disque compact en est un bel exemple). D'une part ce mode de représentation des données conduit naturellement à tout mettre sur les mêmes supports (CD-ROM, vidéo CD). Mais surtout les données ainsi représentées deviennent accessibles aux immenses possibilités des moyens modernes de traitement d'information. On peut rechercher, transformer, identifier, comparer, trier n'importe quoi. Mentionnons aussi qu'une information numérisée peut être conservée indéfiniment sans dégradation.

Enfin le développement des réseaux de communication à large bande (inforoutes ou << autoroutes de l'information » ) donne bien entendu une dimension nouvelle à cette révolution.

Le fait que l'image informatique numérique ait rejoint en qualité et coût l'image analogique sonore et animée du cinéma et de la télévision constitue une révolution qui en fait était prévue par les spécialistes de l'informatique depuis de nombreuses années mais méprisée par les gens de l'image car ils ne pensaient pas que les progrès tant techniques (microélectronique, mémoires optiques, fibre optique) que conceptuels (algorithmes de compression) seraient si rapides. On sait que les standards de télévision analogique à haute définition (MUSE et D2MAC) en sont morts-nés.

L'interactivité est la capacité pour l'utilisateur non seulement de cheminer librement dans l'ensemble des connaissances qui lui sont présentées, mais d'intervenir, de dialoguer de diverses manières avec le système : souris et clavier bien sûr, mais aussi voix, gestes, etc.

La réalité virtuelle, forme supérieure du dialogue homme-machine.

Les moyens de s'adresser à tous les sens humains en conjonction avec les techniques de modélisation (issues des besoins de l'architecture et des bureaux d'études) ont permis l'émergence du concept de réalité virtuelle. Il s'agit, opérant sur tous les sens d'un individu à l'aide de dispositifs ad-hoc (lunettes électroniques, écouteurs, gants, exosquelettes, orthèses, voire plate-forme animée, etc..) de lui donner l'illusion totale de se trouver dans un univers imaginaire modélisé dans l'ordinateur. Ces équipements, développés au départ pour l'entraînement de pilotes, de cosmonautes, constituent la forme actuelle la plus totale de communication homme-machine. Nous n'insisterons pas sur leurs applications artistiques, didactiques, ni sur les problèmes éthiques posés par leur usage. Mais, après tout, le cinéma à ses débuts posa les mêmes.

Bibliographie

BALPE Jean-Pierre - Hyperdocuments, hypertextes, hypermédias - Paris, Eyrolles, 1990.

BALPE Jean-Pierre, LELU Alain, PAPY Fabrice, SALEH Imad - Techniques avancées pour l'hypertexte - Paris, HERMÉS, 1996.

BRETON Philippe - Histoire de l'informatique - Paris, La Découverte, 1987

FONT Jean-Marc, QUINIOU Jean-Claude, VERROUST Gérard - Les Cerveaux non- humains / Introduction à l'Informatique - Paris, Denoël, 1970.

GAUDIN Thierry - Rapport sur l'état de la technique - Paris, C.P.E., 1983.

LÉVY Pierre - Les technologies de l'intelligence - Paris, La Découverte, 1990.

NEGROPONTE Nicholas - l'Homme Numérique (Being Digital) - Paris, Laffont, 1995.

NELSON Theodor H. - Computer lib'/Dream machines - Chicago, Hugo's, 1974.

NEUVILLE Yves - Le clavier bureautique et informatique - Paris, Nathan, 1985.

VERROUST Gérard - Hypertextes et hypermédias - Paris, Mémoire Vive n°4, 12/1990.

 11 

De la Cybernétique à la Systémique

Automates neuronaux & connexionnistes.

La Cybernétique des années 50

On sait que dans les années 50, il était admis que toute intelligence pouvait être décrite formel-lement et simulée par des systèmes logiques. Par ailleurs la science des systèmes de commande automatique (en général par des asservissements analogiques) se développait sous le nom de cybernétique. Si, chez nombre de scientifiques les systèmes logiques et les asservissements faisaient partie d'une même démarche, les domaines techniques concernés étaient profondément séparés et il fallut attendre les années 70 pour que puissent se faire les premières véritables colla-borations, qui nous paraissent pourtant naturelles aujourd'hui, entre informaticiens et automaticiens.

Les automates neuronaux

Nous avons vu que dans les années 40, de grandes recherches se faisaient à la fois sur les grandes machines à calculer numériques, analogiques, et naissait l'idée de la réalisation d'un cerveau artificiel. Par ailleurs,les physiologistes se posaient le problème de l'emploi de ces recherches pour comprendre le fonctionnement du système nerveux.

On pensait alors que toutes les opérations de la pensée pouvaient être décrites par l'algèbre de Boole puisque toutes pouvaient faire l'objet d'algorithmes.. Et donc que toutes les propriétés du cerveau pouvaient être décrites par l'algèbre logique. Les recherches étaient très ouvertes, l'ordinateur n'avait pas été inventé. Et à partir de ce qu'on savait alors de la structure du système nerveux et des propriétés du neurone qui en est le constituant, Mac CULLOCH & PITTS conçurent en 1941 un modèle logique de neurone réalisable artificiellement.

Le neurone est une cellule vivante connectée au milieu environnant par d'une part des dendrites qui reçoivent des informations et d'autre part une longue fibre transmettrice, l'axone qui peut aller agir loin sur les dendrites d'autres neurones. Les liaisons axone- dendrite sont appelées synapses. Lorsqu'une majorité de dendrites a été excitée, le neurone « flashe », s'active entièrement et envoie un signal sur son axone, lequel va le transmettre aux diverses synapses donc aux dendrites d'autres neurones. Par ailleurs certaines dendrites dites inhibitrices ont un effet soustractif. Ce modèle ultra- simple rend suffit à rendre compte des propriétés d'une classe de systèmes artificiels de stockage et traitement d'information appelés automates neuronaux.

Fig;1

Schéma de principe du neurone

Fig.2

Le neurone artificiel de Mc CULLOCH & PITTS

On peut voir qu'un réseau constitué d'un grand nombre de neurones interconnectés peut avoir des propriétés de mémorisation par établissement de boucles actives, et de traitement selon les actions préalablement reçues, etc.

Un automate neuronal est donc constitué d'un ensemble de neurones judicieusement connectés. Des organes d'entrée attaquent les dendrites d'une couche d'entrée à partir du milieu extérieur. Les impressions reçues structurent ainsi le réseau. Une couche de sortie donne des signaux en fonction des impressions reçues. Et là, les entrées inhibitrices des neurones jouent leur rôle. Si on est mécontent du résultat, on « punit >> le système en agissant sur un certain nombre d'entrées inhibitrices, ce qui aura pour effet de désactiver un certain nombre de boucles de mémorisation. Donc on ne programme pas un automate neuronal, on le conditionne par une procédure d'apprentissage qui construit sa structure interne. Si un automate neuronal est bien structuré, il y a une relation entre le nombre de neurones qu'il comporte, la complexité du problème posé et la probabilité d'erreur de sa réponse, une fois effectuée la phase d'apprentissage complète. Reste à définir la structure (interconnexions, nombre de couches, etc..) et là tout se complique. Résumons les grandes étapes des travaux.

La première grande question qui s'est posée est celle de la stabilité ou convergence de l'automate vers un état stable. Et au début des années 60, on introduisit la règle de HEBB stipulant que si deux neurones interconnectés sont validés en même temps par leurs autres conditionnements, alors leur liaison est renforcée. On introduit donc une pondération qui assure la stabilité. Puis pour assurer une stratégie d'apprentissage efficace, une règle de rétropropagation faisant remonter en interne les résultats corrects ou erronés. Plusieurs réalisations célèbres : les neuromimes de HARMON, l'ILLIAC III de Mac CORMICK et surtout en 1962 le Perceptron de ROSENBLATT. C'est un automate neuronal à 3 couches :

- senseurs à l'entrée,

- couche intermédiaire d'association/analyse qui se structure à l'apprentissage,

- couche de décision/sortie du résultat.

Pour des raisons techniques, on ne put réaliser aucun modèle de perceptron présentant un intérêt pratique : il eût fallu assembler des dizaines de milliers de neurones, ce qu'on ne savait pas faire. On a simplement fait des simulations, traité des cas simples et résolu ainsi des problèmes booléens.

Puis on rencontra le fameux Hard Learning Problem, classe de problèmes très simples que le perceptron ne pouvait résoudre. Cette analyse a été faite par Mervin MINSKY et Seymour PAPERT en 1969. Le perceptron est en particulier incapable de reconnaitre convexité et concavité de figures très simples, et la parité/symétrie.

Plusieurs solutions ont été trouvées : changement de règles d'apprentissage (Machine Adaline de George WIDROW) puis dans les années 80 les architectures à couches cachées multiples à plusieurs niveaux d'interconnexion, plus conformes aux modèles vivants (Daniel RUMELHART, Françoise FOGELMAN).

Nous sommes en présence d'automates dont la structuration interne est tellement complexe qu'on est incapable de calculer l'état de tel ou tel neurone. Actuellement :

- Aucune régle rigoureuse d'architecture : on ne sait pas déterminer les relations entre la structure du réseau, sa taille, la complexité du problème résolu

- On ne sait pas prévoir la convergence liée à telle ou telle procédure d'apprentissage.

On a donc tenté de mettre en oeuvre des règles scientifiques de structuration des réseaux neuronaux, en particulier à partir de lois biologiques. C'est ainsi qu'est né le Modèle de Hopfield (défini en 1982 par John HOPFIELD, biologiste travaillant à la BELL Téléphone). Ce modèle définit le réseau à partir de lois fondamentales de la biologie théorique :

- la recherche de l'énergie minimum

- la recherche d'états stables avec autocorrection d'erreurs et reconstitution de données manquantes.

Ceci conduisit à un très haut niveau de parallélisme et à une logique d'adressage par le contenu. Le modèle de Hopfield met en oeuvre les règles d'autoorganisation des systèmes (Ilya PRIGOGINE) et a permis de retrouver sur un système artificiel des phénomènes connus en psychologie. Enfin on introduisit des méthodes issues de la physique statistique pour permettre la recherche d'un vrai optimum et pas d'un optimum local, problème bien connu aussi en automatisme industriel.

Un progrès décisif fut accompli en 1984 par Teuvo KOHONEN, travaillant à Helsinki sur la vision et l'audition. Il proposa à partir de lois biologiques un modèle qui donne à ses neurones des fonctions d'estimation non-linéaires et par ailleurs montra l'intérêt de neurones spécialisés avec des relations différentes selon les couches. Il établit également une règle de filtrage qui conduit à une stratégie auto-adaptative des réseaux. Son réseau fonctionne effectivement dans des systèmes de reconnaissance automatique de la parole.

Aujourd'hui les recherches portent sur :

- Les structures d'interconnexion (prédiction, critères de séparabilité, localisation des informations),

- des phénomènes physiques ayant des propriétés voisines de celles des neurones vivants (en tant qu'outils conceptuels, moyens de simulation, moyen de réalisation d'automates),

- une meilleure connaissance des neurones vivants,

- de nouvelles branches des mathématiques pour modèles élémentaires et propriétés globales,

- les travaux de psychologie sur la modélisation des apprentissages,

Et enfin et surtout on réalise physiquement des modèles de grande complexité dont la simulation sur ordinateur est impossible et on arrive à une science expérimentale portant sur des systèmes fabriqués par des humains, ce qui est nouveau.

L'histoire de l'intelligence artificielle de 1940 à aujourd'hui a été conditionnée d'une part par des débats philosophico-théoriques conduisant à des décisions politiques parfois désastreuses, d'autre part par les progrès de la technique. Les grands échecs rencontrés dans la solution par ordinateur de certains problèmes simples conduisirent à l'arrêt total du financement de multiples recherches par extension abusive à tout système artificiel des limitations données par les théorèmes de Gödel et de Church. Il fallut le renouveau de la pensée mathématique contemporaine pour que fussent définies sur des bases nouvelles les relations entre le monde naturel et les formalismes mathématiques abusivement généralisés. Et l'oeuvre d'Ilya PRIGOGINE joua un rôle essentiel en libérant les recherches d'interdits absurdes. Par ailleurs, le développement de la microélectronique impulsé par l'industrie informatique permet maintenant la réalisation de réseaux neuronaux de taille utilisable. Il faut savoir que le cerveau humain contient environ 100 milliards de neurones.

Le connexionnisme et ses perspectives

L'étude, la réalisation, la modélisation des automates neuronaux constituent un domaine majeur de la recherche en informatique appelé connexionnisme, cette classe d'automates étant aussi appelés automates connexionnistes. Technologie des interconnexions, algèbres à n états, phénomènes physiques non formalisables isomorphes des neurones vivants, théories de la stabilité, de la complexité, de l'apprentissage, de l'autonomie, bionique, neurophysiologie, biologie fondamentale, etc. sont mis à contribution et conduisent à définir un nouveau domaine de savoir recouvrant de multiples disciplines séparées voire antagonistes. Et la cybernétique réapparait sous la forme d'une étude généralisée des systèmes autonomes et de leurs interactions sous le nom de systémique.

Bibliographie

ALEKSANDER Igor & MORTON Helen - An introduction to neural computing - London, Chapman & Hall, 1990.

ANDREEWSKY Évelyne - Systémique & Cognition - Paris, DUNOD, 1991.

COUFFIGNAL Louis - La Cybernétique - Paris, P.U.F., 1959.

DAVALO Éric & NAÏM Patrick - Des réseaux de neurones - Paris, Eyrolles, 1989.

FONT Jean-Marc, QUINIOU, Jean-Claude & VERROUST Gérard - Introduction à l'informatique/Les cerveaux non-humains - Paris, Denoël, 1970.

GUILBAUD G.-Th. - La Cybernétique - Paris, P.U.F., 1954.

JAIN Anil K., MAO Jianchang, MOHIUDDIN K.M. - Artificial Neural Networks - New York, IEEE Computer (Special issue on Neural Computing) , pp. 31-44, March 1996.

JODOUIN Jean-François - Les réseaux de neurones - Paris, HERMÈS, 1994.

KLAUS Georg - Kybernetik in philosophischer Sicht - Berlin, Dietz, 1961.

Mc CULLOCH W.S. & PITTS W. - A logical calculus of the ideas immanent in neuron activity - New York, Bulletin of Mathematical Biophysics, 1943.

PRIGOGINE Ilya & STENGERS Isabelle - La nouvelle alliance - Paris, Gallimard, 1979.

TARJAN Reszo - Neuronal Automata - Namur, 2e congrès de Cybernétique, 1958.

VARELA Francisco - Connaître les sciences cognitives - Paris, Seuil, 1988

VERROUST Gérard - De la maîtrise du feu à la révolution de l'intelligence - Paris, M.U.R.S., 1984.

 12 

Calcul en temps réel, conduite de processus industriels

et Robotique

L'Informatique en temps réel

Qu'appelle-t-on informatique en temps réel ? C'est le

mode de fonctionnement d'un ordinateur qui effectue sur des informations en provenance du milieu extérieur des traitements dont les résultats sont nécessaires à la poursuite d'un travail dans ce milieu.

Donc ce qu'on désigne par informatique en temps réel, c'est la conduite plus ou moins automatisée d'un processus physique plus ou moins complexe par un ou plusieurs ordinateurs directement connectés au système à conduire par un ensemble de codeurs (encoders) et d'actionneurs (actuators). Un ordinateur ainsi employé est dit en-ligne (online) et on parle de temps réel lorsque l'ordinateur réagit sur le système à piloter selon les données qu'il a mesurées afin de réaliser au mieux un objectif qui lui a été confié.

Ce mode d'utilisation des ordinateurs est celui qui a les conséquences sociales les plus profondes. Il s'agit en effet de l'utilisation directe des ordinateurs dans la production, c'est à dire de la réalisation automatique de tous les algorithmes auparavantmis en oeuvre par des producteurs vivants. Par ailleurs il exige des systèmes informatiques un ensemble de caractéristiques particulières bien définies que nous allons examiner.

Montrons sur un exemple simple ce que doit faire un système informatique travaillant en temps réel. (fig. 1).

Soit un engin d'exploration spatiale M muni de fusées de correction de trajectoire télécommandables par radio. On a lancé l'engin, mais il faut le mettre sur une orbite stable afin qu'il ne retombe pas ni ne soit perdu. On ne connait sa position et sa vitesse que par des antennes A1 et A2 situées à des milliers de kilomètres. Un ordinateur situé en C reçoit ces informations et doit en fonction des lois de la mécanique céleste déterminer la meilleure trajectoire souhaitable pour M. Puis il doit calculer les corrections à appliquer aux fusées correctrices pour y parvenir. Enfin il doit envoyer vers M les ordres à appliquer à ces fusées. Et le tout en tenant compte des temps de transmission.

On voit que si le temps de calcul de C est trop grand, M peut prendre une trajectoire telle que la puissance des fusées de correction est insuffisante et M est perdu. Un traitement en temps réel implique une contrainte de temps absolue. C'est le milieu extérieur qui impose ses conditions de fonctionnement.

Donc un système en temps réel fait intervenir la vitesse d'évolution du processus à commander (fusée ou pont roulant) et la complexité du traitement déterminant les ordres à appliquer.

Dans notre exemple, on peut gagner du temps en répartissant les traitements : effectuer en A1 et A2 par des ordinateurs locaux un pré-traitement sur les mesures angulaires. Avoir à bord de M un ordinateur qui calcule les ordres matériels locaux, etc. Nous avons alors affaire à un ensemble de processus coopérants, ce qui est habituel dans ces classes d'applications.

Si pour des raisons financières les premiers systèmes en temps réel ont été réalisés pour des applications militaires, spatiales ou pour la recherche lourde, leur domaine d'application s'est progressivement étendu à l'ensemble de l'univers technique, conduisant à un bouleversement profond de toute la production.

La mise en oeuvre des systèmes de conduite

La mise en oeuvre des ordinateurs dans la conduite de processus s'est effectuée selon trois grandes étapes.

D'abord des tâches de surveillance centralisant un grand nombre de mesures et en pré- sentant le résultat sous une forme synthétique à l'opérateur chargé de conduire le processus. Un grand nombre de calculs, conversions de paramètres, tests de seuils de sécurité, etc. visent à permettre à l'opérateur d'agir avec pertinence. Les commandes restent manuelles.

Ensuite une seconde étape a consisté à agir sur le processus par l'intermédiaire du calculateur. L'opérateur agit sur des commandes globales (manche à balai, etc.) et ses ordres sont traduits en commandes élémentaires vers divers organes afin d'obtenir l'action désirée. On parle de pilotage assisté.

Enfin lorsque d'une part la fiabilité et le coût de l'informatique le permettent et que d'autre part on a une bonne connaissance des lois du processus (modélisation formelle, empirique, etc.) on passe à la conduite automatique, l'opérateur se contentant de donner soit préalablement soit pendant le processus, des consignes globales.

Problèmes et besoins de l'informatique en temps réel

Un système informatique de conduite de processus en temps réel a des besoins spécifiques parfois poussés dans les domaines suivants :

- Vitesse sidérale de traitement,

- Gestion de tâches, d'activités simultanées, synchronisation, gestion d'interruptions,

- Entrées/sorties de grandeurs physiques très diverses à l'aide de dispositifs parfois très complexes,

- Moyens de dialogue homme-machine évolués pour une ergonomie adaptée à des pratiques très diversifiées,

- Fiabilité, sûreté, sécurité du système,

- Coûts de mise en oeuvre et d'exploitation compatibles avec les enjeux.

La vitesse de traitement doit permettre d'agir sur le processus à piloter en temps utile. Évidemment interviennent la vitesse d'évolution du processus, la complexité du calcul à effectuer pour prendre une décision, la possibilité de décomposer les traitements en tâches simultanées. La vitesse du système doit aussi permettre l'exécution des tâches prioritaires souvent requises par des interruptions dues à des alarmes.

Les systèmes de conduite en temps réel exigent en général la surveillance et la direction de processus multiples. Il faut donc gérer des activités parallèles et la plupart des systèmes de conduite sont des systèmes multitraitement hiérarchisés. Ceci implique que les ordinateurs utilisés disposent d'organes de synchronisation et que l'on puisse y accéder dans les programmes de conduite.

Les entrées/sorties ordinateur<->processus posent des problèmes particuliers. Tout ce qui peut se déceler, se mesurer, tout ce qui existe doit pouvoir être connecté. Et on doit pouvoir commander les dispositifs les plus variés.

Il existe une différence fondamentale entre les entrées-sorties classiques et celles des conduites de priocessus : les E/S informatiques classiques ont été conçues pour traiter l'information et être utilisées par un ordinateur. Les E/S des systèmes en temps réel imposent leurs propres conditions (temps, logique, code, etc.) à l'ordinateur.

Une opération d'entrée/sortie est souvent elle-même une activité parallèle et le périphérique comporte lui-même souvent un ordinateur satellite de pré-traitement ce qui implique la mise en oeuvre d'outils matériels et logiciels de synchronisation.

L'informatique en temps réel pose d'importants problèmes de dialogue homme-machine. À partir des mesures qu'il fait l'ordinateur doit informer l'opérateur de l'état du processus, et ce de la manière la plus proche possible de la logique du processus lui- même. L'informatique de surveillance doit être transparente et l'unité d'affichage doit être une fenêtre sur le processus lui-même, l'informatique devant se faire oublier. En outre, divers usagers aux préoccupations différentes peuvent être amenés à intervenir sur un système donné, ce qui conduit à des programmes de visualisation différents, présentant les données désirées par chacun.

Par ailleurs, les organes de commande doivent être conçus pour mettre en oeuvre le savoir professionnel du pilote. Par exemple, dans le pilotage d'un avion, on doit retrouver les commandes ( manette et palonnier ) que tout pilote utilise naturellement avec dextérité et précision, même si les commandes transitent par un ordinateur. De même les systèmes de contrôle d'entrée du métro parisien sont des périphériques d'un système en temps réel servant par ailleurs à la régulation du trafic. On a conçu un équipement répondant à une fonction précise adaptée à l'usager.

Les plus grandes exigences de fiabilité se trouvent bien entendu dans la technologie et la conception des systèmes en temps réel, les conséquences d'une défaillance pouvant être très graves, pouvant aller jusqu'à mettre en danger des vies humaines. On décompose la fiabilité globale d'un système en temps réel en divers éléments :

- la fiabilité proprement dite ou probabilité de panne à un moment donné

- la sécurité ou absence de danger pour l'utilisateur

- la sûreté qui garantit qu'une panne ne met pas l'équipement en danger

- la survie ou fonctionnement en mode dégradé en cas de défaillance

- la maintenabilité ou facilité de dépannage rapide (localisation & réparation)

Les coûts de mise en oeuvre et d'exploitation doivent être compatibles avec l'intérêt du processus. Il est clair que si autrefois seules des applications très coûteuses pouvaient être automatisées par ordiinateur, aujourd'hui mettre un microprocesseur dans un four à micro-ondes, une chaîne hi-fi ou une machine à café deviennent choses courantes.

Matériels et logiciels pour le temps réel

On demande d'un ordinateur utilisé en contrôle de processus en temps réel des qualités spécifiques. Sa technologie doit pouvoir fonctionner dans l'environnement du procédé : usine, plein air, etc. Il doit pouvoir être utilisé en multitraitement avec d'autres machines, disposer d'un bon mécanisme d'interruptions, avec changement rapide de contexte, donner un accès externe à tous ses registres pour être utilisé en ordinateur- esclave, avoir un bon mécanisme d'horloge/référence de temps indépendant, des mémoires externes très rapides pour disposer très vite de valeurs de références, algorithmes d'urgence, etc. Évidemment, alimentation de sécurité, sauvegardes rapides, et parfois duplication de machines peuvent être requis.

Et tant système d'exploitation que langages de programmation doivent permettre l'emploi simple et efficace de toutes ces ressources. On sait que les systèmes de conduite en temps réel utilisent des systèmes d'exploitation spécifiques, les systèmes classiques convenant mal (fonctions inaccessibles, temps d'exécution trop longs).

Des langages de programmation spécialisés proches des langages-système ont été conçus pour pouvoir programmer des systèmes en temps réel aisément en limitant le recours à l'assembleur. Après JOVIAL l'armée américaine a beaucoup utilisé un langage universel comme le PL/1. Puis dans les années 70 furent conçus une série de puissants langages adaptés à la programmation des systèmes en temps réel. Mentionnons en France LTR, et à la suite d'un appel d'offres international de l'armée américaine le langage Ada également réalisé par une équipe française à partir d'un projet européen avorté par suite de la liquidation d'UNIDATA (le LTPL) et d'un langage système de Bull (le LIS).

Robots

On a utilisé le terme de robots dans des acceptions variables. Depuis tout automate jusqu'à la classe particulière des androïdes. Nous parlerons des systèmes automatiques de production. En ce sens on distingue plusieurs générations.

La première est constituée de systèmes rudimentaires (tour à décolleter) exécutant automatiquement un type de pièce par répétition de séquences simples d'opérations. C'est la forme évoluée de la machine-outil du XIXe siècle et de la première moitié du XXe siècle. Alimentation humaine, surveillance, pilotage direct, très grande division du travail, parcellisation, imbrication étroite des opérations mécaniques et manuelles, grande quantité de travailleurs qualifiés mais soumis à des conditions de travail pénibles.

La seconde génération de machines automatiques est celle qui s'est développée dans les années 60 et qui a joué un rôle très important dans le développement de l'industrie actuelle. Il s'agit de machines automatiques extrèmemement complexes, ultra-spécialisées comportant des systèmes logiques câblés ou sommairement modifiables et effectuant toute une série d'opérations en vue de la réalisation complète d'un objet déterminé. C'est l'automatisme encore en service dans la plupart des grandes industries.

Il faut fabriquer une très grosse quantité d'objets identiques pour amortir l'investissement de la machine. d'où des stratégies fondées sur la normalisation (ou le viol délibéré des normes dans les cas de guerres commerciales) et conduisant à une intense manipulation de la consommation en vue d'assurer un débouché aux objets ainsi fabriqués.

La productivité devient énorme mais les investissements gigantesques conduisent à une ultra-concentration et à des politiques libre-échangistes.

On voit les contraintes imposées par ces automates de seconde génération : grosses séries d'objets identiques et opérations adaptatives impossibles (surveillance permanente nécessaire).

Une évolution a consisté à assurer automatiquement deux types d'opérations :

- l'alimentation automatique des machines et le transfert automatique des objets en cours de fabrication d'une machine automatique à l'autre,

- la coordination/gestion par ordinateurs de l'ensemble des machines d'un atelier ou d'une usine avec des stratégies d'optimisation programmées.

Les robots dits de troisième génération visent à simuler le travail humain. Ce sont des automates universels disposant de plusieurs degrés de liberté (mouvements possibles) mécaniquement universels et munis d'un système de traitement adaptatif. Ce sont des automates à boucle fermée réalisant un objectif à l'aide d'outils faisant partie d'un domaine technique et pilotés par un ordinateur universel.

Un tel robot met en oeuvre des stratégies adaptatives pilotées par des moyens informatiques au niveau des actes élémentaires de production :

- organes universels de préhension et d'action

- organes de surveillance et de mesure

- processeur de traitement en temps réel incorporé.

Un robot de 3e génération est une machine universelle capable de fabriquer n'importe quoi. Elle est spécialisée uniquement par :

- les outils choisis à un moment donné

- le programme enregistré dans le processeur.

Les principales conséquences de l'usage de ces nouveaux systèmes sont :

- la suppression totale du travail humain dans le procès de production direct. Le travail humain se situe dans la programmation, la construction des robots, la maintenance et le dépannage.

- la rentabilisation de machines extrêmement coûteuses mais vraiment universelles sur de très petites séries voire des pièces uniques. La possibilité par exemple dans une ligne de fabrication de faire se succéder des produits différents, le robot choisissant les outils adéquats et chargeant le programme correspondant.

C'est cette nouvelle génération d'automates à laquelle on tend à réserver le terme de robots qui transforme profondément le travail humain et constitue véritablement la mise en oeuvre dans la production de la révolution informationnelle en cours.

Bien entendu, les possibilités de ces robots suivent les progrès de l'intelligence artificielle (coopération, connexionnisme, autonomie, etc.) et on peut envisager la réalisation par les robots de demain d'opérations de très haute complexité.

Bibliographie

ASIMOV Isaac - I, the Robot - New York, Doubleday, 1950.

ENGELBERGER Joseph F. - Les robots industriels - London/Paris, Hermès, 1981.

VERROUST Gérard - L'Informatique en Temps Réel - Orsay, Université Paris XI/DEA de Traitement de l'Information, 1977.

 13 

Révolution informationnelle, travail, production.

La révolution informationnelle entraîne dans la nature, l'organisation du travail humain des bouleversements fondamentaux dont l'importance n'est pas apparue immédiatement. Les usines, les bureaux se transforment radicalement. Et en même temps une crise économique mondiale multiplie les chômeurs, creuse les inégalités entre les nations et dans les nations. On parle de « Révolution nootique », « Révolution de l'intelligence » de << Révolution Scientifique et Technique », de « Société Post-Industrielle », etc.

Nous allons voir à partir d'exemples concrets quels sont les traits fondamentaux de cette révolution, à quelles nouvelles formes d'organisation du travail conduit naturellement ce qui constitue un changement radical de la base matérielle de la société, de la relation de l'être humain au monde et au passage nous demander si elle est la cause de la crise et du chômage...

Une modernisation ou une révolution, et de quelle nature :

Nous avons étudié les grands traits de l'histoire de l'Informatique et de l'Intelligence Artificielle. Nous rappellerons que dans l'histoire des civilisations on définit un système technique comme un ensemble cohérent de moyens, de savoirs et une organisation de la production. Le système technique productif né de la Révolution Industrielle des XVIIIe et XIXe siècle a abouti dans son apogée au système dit taylorien fondé sur la mise en oeuvre des sciences physiques et base du développement des institutions politiques, administratives et financières du système capitaliste toujours en vigueur et maintenant mondialisé. Ce système productif, s'il nécessitait libre échange, régulation par le marché, etc. imposait par contre à l'intérieur des entreprises deux types de contraintes :

- Une parcellisation du travail en tâches élémentaires répétitives,

- Une hiérarchie bien structurée avec discipline de fer, quasi-militaire.

Ces contraintes conduisant à un travail pénible et aliénant avaient une justification technique objective : elles étaient indispensables pour obtenir des taux de productivité élevés, donc des prix de revient très bas dans la production en masse de marchandises de préférence standardisées.

Or ce système technique et le système productif dont il fait partie sont aujourd'hui frappés d'obsolescence par une des plus importantes révolutions de l'histoire de l'humanité depuis ses origines.

Mais où en sommes-nous ? Un retour en arrière et quelques réalisations exemplaires vont nous aider à faire le point et à mesurer les enjeux actuels.

1967-1971 L'automatisation des aciéries MITSUBISHI

Dans les années 60, en dehors de quelques futurologues, on ne pensait pas vraiment qu'introduire des ordinateurs dans les usines et les connecter aux machines c'était bien plus que changer de moteur ou d'outillage.

Les ordinateurs, chers et d'emploi malaisé étaient des systèmes de comptabilité, de gestion. Le temps réel était réservé aux militaires.

Mais on songea vite à relier à la gestion centrale de grandes entreprises les services décentralisés, puis les ateliers de production. Pour accroître l'efficacité globale, mieux adapter les activités au marché, à la demande, etc.

Et là se situe une opération-pilote qui a joué un rôle essentiel à la fois dans la politique industrielle du Japon et dans la situation mondiale du marché de l'acier. Ayant examiné de près cette réalisation, nous en donnerons les traits principaux.

Avec l'aide du gouvernement japonais, il a été mené à bien de 1967 à 1971 l'automatisation totale d'un groupe sidérurgique japonais produisant 12 millions de tonnes d'acier par an. 200 ordinateurs en cascade depuis la gestion du groupe jusqu'à des minis (il n'y avait pas alors de micros) pilotant les laminoirs, les fours, le transport du minerai de fer... Et le tout fonctionne sur plusieurs centaines de kilomètres d'extension. 18 ingénieurs, 30 analystes, d'importantes équipes de programmeurs, de techniciens, et (nous en verrons l'importance) la participation active des ouvriers à qui on a donné une formation complémentaire.

Les buts du projet étaient simplement d'améliorer la compétitivité de l'entreprise, réduire les temps morts et gaspillages. Les résultats ont dépassé l'attente. Et de plus on a obtenu des progrès non prévus au départ : productions plus complexes et diversifiées mieux adaptées à la demande, meilleure qualité et régularité des produits, amélioration de 180% du rendement global, et aussi disparition de l'essentiel des accidents de travail (dans les laminoirs et tréfileries en particulier) et transformation profonde de la relation des hommes au travail.

Les jeunes ont été enthousiasmés, les plus de 40 ans souvent réticents. Le personnel autrefois composé essentiellement d'ouvrier qualifiés a été réduit au quart, composé de techniciens et outilleurs très qualifiés, plus quelques pilotes et opérateurs de surveillance. Les autres agents n'ont pas été licenciés (ça ne se fait pas au Japon) mais ont été affecté à d'autres emplois dans l'immense groupe MITSUBISHI.

Considérant indépendamment de tout régime économique ou social cette réalisation, il s'agit incontestablement d'un progrès dans l'amélioration de la condition humaine. Mais ce n'est évidemment pas cette raison qui a conduit l'industrie et le gouvernement japonais à la tenir pour exemplaire... Toutefois, à l'époque, dans les cercles dirigeants du Japon certains ont objecté que ce mode de travail risquait d'entraîner des risques de déstabilisation sociale et des mises en cause du système par une main d'oeuvre devenue trop instruite !

Certains économistes font de cette réalisation la cause initiale de la crise mondiale du marché de l'acier.

Une nouvelle civilisation

Au début des années 70 on prit conscience simultanément à l'Est comme à l'Ouest que quelque chose d'important et de nouveau se produisait.

Les progrès structurels des ordinateurs liés à ceux de l'électronique conduisaient à mettre fin aux effroyables pratiques tayloriennes de l'âge héroïque de l'informatique. Qu'on songe à ces centaines de dactylocodeuses des années 60 travaillant dans d'immenses salles sous la surveillance de contremaîtres veillant au rendement...

Donc au début des années 70, l'explosion informatique à venir était visible. Sociologues, historiens, etc. se rendirent compte qu'une révolution industrielle d'un type nouveau apparaissait. Et il faut noter qu'indépendamment de tel ou tel régime politique, économique ou social ils définirent avec une étonnante convergence les traits essentiels de la civilisation future qui en découlait.

Nous sommes en présence d'un

nouveau rapport matériel et conceptuel de l'homme à la nature et à l'Univers : la maîtrise et l'utilisation des processus de direction, de commande et de l'information qui les représente.

Cette reproduction par l'homme dans des systèmes de type nouveau de certains des processus intelligents de commande conduit à ne plus faire, mais à faire faire par des machines dans lesquelles on a incorporé du savoir-faire et auxquelles on fixe des objectifs.

Les technologies de l'information ne sont plus des modernisations classiques mais des technologies de rupture qui modifient fondamentalement la relation de l'homme au travail.

Ceci conduit à la fusion de 3 activités humaines :

- la production directe ou indirecte,

- la recherche et le développement,

- l'enseignement, la communication des savoirs.

L'homme de la société de demain devra être à la fois un producteur, un créateur et aura toute sa vie à apprendre et à enseigner.

Il découle évidemment de ceci des bouleversements dans :

- la division traditionnelle du travail,

- le découpage des responsabilités,

- la répartition des qualifications,

- la formation initiale et permanente des travailleurs.

En outre, des gains considérables de productivité sont à attendre.

Tout ceci en théorie devrait conduire à rendre au travail sa dimension créatrice, moyen fondamental de réalisation humaine et en outre à diminuer le temps de travail (sans réduction des revenus, sinon c'est qu'il y a du travail volé quelque part...).

Il est étonnant et significatif que nous ayons personnellement rencontré ces modifications structurelles dans des domaines aussi différents que le travail de bureau en France et la mécanique de précision au Japon.

Bureautique française et Horlogerie japonaise.

Deux exemples significatifs donc :

L'automatisation effectuée dans des conditions idéales d'un service administratif public en France, nous a fait mettre en évidence ce que nous avons retrouvé dans la réalisation réussie d'une usine-pilote sans ouvrier au Japon.

Pour automatiser un système administratif, nous avons commencé par donner une formation initiale à tous les agents et en particulier ceux du terrain afin de leur faire connaitre et comprendre les principes, possibilités et limites du système utilisé. Puis le travail informatique s'est fait en collaboration étroite avec les analystes et programmeurs, les agents du service, souvent de très petites catégories, connaissant les vrais problèmes et spécifiant programmes et dialogues.

Puis une réorganisation s'ensuivit naturellement. Le service fut découpé non plus sur la base de telle ou telle tâche élémentaire (dactylographie par exemple) mais par domaines de responsabilité, les agents devenant des techniciens d'une classe de service rendu. Évidemment la hiérarchie a disparu et le chef de service est devenu un coordinateur d'agents responsables coopérant à une tâche commune.

Bien sûr, initiative, voire originalité, intelligence deviennent des richesses professionnelles et de plus la formation permanente à l'évolution des techniques, des missions, de la législation deviennent partie intégrante de l'activité de chacun des agents. Ainsi que la communication aux autres de leur expérience.

Et évidemment on assiste à une amélioration considérable de la qualité des services rendus.

Nous avons retrouvé les traits essentiels de cette révolution dans une opération-pilote exemplaire japonaise : l'automatisation intégrale d'une ligne de fabrication de montres mécaniques de luxe dans les usines SEIKO-HATORI à Osaka.

Outre les solutions techniques utilisées, nous nous sommes intéressé à la manière dont cette usine avait été mise en oeuvre et aux raisons du succès de cette réalisation.

Société de mécanique de précision, SEIKO a conçu et réalisé elle même son automatisation.

Plutôt que de faire concevoir entièrement l'usine par des automaticiens à partir d'idées abstraites, on a opéré comme dans notre projet bureautique français : On a donné aux OS de la chaîne ancienne (OS horlogers, donc très habiles) une formation aux principes de l'automatique.

Puis on a constitué des équipes de travail faisant collaborer informaticiens, automaticiens, électroniciens et horlogers pour réaliser les machines automatiques de la chaîne. Le rôle de l'OS horloger recyclé a été essentiel pour permettre le succès. En effet il était porteur d'un savoir pratique intériorisé acquis sur l'ancienne chaîne. Lui seul connaissait les vrais problèmes, les vraies difficultés les vrais tours de main nécessaires pour que l'opération matérielle se fasse bien. Et c'est ce savoir irremplaçable qu'il a incorporé dans la machine automatique réalisant cette opération.

L'opération élémentaire sur l'ancienne chaîne manuelle était de 30 secondes. Elle est de 3 secondes dans l'usine automatique.

On retrouve pour l'essentiel les bouleversements organisationnels de notre service administratif. Si l'usine elle-même est totalement automatique, la main d'oeuvre très qualifiée se retrouve dans des équipes de conception-maintenance qui ont créé une machine originale, en assurent la maintenance, l'évolution.. Des techniciens qualifiés et responsables faisant un travail valorisant, humainement riche.

Évidemment, et c'est un autre trait de la révolution technologique contemporaine, les montres ne se font pas sans main d'oeuvre humaine. Mais celle-ci se trouve dans la conception, la construction, la programmation des machines automatiques.

On a une remontée de la production de valeur vers les biens d'équipement. C'est un autre trait de la révolution scientifique et technique contemporaine qui a été un des facteurs de la compétitivité japonaise, les grandes firmes japonaises étant en général constituées de grandes filières verticales comprenant des ensembles complets de compétences diverses et complémentaires de tous niveaux.

... et dans une entreprise privée française : les mutuelles du mans.

La popularisation de nos expériences et de ces analyses que nous avons faite dans les années 80 a eu une retombée intéressante dans une des plus grandes compagnies d'assurances françaises.

Elle a mis en évidence le type de problèmes qu'il faut résoudre, les difficultés à surmonter, la stratégie à mettre en oeuvre pour réaliser une modernisation dans une grande entreprise privée.

D'abord prévoir la légitime méfiance des syndicats qui craignent toujours qu'une réorganisation, surtout de cette importance, ne dissimule des calculs contre les personnels. Il faut dire que depuis quelques années les syndicats ont compris l'importance d'acquérir de hautes compétences dans les techniques modernes afin d'intervenir avec pertinence dans les projets des directions, de mettre les progrès techniques au service des travailleurs et de déceler et combattre des mystifications. Évidemment ils savent exiger une politique de formation permettant l'emploi du savoir ouvrier et les promotions et améliorations permises par la modernisation.

Par ailleurs, les conséquences organisationnelles de la révolution technique conduisent à l'hostilité de toute une couche d'agents de maîtrise qui voit son pouvoir disparaître.

Signalons au passage qu'on fonde souvent là l'incapacité du système soviétique à avoir pu mettre en oeuvre la révolution informationnelle : la résistance des cadres de maîtrise constituée en bureaucratie. En effet, le système productif soviétique était resté celui de la révolution industrielle fondé sur la division du travail. Les institutions le rendaient inefficace et non-compétitif face à un système capitaliste classique exploitant des travailleurs aliénés dans des nations dirigées et gouvernées par les propriétaires des entreprises ou leurs représentants.

Les directions générales ont souvent des « principes » qui datent d'une autre époque, bien sûr mais de plus craignent que l'accès de la masse des personnels à des tâches responsables ne conduise à des mises en cause plus fondamentales. Enfin les responsables informatiques croient souvent défendre des privilèges fondés sur la rétention du savoir.

Le succès d'une modernisation radicale est fondé en fin de compte :

- sur la capacité des initiateurs à convaincre les directions au plus haut niveau car leur appui est nécessaire pour vaincre les résistances de la bureaucratie et des chefs intermédiaires,

- sur la collaboration loyale avec les syndicats qui, de toutes façons maintenant, se sont donnés les moyens d'analyse et d'intervention technique au service des travailleurs,

- sur la capacité à mobiliser les services informatiques en créant les conditions qui conduisent à une valorisation de leurs compétences.

Ces éléments essentiels mis en évidence ont permis le succès de la célèbre modernisation des Mutuelles du Mans, une des premières compagnies d'assurances françaises.

Et la crise ?

Évidemment, tout ceci concerne la partie développée du monde, le « Nord » comme on dit maintenant. Si ce modèle de civilisation économise les ressources naturelles et préserve l'environnement à la différence des industries classiques, les classes dirigeantes des pays riches ont généralisé le libre-échange afin d'exporter les capitaux pour aller surexploiter avec des méthodes tayloriennes dépassées la main d'oeuvre de pays sans liberté, sans droits sociaux et où les conditions de travail sont souvent proches de l'esclavage, conduisant en retour à développer le chômage dans les pays industrialisés.

Et, contrairement à une idée répandue, la modernisation technologique a eu jusqu'à présent un rôle réduit dans le développement du chômage. Par contre celle-ci, en cours de mise en oeuvre sour le nom de re-engineering et imposée aux entreprises par la course concurrentielle à la compétitivité économique, conduit à des gains de productivité énormes et à des réductions massives d'emplois. On arrive couramment à des licenciements de l'ordre de 40% du personnel d'industries, à production égale. Ceci explique certaines prévisions de chômage massif à long terme données par des organismes de prospective travaillant sur une hypothèse de maintien du système économique et politique actuel.

Bibliographie

FONT Jean-Marc, QUINIOU Jean-Claude, VERROUST Gérard - Les Cerveaux non- humains, Introduction à l'informatique - Paris, Denoël, 1970

FOUGEYROLLAS Pierre - Les Métamorphoses de la Crise - Paris, Hachette, 1985.

GAUDIN Thierry - Rapport sur l'État de la Technique - Paris, C.P.E., 1983.

GILLE Bertrand - Histoire des Techniques - Paris, Gallimard, 1978.

MAKAROV D. - Overcoming Unemployment, The Futurist, 4-1985 p.19.

RIFKIN Jeremy - The end of Work - New York, Putnam, 1995 - La fin du travail - Paris, La Découverte, 1996.

SCHILLER Herbert I. - Information and the Crisis Economy - New York, Ablex Publ. 1984.

TOVMASSIAN S. - Problèmes Philosophiques du Travail et de la Technique - Moscou,

Editions du Progrès, 1976.

VERROUST G. - Amélioration des conditions de travail par l'Informatique - Paris, Colloque ADIAF sur l'Informatique et l'Amélioration du Service Public, Documentation Française, 1983.

VERROUST G. - L'Usine SEIKO/HATORI de fabrication de montres sans ouvrier - Rapport, 1981.

VERROUST G. - La Révolution informationnelle du XXe siècle - Athènes, European Philosophy Conference, 1985.

VERROUST G. - Mutations technologiques à Gennevilliers - in [AZEMARD Ghislaine & QUINIOU Jean-Claude, éd. - Une autre optique à Gennevilliers - ] Paris, CERIAM, 1984.

 14 

Révolution informationnelle & éducation,

vie sociale, familiale, culturelle.

Une nouvelle science transdisciplinaire :

On a vu qu'on trouve au centre de la révolution scientifique et technique contemporaine une nouvelle étape dans la compréhension et la maîtrise par l'homme des phénomènes et lois de la Nature : la compréhension, la maîtrise et l'utilisation des processus de direction et de commande et de l'information qui les représente. Comme la mathématique ou la philosophie (avec lesquelles elle entretient des relations privilégiées), cette science nouvelle intervient pratiquement dans toutes les autres branches du savoir et y crée parfois des développements considérables.

Rappelons par exemple que l'électronique qui s'est développée au sein de la physique, à partir de l'électricité est la branche des sciences de l'information qui traite de l'usage de l'électricité pour traiter, transporter, diffuser de l'information, qu'elle soit analogique ou numérique. Par ailleurs, la révolution biologique contemporaine est fondée sur la maîtrise des codes, langages et supports de l'information biologique, sans parler de la théorie des réseaux neuronaux, de celle de la régulation ago-antagoniste, etc. Les sciences humaines sont concernées. On retrouve par exemple dans les modèles de fonction-nement des systèmes nerveux vivants les propriétés de mémorisation décrites dans l'antiquité par les auteurs qui traitaient des arts de la mémoire, etc.

En outre il est clair que cette science nouvelle n'est pas réductible à la mathématique comme on l'avait longtemps pensé, même si, comme la physique, elle utilise la mathématique et y suscite en retour des problèmatiques nouvelles. Qu'on songe qu'on sait aujourd'hui construire des automates qui fonctionnent et pour lesquels on manque d'outil mathématique de description ou de prévision.

La Révolution informationnelle et l'enseignement

Nous avons vu qu'au coeur du nouveau système technique de la révolution informationnelle, on trouve des savoirs fondamentaux nouveaux, même si leurs sources remontent à l'antiquité ou au moyen-âge.

- Théorie des automates et intelligence artificielle

- Représentation des connaissances, modélisation

- Sémiotique

- Systémique, théorie de l'autonomie

Il faut enseigner à tous les humains les fondements de l'univers technique d'aujourd'hui et de demain. C'est une question de liberté, de dignité humaine.

Nous sommes confrontés à un défi comparable à celui de la Révolution Industrielle. On sait que la politique d'alphabétisation massive, bien adaptée aux besoins de la société du XIXe siècle, a fait de la France une grande puissance scientifique et industrielle. Et aujourd'hui on peut parler d'une nouvelle alphabétisation.

On a vu que dans le nouveau type de société en émergence, trois activités humaines sont confondues :

- Production directe ou indirecte

- Recherche & développement

- Enseignement, communication des connaissances.

Et en outre les gains considérables de productivité réduisent considérablement le temps consacré aux activités productives, faisant jouer un rôle de plus important à la création artistique, la recherche, les jeux, le plaisir, etc. dans l'activité humaine.

Donc dans la société informationnelle, l'enseignement devient une activité permanente puisque toute sa vie il faudra communiquer son savoir, son expérience personnelle, ses résultats et recevoir ceux des autres. C'est ce qu'implique la mise en oeuvre de l'intelligence collective. Mais l'enseignement initial est bouleversé dans tous ses aspects :

1 - contenu

2 - fonction

3 - méthodes

4 - organisation

1 - Contenu - Bien évidemment comme cela s'est déjà produit dans l'histoire, un changement profond de la base matérielle de la société conduit à de nouveaux savoirs et à une recomposition des savoirs.

Les nouveaux savoirs sont ceux qui fondent le nouvel univers technique dans lequel les hommes vont vivre, créer. (Théorie des automates, Intelligence artificielle, Modélisation et représentation des connaissances, formalisation, sémiotique, systémique, etc..). Nous en avons vu les fondements dans ce cours.

Mais on assiste à une recomposition des savoirs : les découvertes essentielles aujourd'hui se font dans des champs interdisciplinaires. Qu'on songe aux sciences cognitives qui s'étendent depuis la psychologie jusqu'à l'électronique en passant par la neurophysiologie, la génétique, le connexionnisme, la systémique.

De plus comme lors de toute époque de transformations profondes se reconstitue une alliance de la théorie et de la pratique, une fécondation réciproque. Cette situation a déjà été vécue au XVIIIe siècle et a fondé la démarche des Encyclopédistes.

Enfin le transfert du savoir ouvrier vers des systèmes automatiques pose le problème de la trans-mission du savoir acquis par l'action directe entre l'homme et la matière. Le travail manuel non dissocié du travail intellectuel devient une activité culturelle et pédagogique plus que jamais nécessaire. Dans son utopie (News from Nowhere), William MORRIS imagine une société de l'avenir dans laquelle le travail devient une activité de loisir librement effectuée pour le plaisir. On songe aussi à l'utilisation des passions dans la société d'harmonie de Charles FOURIER, la diversité des profils, des désirs des humains conduisant toujours à trouver ceux pour lesquels un travail donné est un jeu, une passion, un plaisir.

2 - Fonction - La fonction de l'enseignement initial reste la préparation à la vie individuelle et sociale ce qui implique bien sûr l'acquisition des connaissances, de l'expérience accumulées depuis l'origine de l'humanité.

La société industrielle du XIXe siècle avait besoin pour se développer d'hommes porteurs d'un savoir ouvrier indispensable pour agir directement sur des outils ou des machines dans le cadre d'une organisation productive fondée sur la division du travail. On avait besoin d'une armée d'ouvriers sachant lire, écrire, compter mais bien disciplinés. Un apprentissage à la fois riche et spécialisé, bien encadré.

Et par ailleurs la recherche, la création, le développement étaient effectués par des professions intellectuelles spécialisées : corps intermédiaires entre la classe possédante et les producteurs directs. Un ordre d'enseignement bien distinct formait ces élites.

On sait toutefois que l'enseignement français, marqué par la tradition humaniste des Lumières, n'assignait pas à l'enseignement un rôle uniquement utilitaire mais aussi émancipateur, ce qui place aujourd'hui la France dans une situation originale face à une conception anglo-saxonne marchande étroitement utilitariste de l'enseignement.

Aujourd'hui, il s'agit de préparer à une société fonctionnant en réseau. Et la dimension émancipatrice devient stratégique. Il faut apprendre à vivre, à créer, à communiquer, à collaborer dans des situations non-hiérarchiques, et aussi à développer son originalité, ses potentialités, ses richesses propres ce qui est nouveau.

3 - Méthodes - Le développement des nouvelles technologies de l'information et de la communication conduit à mettre en oeuvre des systèmes interactifs d'enseignement d'une grande puissance car ils conjuguent la richesse de la communication (textes, sons, images fixes ou animées) avec l'interactivité qui demande à l'usager l'activité concrète nécessaire à l'acquisition des connaissances. Et en outre ils s'adaptent exactement au profil de l'usager et à son rythme d'apprentissage.

Ces nouveaux moyens ne suppriment pas le rôle de l'enseignant vivant (pas plus que le livre ne l'avait fait) mais modifient profondément sa manière de travailler.

Par ailleurs il faut rappeler que la connaissance implicite intuitive des propriétés d'un système informatique qu'on acquiert en l'utilisant comme outil d'enseignement ne saurait remplacer l'enseignement nécessaire des bases conceptuelles des sciences de l'information et de la commande.

4 - Organisation - On retrouve dans l'organisation de l'activité enseignante elle-même toute la problématique de la révolution informationnelle.

Au XIXe siècle, l'apprentissage de l'obéissance à l'autorité dans un système hiérarchique bien structuré faisait partie de l'apprentissage aux valeurs idéologiques et morales qui fondaient la société. Ainsi l'École et la Famille se complétaient parfaitement.

L'enseignant, dont la fonction est plus nécessaire que jamais, n'est plus le maître (mot lourd de sens) qui dispense du haut de son autorité des savoirs définitifs, dans une relation de domination/obéissance, mais le coordinateur qui doit susciter de chaque élève des qualités nouvelles : Initiative, originalité, aptitude à communiquer et à raisonner pour construire son savoir.

Cela veut dire que de plus en plus on verra ce qu'on constate avec l'usage des ordinateurs dans les écoles : des élèves se trouveront être plus à l'aise que leur enseignant dans la maîtrise de nouveaux concepts ou de nouveaux outils, et les enseignants dont le rôle change devront non seulement l'accepter mais s'en réjouir.

L'enseignant apprend aux jeunes élèves à aller chercher les informations, et à les critiquer, à construire son propre savoir. Il doit leur apprendre à la fois :

l à développer leurs aptitudes personnelles originales, irremplaçables,

l à communiquer, collaborer en vue de la réalisation collective d'objectifs communs.

D'où l'intérêt par exemple des classes télématiques expérimentales de Rachel COHEN, connectées à INTERNET, ou de ce qu'on appelle aussi aux USA le CSCL (Computer Supported Cooperative Learning) ou éducation coopérative assistée par ordinateur.

Et là nous voyons apparaître le problème essentiel de la ou des langue/s de communication utilisée/s sur les réseaux électroniques. Il faut :

- Savoir et pouvoir utiliser sa langue pour exprimer toute la richesse, les finesses de sa pensée,

- Savoir comprendre la langue des autres dans laquelle s'exprime la richesse de leur pensée.

En conjonction avec le développement des moyens informatiques d'aide à la traduction, l'apprentissage des langues étrangères devra jouer un rôle de plus en plus important.

Pour conclure, nous remarquons que les missions traditionnellement imparties à l'Enseignement Supérieur (autonomie intellectuelle, construction des connaissances, aptitude à la communication) devraient devenir celles de tous les ordres d'enseignement.

Famille, vie sociale

Pour comprendre l'importance de la révolution informationnelle sur les aspects y compris les plus intimes de la vie humaine, il nous faut rappeler l'originalité de l'être humain dans l'histoire de la vie sur terre. Quelle que soit l'explication qu'on donne de l'apparition ou de l'émergence de l'homme sur terre, celui-ci se distingue des animaux par une qualité essentielle : il est le premier être vivant chez qui l'acquis prime sur l'inné, et dont en particulier le système nerveux se construit en grande partie après la naissance. Indépendamment de tel ou tel détail du patrimoine génétique d'un individu, ce qui le différencie des animaux c'est qu'il n'est pas étroitement déterminé biologiquement.

Ceci veut dire qu'à partir d'un certain héritage biologique, l'homme est avant tout un être social. Il est le premier être vivant qui a une histoire. Il y a un progrès mesurable dans la maîtrise de concepts d'une génération à l'autre. On a vu que Charles BABBAGE n'a pas inventé l'ordinateur car il fallait faire appel à des notions qui étaient entièrement hors de l'entendement des hommes du siècle dernier. Aujourd'hui il est normal que des enfants soient plus à l'aise avec un ordinateur que leurs enseignants, plus âgés.

Mais aussi comment le rappellent sans arrêt les historiens, les ethnologues, le développement de la famille monogamique patriarcale est un phénomène récent et limité. Depuis des siècles nombre de chercheurs (Morgan, Malinowski, etc.) font remarquer que les organisations sociales diverses de l'humanité ont engendré une grande diversité d'organisations familiales, de comportements sexuels, affectifs. Il semble raisonnable de penser que de nouvelles formes de vie individuelle vont résulter du changement fondamental des bases matérielles de la société que constitue la révolution informationnelle. Et aujourd'hui on assiste à un conflit dramatique entre l'idéologie sociale, les valeurs de la société industrielle du XIXe siècle inscrites dans la sensibilité profonde, la sexualité, les modes de pensée des individus et la nouvelle base matérielle en émergence qui conduit déjà à des modifications spontanées de comportements.

Un nouveau système de valeurs

Libéré de servitudes biologiques, disposant grâce au bond en avant de la productivité de loisirs considérables ou plutôt de la possibilité d'effectuer des travaux non productifs au sens étroitement marchand, devant développer ses richesses propres, son originalité et non plus se plier à un rôle stéréotypé imposé par la discipline du système productif, tel est l'humain de la société de demain, ou d'après-demain. On est bien loin des valeurs officielles héritées de la société industrielle classique.

En fait nous arrivons à une situation radicalement nouvelle rêvée depuis longtemps par de nombreux utopistes et dans laquelle devient possible la disparition quasi-totale du travail aliéné auquel on est contraint pour assurer ses besoins fondamentaux. C'est en effet ce seul type de travail qui est mis en cause et non le travail créatif de l'artiste, de l'artisan, du savant, activité choisie par laquelle l'homme se construit, se réalise, s'assimile le monde matériel et social en agissant sur celui-ci et en développant et enrichissant avec plaisir ses possibilités personnelles, toujours uniques.

Quel nouveau système politique, économique, social saura mettre en oeuvre cette révolution ? On comprend l'intérêt actuel porté aux utopies (et en particulier à l'oeuvre de Charles FOURIER) aux valeurs féministes, etc. qui peuvent donner des clés pour l'avenir, aux techniques de déprogrammation individuelles (mouvement des thérapies, oeuvre de Wilhelm REICH) pour libérer les individus de vieux conditionnements aliénants, aux nouvelles formes de vie familiale, sexuelle qui, d'ailleurs se manifestent spontanément alors que la morale officielle inscrite dans la loi, implicitement admise et donc imposée par les médias de masse est toujours celle de la société industrielle patriarcale du XIXe siècle...

Il est intéressant aussi de relire les extraordinaires intuitions de William MORRIS, utopiste anglais du siècle dernier qui imaginait une société du loisir incroyablement actuelle dont il ne supposait la réalisation que dans plusieurs centaines d'années.

Certains ont fait remarquer que la société informationnelle conduirait à la réalisation des idéaux des Lumières, après la longue parenthèse de la révolution industrielle et des formes aliénantes qu'elle a prise par suite de contraintes matérielles qui n'existent plus. On en arrive ainsi à renouer avec une des dimensions originales de la culture française.

Mais quelle organisation politique aussi émergera ? Quelle sera l'organisation démocratique de demain ? Problème ouvert alors que, comme le signalent nombre de politologues, se manifeste un désintérêt spontané pour les institutions et organisations actuelles.

Ajoutons, et ce n'est pas rien, que plus que jamais auparavant la création artistique individuelle et collective deviendra une activité sociale majeure concernant tous les humains. Et avec des moyens de création, de diffusion sans précédent. On peut penser être au début d'une période nouvelle de la vie artistique de l'humanité. On a pu parler aujourd'hui de la possibilité d'un miracle grec pour tous. On sait qu'on appelle miracle grec ce moment dans l'histoire de l'humanité où le développement de l'organisation sociale et une division du travail basée sur l'esclavage a permis à une couche étroite d'hommes de se consacrer à autre chose qu'à la survie quotidienne et qui donc ont pu développer arts, lettres, science, philosophie..

L'information, produit stratégique et son statut

Afin de faire comprendre le type de problèmes auquel est confronté le système économique, nous allons examiner le statut de l'information comme marchandise.

Nous avons vu qu'aujourd'hui l'homme, au lieu de créer directement des objets avec des outils ou des machines qu'il conduit directement, incorpore des parties de son savoir de production/création dans des machines automatiques de type nouveau sous forme d'information.

Si cette information qui constitue une partie de lui-même devient propriété de son employeur, celui-ci ne possède pas simplement un produit fabriqué par son salarié mais la force productive de ce salarié, une partie du travailleur lui-même. Il se constitue ainsi un rapport esclavagiste... Rappelons qu'en économie capitaliste sont inaliénables tant les oeuvres de l'esprit que tout ou partie de la personne. Et l'introduction récente dans le droit de dispositions dépossédant les salariés de leur production informationnelle au profit de leur employeur, si elle a été motivée par le souci de défendre les intérêts des classes possédantes, pose des problèmes d'éthique graves et crée des contradictions inextricables. Remarquons que cette relation entre travail vivant et travail mort avait déjà été étudiée au XIXe siècle, mais elle ne concernait alors que quelques aspects marginaux de l'incorporation de tours de mains ouvriers dans quelques machines-outils.

Il faut en outre rappeler, qu'en droit et en économie politique l'information n'est pas une marchandise. En effet, une marchandise est une chose possédée qu'on n'a plus lorsque, lors d'une transaction, on l'échange contre de l'argent. Or dans le cas de vente d'information le vendeur reste propriétaire de cet objet qu'il peut continuer à vendre indéfiniment. On comprend les règles souvent étranges de fixation des prix par exemple de logiciels, et l'absurdité de certains chiffres donnés sur le coût du piratage, en fait rigoureusement impossible à chiffrer.

Ceci concerne aussi les biens culturels. Dans le cas d'un livre imprimé classique, le coût de fabrication n'est pas négligeable et la rémunération de l'auteur, inaliénable, est minime. Or nous nous trouvons en présence maintenant de supports d'information dont la capacité est gigantesque et le coût dérisoire, de produits culturels dont le prix est presque uniquement constitué par des droits d'auteur. On conçoit que cette révolution est d'une importance plus grande encore que l'invention de l'imprimerie.

Par ailleurs les techniques de reproduction, de transmission vont de plus en plus tenir en échec toute méthode de protection. En effet, l'usage des équipements bon marché de recopie/duplication de toutes les informations numérisées (musique, films, oeuvres littéraires, etc.) va se généraliser. En outre la numérisation permet et permettra de plus en plus tous les trucages, détournements, transformations, altérations non décelables. De plus la transmission à distance par les réseaux (inforoutes d'INTERNET appelées vulgairement « autoroutes de l'information », ATM, etc.) donnera accès de partout dans le monde à ces informations.

C'est pourquoi diverses études prospectives conduisent à faire remarquer qu'on s'achemine peut-être vers une civilisation où la rémunération du créateur sera indépendante de la vente de sa création, et ce en totale opposition avec les règles fondamentales de l'idéologie libérale officielle actuelle, mais aussi que des menaces peuvent peser sur l'intégrité morale des oeuvres de toutes sortes (détournements, falsifications indécelables)

En outre on a souligné que l'interactivité met en cause la notion même d'auteur dans une oeuvre combinatoire où le lecteur construit sa propre lecture unique à partir des matériaux donnés par le créateur. On assiste ainsi à l'émergence d'un nouveau type d'oeuvre artistique ; le jeu réalisé par un artiste pour des spectateurs-acteurs. Par ailleurs les outils informatiques permettant à chacun de réaliser sur des oeuvres numérisées.dont il dispose d'innombrables altérations, détournements, annexions, transformations ou falsifications posent des problèmes nouveaux.

Bibliographie

ANDRÉANI Tony & FÉRAY Marc - Discours sur l'égalité parmi les hommes - Paris, L'Harmattan, 1993.

BOSCHMANN Erwin (Ed.) - The Electronic Classroom : A Handbook for Education in the Electronic Environment - New York, Information Today, 1995.

CHANGEUX Jean-Pierre - L'Homme neuronal - Paris, Fayard, 1983.

COHEN Rachel - La communication télématique internationale - Paris, RETZ, 1995.

DUBY Georges - Le Chevalier, la femme et le prêtre - Paris, Hachette, 1981.

FORRESTER Viviane - L'horreur économique - Paris, Fayard, 1996.

GARDNER Howard - Les Intelligences multiples - Paris, RETZ, 1996

GAUDIN Thierry - Rapport sur l'État de la Technique - Paris, C.P.E., 1983.

GILLE Bertrand - Histoire des Techniques - Paris, Gallimard, 1978.

LAFARGUE - Le droit à la paresse - Paris, 1001 nuits, 1994.

LÉVY Pierre - Les technologies de l'intelligence - Paris, La Découverte, 1990.

MALSON Lucien - Les enfants sauvages - Paris, Plon, 1964.

MORRIS William - News from Nowhere - London, Reeves & Turner, 1891 / Penguin, 1993.

ROUBAUD Jacques - L'invention du fils de Leoprepes - Lyon, Circé, 1993.

VANEIGEM Raoul - Avertissement aux écoliers et lycéens - Paris, 1001 nuits, 1995.

VERROUST Gérard - Déontologies et Éthiques - Versailles, Congrès national afcet, 1993.

VERROUST Gérard - La Révolution informationnelle du XXe siècle - Athènes, European Philosophy Conference, 1985.

YATES Frances A. - L'art de la mémoire - Paris, Gallimard, 1975

(COLLECTIF) - Informatique et enseignement - Paris, Documentation Française, 1983.
 

Accueil Informatique et TIC Retour à l'article