Hypermédias et intelligence artificielle
(1ère partie)

Gérard Clergue
 

I. LES NIVEAUX DE CONNAISSANCES

1. Une typologie des connaissances

     Depuis ses origines l'homme s'interroge sur les conditions d'accès à la connaissance. Des mythes les plus anciens (le Prométhée enchaîné, la pomme biblique...) aux questions les plus actuelles posées par la maîtrise du progrès scientifique, nous cherchons à comprendre les fondements de la cognition et ses limites. Érigée aujourd'hui en science cette recherche s'est attachée à cerner les différents types de connaissances, à repérer des niveaux afin de mieux les étudier.

1.1. quantitatif / qualitatif

     Les tradition scientifique occidentale s'est toujours apparentée à l'effort de quantification. Le qualitatif, l'approximatif, a longtemps été considéré comme ne relevant pas du domaine scientifique. Henri Poincaré fut le premier à aborder de façon qualitative globale les propriétés du système solaire que ne permettaient pas d'étudier les méthodes analytiques classiques. En étudiant le problème des trois corps et les équations de la dynamique, il ouvrait un nouveau chapitre de l'histoire des sciences (cf. La Recherche, mai 1991).

     L'étude du chaos déterministe montre que l'ordre peut émerger du désordre dans les systèmes dynamiques après de très nombreuses itérations. Et de petites variations dans les conditions initiales peuvent provoquer de grandes différences dans les résultats finaux, ce qui les rend fondamentalement imprévisibles.

     Dans les jeux de stratégie, qui sont purement logiques, on est surpris de voir un joueur de GO par exemple, commenter une partie en disant que telle forme lui paraît efficace parce qu'elle est belle, élégante même. On parle aussi de formes aérées ou lourdes dans un jeu où à première vue tout est affaire de calcul et d'analyse : il faut compter les libertés des groupes en présence et envisager à une assez grande profondeur les répercussions de chaque coup.

1.2. logique / analogique

     Le raisonnement logique est depuis les penseurs grecs la pierre angulaire de la connaissance scientifique. C'est grâce à lui que les mathématiques puis les sciences expérimentales ont pu obtenir les résultats que l'on sait. Certains comme Bertrand Russell ont même caressé le rêve au début du XXe de faire de la logique la science des sciences, la clé universelle ouvrant toutes les portes de la connaissance.

     La crise de la logique formelle et l'intérêt porté à l'étude de la complexité valorisent aujourd'hui la pensée analogique et le rôle du flou dans le savoir. A trop répéter que comparaison n'est pas raison, on avait peu à peu oublié que l'individu fonctionne plus souvent par association d'idées que par démonstration.

1.3. procédural / déclaratif

     Autant que l'on puisse en juger, toutes les connaissances ne semblent pas fonctionner de la même façon.

     Certaines semblent plus construites, plus organisées, on les nomme procédurales. Elles se caractérisent par leur grande concision. Instrument d'analyse du réel, elles s'appuient sur des algorithmes qui déterminent avec précision quand et comment déclencher les commandes qui permettront d'atteindre l'objectif visé. Les connaissances procédurales définissent des séquences d'actions.

     Mais d'autres connaissances semblent plus lâches, entraînant moins de contraintes, comme s'il s'agissait uniquement d'accumuler des faits qui pourront être ou non utilisés à tout moment. C'est ainsi que l'on se contente de déclarer dans le désordre, sans but prédéfini, tout ce que l'on sait sur un domaine du savoir. Les connaissances déclaratives concernent des propriétés, des lois, des relations.

1.4. bas niveau / haut niveau

     Le terme de niveau concerne ici le degré de traitement plus ou moins élaboré pour obtenir des concepts formels. Ainsi on passe des simples sensations (le bas niveau, la perception) à l'entendement (concepts) puis à la raison, le haut niveau au sommet de l'activité cognitive, qui tel le moteur de la machine, traite et organise toutes les informations perçues et reconstruites.

     L'expérience commune nous amène à distinguer ces opérations mentales.

Proust, cité par Alain Grumbach, dit quelque part « Nous sentons dans un monde, nous pensons, nous nommons dans un autre, nous pouvons entre les deux établir une concordance, mais non combler l'intervalle. »

     Dans le premier monde la vitesse l'emporte sur l'explication, telle une illumination la sensation émerge comme jaillie du néant. La raison au contraire, prend son temps, décortique, analyse, trie et semble donc mieux se prêter à une reproduction artificielle.

« Tout ce qui présente un intérêt dans le domaine de la cognition se produit au-delà du seuil des 100 millisecondes, le temps qu'il vous faut pour reconnaître votre mère disait Simon... Selon moi la principale question en IA est celle-ci : "que diable se passe-t-il pour qu'on puisse traduire 100 millions de taches sur la rétine en un seul mot 'mère', en un dixième de seconde ?" La perception tout est là ! » écrit Hofstadter dans Le rêve booléen.

1.5. explicite / implicite

     Il y a ce qui se dit et ce qui va sans dire. Ainsi est faite la communication, qu'elle véhicule presque autant d'informations dans ce qui est dit explicitement que dans ce qui est implicite. La richesse de la langue naturelle est celle de notre propre histoire. Histoire de notre société, histoire personnelle de chacun d'entre nous. C'est dans ce contexte que nous nous exprimons et que nous cherchons à nous faire entendre. Réduire la communication à son codage formel, c'est perdre une partie de ce qui en fait la richesse.

2. L'imbrication des niveaux de connaissance

     S'il peut être utile d'isoler des niveaux correspondants à des fonctions intellectuelles différentes pour les identifier au sein du processus cognitif et en analyser le fonctionnement, cela n'est pas sans danger.

     La métaphore hiérarchique de niveau implique une échelle de classement et au delà une échelle de valeur. Ainsi la perception de bas niveau (au contact avec le monde, terre à terre) serait en dessous, inférieure à la raison placée au niveau supérieur. Dans le même sens l'analyse logique, parce que plus élaborée, plus construite, serait d'une essence supérieure. Par cette classification, explicite ou implicite, nous véhiculons les valeurs qui ont fait le succès de la pensée scientifique occidentale.

     Mais n'est-il pas temps pour la science de s'interroger sur l'imbrication de tous ces niveaux au sein de l'acte cognitif ? Selon le type d'activité auquel nous nous livrons, selon notre compétence et nos besoins nous sollicitons tantôt un clavier de notre cerveau, tantôt un autre et le plus souvent plusieurs à la fois.

2.1. expliquer / comprendre

     On associe souvent ces termes comme les deux pôles du même processus lorsqu'on dit "pour comprendre j'ai besoin que l'on m'explique". Mais est-on bien sûr qu'il s'agisse de la même démarche ?

     Expliquer c'est démonter pas à pas toutes les étapes d'un raisonnement. C'est quelque chose d'assez rare finalement dans notre comportement intellectuel, et qui n'intervient guère que dans deux situations :

  1. Lorsque, à la suite d'une erreur ou d'une impasse, nous revenons en arrière sur notre cheminement intellectuel. Comme un puzzle que nous reconstruisons, nous remettons patiemment en place tous les concepts et leurs interactions afin de repérer les rouages coupables. Nous remontons l'arbre déductif pour identifier la panne.

  2. C'est une démarche semblable que nous poursuivons lorsqu'il s'agit de convaincre un interlocuteur du bien fondé de nos conclusions. En effet, lorsque la personne à qui nous nous adressons refuse de nous croire sur parole, force est de refaire avec elle tout le parcours mental que nous avons entrepris pour la conduire aux mêmes conclusions que nous. C'est le sens même du dialogue socratique.

     Dans tous les autres cas, la compréhension, qui est la découverte d'une vérité que nous nous approprions, procède plus rapidement (heureusement). Il n'est pas besoin d'étape intermédiaire. Une fois les conjectures établies (étape primordiale sans laquelle rien ne peut se déclencher), des liens sont tirés comme si nous sautions d'une idée à l'autre. Liens logiques ou analogiques, tout ce qui fait avancer notre pensée est bon jusqu'à l'émergence de ce qui sera pour nous la vérité et qui apparaît soudainement.

2.2. expert / débutant

     Les études d'ergonomie cognitive l'ont montré, experts et débutants ne travaillent pas de la même façon. Et nous sommes tous, tour à tour, expert ou débutant selon le domaine du savoir auquel nous sommes confrontés.

     Curieusement le moins logique des deux c'est l'expert. Fort de son savoir-faire, il va d'emblée à l'essentiel en empruntant des raccourcis hasardeux. Il procède le plus souvent par analogie ; faisant confiance à son expérience, il trouve dans des situations vécues identiques de quoi s'inspirer pour apporter une réponse au problème posé. Son approche est globale, qualitative. L'expert navigue dans un univers qui lui est familier et dont il ne redoute pas les embûches.

     Il en va tout autrement du débutant. Conscient de son incompétence il suit scrupuleusement les consignes de rigueur. Il s'en tient à la démarche analytique stricte qu'on lui a apprise. Il a besoin de mesurer, de classer pour agir, comme s'il utilisait les garde-fous de la pensée logique pour s'aventurer sur des sentiers inconnus.

2.3. intuitif / déductif

     Que se passe-t-il lorsque nous sommes confrontés à un problème nouveau ? D'abord nous tentons de lui donner une forme connue en cherchant dans notre mémoire, dans notre expérience un exemple similaire. Plus le problème est nouveau, plus nous devons faire appel à notre imagination pour inventer une représentation heuristique des données. Et ce n'est qu'après avoir imaginé un ensemble d'hypothèses que nous pouvons entreprendre d'en démontrer la validité (raisonnement hypothético-déductif).

     En fait les choses sont certainement plus complexes, il faudrait plutôt parler d'un aller-retour incessant entre des phases d'invention générées par des rapprochements et des phases de déduction où nous passons le relais à des méthodes analytiques précises et puissantes.

     C'est en ayant recours à des stratégies informatiques diversifiées que l'on peut espérer cerner au plus près toutes les facettes de la connaissance. Aucune approche ne peut à elle seule rendre compte de l'acte cognitif dans sa totalité et la richesse des utilisations pédagogiques de l'informatique dépendra demain de la capacité à intégrer des systèmes multiples. C'est l'objectif du couple Hypercard/Prolog que nous présentons ici.

II. LES HYPERMÉDIAS POUR TRAVAILLER PAR ASSOCIATION D'IDÉES

     L'idée des hypermédias est ancienne (Bush 1945, Nelson 1965), mais ce n'est que ces dernières années qu'ils ont pu être implantés sur des micro-ordinateurs, ce qui est la moindre des choses pour un outil intellectuel que l'on souhaite le plus proche possible de l'utilisateur.

1. Structuration des connaissances

     La structuration des connaissances dans un hypermédia n'est donnée qu'en partie car elle résulte essentiellement d'une démarche active de l'utilisateur.

1.1. Le jaillissement des connaissances

     Les connaissances sont présentées dans un désordre relatif. Entendons par là que l'ordre de leur utilisation n'est pas prédéfini. Bien sûr les liens existent qui relient un noeud de connaissance à un autre, mais l'activation de ces liens est laissée au libre arbitre de l'utilisateur.

     Ces connaissances ne sont pas figées dans un formalisme strict. Le vecteur privilégié est la langue naturelle, mise en valeur par un jeu de miroirs qui nous fait naviguer d'un mot à l'autre. L'environnement graphique vient enrichir encore les informations apportées par les mots. Comme dans la vie réelle, la communication est ici redondante, elle conserve toute la richesse et l'ambiguïté propre à la polysémie de la langue.

     L'utilisateur butine (to browse) d'une idée à l'autre faisant son miel avec tout ce qui l'attire, comme le lecteur qui poursuit une idée en feuilletant un livre à la recherche d'informations nouvelles pour étayer une hypothèse, pour répondre à un questionnement. Il y a mille façons d'utiliser une encyclopédie, il y en a cent fois plus de manipuler un Hypertexte qui offre des formes de navigation que nous ne pouvions même pas soupçonner à travers le support papier.

1.2. Sens et contexte

     Le sens n'est pas donné, il est construit. Dès que nous entrons dans un domaine un peu complexe, nous ressentons le besoin d'aborder la connaissance par plusieurs biais. Les concepts s'étayent les uns les autres et isolément un mot ne signifie rien, ou plutôt il peut tout signifier ce qui revient au même.

     Un nouveau concept (ou une nouvelle image) ne vient pas comme une couche supplémentaire s'ajouter à la somme des connaissances acquises. Il se forge peu à peu à travers les relations qu'il tisse avec d'autres connaissances anciennes soit en s'opposant, soit en s'identifiant à des éléments connus. Cela peut renforcer ou déstabiliser tout un système cognitif, parce que les connaissances anciennes sont revisitées à la lumière des connaissances nouvelles.

     Un réseau hypermédia matérialise les relations existantes entre les concepts. Et lorsque nous le parcourons le sens perce peu à peu sous les liens que nous activons entre des noeuds de savoir. On pourrait dire que le sens est plus dans le parcours que nous effectuons, dans les rapprochements que nous imaginons, que dans ce qui est donné à lire ou à voir.

1.3. Une restructuration

     Le réseau hypermédia n'est pas une matrice vide. En créant des objets reliés les uns aux autres, le concepteur a déjà déterminé une certaine structuration. On clique sur un bouton, un nouveau document apparaît en relation avec le précédent. Sous un mot souligné, un texte caché est révélé proposant une définition ou une extension du sens.

     Le type des objets manipulés est aussi une forme de structuration importante. Les textes se présentent sous des formats divers plus ou moins enrichis, une image vient s'inscrire dans un cadre donné. Un bouton déclenche une action prévue par un algorithme. C'est tout un réseau d'informations qui est déjà présent lorsque l'utilisateur pénètre dans un hypermédia.

     Et pourtant, les choses ne sont pas jouées. Il reste encore l'essentiel : l'exploration du réseau comme on l'entend en fonction des attentes que l'on peut avoir à un moment donné. Cette exploration laisse une grande part à l'autonomie de l'utilisateur. C'est lui qui en choisissant tel parcours plutôt que tel autre va restructurer les données selon son propre usage. Choisir de cliquer sur un mot qui contient des informations au lieu de continuer à lire séquentiellement le texte n'est pas indifférent, cela va donner un éclairage nouveau au texte lui-même.

1.4. Le monde des objets

     La notion d'hypermédia s'inscrit dans la philosophie de la programmation orientée objet. Née des recherches menées par Alan Kay à Palo Alto, cette approche de l'informatique, qui a débouché sur le langage SmallTalk et sur l'architecture du Macintosh, a inspiré les créateurs d'Hypercard.

     L'élément de base, la carte, hérite des propriétés de la classe à laquelle elle appartient : le fond de cartes. Ces propriétés sont les boutons, les champs, les dessins. Les fonds de cartes eux-mêmes peuvent être considérés comme les instances de la classe supérieure qu'est la pile. On peut enfin travailler sur plusieurs piles qui dépendent toutes de la pile supérieure appelée Home. Tous les objets peuvent s'envoyer des messages et le système s'en envoie à lui-même en permanence. Les messages remontent dans le système, tant qu'ils n'ont pas été utilisés, en respectant la hiérarchie depuis le bas, la carte courante, jusqu'au sommet, la pile Home et le langage HyperTalk.

     La grande nouveauté réside dans le fait que le programme à exécuter n'est pas dans l'objet qui émet le message mais dans celui qui le reçoit. Cela en fait un outil privilégié pour construire des hypermédias. Tous les objets du même type réagiront de la même façon et l'on peut à tout moment rajouter un nouveau noeud dans le réseau sans en perturber le fonctionnement global.

2. Apprentissage par association

2.1. Association d'idées

     Un hypermédia se parcourt en sautant d'une idée à l'autre. Ce cheminement est au raisonnement logique ce que les graphes sont aux arbres. Il apporte un degré de liberté supplémentaire en rendant possible tous les détours imaginables par des chemins de traverse.

     Le discours perd la linéarité qu'il a dans une démonstration ou dans un récit organisé. Ainsi la communication peut s'adapter exactement au fonctionnement du récepteur. A la lecture d'un document l'un voudra avoir une définition pointue d'un terme employé, l'autre se contentera du libellé du concept sous sa forme simple mais cherchera par contre le support de l'image pour préciser une notion, etc.

     Cela va bien au delà du simple confort intellectuel. On touche peut-être ici à l'enjeu même de la cognition. La pédagogie nouvelle a montré que la qualité de l'apprentissage dépendait des attentes, des questionnements que l'individu se donne. Tout simplement parce que pour intégrer un concept nouveau il va falloir le lier à ceux que nous avons précédemment construits.

     A travers ces associations d'idées on atteint des mouvements profonds de réorganisation de notre système cognitif. Un nouveau noeud apparu dans le réseau de notre univers mental bouleverse un équilibre qui n'était que très provisoire, comme si le réseau de nos idées devait recalculer toutes ses connexions en fonction du nouveau concept pour se réorganiser jusqu'à ce qu'un ordre éphémère s'installe. Cela n'est pas sans rappeler l'apparition d'attracteurs étranges dans un système chaotique, on y dénote la même sensibilité aux conditions initiales représentées ici par l'introduction d'un nouveau concept. Ainsi tout un système de pensée peut jaillir d'une idée nouvelle.

2.2. Apprentissage par l'expérience

     Cette démarche cognitive laisse une plus grande part à l'initiative de l'utilisateur. Celui-ci a la possibilité de déclencher à tout moment des actions. En toute liberté il ira lire un nouveau document, imprimer un texte, consulter un graphique. Plus le monde dans lequel il se déplace lui est familier plus la navigation obéit à une interrogation personnelle.

     C'est en agissant sur des outils qui deviennent comme le prolongement de nos sens que nous nous approprions l'univers dans lequel nous déplaçons. Tels les jeunes enfants du vivarium d'Alan Kay, le monde virtuel que nous explorons devient si familier que nous en prenons les habitudes. Peu à peu, sans même nous en apercevoir, nous devenons ce monde. Ses lois et les concepts qui le structurent ont été complètement intégrés. Faut-il encore qu'à la source de cette quête de savoir il y ait cette interrogation première, ce questionnement personnel, sans lequel l'expérimentation se réduit à un circuit organisé dénué d'intérêt.

III. L'APPROCHE SYMBOLIQUE À TRAVERS LA PROGRAMMATION EN LOGIQUE

     Le langage Prolog (PROgrammation en LOGique) est né a Marseille au début des années 1970 dans l'équipe de recherche d'Alain Colmerauer à la faculté de Luminy. Nous nous référons ici aux versions Prolog II+ et Prolog III diffusées par la société PrologIA.

1. Le traitement symbolique des informations

1.1. Approche symbolique

     Toute la philosophie de l'IA, depuis ses origines dans les années 50, repose sur le traitement symbolique des informations. Pour elle l'ordinateur opère sur des objets physiques, les symboles, qui n'ont aucun sens en eux-mêmes mais représentent des réalités extérieures à la machine.

     Ce modèle a servi, par analogie, au cognitivisme dans les années 70, pour décrire ce que l'on pensait être le fonctionnement de notre cerveau. On parlait alors de connaissances « computationnelles ».

     Comment le sens vient-il aux symboles ? Le contact avec le monde permet au système cognitif humain de munir de sens les symboles. La représentation des connaissances consiste à établir une correspondance (interprétation) entre le monde extérieur et un système symbolique traitable automatiquement.

     En Prolog les symboles employés sont les prédicats. Un prédicat avec ses arguments permet de représenter des concepts sous la forme :

  • de propositions (il_fait_beau),
  • de propriétés (couleur(X)),
  • de relations (père(X,Y)),

     Un programme revient à exprimer des connaissances à l'aide de symboles judicieusement choisis. Ce choix qui est complètement indifférent sur le plan théorique ne l'est pas en pratique car c'est lui qui va déterminer la lisibilité du programme.

     Par exemple :
     grand_père(X,Y) -> père (X,Z) père(Z,Y) ;

     Cela peut signifier clairement en français : il est vrai que X est le grand-père de Y si je peux démontrer que X est le père de Z et que Z est le père de Y.

1.2. Le traitement de l'information

     Un système formel se compose de symboles qui s'assemblent en formules, lesquelles s'engendrent mutuellement par l'application des règles d'inférences. Les formules vraies (au sens logique) n'engendrent que des formules vraies. D'une axiomatique donnée au départ on peut déduire ainsi tous les théorèmes susceptibles d'être démontrés.

     Un système formel soumet les symboles à des transformations calculables dans lesquelles n'intervient que la forme des énoncés. De façon identique, pensent les psychologues cogniticiens, le cerveau traite l'information venue du monde extérieur. Il reçoit de l'information, la compare aux informations déjà stockées dans la mémoire, puis il effectue tous les traitements nécessaires afin de prendre les décisions appropriées.

     Pour être « calculables », les symboles utilisés doivent obéir aux règles strictes de la logique formelles. Ils doivent respecter rigoureusement la syntaxe et le vocabulaire du système considéré afin d'être reconnu par lui comme des expressions bien formées. Celles-ci pourront ensuite être manipulées comme des objets mathématiques auxquels on appliquera les règles du calcul des prédicats.

2. Un langage de démonstration

2.1. Démontrer pour prouver

     C'est grâce à la démonstration que la pensée peut se construire sur des bases solides et anticiper les conduites opératoires. En effet, l'expérience n'est porteuse de savoir réel, réinvestissable, que lorsqu'elle est théorisée. C'est à dire lorsqu'on peut démontrer que ce qui a été observé une fois se reproduit toujours quand les conditions identiques sont réunies.

     Prolog possède un algorithme général pour gérer le non-procédural, les connaissances brutes. Il s'appuie sur le calcul des prédicats, c'est à dire la logique propositionnelle associée à des quantificateurs. La puissance de Prolog vient du fait qu'il utilise une stratégie de résolution capable de s'appliquer à n'importe quelle base de connaissances écrite dans le formalisme des clauses de Horn qui sont des règles à une seule conclusion. Ce langage est en mesure de démontrer automatiquement un but que l'on cherche à prouver grâce au principe d'unification. L'algorithme de Robinson permet de prouver un théorème en démontrant que l'ajout de son contraire au système aboutit à une incohérence.

     Non seulement Prolog est en mesure de dire si telle hypothèse est vraie ou fausse mais il propose en même temps les valeurs prises par les variables (instanciation) pour que la réponse soit vraie.

     Tout problème qui pourra être décomposé en sous-buts élémentaires peut être résolu par Prolog. Cela suppose bien sûr que l'on puisse réduire un ensemble de connaissances en modules élémentaires articulés les uns avec les autres en une cascade de syllogismes.

2.2. réductionnisme

     Hofstadter a ironisé dans Le rêve booléen (1982) sur les limites de l'approche réductionniste :

« Tous les chercheurs en IA ont commencé par croire qu'ils pourraient reproduire toute la cognition par une approche descendante à 100 % : des fonctions appelant d'autres fonctions et ainsi de suite jusqu'à ce qu'on atteigne, tout au fond, des fonctions primitives. On pensait ainsi que la cognition pouvait être décomposée selon une hiérarchie, la cognition de haut niveau se déroulant au sommet et dirigeant la cognition de bas niveau, se déroulant en dessous...

     L'IA traditionnelle pense que la solution réside dans l'amélioration des démonstrateurs de théorèmes d'un quelconque calcul des prédicats... Ces techniques combinent de petites unités logiques pour fabriquer de grandes structures logiques... On raisonne dans un univers où tout est bien net, étiqueté à l'avance, où tout est spécifié a priori (Prolog est parfaitement adapté à la spécification de problèmes)... À la base de l'intelligence, il y a les symboles qui dénotent, réfèrent à une réalité... Cette IA croit que la pensée rationnelle est faite tout simplement d'étapes élémentaires dont chacune peut être considérée comme un atome de pensée rationnelle. »

     Le paradigme réductionniste qui s'identifiait jusqu'à présent avec la démarche scientifique même, est battue en brèche aujourd'hui par les sciences de la complexité qui entendent décrire la réalité telle qu'elle est et non pas telle qu'on voudrait qu'elle soit.

3. Apprentissage par expérimentation

3.1. Des expériences de pensée

     Si l'on admet que la formalisation, en tant que moment incontournable de la connaissance scientifique, contribue à consolider la pensée rationnelle, la question qui va se poser est de savoir comment permettre à chacun de se construire les outils de la pensée abstraite. Prolog apporte une réponse en nous permettant d'explorer explicitement le labyrinthe de la pensée conceptuelle en exprimant les relations logiques essentielles dans un domaine du savoir.

     C'est un outil qui permet de faire des expériences de pensée à deux niveaux :

. En tant que langage de programmation

     La souplesse de Prolog tient au caractère déclaratif des connaissances. Les clauses sont indépendantes les unes des autres et il n'y a pas de différence de nature entre les données et les règles. Dans la programmation déclarative il n'est pas nécessaire de préciser ce qu'il faut faire avant et après, ni comment appliquer une règle. C'est différent de la programmation procédurale de type Pascal dans laquelle il faut définir dans le détail, par blocs successifs qui s'emboîtent mécaniquement les uns dans les autres, toutes les opérations que la machine doit réaliser impérativement dans l'ordre donné.

. En tant que moteur d'inférences

     Prolog assure le lien entre l'induction (on cherche à démontrer un but) et la déduction (stratégie de résolution). Le chaînage arrière privilégie le questionnement. Le but que l'on cherche à démontrer en posant une requête, est une conjecture que l'on formule à l'intérieur d'une problématique. C'est l'hypothèse de travail. On dispose avec Prolog d'une calculette à raisonner, un démonstrateur automatique de théorèmes, pour résoudre les classes de problèmes qui relèvent du calcul des prédicats. Cela permet de multiplier les tentatives pour aborder un problème par essai-erreurs, en formulant à chaque fois de nouvelles hypothèses.

3.2. Expliciter l'implicite

     La version Prolog III s'est enrichie d'une nouvelle dimension avec la possibilité de déterminer des contraintes pour délimiter le champ à l'intérieur duquel la machine va rechercher toutes les combinaisons possibles.

     Dans un même programme on peut maintenant coupler l'exploration tous azimuts propre à la stratégie d'unification de Prolog avec le respect de contraintes arithmétiques et booléennes qui garantissent l'efficacité heuristique du travail réalisé.

La programmation logique par contraintes

     Un programme est un ensemble de faits vrais déclarés par le programmeur. Une règle sans prémisse et sans variable est un fait explicite. Toutes les autres règles sont des procédés de déduction pour produire des faits implicites. Le travail de Prolog consiste à résoudre un système de contraintes.

« Un programme Prolog III ne vise pas à modifier les variables mais à les déterminer. Programmer en Prolog III consiste à décrire les contraintes qui pèsent sur un arbre initialement inconnu, représenté par une variable qu'il s'agit de dévoiler. Une requête est formée de buts accompagnés éventuellement par un système de contraintes.
Une réponse {---} est un ensemble de contraintes qui accompagne la résolution d'un système. Les instanciations correspondent à des contraintes pesant sur les variables pour réussir la démonstration. Un ensemble vide dénote une absence de contraintes. »
(Manuel de référence PrologIA)

     La programmation en logique et les hypermédias ont comme caractéristique commune de favoriser les démarches d'apprentissage autonomes fondées sur un questionnement préalable. Réunis au sein d'un même système, ils couvrent la diversité des approches cognitives : procédurales, déclaratives et analogiques.

IV. L'AUTO-APPRENTISSAGE PAR DÉDUCTION ET PAR ASSOCIATION D'IDÉES

1. Auto-construction du savoir

1.1. Les mondes virtuels

     Les environnements de programmation en logique et les hypermédias sont des mondes virtuels dans lesquels l'utilisateur navigue au grès de ses interrogations, de sa curiosité. Ces mondes ne sont pas la réalité mais ils permettent de simuler une certaine réalité. Ils cherchent à en imiter la complexité sans avoir à expérimenter pour de vrai. C'est un substitut à l'expérience concrète souvent inaccessible dans les conditions d'apprentissage.

     L'apprentissage a lieu par osmose. Immergé dans un univers qui réagit aux sollicitations, l'utilisateur s'imprègne de ses concepts jusqu'à ce qu'ils lui deviennent familier au point de ne plus en être conscient. On apprend en faisant, par la pratique, parce que l'on est confronté à des problèmes précis qu'il faut résoudre. On s'adapte aux réactions de la machine et en s'adaptant on se construit le savoir que contient cette machine.

     Cliquer sur un bouton, consulter le texte d'un champ, ouvrir une carte, poser une question, interpréter les réponses, repartir dans une autre direction, etc. Autant d'actions à travers lesquelles émerge la compréhension du monde dans lequel nous évoluons.

     Une telle démarche convient parfaitement aux pédagogies actives qui mettent en avant l'initiative de l'apprenant. On n'apprend bien que ce que l'on cherche à comprendre. Ces mondes virtuels qui sont fait pour exciter notre imagination, susciter des questions sont des terrains d'expérimentation idéaux (dans les deux sens du terme). On peut y vérifier une hypothèse en interrogeant Prolog, suivre la trace d'un raisonnement, chercher une information, etc. Peu à peu on noue les liens d'un savoir complexe dans lequel existent plusieurs chemins pour atteindre le même but et où l'on peut atteindre plusieurs buts au cours du même chemin.

     Mais attention... Malgré les qualités d'un tel système, la connaissance n'y relève pas de la compréhension réelle du monde mais seulement de la simulation des processus de compréhension à travers ce qui demeure, si précis soient-ils, des mondes virtuels. Or comme le rappelle John Searle (cf. Pour la science, mars 1990), c'est une erreur de croire qu'une simulation formelle puisse être une chose réelle. La simulation d'un incendie n'est pas un incendie.

     Colonna d'Istria écrit dans Le Monde diplomatique de mai 1991 : « En nous coupant du réel, ces technologies de simulation cognitive peuvent aussi altérer nos capacités d'analyse. En s'interposant entre le monde et l'individu, elles peuvent contribuer à son enfermement. »

1.2. Des connaissances locales

     François Léonard, en s'appuyant sur l'exemple de la didactique des mathématiques, a montré comment la connaissance procède par paliers. La connaissance tend à se stabiliser comme sous l'effet d'un attracteur dès que nous pensons être en mesure de résoudre une classe de problèmes. Un aspect nouveau provoque une perturbation et nous amène à construire par auto-organisation de nouvelles connaissances, à un niveau supérieur, etc.

     Les connaissances locales sont à l'échelle de l'individu ce qu'un paradigme scientifique représente pour toute une communauté scientifique dans la théorie de Thomas Khun. Le scientifique travaille dans le cadre du paradigme dominant, en l'acceptant totalement, jusqu'à ce que la confrontation avec un nouveau paradigme débouche sur une révolution scientifique.

     François Léonard écrit :

« Les connaissances locales sont des connaissances correctes dans certaines limites, mais on ignore l'existence de ces limites. Trois critères garantissent leur stabilité :

a - La cohérence psychologique
Une connaissance locale est source de stabilité dans la mesure où elle répond aux perturbations. Plus une connaissance locale a fonctionné avec succès et plus ce fonctionnement est proche dans le temps, plus elle aura de chances d'être utilisée.

b - Validité dans le champ de connaissance
Une connaissance locale est adaptée à un apprentissage spécifique qui relève d'une didactique propre au champ de connaissance.

c - Efficacité dans le domaine d'application
Une connaissance locale réussit lorsque son domaine de validité coïncide avec la majorité des questions posées. Ainsi le comportement de l'élève en classe est d'abord soumis à la contrainte d'une réponse. L'enseignant s'adapte aux connaissances initiales des élèves en privilégiant les exemples qui marchent. Celles-ci sont donc renforcées, stabilisées, ce qui est source de difficultés ultérieures. On peut le constater à travers l'effet pervers des exercices d'application répétitifs. »

     On peut trouver dans les micro-mondes une illustration de ce modèle. Dans un environnement complexe, où tout interagit avec tout, nous n'avons de cesse de trouver un fil conducteur qui guide notre parcours. Muni de cette grille de lecture, nous allons l'exploiter tant qu'elle nous donne satisfaction. Puis viendra un moment où nous ne pourrons plus contourner les difficultés rencontrées et où il faudra reconsidérer notre vision des choses, reconstruire de nouveaux schémas conceptuels en détruisant les anciens (ce qui est souvent une opération pénible).

     Avec les hypermédias, associés à la programmation en logique, la stratégie d'auto-apprentissage nous laisse le choix de décider si nous devons renforcer nos connaissances acquises ou explorer de nouvelle voies qui risquent de nous déstabiliser. Ainsi l'apprentissage procède par bonds successifs (avec parfois des régressions) au rythme du processus d'intégration de chaque individu.

2. Complémentarité des approches psycho-pédagogiques

« À trop privilégier le perceptif l'explication ne nous serait plus accessible ; à considérer exclusivement ce qui est formalisable logiquement, une bonne partie de ce par quoi nous sommes au monde nous échapperait. »

     La démarche par association d'idées permet de simuler rapidement un processus complexe pour en avoir une vision globale, pour le comprendre. Mais seule la démarche analytique qui s'appuie sur un traitement symbolique des connaissances permet d'en expliquer le fonctionnement.

     C'est ainsi qu'Alain Grumbach a étudié « une situation d'apprentissage qui met en oeuvre des acquisitions d'automatismes (apprentissage implicite) ainsi que de connaissances (explicites) dans laquelle la compétence acquise relève à la fois d'un niveau symbolique et d'un niveau sub-symbolique, connexionniste. Cette recherche tente de mettre en relation ces deux modèles de représentation à travers :

  • l'acquisition de compétences associatives, connexionnistes

  • l'acquisition de symboles guidés par un professeur

  • l'ancrage de ces symboles dans la réalité perçue par le sujet »

     Le projet de station de travail que nous présenterons dans le prochain numéro s'inscrit dans la même perspective. Hypercard joue le rôle du réseau d'informations dans lequel nous nous déplaçons par association d'idées pour acquérir des compétences implicites. Prolog est le tuteur avec qui nous allons parcourir le dédale des règles logiques.

Gérard Clergue
Responsable du laboratoire informatique de l'INJEP à Marly
Chargé de cours en Sciences de l'Éducation à l'Université de Paris X

Suite de l'article dans le Bulletin n° 70.

Paru dans le  Bulletin de l'EPI  n° 69 de mars 1993.
Vous pouvez télécharger cet article au format .pdf (195 Ko).

___________________
Association EPI

Accueil

Sommaires des Revues