De la raison graphique à la raison computationnelle
Une brève préhistoire de l’intelligence artificielle
Cet article vise à montrer comment une rupture en apparence aussi révolutionnaire que l’apparition des technologies numériques s’inscrit en réalité dans une profonde continuité avec ce qui les précèdent : la technologie graphique de l’écriture alphabétique. La machine de Turing, modèle théorique du fonctionnement d’un ordinateur, peut être vue rétrospectivement comme le produit terminal d’une profonde réflexion sur le rapport de l’homme à son papier et à son crayon. En décrivant les conditions historiques de possibilité de l’avènement d’une discipline nommée « intelligence artificielle », cet article propose une brève histoire de la raison instrumentée comme préalable nécessaire à une critique de la raison technoscientifique contemporaine.
This article claims that the emergence of digital technologies, although seemingly revolutionary, is in fact in keeping with a more ancient revolution, that of graphic technology of alphabetic writing. The Turing machine, a theoretical model that puts forth how a computer functions, can now be seen as the end product of a deep reflection on mankind’s relationship to their paper and pencil. By analyzing the historical conditions that allowed the advent of the field called “artificial intelligence”, this article proposes to outline a brief history of the instrumented reason to show that it is a necessary prerequisite to craft a critique of contemporary technoscientific reason.
À Jean-Christophe Sevin
1. Introduction
Dans la longue histoire des technologies intellectuelles qui nous aident à penser et à nous orienter dans la géographie du savoir, l’informatique et le numérique en incarnent les formes les plus récentes : ils sont constitutifs d’une nouvelle époque de l’humanité. Tous deux occupent une place importante dans de nombreuses dimensions de notre vie, donc dans nos diverses activités, dont les conséquences sont encore difficiles à mesurer. La révolution technologique du numérique est très récente à l’échelle de l’histoire humaine, mais elle s’est déjà développée et étendue à une vitesse absolument stupéfiante. Qu’est-ce que le numérique ? Quel est son lien avec l’informatique ? Dans quelle histoire s’inscrit-il ? En quoi marque-t-il une rupture dans l’histoire des technologies intellectuelles ? En quoi pensons-nous différemment lorsque nos pratiques sont médiatisées par des outils numériques ? En quoi constituons-nous de nouveaux objets d’études et de nouvelles connaissances ?
Nous cherchons à montrer dans un premier temps en quoi l’informatique est fille de la « raison graphique » (Goody, 1979), comment cette discipline est née après une période de gestation qui s’étend de la fin du 19e siècle à la veille de la Seconde Guerre mondiale. Dans un second temps, nous argumentons en faveur de la thèse selon laquelle le numérique est fils de l’ingénierie informatique, et a donné naissance, grâce à l’invention de l’Internet et du Web, à ce que Bruno Bachimont, poursuivant le travail de Jack Goody effectué sur le support graphique, a appelé une « raison computationnelle », dont le numérique est devenu le nouveau support (Bachimont, 2004a). Cette « raison », adossée à ce nouveau principe technique qu’est le calcul, se révèle être dans son essence une raison graphique dynamisée par un support devenu opératoire et calculatoire.
2. L’écriture et la naissance de la rationalité occidentale: grammatisation et raison graphique
Une anthropologie philosophique critique des pratiques savantes doit mettre au cœur de ses préoccupations les techniques d’enregistrement et de conservation de la mémoire. Car la philosophie est née dans le contexte de la Grèce, dans un rapport fondamental à la technique de l’écriture (Détienne, 1988).
L’apparition de l’écriture fut d’une importance considérable dans la structuration de la société grecque. En effet, sans l’écriture, il n’y aurait pas eu la publication du droit, l’isonomie publiquement constituée par l’inscription de la loi, et donc l’ouverture d’un espace et d’un temps politique : l’espace-temps de la cité (Stiegler, 2010). Or l’écriture rend possible une réflexivité dans la mesure où elle implique l’enregistrement exact de la parole (Stiegler, 1996), transformant ainsi le rapport que nous avons au langage, mais aussi à ce que l’on fait et à ce que l’on dit. La réflexivité généralisée, le rapport à soi et aux autres induit par la mise en miroir de ce que l’on fait et dit à travers la spatialisation des faits, gestes et paroles sous la forme de discours écrits, induit une mise en crise des modes de vie du fait qu’elle rend possible une activité critique à la lettre et par la lettre.
En effet, le citoyen est celui qui a acquis une compétence littérale : c’est à la fois un lecteur et un scripteur qui manipule les lettres (γράμμα), qui est capable d’analyser et de synthétiser grammato-logiquement des énoncés, pour vérifier la cohérence interne et la correspondance véridique d’un discours et produire à son tour des énoncés critiques ou des propositions positives. Ces propositions engagent un discours de vérité et impliquent des actes, c’est-à-dire des transformations effectives du réel par des décisions pratiques.
Cette situation critique aboutit à une crise de la cité au 5e siècle avant J.-C., au moment où les sophistes s’emparent de l’écriture comme d’un moyen pour contrôler les esprits par l’intermédiaire de psychotechniques de captation et de formation de l’attention (la lecture et l’écriture). Car le sophiste est littéralement le γραμματιστής, c’est-à-dire celui qui instruit et fait acquérir les lettres aux jeunes athéniens. Par conséquent, l’écriture est une technologie de l’esprit qui ré-agence les rapports des individus à eux-mêmes et aux autres.
Or l’apparition de l’écriture alphabétique constitue selon Sylvain Auroux la première grande révolution technologique intellectuelle qui a engendré un processus qui traverse toute l’histoire et qui ne cesse pas de s’étendre dans l’espace et de s’accélérer dans le temps. Ce processus, il l’appelle « grammatisation » (Auroux, 1994). La grammatisation désigne originellement l’apparition des lettres, et la discrétisation des éléments du langage qu’elle rend possible.
Trois niveaux sont à distinguer (Lassègue, 2010, 51-52) : le premier niveau, physique, est celui des sons qui constituent le flux de parole langagier. La discrétisation commence à opérer lorsque l’on segmente ce substrat audio-acoustique. Le second niveau est phonétique : la segmentation produit des phonèmes, unités linguistiques non encore pourvues de sens. Enfin un troisième niveau, proprement linguistico-langagier, c’est-à-dire signifiant, peut être identifié : il s’agit de celui où les phonèmes sont mis en relation par les fonctions syntagmatique et paradigmatique de la chaîne parlée qui définissent la structure du langage signifiant en tant qu’il est orienté vers un sens.
Ce qu’il faut comprendre, c’est que cette discrétisation ouvre la possibilité d’une reproductibilité du langage grâce à son enregistrement alphabétique (de même que l’imprimerie permettra la reproductibilité mécanique de l’écriture) qui lui-même rend possible son analyse. Or c’est cette analyse qui rend possible une discrimination, et donc un nouveau type de discernement : l’esprit est transformé par l’écriture, d’une part parce qu’il accède grâce à elle à des virtualités qu’il objective et qui étendent sa connaissance du réel ; d’autre part parce qu’il peut y avoir accès de manière indéfinie par ce que Husserl appelait la « réactivation » de l’origine (Derrida, 1962). 2500 ans après Platon, nous pouvons encore lire ce qu’il a écrit et avoir un accès littéral à sa pensée, virtuelle, donc réelle, parce que consignée alphabétiquement. Autrement dit : cela signifie que la science se trouve dans sa bibliographie (Husserl, 1959, 10).
Mais la principale transformation qu’induit l’écriture sur l’esprit, c’est celle de son rapport à la mémoire. En effet, au lieu de mémoriser un discours, si on le consigne sur du papier, l’écriture nous permet de spatialiser le flux temporel audio-acoustique et ainsi de dégager dans la chaîne alphabétique d’autres propriétés que celles de la remémoration (Bachimont, 2004b). En spatialisant la parole, nous perdons un certain nombre de propriétés (par exemple les intonations du discours, marqueurs émotionnels qui expriment toute la dimension affective qu’enveloppe la parole, signes des états d’âme de celui qui parle et qui rythment son propos etc.) mais nous découvrons de nouvelles propriétés (les règles de grammaire qui structurent notre langage par exemple). Si l’écriture produit « un supplément d’intelligibilité à la parole » (Bachimont, 2004b, 5), elle en supprime aussi certains niveaux de compréhension.
L’écriture se présente donc comme une technique qui permet de proposer à l’esprit des constructions intellectuelles nouvelles qui procèdent de la discrétisation du flux langagier et s’objectivent en chaînes d’énoncés alphabétiques. Or ces constructions permettent de constituer de nouveaux concepts, parce qu’elles donnent accès à des virtualités qui peuvent être déterminées. En effet, si « l’écriture correspond au concept de transcription phonétique, elle ne correspond pas aux concepts de grammaire et de déclinaison, qu’elle permet néanmoins de constituer » (Bachimont, 2004b, 8). Autrement dit « la technique permet à travers la structuration qu’elle apporte à l’espace et au temps de notre expérience, de constituer de nouvelles connaissances et de nouveaux concepts » (Bachimont, 2004b, 8). Jack Goody a ainsi montré comment l’écriture induit un mode de pensée et un rapport au monde spécifiques (Goody, 1979). Ces structures conceptuelles, constitutives de la raison graphique, sont : la liste, le tableau et la formule.
1° La liste. Elle permet de rassembler des éléments dispersés dans la parole (comme les mots) et donc de former un concept désignant une nouvelle connaissance sur la façon dont est organisée la langue. Par exemple, grâce au concept de « même forme lexicale », nous pouvons rassembler des mots qui se ressemblent, par exemple « rosa, rosa, rosam, rosae, rosae, rosa », et ainsi extraire un paradigme de déclinaison (système des différentes formes que peuvent prendre les mots selon leur fonction dans la phrase latine). Par conséquent, le type de pensée induit par la liste est la classification. L’opération cognitive qui lui est associée est la catégorisation entendue comme classification logique.
2° Le tableau. Il représente la mise en rapport de plusieurs listes (lignes + colonnes) selon les deux dimensions de l’espace de l’écriture. Par exemple le tableau de Mendeleïev, grâce à sa systématicité, a permis de prédire que de futurs éléments devaient être découverts (tel est le cas de l’uranium). Le type de penser induit par le tableau est alors le système. L’opération cognitive qui lui est associée est la systématisation entendue comme classification prédictive.
3° La formule. Elle désigne un procédé permettant de conduire des raisonnements en fonction de la forme, sans avoir à prêter attention à la signification des symboles écrits. Cette structure graphique est à l’origine du développement de la logique formelle et des mathématiques. L’opération cognitive qui lui est associée est la formalisation entendue comme algébrisation de la pensée.
À ces trois structures conceptuelles de la raison graphique, on pourrait en ajouter une quatrième, le diagramme, dont la plus vieille figure systématique est le carré dit d’Apulée, qui représente les relations d’opposition entre propositions théorisées par Aristote. Le diagramme, structure graphique permettant de visualiser les relations systématiques entre les parties d’une totalité grâce à un schéma synoptique, est une des matrices de la pensée structuraliste (Kim, 2008). De plus, il traverse toute la pensée philosophique et scientifique occidentales, d’Aristote à Philippe Descola, en passant par les médiévaux et les penseurs structuralistes du carré sémiotique (Bocquet, 2017).
La seconde révolution technologique de la grammatisation, Auroux la situe au moment de l’invention de l’imprimerie moderne aux 15e et 16e siècles : l’imprimerie rend possible une diffusion plus grande de l’écriture. Leroi-Gourhan a montré que la multiplication des imprimés a eu pour conséquence majeure une accumulation gigantesque des textes qui a nécessité une assistance à l’orientation dans la géographie de la mémoire collective et donc la construction d’appareils de navigation (Leroi-Gourhan, 1965 ; Stiegler 1994) offrant ainsi un gain de temps et des raccourcis dans la recherche des contenus savants et culturels.
La troisième révolution technologique de la grammatisation a eu lieu avec la convergence des technologies informationnelles (informatique, audiovisuel, télécommunications) que le numérique a rendu possible il y a une quinzaine d’années (Stiegler, 2001). Qu’est-ce que le numérique ? Un moyen universel de codage de l’information sur un support dynamique qui permet d’opérer des calculs projectifs qui régénèrent les contenus sémiotiques sur des interfaces virtuelles. Support universel de codage « donnant lieu à un système technique homogène » (Bachimont, 2004a, 15), le numérique instrumente les lois du calcul (algorithmes) pour manipuler, régénérer dynamiquement et de façon automatisée tous les contenus de connaissances et toutes les formes sémiotiques d’expression.
3. De la raison graphique à la raison computationnelle: formalisation, arithmétisation et mécanisation du raisonnement
L’informatique et à sa suite le numérique, proviennent d’un long travail initié à la fin du 19e siècle suite aux embarras et à la désorientation provoqués par l’avènement des mathématiques abstraites. Le développement des théories mathématiques au 19e siècle s’est en effet accompagné d’une abstraction croissante de leurs objets et de leurs opérations : cela a conduit les mathématiciens à s’interroger sur leur statut, dans la mesure où il n’était pas possible, dans le cas de certaines théories, de rencontrer de tels objets dans la réalité physique ou d’effectuer de telles opérations dans la réalité psychologique. Bien qu’on ait pu les penser, il était difficile de se représenter ces objets, ou d’effectuer ces opérations. Pour ces deux raisons, ces mathématiques ont été qualifiées d’abstraites pour être opposées aux mathématiques dites concrètes, qui elles mobilisent des objets appréhendables (comme les nombres entiers) et des opérations effectuables par la pensée (comme les inférences élémentaires de l’arithmétique).
Ainsi le dernier quart du 19e siècle a vu l’éclosion de la théorie des ensembles avec Cantor. Pour établir une hypothèse célèbre, plus connue sous le nom d’hypothèse du continu, Cantor a développé une théorie sur les nombres ordinaux, « qui prolongent dans l’infini la numération finie » (Cassou-Noguès, 2004, 36). Or cette théorie a révélé que le raisonnement qui permet de dépasser le dénombrable pour raisonner sur l’infini donne lieu à un paradoxe. On doit la découverte de ce dernier au mathématicien italien Cesare Burali-Forti. Ce paradoxe – suivi de ceux découverts par Jules Richard et Bertrand Russell – constituent les éléments déclencheurs qui vont amorcer la recherche des fondements des mathématiques, dont l’objectif sera de les éliminer. Ce moment historique célèbre de l’histoire des mathématiques, qui voit le jour à l’aurore du 20e siècle, est ce qu’on a appelé la crise des fondements.
Pour répondre à celle-ci, David Hilbert construit un programme de recherche, le programme formaliste, consistant à réduire les mathématiques abstraites aux mathématiques concrètes grâce à l’édification de systèmes formels. Ce programme peut se résumer en un objectif central : représenter les théories mathématiques par un système formel pour réduire les mathématiques infinitistes aux mathématiques finitistes (Largeault, 1972). Cela implique pour Hilbert : 1° de substituer aux notions mathématiques non appréhendables dans une intuition (comme celle d’infini) des symboles vides de sens qui les représentent et dont la manipulation est régie par leur seule forme syntaxique (et non par leur contenu sémantique) ; 2° de construire une métamathématique finitiste, c’est-à-dire de dégager les propriétés logiques du système qui formalise les théories mathématiques en question (complétude sémantique, catégoricité, complétude syntaxique, décidabilité, consistance).
Substituer un système formel à différentes théories mathématiques (les modèles du système) permet de constituer un langage commun à ces théories, langage qui permet d’en caractériser la structure commune. Ainsi on dispose d’une méthode pour formaliser le raisonnement mathématique, et donc pour le prendre comme objet d’étude : c’est la naissance de la théorie de la démonstration, ou métamathématique.
La construction de tels systèmes formels vise en effet à neutraliser le sens des notions mobilisées dans les mathématiques abstraites (comme l’infini actuel) en les représentant par des symboles vides de sens : les systèmes formels axiomatisés permettant ainsi d’opérer des raisonnements concrets sur les entités abstraites, alors réduites à des symboles manipulables vides de sens, dont on va vérifier que les enchaînements ne mènent pas à des contradictions.
Le programme formaliste de Hilbert peut donc être interprété comme étant une radicalisation de la formalisation rendue possible par la raison graphique animée par les deux motifs suivants : anéantir les paradoxes précités et sauver le « paradis » de Cantor. En introduisant la notion de système formel, Hilbert introduit donc dans un premier temps l’idée de formaliser les théories mathématiques (axiomatique formelle) et dans un second temps les raisonnements mathématiques (métamathématique). En formalisant les théories et la pratique du raisonnement mathématiques, il s’agit de réduire les théories abstraites aux théories concrètes, et de réduire la pratique des raisonnements abstraits à la pratique des raisonnements concrets. Les thèses sous-jacentes au programme de Hilbert peuvent donc se formuler ainsi, et ce sont elles qui fournissent le fil rouge de notre propos : tout raisonnement est réductible à un calcul et toute vérité mathématique peut être obtenue au terme d’un processus calculatoire. Autrement dit, raisonner concrètement en mathématiques, c’est pour Hilbert opérer un calcul analogue à une opération arithmétique élémentaire.
C’est aux limites de cette analogie que Kurt Gödel va se confronter en procédant à une arithmétisation du raisonnement mathématique (Nagel et al., 1989). En codant par des entiers les propriétés métamathématiques de formules de l’arithmétique élémentaire (exemple : « être une formule démontrée »), c’est-à-dire dans un système capable de formaliser l’arithmétique, Gödel arrive à construire des formules arithmétiques dont le sens métamathématique affirme leur non-démontrabilité. Le théorème d’incomplétude de Gödel met donc en échec le programme de Hilbert en démontrant la limitation interne des formalismes.
Le théorème de Gödel démontre que tout système assez puissant pour formaliser l’arithmétique comporte des propositions indécidables, c’est-à-dire ni démontrables ni réfutables dans le système, mais néanmoins vraies. La conclusion épistémologique du théorème de Gödel est donc la suivante : démontrabilité et vérité sont des propriétés distinctes, car la production de la vérité n’est pas entièrement réductible au résultat de la certitude calculatoire. Le programme de Hilbert est donc mis en échec, car le théorème démontre qu’il est impossible de réduire entièrement les mathématiques abstraites aux mathématiques concrètes. Néanmoins une certitude est acquise : il est possible d’arithmétiser une partie des raisonnements mathématiques, et la classe des raisonnements mathématiques arithmétisables est mécanisable, car il existe des machines permettant de compter : Pascaline, machine à calculer de Leibniz, machines à différence et analytique de Babbage, etc. (Goldstine, 1980).
Autrement dit, comme une partie des raisonnements peut être réduite à une classe de calculs aveugles, c’est-à-dire qui ne fait intervenir aucune intuition ni aucune intelligence humaines, alors il est possible de construire une machine qui pourrait prendre en charge de tels raisonnements. C’est en effet ce que va réaliser la machine de Turing.
En élaborant le concept d’une machine effectuant des calculs sur des symboles ayant un contenu purement syntaxique, Alan Turing a introduit la notion de calcul automatique (Turing, 1936). Cette machine est d’abord « une vue de l’esprit » car il s’agit d’un modèle mathématique visant à formaliser la notion de fonction calculable en capturant son essence. Elle est composée : 1° d’une bande mémoire divisée en cases sur lesquelles sont inscrites en entrées des données codées dans un alphabet fini ; 2° d’un programme enregistré sur cette même bande mémoire, mais sur un emplacement distinct de celui des données, contenant les instructions opératoires que la machine doit effectuer sur le code des données ; 3° d’une tête de lecture/écriture à états internes (en nombre fini et mutuellement exclusifs) appliquant les instructions du programme sur le code des données. Cette tête est capable soit d’écrire un symbole, soit d’effacer un symbole, soit de se déplacer d’une case sur la bande, à droite ou à gauche. Par exemple, le comportement de la tête de lecture, à partir de son état courant qi est déterminé par un quintuplet (S1, qi, S2, D, qj), le programme de la machine, prescrivant d’écrire le symbole S2 à la place de S1 sur la case courante, de se déplacer d’une case vers la gauche ou vers la droite (D) et de se mettre dans l’état interne qj. Lorsque la tête de lecture rencontre un couple (qj, p) qui n’est pas enregistré dans sa table de transitions, la machine s’arrête et l’ordonnancement des symboles stockés sur la bande mémoire est considéré comme le résultat du traitement calculatoire effectué par la machine.
Ainsi ce que nous a permis de comprendre la machine de Turing, c’est qu’exécuter un algorithme au sein d’un dispositif informatique est équivalent à effectuer un calcul arithmétique avec un dispositif papier/crayon. Exécuter un algorithme, dans le cas le plus simple, c’est donc effectuer un calcul arithmétique automatisé au sein d’un ordinateur, qui est une réalisation concrète du principe de fonctionnement de la machine abstraite de Turing.
Si la machine de Turing marque l’acte de naissance de l’informatique comme science, la réalisation du premier ordinateur en marque la naissance comme ingénierie. Dans informatique, il y a deux mots en un : information et automatique. L’informatique, c’est donc le traitement automatique de l’information, tel qu’il est mis en œuvre par une machine concrète, qui est un centre de calcul : l’ordinateur. Puisque le traitement est effectué par la médiation de calculs (algorithmes) sur des codages (informations), l’informatique est donc une science. Enfin, on peut dire qu’elle est une science de la nature, car elle permet de comprendre comment des systèmes physiques structurellement différents peuvent être fonctionnellement homologues, car capables d’opérer les mêmes transferts logiques d’information, et donc être susceptibles d’une même modélisation algorithmique (Chazelle, 2012, §68).
En inventant l’ordinateur, nous avons inventé une machine qui reçoit, stocke, traite et émet de l’information. L’ordinateur est une machine universelle dans la mesure où il mime le comportement de toute chose de ce monde. Il ne s’agit pas de faire l’apologie de la technologie informatique. Il s’agit de comprendre dans quelle histoire elle s’inscrit : cette histoire est à la fois technique, scientifique, politique et militaire.
4. Généalogie de notre époque: l’esprit, la vie et la nature comme machines informationnelles
Il n’y a pas de science ni de technique sans ce que l’épistémologue viennois Karl Popper a appelé un « programme de recherche métaphysique » (Popper, 1974), c’est-à-dire sans un ensemble d’idées qui charrient avec elles des propositions de réponses aux grandes questions métaphysiques (sur le temps, le sujet, l’esprit, le moi, etc.). Or la convergence NBIC apparue au début des années 2000 est mue par les idées des sciences cognitives (Dupuy, 2004). La grande idée au centre des sciences cognitives étant la suivante : tout dans l’univers est information. Idée brillamment résumée dans une formule éclatante du physicien quantique John Archibald Wheeler : « It from bit » (Wheeler, 1989). Autrement dit, tout ce qui existe vient de l’information, tout dans l’univers est information.
Dans l’histoire des idées, c’est d’abord l’esprit humain qui a été conçu en ces termes, durant la Seconde Guerre mondiale. Qu’est-ce que l’esprit ? C’est la même chose que le cerveau pour les sciences cognitives : c’est une machine informationnelle (et non un ordinateur car lorsque le programme des sciences cognitives a été lancé, l’ordinateur n’existait pas encore). L’ordinateur est donc une conséquence de cette idée, non son origine. On peut identifier l’article de Warren McCulloch et Walter Pitts, dans lequel ils montrent comment il est possible de considérer le cerveau comme une réalisation matérielle d’une machine de Turing (McCulloch & Pitts, 1943), comme un des articles fondateurs des sciences cognitives et de la cybernétique. Le second article fondateur étant l’article co-écrit par Norbert Wiener, Arturo Rosenblueth et Julian Bigelow (Wiener, Rosenblueth & Bigelow, 1943).
Les sciences cognitives s’enracinent en effet dans la cybernétique, et la cybernétique, dans le contexte de la Seconde Guerre mondiale. Comme le rappelle le père de la cybernétique, Norbert Wiener, dans son ouvrage éponyme (Wiener, 2014), c’est le contexte de la guerre qui l’a conduit avec d’autres scientifiques à usurper deux fonctions accomplies par le cerveau humain – 1° opérer des calculs et 2° rétroagir sur une conduite pour la diriger vers l’accomplissement d’un objectif – afin de réaliser deux dispositifs électromécaniques (un calculateur électronique et un dispositif de tir anti-aérien) dans le cadre d’un projet militaire de l’armée américaine.
Ensuite, c’est la vie qui a été conçue comme une machine informationnelle, avec le « groupe phage », des biologistes qui ont conduit à la révolution de la biologie moléculaire au milieu du 20e siècle, révolution couronnée par l’attribution à James D. Watson, Francis Crick et Maurice Wilkins du prix Nobel de médecine en 1962, après leur découverte de l’ADN en 1953. Qu’est-ce que l’ADN ? Dans ce paradigme, c’est le code dans lequel est écrit le programme de l’organisme vivant. Le génome est alors considéré comme le programme de la machinerie cellulaire, elle-même étant identifiée à une machine cybernétique commandant l’ontogenèse de l’individu biologique.
Enfin, c’est la nature qui a été appréhendée comme une immense machine informationnelle : un ordre pouvant être investigué au moyen d’algorithmes, nouveaux outils d’exploration des sciences de la nature se distinguant des équations de la science classique (Chazelle, 2012). Esprit, vie et nature sont donc appréhendés, dans ce paradigme, comme des machines informationnelles (Dupuy, 2004).
Dès lors si tout est information, l’objectif devient celui de se rendre maîtres et possesseurs de ces machines, en en concevant de nouvelles : c’est ainsi que la neurophysiologie, matrice des sciences cognitives, laisse la place à l’intelligence artificielle à la fin des années 1950, et l’intelligence artificielle, à l’ingénierie des connaissances, avec le développement des systèmes experts dans les années 1980-1990, systèmes à base de connaissances instrumentant la résolution de problèmes non totalement réductibles à la modélisation formelle, qu’elle soit mathématique ou logique (Bachimont, 1994).
L’ingénierie des connaissances est une branche de l’intelligence artificielle formalisant les expressions linguistiques des connaissances formulées dans le langage naturel pour obtenir des systèmes formels qui sont des modèles des problèmes à traiter. Or on sait d’après ce qui précède que tout système formel est opérationnel dans la mesure où toutes les opérations définies dans le système sont exécutables sur une machine de Turing, à partir du moment où cette exécution est compatible avec les ressources physiques de l’univers (Bachimont, 2000). Puisque le symbolisme des systèmes formels automatiques est emprunté à la langue naturelle, les résultats de leurs opérations de traitement sont donc interprétables : ils peuvent produire des formules générées syntaxiquement dont l’interprétation linguistique correspond à des formations de sens inédites, donc à de nouvelles connaissances. Par conséquent, c’est la puissance calculatoire de l’outil informatique qui permet la formation de nouvelles connaissances (Bachimont, 1996).
Pourquoi les systèmes formels automatiques parviennent-ils à faire cela ? Du fait qu’ils ne sont pas des modèles des domaines des connaissances qu’ils formalisent, mais des supports de connaissances. De même qu’un livre autorise la constitution de nouvelles connaissances (logiques et grammaticales par exemple) ; de même un système formel autorise la constitution de nouvelles connaissances, car il s’agit d’un nouveau support : un support opératoire et calculatoire, c’est-à-dire dynamique. L’ingénierie des connaissances est donc une technologie cognitive qui permet d’instrumenter la résolution de problèmes dans des domaines variés grâce à la construction de systèmes à base de connaissances appelés aussi systèmes experts.
5. Conclusion
L’intelligence artificielle a donc commencé à s’humaniser lorsqu’elle est devenue une discipline technologique visant à réactiver les deux impensés de la théorie de l’information (la signification et l’interprétation) en instrumentant la résolution de problèmes grâce aux outils informatiques: comme ingénierie des connaissances, elle est donc un projet technologique critique du programme cybernétique et de ses avatars, les réductionnismes computationnaliste et physicaliste.
Dès lors, si l’intelligence peut et doit être instrumentée par le support numérique, elle ne peut pas se réduire à un calcul, aussi complexe soit-il. Humaniser le numérique, c’est d’abord produire une critique de la raison computationnelle comme l’a fait Bruno Bachimont. Un tel geste doit être prolongé par une critique de la raison technoscientifique, dont la fonction est de réinscrire sur le corps propre des individus psychiques et collectifs les points de repère d’une société numérique cartographiée, c’est-à-dire non déboussolante. Ce sont les conditions de possibilité historique d’un tel discours critique que cet article visait à énoncer, à travers une brève préhistoire de la raison instrumentée.