Régimes de sens et logique des sciences
Interactions socio-sémiotiques et avancées scientifiques

Jean-Paul PETITIMBERT

CeReS - Université de Limoges

https://doi.org/10.25965/as.5914

Index

Articles du même auteur parus dans les Actes Sémiotiques

Mots-clés : auto-organisation, complexité, déterminisme, émergence, hasard, incomplétude, interaction, régime de sens, régime d’interaction, sciences exactes, socio-sémiotique, téléologie

Auteurs cités : Christian DE DUVE, Albert EINSTEIN, Eric LANDOWSKI, Jacques MONOD, Edgar MORIN, Ilya PRIGOGINE

Plan
Texte intégral
Note de bas de page 1 :

 Steven Weinberg, Les trois premières minutes de l’Univers, Paris, Seuil, 1978, p. 179.

« Plus nous comprenons le monde, plus il nous semble dépourvu de signification »1. Cette citation du prix Nobel de physique Steven Weinberg résume à elle seule les deux principaux motifs qui sous-tendent l’activité scientifique depuis 2500 ans. Il y est bien sûr d’emblée question de découvrir et de rendre intelligible en les expliquant le quoi et le comment des choses et des êtres dont le monde qui nous entoure est peuplé. Mais au-delà de ce premier programme narratif, ce que sa formulation révèle, c’est qu’il « semblerait » en exister un second dont l’objet de quête serait non plus l’élucidation des phénomènes, mais bien leur signification. Or ce deuxième programme semble a priori exclu du champ des sciences dans la mesure où elles ne sont pas, en principe, censées s’intéresser au sens des objets qu’elles étudient, voire postulent qu’ils n’en ont pas (ce qui ferait de la conclusion de Weinberg une tautologie d’une confondante banalité).

Note de bas de page 2 :

 Eric Landowski, « Le papillon tête-de-Janus », Actes Sémiotiques, 110, 2007.

Pourtant, c’est pour donner à l’existence humaine et à son destin un autre sens que celui auquel le réduisait la croyance en l’intervention divine dans les affaires du monde que les premiers balbutiements intuitifs de la pensée rationnelle ont vu le jour, tel l’atomisme de Leucitte, de Démocrite, d’Epicure et de Lucrèce. C’est donc bien à la question du sens de la vie, « formule fréquente dans la bouche de Greimas »2, que s’attaquait la philosophie antique. En se donnant pour tâche de libérer l’homme de ses croyances et de ses craintes (arbitraire divin et finitude humaine), elle visait en fait à remplacer un système de croyances par un autre et posait du même coup les bases de l’activité scientifique telle que nous la connaissons aujourd’hui. En d’autres termes, c’est dès l’antiquité que se mettaient en place les programmes qui lui sont sous-jacents et dont cette citation d’un prix Nobel contemporain montre qu’ils sont toujours à l’œuvre plus de deux millénaires plus tard.

Note de bas de page 3 :

 Cf. id., Les interactions risquées,Limoges, Pulim, 2005.

Mais du point de vue spécifiquement sémiotique qui nous occupe, un des aspects frappants dans cette conclusion de Weinberg sur le caractère « in-sensé », ou pour le moins « in-signifiant », du monde, c’est qu’elle entre en parfaite résonance avec l’un des régimes de sens et d’interaction que le modèle développé par la socio-sémiotique a mis au jour, à savoir, celui de l’assentiment (à l’aléa)3. A partir de ce point de convergence inattendu entre deux domaines de recherche a priori fort éloignés, il nous est apparu comme un défi intellectuel stimulant que de tenter de poursuivre cette piste et de nous interroger sur les rapports, si ambigus ou complexes puissent-ils être, que les sciences dites exactes ont entretenu à travers l’histoire, et entretiennent aujourd’hui avec le sens en général, et plus spécialement avec ses divers régimes sémiotiques.

1. Nécessité et hasard

Note de bas de page 4 :

 Jacques Monod, Le Hasard et la Nécessité : Essai sur la philosophie naturelle de la biologie moderne, Paris, Seuil, 1970.

Le titre du célèbre ouvrage du biologiste Jacques Monod, Le hasard et la nécessité, pourrait servir de formulation condensée pour caractériser le paradigme scientifique qui depuis la Renaissance a prévalu en occident jusqu’au milieu du XXe siècle. Il résume en effet la vision que la science a donnée du monde tout au long de l’époque moderne4.

Note de bas de page 5 :

 Pierre-Simon de Laplace, Essai philosophiques sur les probabilités, Paris, Courcier, 1814, pp. 2-3.

Des deux termes contraires qu’il rapproche abruptement, celui qui est sans doute le plus familier et le plus répandu est le second, la « nécessité ». Il renvoie directement au concept de déterminisme, c’est-à-dire à l’idée selon laquelle les phénomènes que la science étudie obéissent nécessairement à la causalité linéaire et mécanique de lois stables et inéluctables qui régissent logiquement la nature, qu’elles soient connues, permettant ainsi une parfaite prédictibilité, ou qu’elles restent encore à découvrir. Le parangon de cette conception est, au tout début du XIXe siècle, le marquis de Laplace. Relevons ces deux formules qui paraissent résumer sa pensée : l’esprit humain étant « parvenu à ramener à des lois générales les phénomènes observés, et à prévoir ceux que les circonstances données doivent faire éclore », « nous devons envisager l’état présent de l’univers comme l’effet de son état antérieur, et comme la cause de celui qui va suivre »5.

L’arrière-plan d’une telle vision est constitué de deux composantes élémentaires : un principe d’équilibre et de régularité auquel obéit l’objet et un principe de maîtrise (cognitive ou pragmatique) qui motive le sujet et conduira ses actions. Sémiotiquement parlant, c’est du régime interactionnel de la « programmation » qu’il s’agit, et de son substrat abstrait de continuité : les mêmes causes produisent invariablement les mêmes effets. Les avancées ou les hypothèses des tenants d’un tel régime sont légion dans l’histoire des sciences. Qu’il s’agisse de la loi de la gravitation universelle découverte par Newton, des analyses prédictives de l’équilibre chimique mises au point par Marcelin Berthelot, du justement nommé « programme de Hilbert » proposé par ce mathématicien allemand qui avait pour projet de démontrer la complétude de la logique, jusqu’à la théorie de la relativité restreinte et générale d’Albert Einstein, etc.

Dans cet océan de déterminisme, c’est avec Darwin que le hasard acquiert, quant à lui, droit de cité au sein des sciences. Sa théorie de l’évolution, avec son implacable loi de sélection naturelle, fait aussi du hasard un maître d’œuvre dans l’apparition accidentelle des variations qu’on constate au fil du développement des espèces. Pour Darwin, c’est sur fond d’aléa qu’apparaissent les discontinuités structurelles amenées à être transmises ensuite d’une génération à l’autre. De ce point de vue, c’est donc du régime sémiotique de l’« accident », et plus précisément de l’« assentiment » à la survenue de variations aléatoires que procède l’apparition du nouveau, avec son caratère abrupt et insensé, « dépourvu de signification », pour reprendre l’expression de Steven Weinberg. La sélection et la survie dépendent, elles, ensuite, de la plus ou moins grande adapatation (une des formes possibles de la programmation) dont ces variations sont susceptibles par rapport à l’environnement. Seules survivront les espèces dont les variations leur sont le plus favorables. Le darwinisme est donc une théorie qui combine nécessité programmatique, pour ce qui est du fonctionnement de la sélection, et hasard, pour ce qui est du surgissement accidentel des variations.

Note de bas de page 6 :

 Albert Einstein, Albert Einstein - Max Born. Correspondance 1916-1955, trad. P. Leccia, Paris, Seuil, 1972, p. 107.

Cette part darwinienne de hasard fait-elle pour autant figure d’exception dans le paradigme majoritairement déterministe ? On pouvait répondre par l’affirmative à cette question jusqu’à l’avènement dans le champ des sciences de la mécanique quantique. Einstein lui-même, dont les travaux avaient pourtant contribué au développement de cette discipline nouvelle, s’opposait fermement à ce que cette branche naissante de la physique commençait à entrevoir d’aléatoire dans le comportement des composants élémentaires de la matière à l’échelle de l’infiniment petit et de l’infiniment bref. Dans une de ses lettres à Max Born, un des pionniers de ces découvertes, il écrivait dans une formule désormais célèbre : « Cette théorie nous fait faire un bout de chemin, mais elle ne nous rapproche guère des secrets du Vieux [Dieu]. En tout cas, je suis bien convaincu qu’Il ne joue pas aux dés » (4 décembre 1926)6.

Pourtant, malgré ces résistances, la physique quantique avança et continua à mettre en évidence que le tréfonds de la matière possède des propriétés qui obéissent à des principes tout à fait contraires à ceux du déterminisme linéaire prédictif. Le tout premier de ces principes à avoir été mis au jour est celui de discontinuité, qui se manifeste par le fait que dans le monde quantique il n’y a que des multiples entiers. Il n’existe pas de paliers intermédiaires entre deux grandeurs. Non seulement les particules élémentaires ne sont pas sécables, mais surtout elles se comportent par sauts, non par degrés : entre deux positions d’une même particule, il n’y a absolument rien car ses mouvements se font par bonds discontinus. Le second « arcane » (si on peut dire) que nous retiendons pour l’instant au sujet de la théorie quantique est l’indéterminisme fondamental qui règne au sein des particules élémentaires. Ce caractère purement aléatoire amène à l’impossibilité de prévoir les résultats d’expériences, même à partir de multiples mesures répétées dans des conditions rigoureusement identiques. Le monde quantique ne permet que des mesures probabilistes. Avec ses discontinuités et ses aléas, c’est donc, on le voit, au régime sémiotique de l’« assentiment » à ce qui survient aléatoirement que la physique quantique « condamne » (en partie) la démarche du chercheur.

Note de bas de page 7 :

 J. Monod, op. cit.,p. 224.

Dans ces conditions, la formule de Jacques Monod peut effectivement être considérée comme une synthèse lapidaire des deux grands régimes d’interaction et de sens (ou de non sens) qui fondent le paradigme scientifique « moderne » : l’in-signifiance de la programmation déterministe associée à l’in-sensé de l’assentiment probabiliste. D’où cette conclusion symptomatique de son essai : « L’homme sait enfin qu’il est seul dans l’immensité indifférente de l’Univers dont il a émergé par hasard »7. Absurdité de l’humaine condition et vacuité du « sens de la vie » !

Note de bas de page 8 :

 Bernard d’Espagnat, Le réel voilé : analyse des concepts quantiques,Paris, Fayard, 1994.

Toutefois, à partir des évolutions amorcées par la physique quantique dès le début du XXe siècle (laissant déjà poindre ce que le physicien Bernard d’Espagnat appellera plus tard le « réel voilé »8), se sont peu à peu dégagés deux nouveaux grands courants dans les sciences contemporaines.

2. Incomplétude et téléologie

Le premier consiste à étendre la portée du théorème de Gödel à l’ensemble des connaissances scientifiques. En simplifiant beaucoup, ce théorème mathématique affirme que tout système fini d’axiomes contient au moins une proposition indécidable ou contradictoire. Autrement dit, la cohérence d’un système le rend nécessairement incomplet, ce qui amène à conclure qu’on ne pourra donc jamais tout démontrer (et, du coup, rend vain par exemple le « programme de Hilbert »). La science aujourd’hui sait parfaitement pourquoi elle ne saura jamais certaines choses : non seulement pourquoi elle ne pourra jamais bâtir de système cohérent et complet, mais aussi pourquoi, par exemple, elle ne connaîtra jamais la vitesse et la position d’une particule en même temps (en fonction du principe d’incertitude de Heisenberg), etc.

Dans le même temps, elle sait aussi qu’au niveau de réalité quantique, les lois de la logique et de la physique classiques sont mises à mal. Par exemple, on connaît la double nature, ondulatoire et corpusculaire, des particules élémentaires — ce qui défie la logique aristotélicienne du tiers exclu. (A cet égard, on pourrait également évoquer le célèbre exemple de superposition d’états qu’est le « chat de Schrödinger »).

Note de bas de page 9 :

 La première expérience ayant démontré cette propriété contre-intuitive a été effectuée au laboratoire d’Orsay en 1981 par Alain Aspect. Elle a été suivie et confirmée par de nombreuses autres. Personne aujourd’hui ne remet en question ces résultats.

Note de bas de page 10 :

 Olivier Costa de Beauregard, « Le dualisme onde-particule et les probabilités quantiques », Annales de la Fondation Louis de Broglie,vol. 31/1, Paris, 2006 ; voir également les Actes du colloque de l’American Institute of Physics : Quantum retrocausation : Theory and Experiment, AIP Conference Proceedings 1408, Melville (NY), 2011 ; ou les récents travaux de Huw Price, professeur de philosophie de la physique à Cambridge, sur la backward causality.

On sait aussi que le comportement des particules transcende le temps et l’espace et contredit la relativité générale. Entre deux particules initialement corrélées (par exemple deux photons émis à partir d’un même atome excité), il est à présent démontré expérimentalement qu’une fois séparées, quelle que soit la distance entre elles (serait-elle de plusieurs années-lumière), tout ce qui arrive à l’une se répercute instantanément sur l’autre (donc plus vite que la vitesse de la lumière), et qu’elles forment donc un tout. On appelle cette propriété la non-séparabilité ou  « intrication »9. Le physicien Olivier Costa de Beauregard allait même, à propos de ce paradoxe, jusqu’à avancer l’hypothèse, aujourd’hui reprise par un certain nombre de chercheurs anglo-saxons, d’une rétrocausation ou causalité rétrograde, autrement dit d’une influence possible, au niveau quantique, du présent sur le passé, ou du futur sur le présent, les trois temps existant, selon lui, « à la fois »10.

Face à de telles propriétés quantiques qui transcendent les lois de la logique et de la physique classiques, et face à l’irréductible incapacité des sciences à donner du monde observable une explication immanentiste complète, certains chercheurs ont pu ajouter à leurs séries d’hypothèses celle de l’existence d’un niveau de réalité transcendant celui que nos sens (et nos appareils de mesure ou de calcul, ce qui revient au même) nous permettent de percevoir. Ainsi, en astrophysique, de l’hypothèse du principe anthropique selon lequel l’univers serait « réglé » de telle sorte qu’il produise les conditions de l’apparition de la vie et de la conscience. De fait, les technologies numériques permettant aujourd’hui de modéliser l’évolution de l’univers en faisant varier les constantes fondamentales qui le caractérisent (gravitation, densité, vitesse d’expansion, vitesse de la lumière, etc.), on a pu générer par simulation des modèles virtuels d’univers différents. Or, dans aucun des cas modélisés, ces univers ne permettraient un tel développement générateur de la vie : tous seraient infertiles.

Note de bas de page 11 :

 Cf. Trinh Xuan Thuan, La mélodie secrète, Paris, Fayard, 1988.

Que conclure de ces expériences ? On se trouve placé devant l’alternative suivante. Ou bien il existe une infinité d’univers parallèles et il se trouve que par hasard nous habitons le seul qui réunisse les bonnes conditions. Ou bien, en recourant au rasoir d’Occam, on suppose qu’il n’existe qu’un seul univers — mais en ce cas un univers dont les réglages sont tellement fins que la probabilité qu’ils soient le fruit du hasard est quasi nulle (on l’estime de l’ordre de 1/1060) : il faut alors qu’ils soient le fruit d’une forme ou une autre d’« intentionnalité ». Ce qui amène inévitablement à postuler un principe créateur, quel que soit le nom qu’on lui donne (le grand architecte, Dieu, la Providence, le grand tout, l’univers lui-même, etc.)11.

Note de bas de page 12 :

 Cf. Michael Denton, L’Évolution. Une théorie en crise, Paris, Flammarion, 1993 ; ou encore Nature’s destiny. How the laws of biology reveal purpose in the universe, New York, Free Press, 1998.

Note de bas de page 13 :

 Ce que résume cette boutade : « Dieu joue aux dés parce qu’il est sûr de gagner », souvent attribuée au prix Nobel Christian de Duve en réponse à la célèbre formule d’Einstein (cf. ici-même, note 6).

Note de bas de page 14 :

 Cité par Paul Dupré, « Charles Darwin est-il indépassable ? », Le Monde, 9 janvier 2009.

Note de bas de page 15 :

 Simon Conway-Morris, Life’s solution : Inevitable humans in a lonely universe, Cambridge, Cambridge University Press, 2003, p. 145 (notre traduction de l’original : « the evolutionary routes are many, but the destinations are limited »).

Par ailleurs, le fait que l’astrophysique, malgré la puissance de calcul des machines modernes, ne puisse remonter le temps au-delà de 10-43 seconde après le début supposé du big bang (le « mur de Planck ») laisse la porte ouverte à toutes sortes de spéculations de nature semblable — dont les plus extrêmes, que tout conduit à écarter d’emblée en tant que pseudo-science, sont soutenues par les partisans néocréationnistes de l’intelligent design. De même, en biologie et en biochimie, un certain nombre de chercheurs réfutent aujourd’hui en partie le rôle du hasard que Darwin intégrait en totalité à sa théorie, pour le remplacer par le concept de « convergence » autour de types ou d’archétypes. Réduisant ainsi l’espace des possibles, ceux-ci agiraient en quelque sorte comme des attracteurs à la tête des macromutations et les orienteraient, débouchant sur une forme d’« évolution canalisée »12. Cette hypothèse, à son tour, autorise à postuler une intentionnalité dont les types préalablement identifiés représenteraient la trace et pour qui le hasard (qu’il est impossible d’éliminer totalement) ne serait qu’une sorte d’auxiliaire assez subalterne13. Ainsi, Simon Conway-Morris, titulaire de la chaire de paléobiologie et évolution du Département des Sciences de la Terre de l’Université de Cambridge, déclare-t-il : « Les formes fonctionnelles possibles sont prédéterminées depuis le big-bang »14, ou encore : « Les chemins de l’évolution sont nombreux mais leurs destinations limitées »15, autrement (et scientifiquement) dit, tous les chemins mènent à Rome. De son côté, le prix Nobel de physiologie Christian de Duve va jusqu’à écrire :

Note de bas de page 16 :

 Christian de Duve, Poussière de Vie, Paris, Fayard, 1996, pp. 493-494 ; cf. aussi Anne Dambricourt-Malassé, La légende maudite du vingtième siècle : l’erreur darwinienne,Strasbourg, La nuée bleue, 2000.

Selon la théorie que je défends, il est dans la nature même de la vie d’engendrer l’intelligence, partout où (et dès que) les conditions requises sont réunies. La pensée consciente appartient au tableau cosmologique, non pas comme un quelconque épiphénomène propre à notre biosphère, mais comme une manifestation fondamentale de la matière. La pensée est engendrée et nourrie par le reste du cosmos. (…) J’ai opté en faveur d’un univers signifiant et non vide de sens. Non pas parce que je désire qu’il en soit ainsi mais parce que c’est ainsi que j’interprète les données scientifiques dont nous disposons.16

Sémiotiquement parlant, de ce premier courant et des hypothèses à caractère téléologique que l’incomplétude génère et autorise (qui sont certes loin d’être partagées par tous les scientifiques), on retiendra trois composantes élémentaires : une négation (ou minimisation) de l’aléa, l’ouverture à une forme de transcendance et donc à une (possible) intentionnalité. Le régime d’interaction qu’on y reconnaît aisément est par conséquent celui de la « manipulation », régime de rapports syntaxiques entre actants (et en premier lieu entre Sujet, Objet et éventuel Destinateur) dont le correspondant, en termes de régimes de sens, est caractérisé par l’instauration de significations (par opposition à l’« insignifiance » et à l’« insensé » respectivement associés à la programmation et à l’accident-assentiment). Cette position d’une partie de la science au XXIe siècle est en tout point, on le voit, aux antipodes de celle que défendait un Jacques Monod, dont la pensée restait fidèle à celle du XIXe.

3. Complexité et émergence

Le second courant, lui, s’enracine dans les découvertes issues de l’analyse des systèmes complexes étudiés par un assez grand nombre de disciplines (mathématiques, physique, chimie, biologie, neurosciences, économie, etc.). A l’opposé des raisonnements linéaires du déterminisme laplacien qui se veulent totalement prédictifs, l’analyse des systèmes complexes, en particulier ceux qu’on appelle les systèmes dynamiques non linéaires (SDNL), met en évidence un déterminisme non prédictif dont l’exemple le plus largement connu est la célèbre métaphore de « l’effet papillon ». Il illustre parfaitement l’idée qu’un phénomène complexe restera imprévisible même si on en connaît toutes les variables. La systémique, ou science des systèmes, soutient en effet que tout système, même réduit à quelques éléments simples, risque d’évoluer dans le temps de façon imprévisible, vers la stabilité comme vers l’instabilité.

Note de bas de page 17 :

 Cette dimension n’est pas moins fondamentale pour l’approche socio-sémiotique de l’interaction puisque les régimes de sens et d’interaction qu’elle reconnaît s’interdéfinissent en même temps comme autant de « régimes de risque » différenciés. Cf. Les interactions risquées, op. cit., pp. 54-57, 72, 91.

En effet, si le déterminisme s’appuie sur la régularité des phénomènes, il suppose aussi un état — « rassurant », si on peut dire — d’équilibre du monde et de ses composants (identifiés par réduction). La complexité, elle, se propose plutôt d’analyser le non équilibre des objets qu’elle étudie. Prenant en compte l’instabilité des systèmes complexes, elle reconnaît l’insécurité et le risque qui leur sont inhérents17. Ils y sont conçus comme des organisations autonomes instables dont l’évolution est fonction à la fois de leurs conditions initiales et des interactions avec leur environnement ainsi qu’entre leurs propres composantes. Selon une telle conception, plus il y a de variables internes et externes en interaction dans un système, plus celui-ci devient imprévisible et chaotique (ce qui ne veut pas nécessairement dire désordonné). La complexité s’oppose donc au déterminisme linéaire aveugle et au réductionnisme tel que le concevait Descartes, pour qui le tout n’est mécaniquement rien d’autre que la somme de ses parties. Etant donné que dans divers domaines ce réductionnisme a fait long feu, on peut dire, à grands traits, en simplifiant, que la théorie de la complexité vient pallier l’échec de la pensée scientifique classique, analytique et logique.

Il se trouve d’ailleurs que la grande majorité des propriétés des systèmes complexes défient le sens commun et s’avèrent contre-intuitives. La logique habituelle y est battue en brèche et, pour les étudier, il devient parfois nécessaire de faire appel, par des moyens informatiques, à des modèles mathématiques non linéaires auxquels certaines disciplines, la biologie par exemple, ne sont pas habituées. Dans le même ordre d’idée, la complexité mettant davantage l’accent sur les interactions que sur les objets, ses méthodes ont un caractère souvent générique et transdisciplinaire qui ne va pas sans poser certains problèmes : coopération entre disciplines, redécoupage des champs d’investigation et de leurs frontières, chocs culturels entre traditions et spécificités de chacune, voire polémiques dès qu’il s’agit de transposer des concepts issus des sciences exactes à des domaines qui relèvent plutôt des sciences humaines et sociales, etc. Il s’agit donc d’un courant encore balbutiant. Néanmoins, malgré les difficultés, il fait l’objet d’une attention soutenue dans bien des domaines. Parmi les chercheurs et penseurs les plus connus ayant fait de la complexité leur cheval de bataille, on peut citer le prix Nobel de chimie Ilya Prigogine, le biologiste Henri Atlan, ou encore le philosophe des sciences Edgar Morin.

De ce jeune courant à caractère transdisciplinaire sont nées des notions telles que l’auto-organisation et l’émergence. L’auto-organisation des systèmes complexes est un processus de coordination au sein des composants élémentaires du système qui, en s’ajustant entre eux, en réduisent l’entropie, c’est-à-dire la tendance à la désorganisation et au désordre. Ainsi, en astrophysique, certains des adversaires du « principe anthropique », que nous avons évoqué à propos du précédent courant scientifique, considèrent que l’état actuel de l’univers est le résultat d’un tel processus complexe de disentropie (ou entropie négative).

Une autre des caractéristiques les plus frappantes de la complexité et de ses mécanismes d’auto-organisation est de permettre aux systèmes complexes de réagir adéquatement à des situations pour lesquelles ils n’ont pas été programmés. Dans ce cadre, ils peuvent par exemple développer des innovations inattendues et imprévisibles que la science connaît sous le nom d’« émergences ».

Note de bas de page 18 :

 Laurent Mayet, « L’énigme de l’émergence », Science et Avenir, Hors série n° 143, juillet-août 2005.

On dira qu’une propriété ou un processus est émergent à un niveau d’organisation donné si, bien que réductible en principe aux propriétés de ses constituants de niveau inférieur, sa survenance semble impossible à prédire a priori à partir de la connaissance que l’on a de ces propriétés.18

Autrement dit, l’émergence est la création par un système complexe donné d’une qualité ou d’une propriété globale nouvelle, qui a pour caractéristique d’être inconnue des parties qui le composent, alors qu’elles la produisent par le caractère stochastique (ou non linéaire) de leurs interactions locales.

L’émergence se définit donc de manière paradoxale, à la fois par l’ordre qu’elle génère et qui stabilise provisoirement le système, mais aussi par le désordre, propre aux relations entre composants internes du système, grâce auquel cet ordre émerge. L’émergence permet ainsi de définir la notion de niveaux où le tout (niveau global) n’est pas égal à la somme de ses parties (niveau local). L’exemple le plus banal d’un phénomène d’émergence est l’eau : cette substance possède des caractéristiques remarquables et totalement inattendues au vu de celles de ses deux composants. Pourtant la combinaison des mollécules d’oxygène et d’hydrogène, ajustées dans les proportions qu’on connaît, donne naissance à quelque chose d’absolument imprévisible et inédit.

Dans un tout autre domaine, le paléoanthropologue Ian Tattersall estime que l’apparition du langage chez homo sapiens est typiquement un phénomène d’émergence et non pas le résultat d’une tendance opérant sur la longue durée, comme le voudraient les principes programmatiques de la sélection darwinienne. De son côté, le paléontologue américain Stephen Jay Gould soutient qu’à travers l’évolution, c’est l’apparition de telles propriétés émergentes, irréductibles aux seuls organismes constituant les espèces, qui permet d’expliquer les sauts évolutifs par paliers, séparés de périodes de statu quo, dont il défend la théorie.

Note de bas de page 19 :

 Cf. J.-P. Petitimbert, « Anthropocenic Park : “humans and non-humans” in socio-semiotic interaction », Actes Sémiotiques, 120, 2017.

Mais d’un autre côté, la complexité met aussi en évidence l’existence de seuils critiques de tolérance du désordre qui, une fois franchis, font passer le système d’une stabilité provisoire à un état hautement instable. Dans ce cas là, le désordre local génère aussi du désordre global. Ceci se manifeste en particulier dans les écosystèmes. L’« anthropocène », qui est en passe d’être officiellement reconnu par la communauté scientifique comme une époque de l’histoire planétaire, en est la preuve la plus flagrante19. Dans le cas du système Terre, les interactions qui garantissaient son équilibre ont changé de nature et certains seuils semblent avoir été franchis. A l’échelle de la planète entière, c’est un point de non retour qui a été atteint : les scientifiques savent en effet aujourd’hui que certains des changements brutaux et soudains que nous constatons sont irréversibles. Du point de vue de la complexité, avant de tendre vers un nouvel état plus ou moins stable dont l’horizon est imprévisible, la Terre est actuellement entrée dans une phase chaotique incontrôlée. L’anthropocène, dont l’humanité est, comme son nom l’indique, elle-même la cause, menace donc la survie de l’espèce humaine tout entière. La complexité de cette situation problématique engage donc à penser les solutions de manière également complexe, mais c’est un autre débat.

Note de bas de page 20 :

 E. Landowski, « Jacques-le-juste », Actes Sémiotiques, 115, 2012.

Pour revenir à notre sujet, c’est vers la syntaxe actantielle de l’« ajustement » que nous paraissent tendre les principes qui animent ce dernier courant scientifique contemporain, même si ceux-ci ne correspondent pas toujours exactement terme à terme à la définition sémiotique précise de ce quatrième régime de sens et d’interaction. Le premier des principes de la complexité que nous retiendrons est son caractère non programmatique, c’est-à-dire non déterministe, donc non prédictif — ce qui place ladite théorie en position contradictoire par rapport à la conception laplacienne de la science fondée sur la continuité et la régularité. Sachant que par ailleurs la définition même de la syntaxe sémiotique de l’ajustement en fait un mode d’interaction « dont ni la forme ni l’issue ne sont entièrement connaissables à l’avance » — car dans son cadre, « c’est la dynamique même de l’interaction qui décide seule des modalités et des finalités de son propre déroulement »20—, on voit que ce régime pourrait tout à fait faire partie de l’arsenal conceptuel de la complexité.

Qui plus est, puisque l’ajustement exclut par définition toute visée ponctuelle et instrumentale entre actants et se distingue notamment par l’absence de Destinateur Mandateur pour fixer le sens et la valeur des transformations, alors l’auto-organisation, en tant que processus sui generis, entre également en résonance avec la particularité de ce régime et situe la complexité en position contraire à l’égard de la tendance téléologique précédente.

Note de bas de page 21 :

 Ibid. (c’est nous qui soulignons)

En troisième lieu, le concept non réductionniste d’émergence (du nouveau) nous apparaît comme faisant écho à la propriété qu’a l’ajustement de permettre une véritable création de sens et de valeur sous la forme d’une dynamique inédite qui se déploie entre actants, considérés comme des réserves de potentialités, et qui, « à mesure qu’elle se développe, (…) invente sa propre forme et instaure son ordre propre du sens et de la valeur »21.

Note de bas de page 22 :

 E. Landowski, « Avant-propos : Ajustements stratégiques », Actes Sémiotiques, 110, 2007.

Enfin, parce que la complexité cultive l’analyse des déséquilibres et se déploie ainsi sur fond d’instabilité et d’insécurité, elle considère que les rapports entre les objets dynamiques qu’elle étudie se situent, comme dans la logique de l’ajustement, à la frontière du chaos, « au seuil de l’accident »22 et de l’insensé. Que cette issue, dont rien ne permet d’écarter le risque, ne manque hélas pas de se produire, c’est ce que démontre l’actualité anthropocénique qui se déroule sous nos yeux et sur laquelle de nombreux chercheurs se penchent.

4. En guise de conclusion

En ce début de troisième millénaire, c’est à une mutation du monde des sciences qu’il nous est donné d’assister. Le paradigme scientifique est visiblement en train d’évoluer, même si de fortes résistances se font encore sentir, tant sont nombreux ceux qui continuent de s’en tenir aux principes de Newton, de Laplace ou de Darwin.

Note de bas de page 23 :

 Ilya Prigogine et Isabelle Stengers, La nouvelle alliance,Paris, Gallimard, 1978, pp. 13-14.

Note de bas de page 24 :

 Edgar Morin, Connaissance, ignorance, mystère,Paris, Fayard, 2017, p. 174 (c’est nous qui soulignons).

En réponse à l’essai de Jacques Monod, Ilya Prigogine et la philosophe des sciences Isabelle Stengers écrivaient quelques années à peine après sa parution : « L’opposition entre déterminisme et aléatoire est battue en brèche. (…) C’est désormais autour des thèmes de la stabilité et de l’instabilité que s’organisent nos descriptions du monde, et non autour de l’opposition entre hasard et nécessité »23. Du côté de l’incomplétude, Edgar Morin, pourtant ardent défenseur et porte flambeau de la complexité, n’hésite pas à écrire dans son dernier ouvrage, Connaissance, ignorance, mystère : « Le mystère [l’incomplétude] ne dévalue nullement la connaissance qui y conduit. Il nous rend conscient des puissances occultes qui nous commandent, qui ne sont pas principalement des déterminismes, mais qui sont comme des Daimon,intérieurs et extérieurs à nous, qui nous possèdent et nous conduisent aux folies, aux ivresses ou aux extases »24.

Que conclure ? Peut-être qu’il en ira demain des rapports entre incomplétude et complexité comme il en a été hier entre hasard et nécessité : une forme de cohabitation. Ou peut-être que c’était au fond des quatre régimes ensemble que les sciences avaient en fait besoin pour pouvoir enfin donner de la signication ou découvrir ce qui fait sens dans leurs trouvailles, alors qu’elles ne semblent relever que de l’insignifiance ou de l’insensé. Seul l’avenir nous le dira si, moyennant quelques ajustements avec la nature, notre espèce réussit à échapper à la sixième extinction de masse programmatiquement annoncée au cours de l’anthropocène.

bip