Troisième partie. METHODOLOGIE APPLIQUEE

La photographie scientifique entre trace et mathématisation

Maria Giulia Dondero 

https://doi.org/10.25965/ebooks.256

p. 295-322

Sommaire

Texte

0. Introduction. Le cas de la photographie en biologie

Les disciplines scientifiques contemporaines mettent en jeu une tension entre la visée locale et la visée globale de la recherche, à savoir entre l’investigation d’un objet ou d’un parcours particulier et la tentative de modéliser et d’étendre des avancées à un nombre d’objets et de processus les plus étendus possible. Aux yeux de la conception moderne de la science, la photographie pourrait apparaître dépourvue de la capacité de gérer cette tension parce qu’elle n’autoriserait que l’examen du paraître d’un objet (et non pas l’analyse de sa structure interne) et qu’elle ne permettrait que la recherche sur le seul objet capté (visée particularisante) et non pas sa généralisation sur d’autres objets similaires (visée généralisante).

Note de bas de page 1 :

Une autre difficulté à faire valoir la photographie comme instrument scientifique réside dans le fait qu’il est difficile de réduire et/ou contrôler ses distorsions optiques. Le premier à soulever ce problème a été Ch. S. Peirce dans son rapport pour le Service géodésique des États-Unis (Report of the Superintendent of the US Coast Survey… 1869, Washington DC, Government Printing Office, 1872), effectué dans le cadre de son travail sur l’utilisation des photos en astronomie à l’Observatoire de l’Université d’Harvard. Comme l’affirme François Brunet : « les photographies ne se prêtaient pas aux opérations de mesure. Non seulement elles n’étaient pas utilisables sans un protocole précis de correction ; non seulement la méthode de calcul utilisée était défectueuse en tant qu’elle ignorait plusieurs facteurs de distorsion ; mais une combinaison de facteurs techniques et optiques impliqués dans la réalisation des images interdisait, quelle que soit la méthode, que les photographies puissent fournir des données exactes. Le raisonnement de Peirce reposait notamment sur l’identification de défauts techniques, la comparaison de valeurs sur plusieurs images prises à des moments différents et la confrontation des informations de l’image avec des données externes, optiques et astronomiques. Tout en posant implicitement en principe l’identité théorique de l’image photographique et de l’image mathématique, Peirce mettait en avant les multiples facteurs d’indétermination qui, dans la réalisation de l’image photographique, relativisaient ce principe et constituaient des sources d’erreurs. » (Brunet 2000, p. 309). Si donc les distorsions optiques ne pouvaient être corrigées, au moins Peirce reconnaissait-il une efficacité scientifique à la partie chimique du processus photographique : « On voit aussi que si la photographie, en vertu de sa base chimique en particulier, pouvait être un instrument de mesure utile (notamment dans ses usages non iconiques, comme en photométrie, domaine où Peirce reprit et amplifia des investigations commencées dès la publication du daguerréotype), l’assistant géodésique était allé très loin dans l’identification des sources d’erreur inhérentes à sa technologie optique » (ibid., p. 310, nous soulignons).

La photographie a donc été considérée, au début de son histoire, comme un outil important dans des disciplines scientifiques telles que la botanique, l’astrophysique, la géographie, etc. Elle était en fait censée fonctionner comme un miroir enregistreur de l’objet investigué mais, dans de nombreux cas, elle est considérée comme vidée de pouvoir prévisionnel ou généralisateur. D’une certaine manière la photographie ne pourrait pas accomplir ce rôle – si important en science – qui consiste à « transporter au loin des éléments du contexte » (Latour, 1993, p. 155), comme si elle était destinée à rester enveloppée par l’unicité de l’objet représenté, par le localisme de sa prise de vue, par le contexte de la situation d’enregistrement, bref comme si son mode de production lui imposait inévitablement de rester soumise à l’analyse et à la connaissance locales de ses produits1. Cette idée relève, à mon sens, d’une perspective superficielle car la photographie peut devenir un outil qui permet la modélisation d’objets qu’on ne visualise pas directement et donc un outil de prédiction.

Note de bas de page 2 :

Selon Latour, mais aussi selon Peirce, pour qu’il y ait photo scientifique il faut qu’il y ait une mise en rapport, une médiation : une image isolée n’est jamais scientifique. Célèbre est la phrase peircienne qui dit qu’« à partir de deux photographies on peut tracer une carte » : « Comme dans le cas de l’enregistrement photographique des éclipses, ce qu’exploite la méthode n’est pas la ressemblance de chaque photographie à des objets particuliers, mais l’analogue idéal de la topographie que constitue la collation géométriquement déterminée de deux photographies » (Brunet, 2000, p. 315, nous soulignons). C’est en fait la composition méthodiquement organisée de plusieurs images, à savoir l’« image composite », qui constitue un instrument de fiabilité scientifique. On s’aperçoit finalement que la conception de l’iconicité chez Peirce, qui prend comme exemple le plus significatif les formules algébriques ou l’image moyenne (« photographie mentale composée »), peut nous aider dans l’identification des processus de constitution de l’objet scientifique.

Pour démontrer cela, on analysera tout d’abord, dans cette étude, le cas de la chronophotographie d’Etienne-Jules Marey, qui la première a permis la modélisation des données visuelles du mouvement, et ensuite le rôle de la photographie en archéologie (photographie d’objets provenant des fouilles) ainsi qu’en astrophysique (photographie du parcours du soleil d’une part et photographie calculée des trous noirs de l’autre). Cette investigation nous amènera à prendre également en compte des instruments d’accompagnement de la photo tels que le dessin et le schéma, en suivant l’idée latourienne qu’« aucun instrument n’est lui-même final. L’inscription de l’un devient le monde de l’autre […] Pas de représentation, sans représentation. Ce ne sont pas les inscriptions que nous étudions mais une cascade d’inscriptions qui se représentent les unes les autres, se résument, s’analysent, se recombinent » (Latour, 1993, p. 153, nous soulignons)2.

À ce sujet, un des articles les plus importants qui ait été publié au cours de ces 20 dernières années est sans aucun doute « The externalized retina : Selection and Mathematization in the Visual documentation of Objects in Life Sciences » (1990) du sociologue des sciences Michael Lynch dans lequel il identifie, dans le domaine de la biologie, deux méthodes de construction de l’objet scientifique via la visualisation : celui qui sélectionne (les données sont schématisées) et celui qui mathématise (un ordre mathématique est attribué aux objets). Dans cet article, Lynch suit les transformations orientées des propriétés valorisées par chaque type de représentation et montre comment les représentations schématiques transforment les images photographiques de départ (Figure 1).

Figure 1. Champ de chromosomes, photo prise par James A. Lake, « The Ribosome », Scientific American 245.2 (August 1981), p. 86.

Figure 1. Champ de chromosomes, photo prise par James A. Lake, « The Ribosome », Scientific American 245.2 (August 1981), p. 86.

La photographie des ribosomes (image du haut) devient elle-même une source première par rapport à la schématisation (image du bas) et est valorisée par cette dernière comme une « évidence originelle » (ibid, p. 160). La représentation schématique deviendra à son tour une évidence originelle par rapport à un autre dispositif de visualisation qui suivra. Le passage de l’une à l’autre ne vise pas seulement à simplifier et à schématiser, mais aussi à transformer les caractéristiques de l’objet étudié, en un mot, à l’expérimenter.

À ce propos Lynch identifie quatre pratiques de transformation :

1. le filtrage qui, non seulement, élimine du bruit informationnel, mais qui construit une gradation plus limitée des qualités visibles, notamment par l’isolement des ribosomes (en tant que figures) du fond ;

2. l’uniformisation des couleurs, des tailles et de la distribution des ribosomes ;

Note de bas de page 3 :

Comme l’affirme Bordron en décrivant le processus d’iconisation : « Il est pourtant évident qu'aucun icône, quelle que soit la modalité sensorielle mise en cause, ne peut se comprendre autrement que comme un moment à l'intérieur d'un procès temporel. Ceci est vrai d'une note de musique, d'un parfum, d'un goût, d'une brûlure, toutes sensations dont l'iconicité repose d'abord sur la stabilisation temporelle d'un phénomène dynamique […]. Nous avons parfois la sensation du moment présent. Mais qu'est-ce que ce moment présent si ce n'est un icône du temps, un moment stabilisé à l'intérieur d'un flux pour lequel il n'existe, physiquement, que des simultanéités ? La notion de présent est en ce sens le modèle de toute iconicité » (Bordron, 2004, pp. 129-130, nous soulignons).

3. l’identification des lisières, limites et bordures afin que les propriétés puissent acquérir une identité d’entités. Cette identification est rendue possible au travers du processus d’iconisation, si on entend par iconisation non pas la banale ressemblance des énoncés langagiers avec un référent externe, mais la stabilisation des formes, dans ce cas visuelles, via différentes opérations de constitution méréologique des données. Par iconicité on peut entendre, dans notre cas, les moments multiples des tests qui visent à négocier et à stabiliser des formes visuelles plus ou moins définitives d’un objet scientifique. Ces tests visuels peuvent se concevoir en tant que compositions toujours partielles qui rendent compte de l’émergence de morphologies différentes dans l’organisation des données tout au long d’une chaîne de tentatives de stabilisation et d’organisation de l’identité des objets de la recherche scientifique. L’émergence des organisations méréologiques d’un objet scientifique sont les constituants même de ce processus d’iconisation qui peut s’orienter tant dans le sens de la schématisation à la densité figurative, lorsque la visée de la recherche est particularisante (décrire un objet, un symptôme, et pouvoir intervenir), que dans le sens de la densité figurative à la schématisation, lorsque la visée est généralisante (construction de régularités, modélisation, prévision, etc.). L’iconicité peut donc se définir comme un moment3 incarné par chaque test de stabilité méréologique de l’objet qui est en train de passer du statut “de recherche” au statut “scientifique”. En somme, l’iconisation vise à chercher une forme, dans ce cas visuelle et schématique, qui apparaît comme stable par rapport à la confusion perceptive attribuée à la photographie microscopique ;

Note de bas de page 4 :

On pourrait également affirmer que le processus d’iconisation qui amène, via la géométrisation stabilisatrice des formes, à la constitution d’entités qui ont le statut d’objet, se termine par un processus de symbolisation qui se manifeste comme moyen de commensurabilité entre les visualisations et les textes verbaux, ainsi qu’entre les visualisations et les théories plus ou moins stabilisées à l’intérieur d’un champ disciplinaire. Voir à ce sujet Dondero (2010b et 2010f).

Note de bas de page 5 :

Étant donné que, comme l’affirme Bastide (1985, 2001), c’est le caractère bien délimité du voir qui nous permet d’acquérir le savoir, il faudrait décrire les montages et les démontages des formes et des traits, les actions d’ajouter et d’écarter, d’inclure et d’exclure, bref trouver des bonnes frontières entre traits visuels pour faire apparaître les bonnes configurations. Par exemple, pour Bastide, il y a deux stratégies pour faire apparaître le différencié (visuel et cognitif) : 1° repérer à l’intérieur de l’« indifférencié » de nouvelles limites et des frontières pour faire apparaître un objet différencié initialement trop restreint, en l’enrichissant progressivement tout au long d’un parcours de plus en plus figuratif, par exemple via des stratégies d’aspectualisation ; 2° restreindre un champ trop élargi et renvoyer au champ de l’indifférencié tout ce qu’on n’arrive pas à expliquer, voire transformer l’indifférencié en bruit de fond : par exemple en éliminant les acteurs des transformations ou en montrant qu’ils ne jouent aucun rôle dans le parcours figuratif qui est en train de se construire. On s’aperçoit très rapidement que Bastide décrit la valeur du cadrage dans la production d’un objet cognitif à travers des procédures qui nous rappellent les opérations rhétoriques fondamentales (l’addition, la suppression, la substitution, la dissociation, la conjonction, etc.). Au sujet des opérations rhétoriques fondamentales en image voir Bordron (2010) et Dondero (2010c).

4. la distinction des identités se fait aussi en corrélation avec l’objectif du texte d’explication et d’argumentation qui accompagne ces images : dans le cas étudié par Lynch, les ribosomes qu’on choisit comme représentatifs sont noircis puis numérotés en suivant un parcours et un protocole de recherche qui est décrit dans le texte. Ces entités finales, appelées ribosomes, sont aussi produites en vue de leur nomination dans le texte verbal de l’article : le langage verbal ne peut nommer que les identités définies. C’est comme si les formes dans l’image, considérées comme appartenant au langage analogique, devaient de plus en plus se « schématiser » et identifier des entités via la digitalisation visuelle, pour suivre les règles d’« objectification » prévues par le langage verbal. Avec la production d’éléments bien distingués, voire digitalisés dans l’image, on crée une correspondance entre les qualités extraites d’un processus et son nom, qui lui donne une identité d’objet4. D’une certaine manière et presque paradoxalement, la schématisation, en rendant plus abstraites les données de la photographie et en éliminant tout ce qui aurait pu fonctionner comme bruit et comme artefact, permet la « figurativisation » de l’objet. La schématisation supprime la variation de nuance, de couleur, de texture et de positionnement ; et tout en rendant plus abstraite la relation entre figures et fond, elle construit des entités enfin nommables par une sémiotique figurative. Il faut ici préciser que par figurativisation on entend le résultat de l’accumulation, densification et stratification de traits identitaires qui permettent de caractériser les propriétés d’un objet. Ces parcours d’accumulation, stratification, etc. se font par le biais d’une restriction des possibles. On reconnaît donc, dans la schématisation qui amène à une abstraction des données sensibles, un parcours vers la « figurativisation » identificatrice : l’abstraction au niveau de l’appréhension visuelle permet de démarrer la figurativisation, mais à un autre niveau, tout d’abord celui de la connaissance et ensuite celui de la rhétorique argumentative de l’article ; le genre discursif de l’article scientifique montre toujours, comme l’a montré très clairement F. Bastide, un passage du « chaos de l’indéterminé » au « bien distingué »5.

Note de bas de page 6 :

On pourrait affirmer que la rhétorique de la littérature scientifique en Europe a été inaugurée par l’article « Rhétorique de la science. Pouvoir et devoir dans un article de science exacte » de Latour et Fabbri (1977) et par les travaux de Bastide (1985, 2001) portant sur les stratégies énonciatives des discours visuels et verbaux dans les articles scientifiques et dans les revues de vulgarisation. Cette rhétorique de la science aurait l’ambition d’étudier l’argumentation visuelle et verbale comme un « tout de signification » de deux manières : non seulement par l’étude d’une commensurabilité possible des valeurs au niveau profond du parcours génératif du contenu mais aussi, au niveau de la surface discursive, par l’étude de 1. la comparabilité des formes pronominales verbales et visuelles (l’intersubjectivité en discours) et 2. la commensurabilité aspectuelle des parcours visuels et verbaux. En ce qui concerne 1., la comparabilité des formes pronominales verbales et visuelles, il y a une longue tradition qui remontre aux théoriciens de l’image qui ont été les pères de la sémiotique visuelle de l’école greimassienne (Lhote 1958, Paris 1969, Marin 1993, Damisch 2000, Schapiro 2000, etc.) mais aussi à un certain nombre de sémioticiens contemporains (Shaïri et Fontanille 2001, Fabbri 1998, etc.) qui ont expliqué la relation entre le rapport intersubjectif « je-tu » dans le discours verbal et la représentation du visage de face dans le discours visuel, ainsi que le rapport impersonnel engendré par l’utilisation du « il » et du portrait de profil au sein d’une relation sémi-symbolique. De surcroît, Beyaert-Geslin (2009) a avancé des propositions en expliquant la différence visuelle entre la forme du « il » (représentation du visage de face) et la forme visuelle du « on » (représentation de la tête) dans la photographie artistique et de reportage politique. À propos de cette comparabilité des formes pronominales dans l’image et dans le champ plus restreint des images scientifiques, Bastide a longuement écrit sur les différentes manières qu’ont les scientifiques de cadrer et recadrer les photographies et de mettre en valeur les traces des données pour légitimer leur argumentation. L’accent mis sur certaines données par leur disposition au centre de la topologie de l’image, leur mise en lumière et leur netteté — épurée de tout autre artefact — construit un effet d’impersonnalité et d’objectivation qui correspond aux procédures énonciatives objectivantes de la troisième personne (on) utilisées dans le texte verbal qui accompagne ces images. L’effet d’indifférencié visuel, voire les images entourées par des vagues, des contours flous et incertains, est toujours utilisé rhétoriquement pour attribuer le désordre d’une vision subjective (le je des autres) aux collègues rivaux dont les théories sont contrées dans l’article. En ce qui concerne 2., l’aspectualité (inchoativité, durativité, terminativité, ponctualité), la régulation du zoom dans les séries et dans les enchaînements d’images peut construire différents types d’aspectualité perceptive (la régularité durative, la découverte ponctuelle, etc.) selon les traits et les configurations visuelles que l’on souhaite mettre en valeur ; Bastide remarque que ces formes de temporalisation visuelle correspondent aux aspectualités des verbes utilisés dans la description des procédures d’investigation.

On peut enfin affirmer qu’à travers la schématisation, on passe d’une image qui garde la trace de sa situation d’énonciation à une image qui tend à la faire oublier, tout en valorisant non plus le contexte de production, mais la visée identificatoire et explicative du langage verbal par lequel l’image est encadrée et commentée, et ensuite en valorisant le contexte de réception, la lisibilité de l’image et la reconnaissabilité d’un objet en tant que totalité identifiable. Ce qui, sur le plan de l’expression visuelle, se schématise et tend à l’abstraction, permet, sur le plan du contenu, de spécifier les caractéristiques essentielles d’une entité, de créer une figure, de figurativiser une recherche expérimentale et ensuite de construire un objet scientifique. À ce propos, Lynch affirme que chaque objet scientifique est le résultat hybride de trois instances : la trace, la mathématisation et les contraintes de littéralité du texte scientifique6.

Lynch affirme que la schématisation non seulement sélectionne les données de la photographie, mais identifie dans le spécimen des propriétés « universelles » ayant le pouvoir de solidifier (ou bien, selon notre terme, figurativiser) l’objet de référence par rapport au stade de la discipline ‑ ce que la quatrième action décrite par Lynch accomplit en choisissant des ribosomes représentatifs d’un fonctionnement spécifique. Par rapport à la photo, la schématisation n’est pas seulement une visualisation simplifiée (il s’agit d’ailleurs aussi d’ajouter des traits et des couleurs afin de manifester ce qui est latent dans la trace photographique), mais c’est aussi une visualisation qui modifie la direction de l’objet pour des raisons de théorisation et de pédagogie, bref pour synthétiser les démarches d’un champ de la discipline et de ses objectifs. Ce faisant, on génère non seulement de l’ordre, mais on fait en sorte que les données visuelles puissent s’assujettir à des opérations mathématiques pour en accroître l’utilité.

Souvent, après avoir fragmenté et analysé l’objet au travers de représentations schématiques, apparaît la nécessité de fabriquer des images-modèles qui en reconstruisent les différents profils virtuels : il s’agit de faire converger les vues schématiques partielles en une vision holistique, en créant une totalité reconstruite par la mise en ordre des propriétés dégagées par la schématisation (construction de lignes ayant une inclinaison mesurable, distribution des points, numérotation, etc.). Normalement ces images-modèles sont le résultat de l’intégration des différentes schématisations permettant de ressembler les propriétés à l’intérieur d’une géométrie explicative. On le répète : il s’agit non tant d’intégrer des formes mais bien des propriétés, des comportements, des régularités qui ont été extraites de la photo.

Ceci dit, il faut rappeler que la photographie est prise dans la perspective d’être accompagnée de grilles et de dispositifs schématiques qui l’expliciteront ; ce que l’on appelle la « prise de vue » est déjà doté non seulement de paramètres instrumentaux adaptés à l’objectif visé mais aussi aux méthodes d’analyse auxquelles elle sera soumise. Lynch remarque à ce propos que ‑ par exemple ‑ les choix d’objets ou processus à étudier en biologie sont effectués, dès le départ, en s’appuyant sur leurs caractéristiques protogéométriques (Figure 2).

Figure 2. Mitochondrie. Figure de L.T. Threadgold, The Ultra-structure of the Animal Cell, Second Edition, p. 321, Oxford, Pergamon Press, 1976.

Figure 2. Mitochondrie. Figure de L.T. Threadgold, The Ultra-structure of the Animal Cell, Second Edition, p. 321, Oxford, Pergamon Press, 1976.

La visée photographique est, d’une certaine manière, déjà conditionnée par les schématisations géométriques qui l’analyseront : on pourrait même dire que la prise de vue a déjà incarné la transformation géométrique qui lui succèdera.

Note de bas de page 7 :

Dans la suite de l’article, Lynch explique comment on peut construire un laboratoire à l’intérieur d’un territoire « donné naturellement » (superposition d’un dispositif schématique sur un terrain donné) : il s’agit de prendre le terrain « naturel » comme un espace graphique et de le doter de marques numériques (voir par exemple p. 177). Lynch remarque ici comment les choix d’un terrain mais aussi des coupes etc. sont faits à partir d’objets ou processus aux caractéristiques protogéométriques et que les scientifiques utilisent de préférence des instruments et des méthodes qui permettent d’encadrer la linéarité approximative, l’uniformité et la régularité des matériaux sélectionnés.

L’objet est, dès lors, de plus en plus déterminé par des hypothèses, c’est-à-dire qu’il devient un objet théorique « trans-situationnel » avant d’être utilisé didactiquement avec une forme mathématique analysable. La construction de limites, de lignes, de points et de symétries est un processus de géométrisation préparant la mathématisation7.

On s’aperçoit que l’image matérialise les modèles théoriques, c’est-à-dire que sa configuration rend compte du modèle ou des théorisations au travers desquels elle est manifestée. En fait, la géométrisation qui prélude à la mathématisation est déjà incarnée dans le schéma : construire un schéma d’un phénomène est, selon Lynch, déjà positionner un objet dans un environnement, ce qui le rendra par la suite transférable et translocal. Une fois que l’objet a trouvé son positionnement à l’intérieur d’un environnement contrôlable, il peut se déplacer. Cet environnement géométrique et ensuite mathématisable lui permet de construire un paradigme de fonctionnements possibles comparables les uns aux autres.

1. L’allographisation de la photographie : la chronophotographie

Note de bas de page 8 :

Voir à ce propos Daston & Galison (2007).

Venons-en maintenant à de nouveaux exemples susceptibles de montrer la relation entre des données locales enregistrables dans des images, d’une part, et des informations mathématiquement manipulables, de l’autre, et plus précisément à la relation entre la visualisation des traces photographiques et à la nécessité de les rendre mesurables et transmissibles, voire utilisables à des fins ultérieures, non-locales. Comme on l’a dit au tout début, la photographie semble avoir pour vocation de construire une relation strictement locale de un à un (stricte correspondance entre un objet et son image). Cette vocation est partagée par le dessin mais la photographie a été considérée dès son apparition, comme plus précise et plus fiable que le dessin à la main, grâce à sa mécanicité qui était censée exclure les « erreurs interprétatives » de la subjectivité productrice8.

Note de bas de page 9 :

Comme l’affirme Latour : « Les mathématiques ne s’appliquent jamais au monde physique directement. Il leur faut un intermédiaire, le papier millimétré […]. » (1993, p. 148).

Prenons tout d’abord en considération le dessin, où se constitue une relation entre l’objet à investiguer et la représentation manuelle qui est censée en rendre compte. La relation concernerait donc un rapport de un à un et la possibilité de généralisation pourrait ainsi apparaître comme exclue, à l’instar de la photographie. La relation entre image et calcul ne serait pertinente que si ce dessin était tracé sur du papier millimétré, ce qui permettrait de situer l’objet représenté dans un espace mesurable et de tracer les coordonnées et les proportions précises de l’objet dans cet espace9. Or, un dessin sur papier millimétré est déjà un objet qui garantit une certaine contrôlabilité, reproductibilité et manipulabilité de ses données : il devient comparable et superposable à d’autres dessins. Le papier n’est donc plus seulement un instrument de dépôt de données, mais il garantit aussi une transmissibilité des savoirs par le biais d’une possible notation — qui est la possibilité, pour un fait, d’être transcrit sous la forme d’un langage composé par des éléments disjoints (qui ont une valeur fixée) et recombinables. Il s’agirait là d’un langage contrôlable, car géré par des règles grammaticales, chaque élément possédant une morphologie et étant organisé en fonction de combinaisons syntaxiquement possibles.

Note de bas de page 10 :

Sur la chronophotographie d’E.-J. Marey en tant qu’instrument analytique, voir Didi-Huberman et Mannoni (2004), et pour une relecture sémiotique, voir Dondero (2009d).

Il faut rappeler que le dessin à la main sur papier millimétré a plus de chance d’être considéré comme un instrument de généralisation que la photo, entendue comme l’enregistrement d’une empreinte… En fait, la photographie pouvait apparaître, plus encore que le dessin qui est manipulable, comme un dispositif mécanique qui ne permettrait de construire que des relations locales et singulières entre un objet et une image, bref, entre un élément particulier et un autre élément particulier. Avec la chronophotographie, en revanche, tout a changé. La chronophotographie de J.-E. Marey a pu poursuivre des résultats qui dépassent le pouvoir notationnel du dessin en augmentant la possibilité de contrôle des données et ensuite de mathématisation10.

On peut voir ci-dessous l’Étude de la marche d’un homme avec une baguette blanche fixée le long de la colonne vertébrale (Figure 3).

Figure 3. E.-J Marey, Étude de la marche d'un homme avec une baguette blanche fixée le long de la colonne vertébrale, 1986. Chronophotographie, Paris, Cinémathèque française, collections des appareils.

Figure 3. E.-J Marey, Étude de la marche d'un homme avec une baguette blanche fixée le long de la colonne vertébrale, 1986. Chronophotographie, Paris, Cinémathèque française, collections des appareils.

La chronophotographie a pu coupler la prise locale (c.-à-d. la prise de l’empreinte, ici le trajet en continu) avec la mesurabilité de cette empreinte même (ici dans la trajectoire formée par la répétition de la baguette en mouvement). Cette mesurabilité est déjà un instrument de traductibilité, reproductibilité, transmissibilité : c’est une photographie qui garde ensemble les détails locaux de l’empreinte et qui construit, en même temps, des discontinuités au sein de cette empreinte. Ce sont ces discontinuités qui permettent de construire une notation qui amène chaque image chronophotographique à se dépasser elle-même : en passant par une possibilité de notation garantie par sa partie graphique, à savoir par la constitution de rapports spatio-temporels codés, elle peut devenir un texte d’instructions pour l’analyse et la comparaison d’autres phénomènes spatio-temporels que ceux relatifs au mouvement précis photographié ici.

Mais venons-en à la description d’une autre chronophotographie de Marey, l’image d’un cheval au trot Étude du trot du cheval (cheval noir portant des signes blancs aux articulations) (Figure 4).

Figure 4. E.-J. Marey, Étude du trot du cheval (cheval noir portant des signes blancs aux articulations), 1886, Chronophotographie, Paris, Collège de France.

Figure 4. E.-J. Marey, Étude du trot du cheval (cheval noir portant des signes blancs aux articulations), 1886, Chronophotographie, Paris, Collège de France.

Cette chronophotographie est censée capter l’empreinte du mouvement particulier de ce cheval précis (on voit le flou du mouvement), mais la partie graphique (visualisée en tant que réseaux de points blancs) résultant de la mesure de la relation entre espace parcouru et durée de ce parcours, permet un paramétrage du mouvement dans la durée qui fonctionne comme une opération d’allographisation de ces mêmes données spatio-temporelles particulières. La notation est la constitution d’un alphabet de modules qui vise à offrir un plan de commensurabilité entre particularités ; pas spécialement des généralisations, mais plutôt des commensurabilités. Cela permet de caractériser une image chronophotographique non seulement en tant qu’image de quelque chose, mais aussi en tant que terrain d’opérations possibles en vue de manipulations ultérieures.

Note de bas de page 11 :

Sur la question des « images mixtes » voir Allamel-Raffin (2010, p. 29) : « L’im-portance du caractère mixte des images tient notamment au fait que cette mixité permet de conjuguer les apports issus des théories de la physique et des mathématiques sous forme de calculs et les données issues du monde matériel. En effet, sans le recours à de tels modèles logico-formels, cette image resterait prisonnière de sa temporalité, et serait difficilement exploitable par les scientifiques ».

Ces deux chronophotographies nous montrent que la configuration graphique peut être littéralement « contenue » à l’intérieur de l’empreinte photographique et, même, que ces deux configurations de l’image, à savoir la densité figurative de l’empreinte et les rapports mesurables entre espace et intervalle temporel, peuvent cohabiter et profiter l’une de l’autre11 afin de montrer un interstice de commensurabilité entre les données locales, d’une part, et des régularités se constituant en des patterns qui sont la source d’une grammaire de rapports entre espace parcouru et durée, de l’autre.

1.1 Le diagramme entre autographie et allographie

Nous utiliserons ici le terme d’autographie pour décrire le produit de l’empreinte photographique et le terme d’allographie pour décrire la configuration graphique de la chronophotographie. La tradition sémantique d’autographie, qui remonte à la philosophie analytique anglo-saxonne, renvoie au fait que la saillance de l’image dépend de l’histoire de sa production et que tout trait est syntaxiquement et sémantiquement dense, à savoir insubstituable. La configuration de l’image que Marey appelle graphique, peut, par contre, être définie par l’usage du terme d’allographie, parce que la valeur sémantique d’allographie recouvre les sens de sélection, de stabilisation de règles et de transmission d’instructions : toutes opérations qui visent le fait qu’un énoncé puisse fonctionner comme producteur d’autres énoncés au travers de règles notationnelles établies. L’énoncé en question perd évidemment la relation privilégiée avec le support d’inscription, unique et insubstituable qui caractérise le régime de l’autographie.

Note de bas de page 12 :

Le terme d’allographie concerne plus largement la transmission et l’héritage des cultures dans la diachronie : la notation répond aux exigences de l’homme de tout temps de réduire le continuum d’un système dense de signes en des discontinuités, discontinuités modulables qui sont censées être ré-articulables. C’est sur l’allographie que se fonde la possibilité d’un héritage des cultures ; et dans les sciences dures cela a une importance capitale non seulement dans la diachronie, mais aussi dans la synchronie parce que quand la densité figurative d’une image s’allographise, comme dans la chronophotographie, cette même opération d’allographisation permet d’extraire de cette image des règles et d’en modéliser les relations.

Note de bas de page 13 :

Donc il faut plutôt penser à des moments d’autographisation qui succèdent à des moments d’allographisation : ce qui nous permet d’aller plus loin que Galison (1997) qui oppose image et logique, visualisation et mathématique. Cela nous permet de comprendre que les sciences se basent sur un aller-retour entre visée locale et visée globale qui ne correspond pas à la distinction entre particulier et général, parce que les sciences se basent sur un raisonnement diagrammatique, à savoir sur la transversalité entre particularisation et généralisation.

Dans le cas des arts allographiques, comme la musique ou l’architecture, la partition musicale ou le projet architectural étant des textes d’instructions, ils permettent, même quand le compositeur et l’architecte seront morts, d’expliciter des règles d’exécutions et ainsi de garantir la performance des exécutions ultérieures12. La notation sert à rendre communicable et surtout transférable un système culturel, forcement dense, aux générations futures. L’allographisation d’une image permet de sélectionner des relations de données, d’extraire des règles et de rendre enfin transposables les résultats d’une investigation, de mathématiser et de fabriquer d’autres images également13. L’image photographique, en s’allographiant, devient comparable à d’autres images (à la fois attestées et possibles) manipulable et orientée vers le futur. En affichant des patterns et des régularités, elle peut passer du statut d’empreinte à celui d’image prédictive. Il s’agit dans le cas de la chronophotographie de visualisations que l’on pourrait qualifier de diagrammatiques, en empruntant à Goodman le sens du terme diagramme. Le diagramme se constitue en fait dans la commensurabilité pressentie entre dimension autographique et dimension allographique des énoncés. Le diagramme valorise en même temps le support des données (densité figurative, voire autographie photographique) et la transformation des rapports entre ces données en de véritables exemplifications utilisables pour d’autres pratiques d’investigation – dans le régime de l’allographie, évidemment, le support des inscriptions n’est plus pertinent, l’inscription perd par conséquent sa densité d’empreinte.

Note de bas de page 14 :

Si la densité autographique du module reste forte, le module aura moins de chance de construire des patterns susceptibles de s’étendre au loin, mais si sa densité possède des mailles trop grandes, son heuristique n’est pas certaine non plus : ce module pourra se combiner avec tout autre, pour constituer n’importe quelle chaîne de transformations : la non sévérité de ses paramètres l’empêcherait de fonctionner comme un paramètre décisif pour la constitution de nouvelles chaînes de la référence scientifique.

Un module, à savoir un ensemble de données homogénéisées et regroupées en fonction d’un paramètre choisi, produit par une opération d’allographisation de l’image-empreinte, possède la caractéristique d’être transférable et de devenir un élément d’une notation – définissable aussi comme un environnement virtuel qui contrôle les positionnements de ses éléments. Les règles de cette notation déterminent les rapports syntag-matiques et paradigmatiques permis et interdits entre modules. Des règles de combinaison entre modules et de leurs densités14 dépendent les réseaux plus ou moins longs et plus ou moins étendus du référent scientifique.

Note de bas de page 15 :

Voir à ce sujet Latour (2001, pp. 33-82).

Note de bas de page 16 :

Comme le montre très bien le cas des mathématiciens grecs étudiés par Netz (2003), une des raisons de leur succès est d’avoir « inventé » un système économique de formules, bref, une notation, qui leur a permis de réduire le localisme pour gagner en grammaticalisation.

La possibilité d’étendre la référence par des branchements de modules est un des buts principaux, sinon le but principal, de la recherche scientifique15 : l’allographisation des données visualisées rend possible l’investigation future grâce à sa notation. La notation permet de transformer une image unique et dont le rapport à son support est insubstituable (forte densité des éléments pertinents à sa signification) en une configuration de rapports réutilisable (raréfaction des éléments pertinents à sa signification). Les modules doivent former un vocabulaire limité de rapports, un système économique de rapports, par exemple, dans le cas de nos chronophotographies, entre intervalle temporel et mouvement dans l’espace16. Comme on vient de le dire, des données et de leur ancrage dans une phénoménologie des expériences doivent être extraits des patterns qui peuvent engendrer des nouveaux sous-systèmes de notation ou améliorer ceux qui existent déjà dans un domaine disciplinaire donné. Mais ce que l’on extrait des images autographiques, ce ne sont pas des données, mais des propriétés, des relations entre données, des équivalences, des moyennes, bref des fondements pour des comparabilités futures. Et le diagramme se situe au milieu de ces deux stratégies de représentation : entre la densité et la notation, entre une opération de densification (image qui vise à expliquer ou résoudre des cas précis) et une opération de grammaticalisation (image prédictive). Le diagramme laisse ouvertes les deux portes : la porte de la densité et du localisme, et la porte de la grammaticalisation via une opération d’exemplification : le diagramme doit se manifester comme pattern reconnaissable en-deçà de l’hétérogénéité des expériences et permettre ainsi un regard anamorphique. Comme l’affirme Pierluigi Basso Fossali (2009), le diagramme est une forme abstraite de relation qui est exemplifiée dans une expérience mais transposable à d’autres expériences.

Note de bas de page 17 :

Voir à ce propos Dondero (2010f et 2011b).

On voit bien qu’à partir de la chronophotographie on ne peut plus penser que l’image photographique nous offre une vision du particulier et le graphique ou le schématique une vision du général. On peut garder ensemble, dans une même image, une visualisation micro et une visualisation macro, des particularités et des régularités, comme nous l’ont appris les travaux de Tufte (2005). Et comme nous l’ont également montré les études récentes de Jean-Marie Klinkenberg (2009) sur la relation entre tabularité et linéarité dans les graphiques, un graphique peut fonctionner comme un diagramme s’il construit une commensurabilité entre la visée locale et la visée globale de l’exploration et de la recherche, entre données particulières et règles transmissibles et généralisables17.

2. L’allographisation de la photographie : le dessin en archéologie

Note de bas de page 18 :

Sur l’iconicité voir Bordron (2000, 2004) et en ce qui concerne la stabilisation des objets scientifiques en image voir Bordron (2009) et Dondero (2009c).

Venons-en à deux autres disciplines à présent, tout d’abord à l’archéologie et ensuite à l’astrophysique. Le but premier de l’archéologie et de l’astrophysique est de recueillir des données et d’enregistrer des traces de phénomènes, qu’il s’agisse de phénomènes non visibles, non détectables parce que trop petits, s’étendant sur des temps trop courts ou trop longs, qui se sont déroulés dans le passé, etc. Comme on l’a déjà esquissé dans l’introduction, ces deux disciplines, comme tant d’autres, visent à produire, à partir des traces recueillies, un “quelque chose” que la communauté scientifique puisse appeler « objet », à savoir quelque chose de justifié par l’instrument d’instanciation (indicialité), de stabilisé (iconicité), de partageable à l’intérieur d’une communauté (symbolicité)18.

Note de bas de page 19 :

Cela dit, les procédures et les techniques classiques de la photographie sont encore utilisées pour témoigner de multiples objets : un état de la fouille, un état du sol ou un objet qui en a été extrait. Voir Chéné, Foliot et Réveillac (1999).

Note de bas de page 20 :

Voir Daston et Galison (2007).

Il faudrait à ce propos étudier la manière dont l’objet scientifique, en tant que totalité, se compose à travers des « réponses » partielles qui se caractérisent par des tâtonnements successifs dont il faut tester l’enchaînement et la commensurabilité. Comment ces réponses partielles peuvent-elles arriver à composer une réponse globale et stabiliser aux yeux d’une communauté, au moins provisoirement, ce que l’on appelle un objet scientifique ? D’une certaine façon on pourrait dire que le parcours de l’objet recherché en tant que questionnement, jusqu’à l’objet scientifique en tant que totalité acceptée, au moins par une partie de la communauté scientifique, se déploie à partir d’une opération d’indicialisation se dirigeant vers une opération de symbolisation. Il s’agirait en somme de traiter la constitution de l’objet à travers une théorie de la genèse du sens qui va de l’indicialisation à la symbolisation en passant par une phase d’iconisation, voire de tentatives de stabilisation et organisation des formes identitaires (qui relèvent d’une méréologie). Comme on l’a déjà esquissé au tout début de notre étude, on n’entendra pas par “images–tests des signes iconiques, dans le sens de ressemblant à quelque chose, mais bien des compositions toujours partielles qui rendent compte de l’émergence de morphologies différentes dans l’organisation des données, tout au long d’une chaîne qui peut s’orienter tant de la schématisation à la densité figurative lorsque la visée de la recherche est locale (décrire un objet), que s’orienter de la densité figurative vers la schématisation lorsque la visée est globale (modélisation, prévision, etc.). L’émergence des organisations méréologiques d’un objet scientifique sont les constituants même de ce processus d’iconisation. Mais il faut dire que l’indicialisation qui se situe avant l’iconisation ne se confond pas avec l’indicialité entendue comme résultat de traces de quelque chose, c’est-à-dire qu’elle ne se confond pas avec le stade de l’empreinte photographique. En fait, on peut concevoir l’indicialisation non pas comme le résultat d’un contact ou le produit d’une causalité, mais comme un processus de transformation de quelque chose qui demande à être déployé. Par exemple, même des hypothèses théoriques faites sur un objet de recherche peuvent fonctionner comme des interrogations, des indices de quelque chose qui demande à être développé. La symbolisation concernera les moments de l’acceptation, vérification et institutionnalisation de ces hypothèses de départ qui demandent à être développées. Le processus d’iconisation, moment intermédiaire entre les deux, peut donc être identifié avec deux processus inverses : le processus d’iconisation peut concerner un parcours allant de la schématisation à la densité figurative et vice-versa. Dans le cas qui va nous occuper tout à l’heure, il s’agira encore une fois d’un processus de schématisation ; on part d’une densité figurative, en l’occurrence une photo, et on va vers la construction de patterns et de régularités qui permettront une modélisation : dans l’archéologie c’est le dessin qui est utilisé dans ce but. Cela peut nous apparaître comme un phénomène étrange car, aujourd’hui, avec l’imagerie et les avancées technologiques visant à une meilleure contrôlabilité des données et à une reproductibilité des expériences, le dessin est pris, dans de multiples études sur l’image scientifique, comme un exemple d’art autographique. Le dessin est, dans ce cas, considéré comme une technique qui dépend fortement d’une trace sensori-motrice singulière — et se présente par conséquent comme l’instrument le plus « subjectif » et le « moins contrôlable » de tous. Mais en archéologie, le dessin est considéré comme étant plus adéquat que la photographie pour l’investigation des objets archéologiques19. Très tôt la photographie a été considérée comme une technique ne permettant pas de répondre aux exigences de l’analyse archéologique, pour être trop peu sélective20 ; au contraire, la transformation d’une photographie en dessin permettrait d’atteindre une plus forte allographisation des données. Comme l’affirme Jan Baetens dans un article qui retrace l’histoire de l’instrument photographique aux prises avec l’archéologie traditionnelle :

Rapidement, toutefois, il s’avère que les images photographiques prises lors des expéditions archéologiques ne donnent pas toujours entièrement satisfaction et qu’il faut en revenir à des techniques soi-disant plus primitives, ou bien pour relayer et redoubler les photographies (gravures d’après photographies), ou bien pour s’y substituer (dessins, croquis, calques, notes, etc.) (Baetens, 2010, p. 42).

Il semble donc que la photographie ne puisse être utile que s’il est permis de la manipuler jusqu’à la transformer en une gravure ou bien en un dessin, à savoir en un instrument plus analytique. L’auteur explique, tout au long de son article, que, de manière différente de ce qu’on pourrait imaginer de prime abord, le dessin n’est pas considéré « comme la trace d’une intervention subjective, mais comme le support d’une information parfaitement lisible » (Baetens, 2010, p. 42, nous soulignons). Le dessin permet d’extraire des régularités potentielles dans un objet et de comparer ce dernier avec d’autres objets.

Note de bas de page 21 :

Allamel-Raffin développe ce point au travers d’un autre exemple, tout aussi intéressant : l’œuvre d’un botaniste, Gaston Bonnier, Flore complète en couleurs de France, Suisse et Belgique, parue au début du XXe siècle. Bonnier a cherché à établir un compromis entre dessin et photographie en recourant aux deux techniques sur un même support. Le contour des photographies était redessiné à la main afin de mettre en évidence les détails pertinents.

Un des problèmes posés par l’utilisation de la photographie en archéologie réside, en fait, dans la difficulté qu’il y a à distinguer l’information utile de celle qui ne l’est pas, de rendre homogènes toutes les traces que l’œil mécanique n’est pas capable de distinguer, bref de ne pas rendre immédiatement visibles les données pertinentes et recherchées. Le dessin, par contre, semble être mieux adapté aux exigences de lisibilité des objets. Comme le rappelle Dominic Lopes (2005), par exemple les dessins lithiques – autrement dit les dessins archéologiques d’artefacts réalisés par des hominidés tels que les outils en pierre –, ne sont pas efficacement représentés par la photo, mais le sont bien mieux par le dessin parce que, comme l’affirme Allamel-Raffin (2010, p. 32), « ce n’est pas en raison de contraintes d’accès liées à des difficultés à détecter l’objet, mais c’est en raison de contraintes de lisibilité que les archéologues continuent à dessiner les objets lithiques ». Allamel-Raffin remarque, en outre, que les champs disciplinaires qui se sont intéressés à la photographie, comme par exemple l’astronomie, sont ceux qui rencontraient des difficultés de captation. Or, dans le cas d’objets archéologiques, l’objet ne pose pas de problème de captation étant de taille macroscopique : « La finalité visée par les archéologues n’est pas de montrer que l’objet existe, mais de montrer de manière précise comment il a été fabriqué » (Allamel-Raffin, 2010, p. 32)21. L’auteure explique ensuite que, dans une discipline où la première difficulté réside dans la captation des données, typiquement l’astrophysique, les chercheurs vont se tourner vers des dispositifs permettant d’attester l’existence même de l’objet, à savoir la photographie, avant même d’en étudier les propriétés par le biais d’instruments plus analytiques.

3. L’allographisation de la photographie en astrophysique : les graphiques

L’astronomie a toujours utilisé de manière massive la photographie, car celle-ci a non seulement permis de donner consistance à des phénomènes (la fameuse thèse d’existence caractérisant le médium photographique), mais parce qu’elle a aussi permis la quantification et la mesure des énergies lumineuses au travers du processus chimique, et plus récemment, électronique, de l’inscription.

Si nous nous sommes consacrée ailleurs (Dondero 2009f et 2010d) à décrire comment les différentes récoltes de données pouvaient composer une totalité d’objet par superposition de photos formant des mosaïques, nous voudrions maintenant prendre en considération plus précisément la variété de résultats des coupures temporelles de l’observation. La fréquence établie pour les observations est un exemple de coupure arbitraire d’une unité dans le continuum du déroulement temporel : en astrophysique les différentes échelles temporelles à travers lesquelles on étudie les objets distinguent divers champs au sein de la discipline, telle l’astrophysique stellaire de la cosmologie, par exemple. Le changement d’échelle fait que les instruments d’investigation changent ainsi que les conventions représentatives.

Note de bas de page 22 :

Je remercie vivement François Wesemael pour les discussions sur ces images du soleil faites à l’Université de Montréal (Département de Physique) lors d’un séjour de recherches financé par le Fonds National de la Recherche Scientifique belge (F.N.R.-FNRS) du 27 mars 2010 au 11 avril 2010 et pour la relecture de ces pages concernant les représentations du soleil et d’autres étoiles.

Note de bas de page 23 :

Voir à ce propos Bordron (2009).

Prenons l’exemple de la trace du soleil22 : si l’on veut la mesurer à l’échelle d’un jour, on obtient une image du déplacement de l’astre qui établit une relation 1 à 1 avec le paysage qui lui donne un référentiel, voire un « théâtre de l’apparition »23, et grâce auquel on peut suivre entièrement le déplacement du soleil (Figure 5). Nous sommes ici à l’échelle d’un jour (24 heures) et d’un paysage à 360 degrés. La totalité temporelle « jour » correspond à la totalité spatiale et paysagère « 360 degrés ».

Figure 5. Soleil de minuit. La série de clichés représente le parcours quotidien du soleil tel que photographié à une latitude terrestre excédant celle du cercle polaire. Le soleil ne passe pas sous l’horizon, ou ne se couche pas (cliché Anda Bereczky).

Figure 5. Soleil de minuit. La série de clichés représente le parcours quotidien du soleil tel que photographié à une latitude terrestre excédant celle du cercle polaire. Le soleil ne passe pas sous l’horizon, ou ne se couche pas (cliché Anda Bereczky).

Dans cette autre image (Figure 6) on voit une boucle en forme de 8 que l’on obtient en notant la position du soleil à la même heure à divers moments de l’année. Il s’agit du phénomène de l’analemne. On est ici face à une image qui est le résultat de l’exposition multiple (car elle enregistre la position du soleil à midi à divers moments de l’année) fixée sur un seul négatif.

Figure 6. Analemme permettant de visualiser la position du soleil dans le ciel au même moment de la journée tout au long d’une année (cliché Dennis di Cicco).

Figure 6. Analemme permettant de visualiser la position du soleil dans le ciel au même moment de la journée tout au long d’une année (cliché Dennis di Cicco).

Ici on voit bien qu’il ne s’agit plus d’une échelle spatio-temporelle 1 à 1, ni d’une homogénéité de rapports entre le déplacement de l’objet-soleil et son référentiel dans l’étendue du paysage : un paysage fixé à un moment donné devient le support d’inscription d’un cycle complet du soleil tout au long des 365 jours.

On a donc un paysage saisi en un temps donné t sur lequel sont inscrits et distribués les différents temps tn de captation et tous les déplacements du soleil qui ont eu lieu : le paysage fonctionne comme le support fixe pour l’inscription d’un mouvement dans le temps.

Cette image permet de mettre en évidence les rythmes de déplacement du soleil, ses parcours par rapport à un même référentiel paysager. Ici on n’a plus la totalité d’un paysage à 360° en correspondance avec la totalité temporelle du parcours du Soleil (un jour) : le déploiement du paysage n’est plus en correspondance avec les changements temporels à travers une échelle 1 à 1 ; on a réduit la grandeur spatiale pertinente pour mettre en évidence l’ouverture de la grandeur temporelle pertinente, voire réduit l’espace pour pouvoir schématiser la multiplication des changements de position tout au long d’une grandeur temporelle plus vaste. Il s’agit en fait de fixer un lieu pour voir comment s’y inscrivent les étapes du mouvement du soleil plutôt que de suivre le déploiement spatial en correspondance avec le voyage en continu du soleil.

Lorsque l’échelle d’un an sera dépassée, c’est-à-dire lorsque l’accumulation des données à des temps différents ne pourra plus être « contenue » dans le cadre d’une spatialité figurativement homogène comme celle paysagère observée à la figure 6, — car d’autres échelles seront devenues pertinentes (tant l’échelle des secondes que l’échelle de millions et milliards d’années) — cette spatialité figurativement homogène ne sera plus un support d’inscription significatif. Par conséquent on perdra ce paysage en tant que support d’inscription et en tant que référentiel de mesure. Le support pertinent deviendra le papier millimétré d’un graphique qui n’établira plus aucune correspondance entre un cycle d’événements temporels et une spatialité paysagère, mais au contraire entre des régularités d’événements et d’observation, d’un côté, et un espace topologique mesurable, de l’autre (Figure 7).

Les correspondances ne seront plus établies entre un support de régime autographique et des événements qui s’y inscrivent, comme c’était le cas des deux premières images, mais entre un support allographique et des régularités, des patterns, des moyennes. L’unicité spatiale du paysage éclate vu que les opérations de comparaison et de mesurage des proportions changent complètement : le référentiel n’est plus un paysage à 360°, ni un paysage fixe et stable, mais un espace topologique, une feuille millimétrée, chiffrable.

Figure 7. Courbes de lumière de quelques objets quasi-stellaires (QSO). La brillance de l’objet est tracée en fonction du temps. L’échelle de temps ici est relativement longue, environ 75 ans (source The Astronomical Journal n° 78, 1973, pp. 353-368)24.

Note de bas de page 24 :

Ce schéma est extrait d’un article de R. J. Angione paru dans la revue The Astronomical Journal (n°78, 1973, pp. 353-368). Les courbes de lumière des objets quasi-stellaires (QSO) observés sont basées sur la collection de plaques photographiques de l’Université Harvard, qui permet une étude photométrique de ces objets sur de longs intervalles de temps (ici, de 1900 à 1973).

Figure 7. Courbes de lumière de quelques objets quasi-stellaires (QSO). La brillance de l’objet est tracée en fonction du temps. L’échelle de temps ici est relativement longue, environ 75 ans (source The Astronomical Journal n° 78, 1973, pp. 353-368)24.

Note de bas de page 25 :

En astronomie, la photométrie désigne l'étude de l'intensité lumineuse des étoiles, et de sa variation dans le temps. Au début, la photométrie se faisait de façon photographique. Plus exactement, la photographie fait appel à un type de récepteur de l’intensité lumineuse (la plaque ou le film photographique), alors que la photométrie est l’étude de l’intensité lumineuse et, le cas échéant, de sa variation temporelle ‑ quel que soit le récepteur utilisé (plaque photographique, photomultiplicateur, récepteur de type CCD comme dans les caméras numériques, œil humain…). Merci à François Wesemael pour cette précision.

Avec ces trois images, on passe donc de la photographie à 360° à la photographie à expositions multiples sur un même négatif, à la photométrie qui est une technique qui mesure la brillance des étoiles en fonction du temps25.

On s’aperçoit que la fréquence d’observation recherchée a des retombées décisives sur ce que l’on peut connaître. Les échelles de temps fonctionnent comme différents stades d’exploration de l’invisible et du lointain. L’identité d’une étoile se construit donc par accumulation et transposition d’échelle. Tout objet est concerné par toutes les échelles de temps, mais son identité peut changer en fonction de la façon dont les résultats de l’échelle sont composés et traduisibles entre eux.

On s’aperçoit que, quand le temps de l’observation excède les possibilités de vie de l’astrophysicien ou les rythmes de la vie humaine, on a besoin de recourir à des types de visualisations schématiques qui sacrifient le rapport photographique à un référentiel-objet déjà constitué et saisissable par des modèles figuratifs qui peuvent être vérifiés au moins en partie par notre expérience quotidienne.

4. La photographie calculée comme médiatrice entre diagrammes mathématiques, art et vulgarisation

Nous continuerons à nous concentrer sur l’astrophysique, mais cette fois pour faire émerger un autre statut de la photographie. Nous ne partirons pas de la conception de la photographie en tant que trace d’un phénomène saisissable par le biais du microscope ou par celui d’autres instruments mixtes tels que la chronophotographie, mais à partir des pratiques de composition d’une photo mathématique (« photographie calculée ») dans le cadre de recherches sur des objets théoriques tels que les trous noirs. Ici aussi nous serons confrontés à un processus d’iconisation, comme dans les autres cas, mais cette fois-ci le processus qui va de l’indicialisation à la symbolisation ne sera pas dirigé dans le sens de la trace photographique à la schématisation via un parcours de désaturation de traits pertinents (cas de la photo microscopique) ou via une diagrammaticalisation de l’empreinte (chronophotographie), ni de la mise en graphe de l’observation multiple d’un objet stellaire (le cas du soleil et d’autres étoiles) mais des théories physiques jusqu’à la visualisation en suivant deux étapes : les équations et les représentations diagrammatiques.

Nous allons prendre en considération la littérature de l’astrophysique et examiner les parcours visuels que les hypothèses et les théories des trous noirs ont explorés pour donner une forme à ces objets théoriques qui sont impossibles à filmer ou à photographier. En fait, les trous noirs sont non seulement théorisés comme des manifestations invisibles (ils sont décrits comme une sorte de gouffre qui attire la lumière — un rayon lumineux y est complètement absorbé et tout ce qui l’approche y disparaît) mais, de surcroît, leur existence n’est que le résultat d’un certain nombre d’hypothèses formulées à partir d’autres phénomènes de la topologie cosmologique, également difficiles à expliquer et auxquels il faut trouver une source et/ou une explication. On les appelle justement « a theoretical object » car leur configuration est essentiellement expliquée par la théorie de la relativité générale et par d’autres hypothèses que les équations traduisent et rendent opérationnelles.

Dans le premier article que l’on prend en considération, article de recherche ayant pour titre « Image of a Spherical Black Hole with Thin Accretion Disk » publié dans Astronomy and Astrophysics en 1979, Jean-Pierre Luminet, astrophysicien français de renommée, a produit et publié une image de trous noirs (qu’il appelle photographie calculée) en en proposant ainsi une première iconographie (Figure 8).

Figure 8. Apparence lointaine d’un trou noir sphérique entouré d’un disque d’accrétion. Photographie virtuelle d’un trou noir, calculée en 1978 sur ordinateur (reprise dans Luminet, 2006, p. 284). Image reproduite avec l’autorisation de l’auteur.

Figure 8. Apparence lointaine d’un trou noir sphérique entouré d’un disque d’accrétion. Photographie virtuelle d’un trou noir, calculée en 1978 sur ordinateur (reprise dans Luminet, 2006, p. 284). Image reproduite avec l’autorisation de l’auteur.

Cette iconographie a été calculée à partir d’un certain nombre d’équations dont les valeurs mathématiques ont été rendues visualisables par des diagrammes comme on le voit ici dans la figure 9.

Figure 9. Courbes du disque d’accrétion selon différents points d’observation (Luminet, 1979, p. 234). Image reproduite avec l’autorisation de l’auteur.

Figure 9. Courbes du disque d’accrétion selon différents points d’observation (Luminet, 1979, p. 234). Image reproduite avec l’autorisation de l’auteur.

L’iconographie de la photographie (Figure 8) est le résultat final (même si scientifiquement provisoire) d’une série d’équations qui, en quelque sorte, ont pour objectif de sonder toutes les combinaisons possibles de valeurs mathématiques dans une topologie donnée (Figure 9). Chacune de ces trois figures diagrammatiques visualise des paramètres pertinents qui ont été mis en jeu par les hypothèses (les paramètres de la distance fictive d’observation, de la luminosité, etc.). Dans le cas de ces visualisations mathématiques, il ne s’agit pas de la représentation de quelque chose, mais de la visualisation de situations possibles de la matière, de comment quelque chose pourrait se configurer.

On s’aperçoit que les équations fonctionnent comme des instances énonciatives dont les produits sont ces figures diagrammatiques qui cherchent à trouver une médiation entre les valeurs mathématiques et une phénoménologie perceptive du raisonnement, dans ce cas, l’iconographie de la photographie calculée. Dans chaque visualisation, chaque ligne correspond à une règle de calcul : globalement, ce qui est représenté peut être défini comme « un lieu de transition, qui assure le passage entre des effectuations différentes d’une même réalité mathématique, qui fait communiquer des séries divergentes » (Batt, 2004, p. 22, nous soulignons). Il s’agit de tentatives visuelles de mises à l’épreuve de comment la formation des trous noirs pourrait être justifiable. Ces visualisations mathématiques sont donc des iconisations des possibles, voire des icônes des relations qui peuvent s’engendrer.

Note de bas de page 26 :

Comme le rappelle Fisette (2003), pour Peirce, le diagramme est un des trois niveaux (le deuxième, après l’image et avant la métaphore) de l’hypoicône et plus précisément : « un diagramme, c’est une présentation des termes dont la disposition est elle-même liée à un effet de signification. […] En fait le diagramme signifie sur la base d’une analogie de proportion entre deux de ses constituants ou de ses parties, soit, ici, d’une part sa disposition graphique et, d’autre part, les relations d’écart ou de hiérarchie entre les termes ainsi disposés. Peirce (C.P.. 2.282) donnait l’exemple suivant :
Image 100000000000007E0000002B74934818.png
où c’est la disposition graphique de part et d’autre de l’accolade qui signifie les relations de hiérarchie entre les quatre termes qui sont ainsi répartis en trois notions et une dénomination de classe » (p. 211, nous soulignons).

Note de bas de page 27 :

Comme l’affirme Stjernfelt, spécialiste des théories du diagramme, chez Peirce : « Les relations qui constituent le diagramme sont à la fois observationnelles et universelles et produisent la condition de possibilité du diagramme d’exister en tant qu’icône (observabilité) par rapport à ce qui est possible de considérer comme des expériences généralement valides (universalité) » (Stjernfelt, 2007, nous traduisons).

Note de bas de page 28 :

Comme le dit Latour (2008), le diagramme fonctionne comme « a flat laboratory ».

Icône de relations est la définition que le philosophe et sémioticien américain Charles Sanders Peirce donne du diagramme26 : le diagramme concerne des relations potentielles qui sont condensées dans une forme visuelle qui est à la fois saisissable (perceptibilité) et manipulable (virtualité)27. C’est bien à cause de cette manipulabilité de quelque chose qui a été « rendu saisissable » que je dirais que le diagramme rend possible une expérimentation et se comporte ainsi comme un petit laboratoire en soi28.

Note de bas de page 29 :

Peirce affirme d’ailleurs qu’une de grandes propriétés distinctives de l’icône est que d’autres vérités que celles qui suffisent à déterminer sa constitution peuvent être découvertes par son observation. Il s’agit donc d’un dispositif créatif et non pas représentatif. Voir à ce propos Dondero (2011b).

Comme toute expérience de laboratoire, l’image diagrammatique permet d’« amplifier l’intuition » (Châtelet 1993)29 ; cette notion d’amplification de l’intuition concerne un mouvement mental d’amplification des parcours possibles qui se fait par condensation. L’amplification des relations possibles se fait grâce à la condensation en une visualisation synthétique qui permet de penser ensemble et de rendre perceptibles les résultats des manipulations de ces relations. Ces diagrammes permettent en fait de passer de plusieurs longues équations à une seule condensation graphique des valeurs en jeu, et de devenir les simulacres d’expériences mentales sur les trous noirs.

Ces séries de manipulations visuelles d’équations paraissent enfin trouver une condensation finale en une image différente des diagrammes mathématiques, voire une image colorée, qui d’une certaine manière remplit l’espace des possibles avec des nuances chromatiques qui paraissent arrêter et stabiliser la prolifération des manipulations et des expérimentations (Figure 8). Voyons comment.

Il est évidemment très frappant que Luminet ait pu appeler photographie calculée cette image des trous noirs, qui sont des phénomènes simplement possibles, dont on ne peut évidemment capter aucune trace susceptible de les identifier. Alors pourquoi appeler l’image des trous noirs une photo ? Pourquoi ne pas l’appeler simplement image ou visualisation calculée ? Quel est l’effet de sens de ce produit qui s’affiche comme le résultat du couplage d’empreintes et de calculs, de trace de quelque chose et du calcul des possibles ?

On s’aperçoit que, en même temps que les constitutions diagrammatiques possibles se pluralisent — on pourrait dire que le tracé diagrammatique fonctionne comme une multiplication identitaire — apparaît la nécessité de les inscrire sous une seule identité. Comme on le sait grâce aux études sur la rhétorique de la science (Bastide 2001), à la fin d’un article, il faut stabiliser l’objet de la recherche. À notre avis, l’iconographie de la photographie calculée est censée devenir le centre de gravité identitaire de ces manipulations des possibles qui puisse provisoirement figer en une identité unique la pluralité des opérations mathématiques. Si le diagramme est une icône de relations qui engendre un mouvement en son sein, puisqu’il est une image manipulable et opérationnelle, bref un lieu de travail, la conception doxastique qu’on a de la photo en tant qu’empreinte qui fige les possibles fuyants répond à l’exigence du scientifique de proposer une identité méréologiquement stable à ces manipulations de valeurs mathématiques.

On peut donc faire l’hypothèse que cette image est appelée photo pour signaler qu’elle fonctionne comme l’empreinte qui stabilise les multiples visualisations diagrammatiques des différents paramètres qui nous font connaître les fonctionnements de ces objets théoriques. En figeant les séries d’opérations et de manipulations, la photo leur donnerait une existence symbolique que les trous noirs ne pouvaient pas avoir lorsqu’ils étaient encore « opératoires » — et, d’une certaine manière, « fuyants ». L’image finale fonctionne rhétoriquement comme figement des possibles, comme un arrêt sur les opérations qui pourraient se développer ultérieurement, bref elle permet la constitution d’un objet scientifique. Le remplissage de l’espace « vide » des diagrammes, espace opératif, manifesté par des nuances chromatiques, ne fait qu’ancrer ses opérations constitutives en une icône qui puisse faire la moyenne des opérations accomplies et visualiser une pluralité de trous noirs — cette pluralité de l’objet représenté est d’ailleurs signifiée par le pointillé et le dégradé qui « multiplient » les contours du gouffre.

Dans l’article de recherche en question, l’iconographie finale des trous noirs s’appelle enfin photo parce qu’elle fige cette pluralité possible en un objet, et calculée parce qu’elle est justifiée et justifiable par des calculs mathématiques. Elle est, d’une certaine manière, une empreinte « nécessaire », qui ne pourrait être que ce qu’elle est.

4.1 L’autographie de la vulgarisation

On pourrait avancer l’hypothèse que cette photographie fonctionne comme une image autographique par rapport aux visualisations diagrammatiques qui fonctionnent, elles, plutôt comme des dispositifs allographiques. Comme on l’a déjà expliqué auparavant, une image est autographique si elle témoigne d’une configuration originale, unique et non-répétable, comme c’est le cas des tableaux où c’est l’unicité du parcours sensori-moteur du producteur qui fait sens. Le tableau prend sa valeur de cette originalité et de cette unicité non répétable ; d’ailleurs, en peinture, chaque copie est un faux par définition. L’image autographique est syntaxiquement et sémantiquement dense, c’est-à-dire que chaque trait est pertinent pour sa signification et son identité : c’est pour cela que le type d’image qui remplit, plus que tout autre, ces caractéristiques est l’image picturale artistique. Cette idée recouvre ce que j’appellerais une autographie inchoative, ou bien productive, voire qui dépende de la pratique génétique de l’image elle-même.

Note de bas de page 30 :

Sur les différentes visualisations des mêmes données en astrophysique des hautes énergies voir l’article de Nazé (2010).

En ce qui concerne l’allographie, il s’agit par contre d’images manipulables par d’autres chercheurs, reproductibles avec des variantes de paramétrage ou bien des filtres et qui, par conséquent, ne constituent pas des iconographies stables30. Elles peuvent être considérées comme des images qui donnent des instructions pour des manipulations ou des constructions ultérieures. Elles peuvent être considérées comme des images collectives parce qu’elles peuvent être « continuées » et retravaillées par d’autres équipes de chercheurs.

Il est évident que la photographie calculée des trous noirs ne peut être considérée ni comme une image appartenant à l’autographie inchoative, ni à l’allographie. Elle est simplement le figement en une identité d’objet de tous les parcours de visualisations pertinents et possibles. Il s’agit donc d’une autographie que j’appellerais terminative : ce type d’autographie n’est donc pas inchoative et productive, mais rhétorique et vouée aux pratiques de réception (et non pas aux pratiques de recherche), à savoir à une fixation visuelle construite pour donner une existence institutionnelle à un objet à l’intérieur de la communauté scientifique, mais pas seulement. Cette autographie terminative est produite par une procédure de figement des formes allographiques qui se transforment en des formes figées et qui se présentent au public comme définitives, denses et non-manipulables. En fait, il s’agit d’une autographie obtenue par stabilisation et institutionnalisation des formes — que l’on obtient par un consensus de(s) l’équipe(s) impliquée(s) — qui deviennent donc (provisoirement) uniques et non-manipulables. Le fait que la photographie calculée des trous noirs ne permette plus de rendre opératifs ses dispositifs énonciatifs montre bien qu’elle est devenue une image presque auratique, comme le sont les tableaux artistiques.

Comme cela est couramment admis, l’autographie caractérise normalement les productions visuelles de statut artistique, par contre l’aller-retour entre autographie et allographie est typique de l’image scientifique qui joue entre la manipulabilité allographique, d’une part, et la stabilisation et l’institutionnalisation autographiques des formes, de l’autre.

Les images finales telles que cette photographie calculée excluent la publicisation des échelles et des valeurs mathématiques dont elles proviennent ; même si ces images sont produites par le biais d’une composition de visualisations partielles (ce que l’on a appelé diagrammes), elles tendent à nous le faire oublier : elles cachent leurs moyens de fabrication et se manifestent comme des images finales et définitives chosifiant un objet de recherche — et l’offrant ainsi à la vulgarisation. Sur cet objet de recherche elles veulent avoir le dernier mot, celui au-delà duquel on ne va pas : c’est pour cela qu’elles suppriment toute référence à des paramètres qui pourraient les rendre encore manipulables et opératives. Cela arrive aussi avec les tableaux et d’autres types d’œuvres d’art : en art on signe la toile pour affirmer que chaque trait est le bon, le définitif, et qu’on ne peut plus rien modifier ‑ la signature est une manière de sacraliser le tableau et par conséquent d’exclure toutes les esquisses faites et refusées en tant qu’épreuves et d’exclure aussi les possibles contrefaçons futures.

Note de bas de page 31 :

Pour l’objet artistique c’est le mot fin définitif, dans le cas de l’objet non artistique il ne s’agit que d’une fin provisoire.

Dans le cas de la photographie calculée on supprime les mesures et les échelles, bref toutes les références à l’énonciation : cette suppression permet de « muséifier » les résultats des investigations qui les ont constituées (dans notre cas, les dispositifs diagrammatiques qui peuvent être conçus comme des « esquisses »). Il y a finalement un rapport étroit entre le régime de la stabilisation/institutionnalisation d’un objet scientifique, voire de la vulgarisation scientifique, et celui de l’œuvre d’art. Dans les deux cas, l’image se manifeste comme quelque chose sur quoi on a mis le mot « fin »31.

Ces images qui se présentent comme point final sont aussi les images qui sont normalement retenues par les publications de vulgarisation comme identifiant l’objet de référence.

Note de bas de page 32 :

Voir à ce sujet Cheroux et alii (2005).

Note de bas de page 33 :

Discussion lors du colloque « La lettre et l’image. Enquêtes interculturelles sur les territoires du visible », Université de Liège (15-17 décembre 2009) organisé par Carl Havelange, Lucienne Strivay et Maité Molina Marmol. Je remercie les participants à cette journée d’étude pour leurs suggestions.

Note de bas de page 34 :

Voir à ce sujet Dondero (2005b) et Dondero (2009a).

Mais ce n’est pas tout. Si la muséification des formes en science concerne un devenir-objet des expériences, et plus précisément un devenir-autographique d’un objet de recherche – que l’on pourrait appeler le devenir autographique d’une recherche scientifique –, on voudrait à présent faire quelques petites remarques sur la tradition iconographique de cette image calculée, tradition qui dérive non seulement d’une « déformation » de l’iconographie scientifique de Saturne (voir Luminet 2006) mais aussi d’une tradition que l’on peut considérer aujourd’hui comme faisant partie du statut artistique. En fait, les manifestations éidétiques et chromatiques de la photographie calculée renvoient à la tradition de la soi-disant photographie spirite et plus précisément à la photographie des fluides énergétiques des vivants ainsi que des morts évoqués par des médiums32. Comme l’a remarqué Carl Havelange lors d’une réunion scientifique à l’Université de Liège33, les pointillés, le flou et le dégradé sont des stratégies plastiques utilisées par ce type de photographie pratiqué fin 19e, début 20e siècle afin de témoigner d’une présence dont le statut est incertain. Il s’agissait de présences phantasmatiques ou de présences auratiques qui sont, selon le vocabulaire benjaminien, des présentifications de quelque chose d’absent, de passé ou de lointain qui se manifestent au travers de halos ou d’autres configurations évanescentes de la matière34. Du côté de la photographie spirite, l’opposition entre le halo auratique et la netteté sur le plan de l’expression est liée à une opposition sur le plan du contenu entre une présence au statut incertain (trace du transcendant) et la présence concrète et bien identifiable dans un ordre de réalité tout à fait quotidien (immanence). Dans le cas de la photographie calculée la même opposition sur le plan de l’expression (flou vs. netteté) renvoie plutôt à une opposition sur le plan du contenu entre ce qui est seulement possible et ce qui est stabilisé dans la théorie, c’est-à-dire confirmé par d’autres phénomènes mieux connus, et acceptés par la communauté. Ou mieux, en l’occurrence, entre ce qui est pluriel et ce qui est davantage stabilisé en tant que noyau dur de tous les trous noirs. Mais dans les deux cas il s’agit, avec le halo, de représenter une présence possible ; dans un cas c’est la promesse d’une communication future (c’est la personne morte qui revient, évoquée par des médiums), dans le second cas il s’agit d’une opérativité expérimentale passée — les pistes possibles sont encore là, tout en ayant perdu leur capacité à proliférer.

Pour conclure, on pourrait affirmer que, dans le cas de cet article de Luminet, on est face à une parenté faible entre pratiques artistiques et scientifiques : si on pouvait appeler la première parenté un devenir autographique d’une recherche scientifique, en ce dernier cas on pourrait appeler cette parenté concernant le flou photographique l’emprunt de solutions artistiques par l’iconographie scientifique.

Autres versions

Pour citer ce document

Dondero, M. G. (2011). La photographie scientifique entre trace et mathématisation. Dans Sémiotique de la photographie. Université de Limoges. https://doi.org/10.25965/ebooks.256

Dondero, Maria Giulia. « La photographie scientifique entre trace et mathématisation ». Sémiotique de la photographie. Limoges : Université de Limoges, 2011. Web. https://doi.org/10.25965/ebooks.256

Dondero Maria Giulia, « La photographie scientifique entre trace et mathématisation » dans Sémiotique de la photographie, Limoges, Université de Limoges, 2011, p. 295-322

Auteur

Maria Giulia Dondero
Maria Giulia Dondero est directrice de recherches du Fonds National de la Recherche Scientifique (F.R.S.-FNRS) et enseigne la sémiotique visuelle à l’Université de Liège. Elle est l’auteure de quatre ouvrages : Les Langages de l’image. De la peinture aux Big Visual Data (Hermann, Paris, 2020) — dont une version augmentée a été publiée sous le titre de The Language of Images. The Forms and the Forces, Springer, 2020 — ; Des images à problèmes. Le sens du visuel à l’épreuve de l’image scientifique (avec J. Fontanille, Pulim, 2012 ; trad. angl : The Semiotic Challenge of Scientific Images. A Test Case for Visual Meaning, Legas Publishing, 2014) ; Sémiotique de la photographie (avec P. Basso Fossali, Pulim, 2011) et Le sacré dans l’image photographique. Études sémiotiques (Paris, 2009).
Elle a publié une centaine d’articles en français, italien, anglais, dont certains ont été traduits en portugais, espagnol et polonais. Elle a dirigé vingt-cinq ouvrages collectifs et numéros spéciaux de revue sur la photographie, l’image scientifique, le diagramme et la théorie de l’image. Elle est co-fondatrice et directrice de la revue Signata Annales des sémiotiques / Annals of Semiotics et co-directrice de la collection Sigilla.
Elle a été Visiting Professor dans plusieurs universités dont l’UNESP (São Paulo), l’Institut National d’Anthropologie et d’Histoire (INAH) à Mexico, l’université Panthéon-Assas Paris 2, le Celsa Sorbonne Université et l’université de Turin. Elle est également Secrétaire Générale de l’International Association for Visual Semiotics (IAVS) depuis 2015. Une bonne partie de ses travaux sont disponibles en Open Access à cette adresse : https://frs-fnrs.academia.edu/MariaGiuliaDondero
Université de Liège
Documents de l'auteur parus dans Presses Universitaires de Limoges - eBooks en libre accès
Licence
Creative Commons License

CC BY-NC-ND 4.0

Cet article est mis à disposition selon les termes de la licence Creative Commons Attribution - Pas d'Utilisation Commerciale - Pas de Modification 4.0 International