Maria Giulia Dondero, Jacques Fontanille, Des images à problèmes. Le sens du visuel à l’épreuve de l’image scientifique, Presses universitaires de Limoges, Limoges, 2012, 259 pages

Catherine Allamel-Raffin

IRIST
Université de Strasbourg

Index

Articles du même auteur parus dans les Actes Sémiotiques

Mots-clés : iconisation, image scientifique, manipulation, référentialisation

Auteurs cités : Barry Barnes, Roland BARTHES, David Bloor, Michel CALLON, Rudolf Carnap, Harry Collins, Ian Hacking, Bruno LATOUR, Friedrich NIETZSCHE, Charles Sanders PEIRCE, Karl Raimund Popper, Hans Reichenbach

Texte intégral

Le lecteur pourrait s’interroger en découvrant le titre de l’ouvrage : pourquoi l’avoir intitulé Des images à problèmes ? Du point de vue d’une épistémologue, l’association de l’objet « image scientifique » à une série de problèmes (le terme est au pluriel) présente un caractère judicieusement synthétique. En effet, dès lors que l’on se penche sur la question, le constat est vite établi : l’image scientifique se révèle une source sans cesse renouvelée de problèmes pour celles et ceux qui ont la charge de les produire et de les exploiter, mais également pour les analystes des sciences humaines et sociales qui leur accordent leur attention depuis quelques décennies.

Concernant le contenu de l’ouvrage de Maria Giulia Dondero et Jacques Fontanille, il faut d’abord saluer son exhaustivité qui se situe au moins sur trois plans: processuel, typologique, méthodologique. Une telle exigence constituait une véritable gageure et la tentation pouvait être grande d’esquiver certaines difficultés liées à l’ampleur de la tâche et à l’extension du champ d’étude.

Note de bas de page 1 :

Representing and Intervening, 1983, Cambridge, Cambridge University Press.

Note de bas de page 2 :

 Il est vrai par ailleurs que ces modèles proposent une reconstruction rationnelle des démarches d’investigation empiriques et portent sur la question quid juris ? concernant la validité ou la justification des énoncés scientifiques. Prendre en compte l’intégralité des éléments constitutifs des pratiques des chercheurs n’a donc jamais constitué une visée pertinente pour des philosophes tels que Carnap, Popper, Reichenbach et leurs successeurs. Et à ce titre, on ne saurait le leur reprocher.

Note de bas de page 3 :

 Les phrases qui suivent constituent un témoignage parmi beaucoup d’autres du souci que manifestent constamment les auteurs de ne pas négliger les hésitations caractéristiques de l’activité de recherche au sein des sciences empiriques : « Le moment expérimental est l’étape la plus complexe dans la pratique scientifique, dans la mesure où c’est celui des manipulations interrogatives, de la mise à l’épreuve et de la recherche de quelque forme visuelle qui soit à la fois soumise à des protocoles d’instauration, révélatrice et perceptivement efficace. En ce moment particulier, l’iconisation n’est pas évitée, mais elle n’est pas non plus nécessairement recherchée, car l’instabilité interrogative fait partie des vertus de l’expérience scientifique. » (Des images à problèmes,page 243).

Exhaustivité au plan processuel : sans abuser d’une analogie vitaliste, je dirai à propos des images scientifiques ce que Ian Hacking a dit à propos de l’expérimentation1 : elles ont leur vie propre. Cela signifie qu’on ne peut rendre compte de leur présence dans l’activité de recherche scientifique en les intégrant dans un modèle axiomatique, du type de ceux qu’ont longtemps bâti les philosophes anglophones. Il faut saisir leur spécificité, ce qui nous éloigne d’office de la rassurante linéarité et de l’illusoire complétude de ces modèles philosophiques2 : en effet, dans le laboratoire, une image peut être mort-née, elle peut changer d’identité au cours de son développement, subir des modifications significatives, connaître ou non un destin glorieux. L’ouvrage de Maria Giulia Dondero et Jacques Fontanille parvient à saisir toutes les étapes de cette vie des images qui va du processus de production pratique et technique des images à leur insertion dans les différents genres de la littérature scientifique (article destiné aux spécialistes, publication relevant de l’ordre de la vulgarisation scientifique) – sans jamais perdre de vue l’aléatoire, les incertitudes et les tâtonnements qui parsèment souvent le parcours de l’image3.

Note de bas de page 4 :

 Humain, trop humain, I, 1878, chapitre IV, § 162.

Exhaustivité au plan typologique : confrontés à la grande diversité des types d’images scientifiques, une stratégie des auteurs aurait pu consister à opérer une réduction du champ d’investigation en se limitant aux images produites, exploitées et diffusées dans le cadre d’une discipline ou d’un domaine des sciences (astrophysique, nanosciences, sciences biomédicales, etc.). Tout au contraire, leur choix a consisté à ne pas exclure de prime abord un type d’images scientifiques. Un tel choix se révèle extrêmement fécond, en particulier dans la deuxième partie de l’ouvrage consacrée à l’insertion des images au sein des différents supports de publication et dans la troisième partie, consacrée aux diagrammes mathématiques. Cette troisième partie est l’occasion de dépasser le cloisonnement entre les diagrammes mathématiques et les images obtenues au moyen de multiples dispositifs instrumentaux dans les sciences de la nature. Selon les auteurs, on peut parler d’un « fonctionnement diagrammatique » de l’image scientifique. Ce qu’il faut entendre par là a à voir avec la manipulabilité des images scientifiques, caractéristique qui les distingue probablement de la fresque pompéienne ou du tableau de maître du XVIIe siècle. Fresque antique et tableau sont des produits terminaux d’un processus de création et ne sont pas destinés à autre chose qu’à être contemplés pour eux-mêmes. Ils sont assimilables à des fins en soi. Pour emprunter une formule à Nietzsche, ils s’imposent « tyranniquement dans leur perfection actuelle »4. Il n’en va pas de même pour les images scientifiques : celles-ci sont toujours potentiellement sujettes à d’innombrables transformations dont la justification pratique renvoie elle-même à de multiples visées potentielles. Signalons seulement le fait essentiel que ces visées sont généralement conditionnées par le souci de « parvenir à une saisie intuitive optimale » (p. 215) et plus généralement d’« aboutir à une visualisation adéquate » (p. 240). A partir de la reconnaissance de l’existence d’une telle finalité, on comprend aisément pourquoi la manipulabilité constitue un enjeu central. Elle est la condition de possibilité de la représentation de relations diverses, l’intérêt du chercheur étant orienté selon les étapes de son travail vers la mise à jour de tel ou tel type de relation : « Les manipulations portant sur une visualisation observée peuvent faire ressortir différentes formes de relations (entre paramètres en jeu, entre valeurs, etc.) qui se donnent comme démonstration, c’est-à-dire à la fois nécessaires et contraintes, et en même temps, créatrices d’un nouveau savoir. » (page 242).

Exhaustivité au plan méthodologique : que peut-on entendre par exhaustivité de l’ouvrage au plan méthodologique ? La formule peut sembler ici quelque peu boiteuse, mais elle permet de mettre l’accent sur deux points précis :

Note de bas de page 5 :

 Cette distinction a été particulièrement mise en relief par Bruno Latour. En témoigne le titre de l’ouvrage qu’il a codirigé avec Michel Callon, La science en train de se faire (Paris, La Découverte, 1990). Il s’agit en l’occurrence d’un recueil d’articles écrits par des sociologues des sciences anglophones, se soumettant à des préceptes méthodologiques déterminés, formulés de manière programmatique dans les années 1970 (« Programme fort » de Barry Barnes et David Bloor, « Programme empirique relativiste » de Harry Collins). Mais le projet même de concentrer davantage l’attention de ceux qui étudient la science sur l’activité quotidienne effective des chercheurs dans leurs laboratoires correspond à une attitude dont la genèse renvoie à des ramifications multiples et qui a pris l’allure de ce que l’on a parfois qualifié à l’aide de l’expression « tournant pratique » (practice turn) au début des années 1980.

- tout d’abord, et en tant qu’ethnographe de laboratoire, on peut être sensible aux distinctions établies dès l’introduction de l’ouvrage. Les auteurs reprennent la distinction fameuse entre science faite et science en train de se faire5. Ils inscrivent explicitement leur démarche d’investigation du côté des études relatives à la « science faite » (p. 11) et la conçoivent comme complémentaire de celle à laquelle recourent les sociologues et les anthropologues des sciences. Plus précisément, Maria Giulia Dondero et Jacques Fontanille empruntent selon leurs propres termes une « voie médiane » (p. 12). Celle-ci se traduit, nous semble-t-il, par la volonté de ne pas privilégier un point de vue génétique (consistant à se demander comment les images sont produites, ce qui suppose effectivement une présence au sein du laboratoire). Le point de vue adopté correspond plutôt à ce que nous-même avons appelé dans un certain nombre d’articles un point de vue téléologique. On cherche à répondre aux questions : dans quel but l’image a-t-elle été produite ? Quel est la meilleure forme de représentation pour atteindre un tel but ? Dans les termes employés par les deux auteurs, cela donne lieu à la déclaration d’intention suivante :

« Nous partirons par conséquent non pas de l’analyse des images, mais de la prise en compte des objectifs d’une recherche scientifique qui utilise des images pour son déploiement. En d’autres termes, l’image scientifique ne sera pas ici considérée pour elle-même, dans les limites d’un texte figuratif et plastique, mais intégrée à un plan d’immanence et d’analyse de niveau supérieur, celui d’un parcours pratique qui vise à transformer un objet de recherche en objet scientifique. » (p. 12).

« La voie médiane » que constitue la démarche adoptée esquive donc le piège d’une analyse réduite aux images faites. En prenant en compte à chaque instant « le parcours pratique » constituant l’objet scientifique en tant que tel, Maria Giulia Dondero et Jacques Fontanille parviennent à saisir ce qui fait la spécificité des différents types d’image scientifiques : « L’image scientifique étant produite et validée collectivement, elle est destinée à de nombreuses mises à l’épreuve ultérieures, et apparaît de ce fait toujours comme une stabilisation provisoire des pratiques de recherche et/ou de diagnostic. »  (p. 15).

- ceci nous amène à une remarque complémentaire relative à la méthode que les images scientifiques contraignent en un sens à adopter. La structure d’expérience procurée par l’imagerie scientifique est définie par les auteurs comme plus complexe que celle procurée par d’autres types d’images, notamment les images représentatives classiques – parce que cette structure d’expérience inclut nécessairement une instance d’expérience scientifique (au sens des sciences expérimentales) et une instance pratique qui restent virtuelles pour les autres types d’images (peinture, publicité, photographie). En ce sens, l’imagerie scientifique apparaît « comme un ‘laboratoire’ sémiotique pour la description des régimes de croyance de l’image. » (p.19).

Quelles sont les conséquences des remarques qui précèdent quant à la méthodologie adoptée ? Il s’agit pour les auteurs « d’élargir le champ théorique et méthodologique de l’analyse de l’image, et d’envisager des structures canoniques plus complexes, où tous les types de sémiotiques-objets visuelles trouveront place, au prix d’un certain nombre d’opérations de neutralisation, de syncrétisme et de potentialisation. » (p. 21)

Dans la suite de notre propos, nous reprenons quelques-unes des catégories d’analyse qui nous ont paru, en tant qu’épistémologue travaillant sur les images scientifiques, des pistes de recherche intéressantes à exploiter dans un futur proche.

Note de bas de page 6 :

 La chambre claire : Note sur la photographie, Paris, Seuil-Gallimard-Cahiers du Cinéma, 1980.

L’ouvrage de Maria Giulia Dondero et Jacques Fontanille permet de comprendre – par-delà la technicité propre à la production et à l’interprétation qui caractérise chaque domaine scientifique – d’où provenait le sentiment très fort d’opacité lié aux images réalisées. Nous pensons que cette opacité se niche notamment dans les tensions très bien analysées entre iconisation et référentialisation. L’iconisation est définie par les auteurs comme « le processus de stabilisation qui permet de reconnaître une forme » (p. 16, note). La référentialisation est définie comme « processus de présentification et de localisation dans un champ de présence » (p.16, note). Nous  sommes tous confrontés à des pratiques de lecture de photographies. Dans ce cadre là, le lien de solidarité entre iconisation et référentialisation est assuré par la foi perceptive de l’observateur. La photographie ne fait que reprendre notre expérience sensorielle quotidienne organisée à partir de l’action de la lumière dans le monde naturel. Certes, dans la photographie, il y a également un phénomène d’excitation par la lumière, un enregistrement d’un signal réponse et une transduction qui mènent à la visualisation finale. Mais excitation et visualisation sont dans ce cadre là substantiellement isotopes, ce qui favorise la solidarité entre iconisation et référentialisation et permet d’aboutir à une foi perceptive. Celle-ci peut se traduire en quelque sorte au moyen de l’expression « ça a été », employée par Roland Barthes dans son ouvrage bien connu, La chambre claire6. Les formes que je perçois dans une photographie correspondent à un objet qui est bien réel ou qui l’a été. Nous nous inscrivons alors dans le cadre d’un paradigme photographique, paradigme que l’on est trop souvent tenté de transposer, sans se poser véritablement de question, à l’analyse d’une image scientifique. C’est là que le bât blesse, car l’image scientifique conjugue quant à elle iconisation et référentialisation de manière différente, d’où l’impression très prégnante d’opacité.

Ainsi, en analysant une radiographie par rayons X, il s’agit pour le radiologue de déterminer la présence de telle ou telle partie du corps examiné ou de tel phénomène (une fracture, par exemple). La radiographie présentifie cette partie ou ce phénomène. L’effet de présence qui relève de l’impression référentielle est obtenu au détriment de l’impression iconique, réduite alors à la manifestation de structures en aplats incolores. Dans une image produite au moyen d’un scanner (ou tomodensitométrie), l’exploration se fait par coupes successives dans le volume d’un corps qui sont ensuite synthétisées sous la forme d’une image. La synthèse d’une série de sections visuelles permet de reconstituer la présence en relief et en volume de l’objet. La reconnaissance iconique est ici complétée par une pseudo-impression référentielle et une représentation en trois dimensions reconstituée informatiquement. Le cas des images produites en microscopie en champ proche donne lieu à une autre conjugaison encore entre iconisation et référentialisation. Ce que l’on voit sur ces images, ce ne sont pas des objets, mais des courbes d’énergie. Dans ce cas-là, le rapport entre iconicité et référence est à la limite de toute croyance, puisque ce qui est proposé sur ces images, ce sont des contours d’objets qui ne sont en réalité que des profils d’énergie. Ce sont des images de non-objets dont la présence et la forme ne sont attestées que par la constance d’un quantum d’énergie. Maria Giulia Dondero et Jacques Fontanille développent encore bien d’autres exemples dans leur ouvrage. Mais le lecteur l’aura compris à partir des trois exemples qui précèdent : ce que Des images à problème donne à voir, c’est que la nature du lien entre iconisation et référentialisation n’est pas réductible à un seul type dans le cas des images scientifiques. Surtout, ce lien n’est pas du tout celui auquel nous sommes habitués dans notre vie quotidienne, c’est-à-dire dans le cadre du paradigme photographique. D’où, encore une fois, l’impression de très forte opacité des images scientifiques qui nécessite pour le chercheur dans son laboratoire, pour le profane et pour le sémioticien, une prise en compte des processus d’exploration qui conduisent à la visualisation.

Concernant la question de la diffusion des images scientifiques (dans deux types de contexte : communication entre pairs et vulgarisation),  celle-ci est abordée dans la partie 2 de l’ouvrage. Les deux types de contexte ne sont d’ailleurs pas pensés isolément. Pour une fois, et ceci est extrêmement rare, l’analyse part de l’article scientifique proprement dit et des images qui y sont incluses pour envisager le devenir de ces dernières lorsqu’elles franchissent la frontière entre littérature scientifique et écrits ayant une fonction de vulgarisation. L’exemple retenu par Maria Giulia Dondero et Jacques Fontanille est celui des images de trou noir. On découvre comment l’astrophysicien construit l’objet « trou noir » à partir d’équations, mais éprouve néanmoins le besoin de transformer ces équations en diagramme et, ce qui est plus surprenant, en photographie calculée (on parlerait aujourd’hui d’image simulée). Cette photographie calculée est à la fois autographique - elle représente un trou noir dans un contexte donné, et allographique - puisqu’elle a une portée qui vise un haut degré de généralité. Cette image qui constituait en quelque sorte le point final du discours scientifique devient le point de départ, le référent du discours de vulgarisation. Le passage à la dimension vulgarisée se manifeste d’une part par l’effort sensible pour rapporter l’objet scientifique à une échelle humaine et d’autre part, par la disparition des équations (la photographie calculée perd toute référence à son instauration mathématique). Le vulgarisateur va également se servir d’images artistiques, comme celle proposée par Escher, qui visent à provoquer chez le lecteur profane des réactions sensori-motrices. Ces images artistiques permettent à ce lecteur profane d’éprouver la sensation de ce que pourrait être une chute vers un trou noir. Les images artistiques ne cherchent pas du tout à simplifier les prises de positions théoriques, mais à exemplifier : la théorie de la relativité, qui sous-tend l’existence même des trous noirs, devient ainsi  perceptible à tout un chacun. Les images artistiques n’appauvrissent pas l’objet, ici insaisissable, mais offrent au contraire une expérience dense et émotionnelle, incarnée, de l’insaisissable en tant que tel.

Note de bas de page 7 :

 Cet étonnement a été relevé par Bruno Latour dans « Le travail de l’image ou l’intelligence savante redistribuée », La clef de Berlin et autres leçons d’un amateur de sciences, Paris, La Découverte, 1993, pp. 145-170.

Le second chapitre de la même deuxième partie de l’ouvrage est consacré à l’analyse d’images dans l’économie argumentative d’un article scientifique. Ce chapitre est une belle illustration de la réponse que l’on peut apporter aux « parascientifiques », lorsque ceux-ci s’étonnent du fait que leurs détracteurs ne prennent pas au sérieux l’image de soucoupe volante ou d’esprit frappeur qu’ils leur présentent. Pourtant, s’indignent les parascientifiques, les revues scientifiques à comité de lecture regorgent d’images7. A la suite de Bruno Latour, Maria Giulia Dondero et Jacques Fontanille soulignent, avec la terminologie qui leur est propre, le fait qu’une image scientifique n’existe jamais seule. Elle renvoie à d’autres images qui renforcent sa portée argumentative. Les différents types sémiotiques évoqués par les auteurs permettent aux scientifiques de développer une argumentation propre aux images étroitement interconnectée avec l’argumentation verbale, mais non réductible à cette dernière. L’argumentaire visuel prend appui sur ce que nous appellerons l’interimagéité : la combinaison d’images ayant une valeur épistémique déterminée confère à la thèse défendue dans l’article un plus grand poids argumentatif. Les images figurant dans un article donné entretiennent par ailleurs des liens avec d’autres images apparaissant dans d’autres articles (et à cet égard, l’interimagéité se rapproche de ce qu’il est convenu d’appeler depuis quelques décennies « intertextualité »).

Quelques mots, enfin, sur un développement figurant dans la dernière partie de l’ouvrage, consacrée à la schématisation et subdivisée en deux chapitres (le premier portant sur les diagrammes, le second sur les courbes mathématiques). Le premier chapitre se concentre sur les diagrammes en recourant à des outils sémiotiques peirciens. Le diagramme pour Peirce est constitué de deux faces : celle de l’occurrence singulière et celle qui donne les règles de lecture pour comprendre cette occurrence comme un type (p. 176). Il serait donc enraciné dans l’évidence perceptive et de l’autre et il serait généralisable. De ce fait, il est par nature manipulable et expérimentable. Nous avons tous en tête l’image de diagrammes logiques ou mathématiques. Ce qui est original dans le propos de Maria Giulia Dondero et Jacques Fontanille, c’est le fait d’appliquer cette définition peircienne du diagramme à certaines photographies scientifiques et de montrer en quoi elles sont diagrammatiques. Ainsi, la photographie composite que l’on trouve si souvent dans certaines sciences telle que l’astrophysique serait diagrammatique, idée à partir de laquelle on cerne mieux en quoi de telles photographies permettent de saisir et de comprendre certaines relations entre les phénomènes et font ressortir des propriétés qui n’étaient pas prévisibles avant le montage de la composition.

On l’aura compris à la lecture de ce qui précède, Des images à problèmes se livre à un travail de reformulation des concepts opératoires de la sémiotique et les soumet à des déplacements par rapport aux classifications courantes au sein de cette discipline. Ainsi, l’ouvrage se révèle une lecture indispensable pour toutes celles et ceux qui consacrent leurs recherches ou tout simplement leur attention aux images scientifiques. Que l’on souscrive ou non aux conclusions des auteurs et que l’on fasse ou non des emprunts au répertoire des outils d’analyse qu’ils mettent en place, la réflexion de Maria Giulia Dondero et Jacques Fontanille constitue un jalon important dans l’histoire relativement courte des études portant sur les représentations visuelles en science.