L’Intelligence Artificielle et ses « contextes » : entre l’éthique et le politique Artificial Intelligence and its "contexts”: between ethics and politics
Cette contribution s’attachera d‘abord à examiner la manière dont la notion de contexte joue un rôle central dans l’histoire du numérique et de l’IA d’un côté et dans celle du droit relatif à la protection des données personnelles de l’autre, pour examiner ensuite la manière dont elle rejoue la conception de la subjectivité, de la normativité et de l’éthique. Nous montrerons comment cette évolution est parallèle à la mise en place de la gouvernementalité néolibérale ou de celle qualifiée plus récemment d’algorithmique, et comment il nous confronte à la portée non seulement éthique mais aussi politique de l’IA ubiquitaire. Notre démarche vise deux apports : une proposition complémentaire de classification des IA, qui repose sur l’évolution du rôle que le contexte joue dans l’action et l’éthos de l’utilisateur ; une heuristique renouvelée afin de saisir l’articulation entre l’opérationnalisation des systèmes et le maintien de l’autodétermination informationnelle ou, en d’autres mots, entre l’efficacité technique et la normativité sociale.
This contribution will first examine the way in which the notion of context plays a central role in the history of the informatics and ubiquitous AI on the one hand, and in that of privacy and data protection on the other and, second, will examine the way in which this notion replays the conception of subjectivity, normativity and ethics. We will show how this evolution parallels the establishment of neoliberal - and more recently algorithmic - governmentality, and how it confronts us not only to the ethical but also to the political significance of ubiquitous AI. Our approach aims to make two contributions: a complementary proposal for the classification of AI, based on the evolving role that context plays in user's action and ethos; and a renewed heuristic to grasp the articulation between the operationalisation of AI systems and the preservation of informational autodetermination or, in other words, between technical efficiency and social normativity.
Introduction
Notre postulat de départ est qu’il n’y a d’éthique que contextuelle, que l’éthos ou la conduite – sa compréhension par l’acteur, sa valeur normative ou son évaluation par des tiers – ne prennent sens qu’en rapport avec le contexte dans lequel la conduite s’inscrit. Si la notion de contexte a retenu toute l’attention qu’elle mérite en éthique fondamentale et appliquée (Faes, 2014), elle n’a pas été suffisamment examinée en lien avec la datafication du monde.
Cette contribution s’attachera à examiner la manière dont la notion de contexte joue un rôle central dans l’IA d’un côté et dans le droit à la protection des données personnelles de l’autre, pour examiner ensuite la manière dont elle rejoue la conception de la subjectivité, de la normativité et de l’éthique.
Ainsi, le parti pris de ce texte est, dans un premier temps, de remonter en amont de telle ou telle conception particulière de l’éthique afin de saisir au préalable le changement dans notre rapport même à la normativité. Cela nécessitera un détour par l’histoire de la notion de « contexte » en informatique (Section 1), par la manière dont on pense le lien entre le contexte et l’autodétermination informationnelle (Section 2), et par l’avènement d’une nouvelle forme de gouvernementalité qui rejoue de manière spécifique notre rapport à la norme (Section 3). Le rôle du « contexte » apparaitra alors comme comportant une certaine ambivalence historique dont nous proposerons une interprétation en termes de ruse ou de récupération (Section 4). Nous terminerons par évoquer quelques conséquences de cette approche sur les questionnements éthiques dans le champ de l’IA.
Notre démarche vise deux apports : une proposition alternative de classification historique des IA, qui repose sur l’évolution du rôle que le contexte joue dans l’action et l’éthos de l’utilisateur - ce qui permettrait d’échapper aux apories classiques d’IA faible/forte/etc. ; une heuristique renouvelée afin de saisir l’articulation entre l’opérationnalisation des systèmes et le maintien de l’autodétermination informationnelle ou, en d’autres mots, entre l’efficacité technique et la normativité sociale.
1. Une brève histoire du « contexte »
1.1. Les contextes et les normativités
Donnons tout d’abord une définition tout à fait générale. On entend par contexte, en sciences humaines et sociales, une configuration locale dont la fonction est d’interpréter une norme générale. Mais qui dit interpréter dit aussitôt se confronter, voire s’opposer, à une normativité historiquement établie, associée à telle ou telle forme de la gouvernementalité à l’œuvre. Il convient donc d’entendre cette notion de manière à la fois relationnelle et historique : elle est un pôle pris dans un jeu dialectique avec la normativité, un peu à la manière du couple savoir-pouvoir dont Foucault a longuement analysé l’interdépendance.
On conceptualisera alors de manière différente, au cours de l’histoire, la confrontation entre la norme générale et ce qui s’y oppose localement. Ainsi, dans une sorte de redoublement, la notion de « contexte » elle-même endosse des rôles différents en fonction des formes concrètes de gouvernementalité : le « contexte » n’aura pas la même fonction ni la même valeur dans une société issue de la deuxième révolution industrielle ou dans le néolibéralisme numérique contemporain.
Le pari de cet article est de démontrer que l’on peut voir un jeu similaire dans la notion de contexte dans l’histoire de l’informatique, et plus exactement dans celle de l’intelligence artificielle, ce qui à son tour nous permettra d’analyser le parallèle entre l’évolution des formes de gouvernementalité et l’évolution de l’informatique.
Commençons par avoir une première approche de ce que le « contexte » signifie en l’informatique. On entend habituellement par contexte une couche de l’interaction qui est non explicite (non formalisé ou non formalisable) et locale (encore une fois, n’obéissant pas nécessairement à la règle générale qui a guidé la conception du système). Une manière connexe d’expliciter cette notion est de la distinguer, ce que l’on fait classiquement en informatique, du contenu de l’interaction : le contenu serait le message acheminé ou l’action de commande que l’utilisateur est censé d’opérer, le contexte serait alors de l’ordre de la réception du message ou de la manière concrète dont ce dernier exécute l’action.
Dès les débuts de l’informatique, on comprend que le contexte doit être pris en compte, potentiellement en modifiant le comportement du système. Schématiquement, il s’agit de détecter les caractéristiques de l’environnement (par exemple, l’emplacement) et de l’utilisateur (par exemple, son émotion) ; de calculer le contexte (selon un ensemble de stratégies préétablies) ; et enfin d’adapter le comportement de l’appareil de manière appropriée. En anticipant sur ce qui va suivre, cette préoccupation est résumée ainsi dans la notion de context awareness :
[...] « Sensibilité au contexte », terme qui décrit la capacité de l’ordinateur à détecter et à agir à partir des informations sur son environnement, telles que l’emplacement, l’heure, la température ou l’identité de l’utilisateur.
Ces informations peuvent être utilisées non seulement pour étiqueter les informations collectées sur le terrain, mais également pour permettre des réponses sélectives telles que le déclenchement d’alarmes ou la récupération d’informations pertinentes pour la tâche à accomplir. (Ryan et al., 1998)
Cependant, il convient maintenant de retracer une histoire de la place que cette notion occupe successivement dans l’IA.
1.2. Le contexte comme obstacle
Les débuts de l’intelligence artificielle sont caractérisés par un projet d’ontologie universelle et formalisable. La figure emblématique de cette GOFAI (Good Old Fashioned Artificial Intelligence) est le General Problem Solver et son pari de représenter la totalité des connaissances à travers un ensemble de règles et de relations logiques. Le projet de cette période, dans sa prétention générale, entend dépasser les limites locales de la validité ou de l’efficacité des systèmes ou même de la capacité de la compréhension ou de l’agir de l’utilisateur humain.
On le sait, ce projet a été un échec pour de multiples raisons dont on ne fournira pas le catalogue ici. Mais nous proposons d’apporter un éclairage supplémentaire de cet échec à travers la notion du contexte. Notre hypothèse est que c’est précisément la non-prise en compte du caractère situé et contextuel de toute interaction, l’incapacité de saisir et d’opérationnaliser le contexte local dans lequel l’interaction homme-machine prend place (par exemple la validité et/ou l’efficacité de la règle générale dans une situation locale), qui ont mis en suspens ce projet.
Il convient de préciser qu’il ne s’agit pas ici d’un échec « technique » mais d’une impasse épistémologique, voire philosophique, à savoir le silence de cette GOFAI sur la cognition contextuelle/située. Telle a été la critique formulée par notamment (Winograd et Flores 1987), critique explicitement fondée dans la pensée heideggérienne (Heidegger 1927). Selon ce dernier en effet, le sens (de la perception, de l’action, de l’activité humaine en général) n’est possible que dans un contexte à chaque fois spécifique. Et c’est fondamentalement pour avoir méconnu cette donnée anthropologique de base qu’une approche générale et formelle de la connaissance a échoué.
Mais il est possible ici d’aller plus loin qu’un simple constat épistémologique. En effet, la séparation éventuelle entre les contextes d’usage, comme autant d’espaces de possibles, a aussi une portée politique. Elle a une valeur de résistance au déploiement indifférencié des systèmes supposés universellement applicables. Ainsi, si la multiplicité des contextes est perçue comme un obstacle du point de vue du concepteur des systèmes, elle conditionne aussi la valeur que nous attribuons à tel ou tel développement. Le mouvement de la « cognition située » est perçu comme une force émancipatrice face à l’ontologie formelle et rigide, voire hiérarchique. Toute la discussion scientifique autour de la cognition située et de son rôle dans la conception des systèmes, prend place dans les années 1980 et 1990, témoigne de cette portée politique de la notion de contexte.
1.3. La multiplication des contextes
Une des réponses à cet échec est la tentative de prendre en compte la notion de contexte à travers le développement des « systèmes experts ». On se limite alors à circonscrire l’ambition de la représentation des connaissances à des ontologies régionales (spécifiques à tel ou tel domaine : e.g. diagnostic médical). Le contexte (ici, le domaine d’application) est alors compris comme l’existence des limites à la validité ou à l’efficacité du système.
Cependant, ces systèmes rencontrent une double limite. Tout d’abord, elles ne prennent pas en compte les connaissances tacites et pour ainsi dire hyper-locales de l’opérateur (les astuces, les détournements, les arts de faire, etc.). Ensuite, elles sont incapables de faire le mouvement inverse à la régionalisation d’un problème, à savoir de replacer l’interaction dans un contexte plus large (de l’histoire, de la société, etc.) ou du moins de le décentrer (Winograd, 1985).
On voit bien que les limites des systèmes experts sont fondamentalement structurées autour de cette notion de contexte. Mais, en un certain sens, nous pouvons voir que le problème n’est que reporté dans une sorte de fuite en avant – car des ensembles de « sous-contextes » ou de « méta-contextes » devraient alors être pris en compte.
Remarquons enfin le trait qui est commun à ces deux premières périodes : la notion de contexte peut être considérée comme un obstacle de jure à une approche générale de la représentation des connaissances et/ou de l’interaction homme-machine. C’est ce trait de jure qui va être remis en cause dans la période qui va suivre.
1.4. Les contextes à rejouer
La période qui s’ouvre dans les années 1990 opère une rupture épistémologique qui va consister dans la possibilité de jure de « résoudre » le problème du contexte. Cette période traverse elle-même trois étapes successives : les premiers jalons de l’informatique ubiquitaire à partir de 1991 ; la théorisation de la notion de context awareness autour de 1999 ; et enfin l’opérationnalisation à partir de 2006.
Le cœur de la démarche consiste à élaborer les stratégies (traduction plus ou moins heureuse de policies, terme approprié en anglais de l’informatique) qui définissent le passage d’un contexte à un autre (e.g. travail/loisirs, soleil/pluie, domaine_1/domaine_2). On peut distinguer trois grandes options de concevoir ces stratégies – et donc de déterminer qui et de quelle manière va les sélectionner à un moment donné.
On peut tout d’abord imaginer le contrôle par l’utilisateur lui-même, qui sélectionne tel ou tel contexte d’utilisation. Pour simplifier, c’est ce que nous faisons encore parfois lorsque nous mettons manuellement notre smartphone en mode silencieux dans une salle de cinéma.
Mais le problème de l’automatisation arrive aussitôt. Il est formulé à titre programmatique dès 1991, lorsque Marc Weiser, un des pères de l’informatique ubiquitaire, affirme ceci :
« Les appareils ubiquitaires devraient fournir leurs services de manière semi-automatique, en détectant l’environnement, en analysant la situation et en prenant une décision quant aux fonctionnalités à offrir à l’utilisateur » (Weiser 1991).
Il s’en suit que « [...] le système peut agir automatiquement sans interaction avec l’utilisateur et même anticiper les actions ou les contextes futurs et agir en conséquence » (Pichler et al. 2004). Nous sommes alors en présence de la deuxième option, dans laquelle l’automatisation repose sur des stratégies de passage d’un contexte à un autre. Elles sont basées sur un « modèle statique d’utilisateur » qui représente ce dernier, et le système va adapter son comportement sur la base de la conjonction entre ce modèle de l’utilisateur et les données relatives au comportement réel de l’utilisateur et de l’environnement. Cette stratégie, définie en amont, n’est pas forcément connue par l’utilisateur final, mais celui-ci peut la découvrir au fur et à mesure de l’utilisation du système, en variant les interactions avec celui-ci. Remarquons que des enjeux éthiques sont déjà présents, mais se résument en général à des questionnements sur la collecte des données et la surveillance (Makkonen et al. 2009).
Les approches contemporaines – troisième option - sont basées sur la conjonction de l’informatique ubiquitaire relevant plutôt du domaine de l’IHM (Interaction homme-machine) et de l’apprentissage machine (et en particulier de l’apprentissage par renforcement) ; dans cette approche une stratégie correspond à la relation entre des états observables et l’action à prendre.
Au sein de cette troisième option, deux cas peuvent être distingués. Tout d’abord, il est possible non seulement de définir un jeu des stratégies mais de faire évoluer les stratégies propres à chaque contexte au cours de l’apprentissage. De manière générale, l’utilisateur est lui-même représenté, dans l’espace du modèle, comme un ensemble de variables (relatifs à ses comportements observés ou ses actions explicites). Du point de vue du modèle qui est lui-même non-stationnaire, l’utilisateur fait, pour ainsi dire, partie de l’environnement (Zaidenberg et al. 2008). L’aspect non-stationnaire du modèle porte alors sur la découverte des « préférences » de l’utilisateur (Jeong&Kim 2023), de ses actions physiques (Baca et al. 2022) et enfin sur les règles dynamiques du comportement du modèle, détectées à partir des données (Sarker 2021), ce qui aboutit ainsi à une taxonomie dynamique des contextes. Les limites de cet article ne nous permettent pas de rentrer dans le détail des technologies en question. Remarquons simplement que tout un ensemble de travaux (Fabisch et Metzen 2014), (Perera et al. 2014), (Miranda et al. 2022), (Ali et al. 2023), (Chavhan et al. 2023), (Merkle et Mikut 2024) part du postulat suivant : la prescription des stratégies, trop en amont ou trop rigide, ne serait pas en adéquation aux environnements eux-mêmes en évolution ; il s’agit donc de mettre en place, en utilisant des méthodes de l’apprentissage machine, une capacité de différenciation dynamique dans l’élaboration et l’arbitrages des stratégies. Ce constat est valable dans les domaines variés qui font appel au concept de context awareness, ce qui nous semble témoigner de la portée générale de la reconfiguration dynamique des contextes.
Ainsi, sont susceptibles d’évoluer les règles à l’intérieur de chaque contexte et, dans un second temps, les frontières elles-mêmes entre les différents contextes (par exemple, à partir de quel moment on considère que l’utilisateur a quitté la rue pour rentrer dans son bureau, afin de lui accorder les droits d’accès correspondants). En d’autres termes, les contextes sont conçus non comme un ensemble des silos étanches mais comme des poids relatifs dans l’espace du modèle, poids dont la prise en compte dans le choix de la stratégie locale est susceptible d’évoluer au cours de l’apprentissage.
Mais l’apprentissage lui-même fait usage, par exemple dans les systèmes de recommandation des contenus (e.g. musicaux ou éditoriaux) ou de gestion des droits d’accès (e.g. à un local ou à un fichier), des données comportementales de l’utilisateur ; c’est leur traitement qui va - en grande partie - déterminer la définition et l’arbitrage entre les contextes. L’utilisateur est pris alors dans une boucle de feed-back dont il ne maîtrise que partiellement le déroulement et les effets. De surcroît, il peut y avoir une différence de principe entre ce que l’utilisateur considère comme la ligne de séparation entre contexte_1 et contexte_2 sur la base de ses interactions sociales, et ce que le système applique comme limite séparative à un moment donné.
1.5. De l’interaction ajustable vers la subjectivité modulable
Ainsi, dans la mesure où la décision de passer d’un contexte à un autre est guidée par un modèle évolutif, l’utilisateur est dépossédé de cette décision qui est, comme on va le voir dans les prochaines sections, au cœur de l’autodétermination informationnelle. Avec les systèmes contextuels, c’est le système qui décide quelle identité l’utilisateur endosse à un moment donné. Ce dernier, pour forcer le trait, ne sait jamais qui il est ou ce que le système pense qu’il est.
À travers les différentes étapes de l’histoire de l’IA que nous avons retracées, le passage d’un contexte à un autre devient progressivement non seulement un obstacle de jure surmontable, mais la raison même d’être des systèmes ubiquitaires, dont les dernières variantes, basées sur l’apprentissage machine, présélectionnent et imposent à l’utilisateur les « contextes » de manière dynamique et selon des « règles » inconnues de l’utilisateur, sous couvert d’ergonomie ou de design centré utilisateur.
Ainsi, ce n’est pas seulement le flux des informations qui est automatisé, mais – puisque le contexte est assigné à l’utilisateur - le cadre interprétatif lui-même, de sorte que la subjectivité de l’utilisateur est désormais modulable. C’est à ce changement dans le registre de la subjectivité de l’utilisateur - le pendant de la normativité et de la gouvernementalité à l’œuvre - que sont consacrées les prochaines sections.
2. Mise en perspective : les contextes et la vie privée
Nous allons examiner ce changement de normativité sur le terrain de la protection de la vie privée et des données personnelles, dont le traitement est à la base des stratégies de définition et de sélection dynamique des contextes.
Une des approches fondatrices de la protection de la vie privée a été proposée par (Nissenbaum, 2010). Il s’agit de souligner le fait que la menace à la vie privée ne se produit pas lorsque l’information est simplement échangée ou révélée (je dis presque tout à mon médecin, et j’ai tout intérêt à ce que cette information circule à l’intérieur du contexte médical). En revanche, lorsque la même information sort du contexte médical (lorsque la même information est rendue visible pour mon employeur par exemple), j’aurai le sentiment d’invasion de ma vie privée. L’idée centrale est que la circulation des données n’est pas mauvaise en soi, mais qu’elle doit respecter les contextes dans lesquels elle a été produite. Dès lors, l’enjeu est de préserver l’intégrité contextuelle des flux des données.
Cette approche se fonde sur un certain nombre de présupposés théoriques, dont la première est la suivante : c’est au sujet de décider quelle information est révélée et dans quel contexte, et d’arbitrer le passage d’un contexte à un autre (dans notre exemple, je peux après tout communiquer mon état médical à mon employeur si cette décision ne m’est pas imposée). Le présupposé théorique est donc celui d’un sujet autonome, capable de faire des choix éclairés et en connaissance de cause ; ce présupposé se rattache à une certaine vision historique que l’on peut qualifier de celle des Lumières, ou encore d’un paradigme libéral tel qu’il a été formulé à partir du XVIIe siècle. C’est cette idée qui est reprise par le droit des données à caractère personnel sous le titre de l’autodétermination.
Mais ce présupposé théorique ne tient plus lorsque le choix du contexte est automatisé, et que l’utilisateur est dépossédé non seulement du choix mais aussi des règles selon lesquelles ce choix est opéré. En effet, aucun des piliers de la protection des données à caractère personnel ne tient ici. Il est difficile de porter la finalité du traitement à la connaissance de l’utilisateur car celle-ci est potentiellement définie dynamiquement, en fonction du contexte. Il est difficile de parler de consentement éclairé car ce dernier est classiquement basé sur la connaissance de la finalité et du contexte de traitement des données. En somme, on passe de l’autodétermination à l’hétéro-détermination par la machine car l’action de l’utilisateur est influencée « à la volée », de même que l’on passe du sujet autonome à « la personne concernée », et du consentement éclairé au consentement induit.
D’un point de vue anthropologique, la gestion des contextes par le sujet, dans ses interactions quotidiennes, équivaut à sa maîtrise de ses multiples identités sociales, en fonction du contexte de telle ou telle interaction sociale. Nous entendons ici par « social » l’imbrication des multiples normativités locales et socialement négociées. Ainsi, l’approche par l’intégrité contextuelle pose également la question de la normativité et de son évolution. Les lignes de démarcation entre les différents contextes sont socialement négociées et ces normes sont par définition évolutives sur un temps long. Avec le numérique, nous assistons d’abord à une renégociation accélérée entre les contextes et leurs imbrications établies préalablement, et à l’évolution des limites séparatives entre les contextes (Nissenbaum, 2010). Mais il nous semble, et nous nous appuyons en cela sur (Rouvroy et Berns, 2013), qu’il ne s’agit plus d’un simple réagencement des normes locales existantes, ou de la manière dont elles s’imbriquent, mais plutôt de changement de notre rapport à la norme.
3. Une nouvelle normativité
On commence à comprendre la différence entre la normativité, certes évolutive et locale, mais socialement négociée d’un côté, et la normativité à l’œuvre dans l’informatique ubiquitaire de l’autre. En effet, comme le passage d’un contexte à un autre est arbitré automatiquement, une nouvelle forme de notre rapport à la normativité prend place.
Il serait trop ambitieux de décrire ici ce changement dans toute sa complexité, mais nous pouvons expliciter deux pôles entre lesquels semble se jouer la question de normativité. Le premier est celui de la normativité élaborée dans de multiples interactions sociales. Considérée au niveau des choix individuels ou de l’éthos de l’utilisateur, cette mise en confrontation à la norme va se traduire par exemple par un comportement de soumission ou au contraire de résistance, ou encore d’émancipation. L’aspect qui importe pour notre propos est celui d’une confrontation (que nous avons aussi qualifié de vis-à-vis (Khatchatourov, 2016) à une certaine visibilité et stabilité de la norme – ou du moins des mécanismes de sa constitution dans tel ou tel contexte social. C’est au demeurant sur ce présupposé que l’on fait reposer le plus souvent toute évaluation éthique.
Un autre pôle est celui où il ne s’agit plus d’un rapport de confrontation mais d’oscillation entre différentes règles du jeu, localement autorisées par les stratégies de passage d’un contexte à un autre (que nous avons qualifié d’ajustement permanent (Khatchatourov, 2016)). Soulignons encore une fois que, dans la mesure où le lieu d’élaboration de ces stratégies relève quasi entièrement de l’apprentissage machine, les nouveaux « contextes » viennent remplacer les espaces du « social ».
Cet ajustement local et continu du comportement de l’utilisateur est entièrement compatible avec, sinon fondé dans, les formes néolibérales de gouvernementalité. L’avènement du néolibéralisme est une question dont la complexité dépasse le cadre de cet article. Nous le comprenons, avec Foucault, non pas comme une doctrine économique, mais comme une forme historique précise de la gouvernementalité (dont l’économie n’est qu’un des aspects). Le néolibéralisme introduit un rapport spécifique à la norme : il ne s’agit plus de contraindre les individus pour qu’ils obéissent à un ensemble de règles plus ou moins strictes mais de modifier en permanence les règles de feed-back afin d’obtenir les effets sur leurs comportements. C’est ainsi que Foucault décrit cette forme alors naissante :
[…] une société dans laquelle il y aurait optimisation des systèmes de différence, dans laquelle le champ serait laissé libre aux processus oscillatoires, dans laquelle il aurait une tolérance accordée aux individus et aux pratiques minoritaires, dans laquelle il y aurait une action non pas sur les joueurs du jeu, mais sur les règles de jeu, et enfin dans laquelle il y aurait une intervention qui ne serait pas du type de l’assujettissement interne des individus, mais une intervention de type environnemental. » (Foucault, 1979 (2004), p.265)
Cette idée est reprise par (Deleuze, 1992) sous le terme de modulation : contrairement au moule fixe par lequel la subjectivité est formée et qui est caractéristique des formes antérieures de la gouvernementalité, le néolibéralisme opère à travers un moule lui-même constamment modulable, en créant une subjectivité malléable, réagissant à la moindre déformation du moule. On comprend alors que par « intervention environnementale » il faut comprendre la modification constante de la règle du feed-back, ajustable à la volée.
Ce rapport de proximité entre la gouvernementalité néolibérale et la pensée cybernétique est un thème qui commence à être largement débattu (Rouvroy et Berns, 2013), (Khatchatourov 2019) mais nous voudrions ici lui donner une inclinaison plus historique et politique, sur l’exemple précis de la notion de contexte.
4. La ruse de l’histoire
4.1. Du contexte comme résistance au contexte comme modulation
Le mouvement historique que nous avons esquissé pourrait être décrit de manière suivante. Entre les débuts du droit relatif à la protection des données à caractère personnel (Loi Informatique et libertés, 1978) et les développements théoriques plus récents qui lient cette protection à la normativité sociale (Nissenbaum, 2010), la séparation entre les contextes d’usage est comprise comme une garantie de la protection, et surtout de l’autonomie de la personne et de son libre-arbitre, produisant une subjectivité supposée maître et responsable d’elle-même, capable d’une action et d’une évaluation éthiques.
En effet, dans les deux premières périodes que nous avons désignées comme « contexte comme obstacle » et « multiplication des contextes », la notion de contexte a une valeur de résistance aux systèmes informatiques dont le présupposé épistémologique est le formalisme de la cognition et une certaine verticalité de la norme. Nous utilisons le terme de résistance à dessein car, prenant racine dans la phénoménologie, cette attention au contexte est guidée par une épistémè alternative, basée sur des concepts de cognition située, d’interaction sociale, d’incarnation, de corporéité.
Une rupture s’opère avec l’informatique ubiquitaire qui introduit l’automatisation dans la redéfinition permanente des contextes, basée à son tour sur « l’apprentissage machine » et sur l’exploitation des données personnelles de l’utilisateur ; cette rupture a pour effet la prédiction et l’induction du comportement de ce dernier, produisant une subjectivité modulable et liquide.
Ainsi, avec l’opérationnalisation du « contexte » dans les systèmes ubiquitaires basés sur l’apprentissage machine, l’utilisateur est dépossédé de ce que la résistance antérieure recherchait justement à préserver : l’agentivité, l’autodétermination, la vie privée, etc. Se joue ici une ambivalence fondamentale du contexte, entre l’obstacle, la résistance et la capacité d’agir dont on crédite l’utilisateur. Cette ambivalence fait que cette notion conceptuelle peut tout aussi bien servir à justifier un ajustement/modulation permanent du comportement de l’utilisateur. Comment pouvons-nous comprendre cette évolution ?
4.2. Le piège de légitimité
Une première approche qui peut illustrer les enjeux d’une telle évolution est aussi celle qui nous indique que le problème est aussi beaucoup plus général et que, de toute évidence, la notion du contexte n’est pas la seule à subir ce sort.
Dans le domaine de l’interaction home-machine, Paul Dourish (Dourish 2004) procède à la critique des approches alors dominantes du « contexte ». Il souligne que, historiquement, ces approches reposent sur la séparation entre le « contenu » et le « contexte » de l’interaction (distinction à son tour parallèle à la séparation entre la configuration par le programmeur et l’action par l’utilisateur). L’angle proposé est celui de comprendre « le contexte et l’activité [comme] mutuellement constitutifs » afin de
« permettre [...] aux utilisateurs de négocier et de faire évoluer des systèmes de pratique et de sens au cours de leur interaction avec les systèmes d’information » (Dourish 2004).
Bien que l’ensemble de cette critique soit tout à fait légitime, nous ne sommes pas sûrs qu’elle doive être basée sur la critique de la séparation entre le contenu et le contexte. En effet, cette séparation ne tient plus dans les systèmes sensibles au contexte basés sur l’IA car ces systèmes subsument les deux termes – contexte et contenu - dans un ajustement où les règles du jeu changent continuellement et en temps réel.
Mais l’approche de Dourish nous renseigne également sur un élément historique précieux, qu’il appelle « le piège de la légitimité » (Dourish 2019). Par exemple, l’attention à l’expérience utilisateur est certes une préoccupation légitime, qui apparaît pour ainsi dire contre les systèmes qui ne s’intéressent pas du tout à l’utilisateur et insèrent ce dernier dans des schémas de contrainte purement technologiques (Voirol 2011). Mais lorsque cette même attention occupe désormais la totalité de la scène, cela empêche de prendre en compte d’autres considérations dont la portée est tout aussi importante : on est alors incapable par exemple de mesurer les enjeux éthiques de telle ou telle interaction homme-machine puisque cette dernière sera jugée uniquement à l’aune de l’expérience utilisateur.
« Un piège de légitimité survient lorsque les revendications que l’on fait à la légitimité de sa pratique deviennent une limite à cette pratique.
La notion d’expérience utilisateur a rendu HCI légitime dans la pratique de l’entreprise, mais limite notre capacité à intervenir dans les questions de valeurs et d’éthique.
À la vue de ce que nous avons développé, il va de soi que l’évolution historique de la notion de contexte suit la même trajectoire, et peut tout à fait être qualifiée de « piège de légitimité ». Mais cette idée de renversement historique nous introduit aussi à un autre champ et à une autre notion, celle de récupération.
4.3. La récupération
La notion de récupération apparaît dans le champ de la philosophie politique et elle se comprend à notre sens par différence avec celle de co-optation, dont il est plus facile de définir les contours. Schématiquement, la co-optation des agents est une stratégie délibérée et une action consciente dont le but est de neutraliser des éléments de résistance en les absorbant :
« le processus d’absorption de nouveaux éléments dans la structure de direction ou de détermination des politiques d’une organisation comme moyen d’éviter les menaces à sa stabilité ou à son existence » (Selznick, 1948)
Par contraste, la notion de récupération, tout en traduisant une dynamique similaire, ne présuppose pas d’agent ou de stratégie délibérée, mais concerne plutôt un mouvement d’ensemble de la société, aspect qui nous rapproche du thème de la gouvernementalité. (Certes, il y débat sur la différence ou l’identité entre les deux termes (Feenberg, 2015) mais, dans le cadre de cet article, nous préférons les distinguer afin de mieux mettre en lumière les spécificités de la récupération.)
Une des premières occurrences de ce thème se trouve dans les mouvements politiques des années 1960, et tout particulièrement dans l’Internationale Situationniste. Il s’agit alors de mettre en lumière le processus de récupération, par l’appareil déjà en place (celui de l’État ou du capital en particulier), d’un mouvement d’émancipation – récupération qui peut justement détourner les revendications tout en reconnaissant leur importance.
« [la récupération signifie] l’activité de la société alors qu’elle tente d’obtenir la possession de ce qui la nie » (Situationist International #1, 1969)
Il n’est pas fortuit que ce thème apparaisse à cette époque précise, celle de la naissance du néolibéralisme, qui met justement en place une forme de gouvernementalité qui dilue l’instance hiérarchique du pouvoir au profit d’un jeu impersonnel et diffus sur les règles « environnementales ». Comme le note encore Foucault, la gouvernance néolibérale dans le domaine économique par exemple est
« un ensemble d’activités régulées [...] mais où les règles ne sont pas des décisions que quelqu’un prend pour les autres. C’est un ensemble de règles qui déterminent la manière dont chacun doit jouer un jeu dont personne ne connaît l’issue » (Foucault, 1979 (2004) p. 178)
- Note de bas de page 1 :
-
En toute rigueur, le terme de récupération lui-même devrait être réexaminé. En décrivant l’avènement du néolibéralisme en 1978, Foucault discute l’articulation de ce dernier avec les formes qui l’ont précédé. Il note que la critique de la société uniformisante de la révolution industrielle n’a pas été « récupéré » - « mot qui ne veut rigoureusement rien dire » (p. 154) par le discours néolibéral. Il y aurait plutôt une forme de « convergence » entre les critiques anciennes et la forme de gouvernementalité naissante, sans qu’il y ait pour autant un simple subterfuge de détournement des critiques anciennes, comme - pourrait-on le croire - l’Internationale Situationniste semblait le suggérer. De sorte que l’uniformatisation libérale (principe d’équivalence) est remplacée par la différentiation néolibérale (principe de maximisation des processus oscillatoires), et que la différenciation de ce fait semble reprendre la critique de l’uniformatisation – mais en réalité déplace indéfiniment le problème et donc les caractéristiques de la normativité.
On en déduira alors qu’il faut soit trouver un terme nouveau (il y a des indices théoriques en ce sens mais cela dépasse le cadre de cet (...)
Le néolibéralisme fournit donc une matrice générale pour théoriser ce mouvement de récupération – mais aussi sa mise en pratique dans le domaine des politiques économiques ou technologiques. Ce mouvement n’est pas sans rappeler une sorte de ruse de l’histoire par laquelle, chez Hegel, un élément de négation (voire d’émancipation) peut être subsumé dans un processus historique qui aboutit à l’inverse de ce que cet élément semblait ou promettait d’apporter. 1
Ainsi, notre diagnostic sur l’histoire du « contexte » dans l’informatique est compatible - s’il n’en pas une illustration parfaite – avec la mise en place de la gouvernementalité néolibérale (Foucault, 1979 (2004)) ou avec celle qualifiée plus récemment d’algorithmique (Rouvroy et Bern, 2013). Il s’ensuit que la récupération ou l’opérationnalisation du « contexte » n’est pas seulement un problème technique, scientifique ou épistémologique, mais aussi un problème politique. Il est désormais ancré dans cette forme de gouvernementalité dont un des traits distinctifs est la modulation du comportement de l’utilisateur, au moyen de la redéfinition permanente des règles de feed-back et dont la conséquence est l’atténuation de l’agentivité et de l’autodétermination. Et de toute évidence, la nouvelle normativité modulable a des effets sur la manière dont l’éthique du numérique peut être conçue.
Conclusion
Pour conclure, essayons d’esquisser quelques conséquences sur les questionnements éthiques dans le domaine du numérique, sans ambition d’exhaustivité. Notre souhait est d’apporter un complément à l’approche par l’éthique contextuelle dont par exemple (Zacklad&Rouvroy 2021) fournit un panorama des enjeux. Pour compléter cette démarche, remarquons d’abord qu’il convient de distinguer ici trois plans sur lesquels une telle éthique contextuelle se joue :
-
L’espace du modèle (par exemple, l’espace des variables et la transparence de l’algorithme qui sélectionne la stratégie d’arbitrage entre les différents contextes d’utilisation) ;
-
L’espace de la construction des publics (par exemple qui et selon quelle procédure participe à l’élaboration de l’algorithme, ou encore quel type de public est prévu comme utilisateur) ;
-
L’espace de l’utilisation (par exemple, quelle sont les conséquences de l’utilisation d’un système et si l’utilisateur peut contourner (ou non) la prescription normative de l’utilisation).
Il serait intéressant d’approfondir les conséquences de notre démarche historique selon ces trois plans, même si ces derniers ne peuvent être strictement délimités que dans un but heuristique. Nous pouvons conclure provisoirement que le parcours mis en lumière nous amène aux considérations suivantes :
-
L’approche de l’espace du modèle en tant que seule question technique ou juridique n’est pas suffisante car elle risque de rejouer la ruse de la récupération. Prenons à titre d’exemple la question de la transparence algorithmique (et donc celle de la règle locale de la définition du contexte). Il est clair que nous sommes ici confrontés non seulement aux défis techniques et juridiques, mais aux questions de redistribution des pouvoirs au sein des organisations (qui conçoivent ou exploitent les algorithmes) que la généralisation des décisions algorithmiques annonce - et il serait sans doute illusoire d’aspirer à en maîtriser tous les effets en rendant les algorithmes eux-mêmes transparents ou même auditables.
-
L’approche de l’espace de la construction par la mobilisation du design participatif (en tout cas tel que l’on l’entend aujourd’hui), même en impliquant les utilisateurs et les parties prenantes, n’est peut-être pas suffisante, car elle risque de rejouer le « piège de légitimité » par l’expérience utilisateur - si ce n’est pas celui de la ruse de l’histoire.
-
L’approche de l’espace de l’utilisation par « l’encapacitation » par exemple devrait également être examinée à nouveaux frais - car à supposer que l’encapacitation dans un contexte précis soit possible à un moment donné, cela ne préjuge pas des effets de l’évolution de la règle algorithmique locale, ni des effets de passage d’un contexte à un autre. De manière plus large, cette lignée de pensée pose la question de la valeur de l’action individuelle dans un contexte que l’acteur n’a pas défini ou dont il ne maîtrise pas l’évolution.
Ainsi, la question du « contexte » nous confronte à la portée non seulement éthique mais aussi politique de l’IA ubiquitaire. Et elle nous amène également à réfléchir aux possibilités et moyens de principe afin de nous prémunir d’une récupération aveugle ou de la ruse de l’histoire.