2ème événement annuel public du Robotics by Design Lab - Rapport d'étonnement
Le 2 février dernier s’est tenu à Strate et en ligne l’événement annuel de Robotics by Design Lab – IA, Robots & Humains ? Écologies du Vivre Ensemble (RbD Lab). L’occasion de rassembler l’équipe étendue du laboratoire : les partenaires, les doctorants et nos communautés, et de lancer la thématique de l'année : viabilité, durabilité, écologie, questionnement éthique en rapport avec les thématiques de recherche du laboratoire.
L’événement fut un moment privilégié pour écouter et échanger des spécialistes de l’éthique des nouvelles technologies comme Paul Laborde (docteur en philosophie, spécialiste de l’éthique, enseignant chercheur Strate Research et responsable du cursus d’écriture et de SHS à Strate), Luisa Damiano (professeure de logique et de philosophie de la science à IULM, Milan) et Kevin Guive Echraghi (instigateur chez hérétique et professeur à Sciences Po & Ponts et Chaussées). La discussion autour de l’éthique s’est poursuivie autour d’une table ronde.
Ioana Ocnarescu, la directrice de la recherche à Strate et la responsable du RbD Lab a introduit la thématique de la soirée par 2 termes qui sont inhérents à la posture des designers face aux questions « dites éthiques » : D’abord le verbe QUESTIONNER, car (se) poser des questions est toujours au cœur du projet, pour comprendre ce qu’on entreprend, pourquoi on le fait, si on le fait ou pas et quel impact cette action aura sur l’environnement dans lequel elle aura lieu. Puis s’ENGAGER, au sens propre (engager son corps ; être présent) comme au figuré (s’engager pour une cause) car l’engagement fait partie de l’esprit même du design. Cela demande de l’audace, la confrontation au terrain, le prototypage de différentes situations de vie. Prendre le risque de l’expérimentation sur le terrain est un enjeu fort dans le projet design et fait partie de l’éthique du designer.
Paul Laborde a ensuite pris le relai pour nous expliquer ce qu’est l’éthique !
Si le terme résonne effectivement à nos oreilles comme une réflexion sur les grands enjeux décrits dans la tragédie grecques (la vie, la mort, la filiation…), il se « propage » ces dernières années autour d’enjeux plus proches de notre quotidien en particulier autour de notre utilisation des nouvelles technologies. Comme nous l’explique Paul, éthique n’est pas un adjectif qualificatif (tout comme le mot design d’ailleurs). Il n’y a pas de personne éthique ou non éthique ; tout le monde a une éthique.
Le terme vient du mot ethos qui signifie « manière d’être » et en ce sens est un terme principalement descriptif. En philosophie, on distingue 3 grandes conceptions de l’éthique :
L’Éthique téléologique (Aristote en est le penseur le plus célèbre) – c’est-à-dire que ce qui est bon est ce qui nous rapproche du but qu’on s’est fixé en amont (et les critères sur lesquels se baser pour atteindre ce but).
L’Éthique déontologique (autour de la figure de Kant) - pour laquelle ce qui est bon est conforme aux principes d’une loi morale. On va ainsi élaborer des principes que l’on va suivre ensemble.
L’Éthique utilitariste ou conséquentialiste - ce qui est bon est ce qui maximise l’intérêt général. Cette conception implique l’identification de ce que l’on va considérer comme intérêt général et le calcul coûts/bénéfices liés aux actions (soit leur conséquences).
A travers différents exemples tirés de ces 3 conceptions, Paul montre que finalement personne ne s’appuie à 100% sur une seule conception de l’éthique, mais plutôt sur une combinaison d’éthiques. Il ne s’agit pas là d’une « formule mathématique » applicable à l’envi pour mettre une étiquette ou définir ce qui est moral ou pas dès qu’on doit se positionner – tout comme le design n’est pas juste une méthodologie applicable dans tous les domaines. La solution envisagée doit tenir compte de nombreux paramètres qui permettront de repositionner l’action dans son contexte, son temps, sa durée, ses implications à plus ou moins long terme. Mais le plus gros danger est de ne pas connaître les fondements de sa position éthique ! Il est en effet fondamental de savoir comment on justifie son choix moral, de comprendre d'où viennent nos repères moraux, nos valeurs, car comme le souligne Paul, on ne peut pas parler d’éthique sans questionner le système de valeurs qui la fonde.
Ainsi Éthique et Design se font écho par rapport au processus de questionnement au cœur de la réflexion que les deux disciplines engendrent autant du point de vue des chercheur.e.s que des praticien.ne.s. Cet aspect est particulièrement sensible dans le développement des nouvelles technologies sur lesquelles nous n’avons que très peu de recul.
C’est d’ailleurs des nouvelles technologies, et plus particulièrement de la robotique sociale dont il a été question dans l’intervention de Luisa Damiano sur l’éthique synthétique. Il s’agit d’une approche expérimentale et intégrative proposée par la philosophie des sciences, qu’elle cherche à appliquer à la robotique sociale pour réfléchir sur son éthique. L’intérêt réside dans l’exploration épistémologique de ce domaine, de ses implications, et de son étude critique.
La robotique sociale fait ici référence à un domaine émergent de la robotique contemporaine appelé aussi intégration sociale et qui est caractérisée par :
Une présence sociale du robot ; c’est-à-dire un robot qui génère chez l’utilisateur l’impression d’être avec quelqu’un (une entité qui au niveau de la présence est similaire à une personne).
Des compétences sociales attribuées au robot, c’est-à-dire sa capacité d’interpréter nos signaux sociaux et d’y répondre, soit au moins la possibilité technique de faire une performance à caractère social ! C’est-à-dire qu’il puisse concrètement donner l’impression d’avoir des compétences sociales - ce qui est très important pour construire la présence sociale des robots sociaux - liées à nos signaux affectifs et en particulier aux émotions.
Si lors de l’évènement de l’année dernière Adriana Tapus nous parlait des sciences cognitives pour comprendre et interpréter le fonctionnement de l’humain pour le transcrire dans des machines, la robotique dite sociale, au sens où l’entend Luisa Damiano, ne vise pas la construction d’outils mais plutôt la construction d’agents artificiels capables d’interagir avec nous en tant que partenaires sociaux, interlocuteurs. Et c’est dans ce cadre que la philosophie des sciences reprend la question au cœur du questionnement sur/autour/avec les robots sociaux aujourd’hui : comment transformer des objets mécaniques en sujets d’interaction avec les humains (au moins dans la perspective de l’utilisateur) ?
Cette question est à l’origine de l’hypothèse (base du travail de Luisa) selon laquelle la robotique sociale est une science de l’artificiel, fondée sur une méthodologie propre adoptée comme méthodologie de recherche scientifique dans le contexte de la cybernétique dans les années 40 ; soit la méthode synthétique. Il s’agirait alors d’une anthropologie ou d’une sociologie du synthétique. La méthode synthétique est une méthodologie développée pour l’étude des processus biologiques et cognitifs, articulée autour du principe « comprendre en construisant ». Elle propose aux scientifiques la construction de modèles artificiels des processus biologiques et/ou cognitifs (des systèmes fabriqués qui sont capables de recréer des processus cognitifs ou biologiques ciblés sur la base d’une hypothèse scientifique) dans un but d’observation et d’analyse. La méthode synthétique permet d'améliorer notre compréhension des processus naturels mais aussi de créer des applications techniques utiles.
Cette méthodologie est utilisée dès les années 1910 dans le contexte de la proto-cybernétique. On en retrouve une première formulation dès les années 30 dans l’article dédié aux machines qui pensent de Thomas Moss, ingénieur à université de Washington.
« On espère qu’il sera possible de tester les différentes hypothèses psychologiques sur la nature de la pensée en construisant des machines en accord avec les principes que ces hypothèses impliquent et en comparant le comportement des machines avec celles des créatures intelligentes » (Moss, Machines that think, 1935).
Les bases en étaient déjà posées pour s’étendre ensuite au processus biologique et à différents artefacts. La robotique sociale est aussi une science de connaissance de l’Humain. Les robots dits sociaux sont des modèles artificiels créés sur des présuppositions de la manière dont nous allons nous servir et qui incorporent ainsi des hypothèses sur nos fonctionnements sociaux. Lorsqu’ils sont intégrés dans nos environnements, ils deviennent prétextes à (re)penser le contexte dans lequel ils évoluent. C’est d’ailleurs ce que nous avions déduit de notre expérimentation avec Pepper : placer un robot social dans une chambre d’un patient en centre de rééducation permet de décentrer l’action pour réfléchir à l'écosystème du soin.
Ainsi, Luisa propose de faire de ces robots des modèles, fondés sur l’incorporation d’hypothèses scientifiques sur notre fonctionnement cognitif, social et affectif ; de les introduire massivement dans notre écologie sociale dans différents contextes (espaces publics, écoles, centres commerciaux mais aussi environnements domestiques). Le but d’expérimenter la vie avec eux est de comprendre et de transformer notre façon d’interagir avec ces machines mais probablement aussi avec les autres car ils transforment notre modèle cognitif social. En cela, les robots sociaux deviendraient des médiateurs, des auto-modélisations scientifiques de l’humain. Grâce à leur implantation dans nos écosystèmes, ils permettraient d’anticiper notre rapport à la technologie et aux machines, de comprendre leur utilité, l’évolution de leurs usages et la relation développée avec. Les retours d’expérience de terrains serviront alors à élaborer des règles éthiques de fonctionnement viable !
Ainsi, dans le sens où elle permet de faire des enquêtes éthiques sur les implications réelles que peuvent avoir les technologies. L’éthique synthétique serait également une alternative à la politique d'incrimination de la technologie à laquelle nous assistons parfois aujourd’hui. Cela permet d’abord de contrer l’ouverture dictée seulement sur les demandes du marché en montrant les risques possibles inhérents à ces technologies mais aussi d’éviter la condamnation à priori des projets qui peuvent être bénéfiques (robotique d’assistance avec enfants autistes par exemple). Pour cela, il faut prendre en compte les différents débats (l’éthique de la condamnation également) dans le projet, mettre en place une recherche visant à définir des solutions concrètes en combinant recherche théorique de l’enquête éthique mais aussi recherche expérimentale et d’autres disciplines comme le design. Comme le souligne Luisa, proposer l’application de la méthode synthétique à la dimension éthique de l’interaction humain-robot, c’est étudier l’interaction humain-robot du point de vue éthique dans les laboratoires de robotique sociale avec les spécialistes des disciplines qui collaborent. Cela permet d’un côté, d'améliorer notre appréhension de ce qui touche à l'éthique des robots sociaux (enquêter sur des projets spécifiques) et de l’autre d’étudier le comportement humain (en interaction avec les robots). Par conséquent, introduire l’éthique en amont dans une recherche expérimentale permettrait de générer un feedback et de contribuer aux politiques de régulation qui doivent être construites. Nous retrouvons la notion d’engagement telle qu’elle est définie pour le design.
Il s’agit de prendre le risque de l’expérimentation en se confrontant au terrain et au prototypage de différentes machines et situations de vie, pour comprendre l’utilité réelle de ces technologies et inclure ces constats dans leur conception, c’est le cœur de la démarche du design.
Notre 3e intervenant nous a conduit vers l’exploration de situations plus tangibles à travers des exemples d’applications qui se veulent plus proches du terrain. En effet, Kevin Guive Echraghi fait un constat alarmant du numérique et de ses modes de consommation actuels. Engendré par les GAFAM qui ont fait de ces technologies un système hégémonique dominé par une poignée d’acteurs qui dictent nos expériences, le numérique s’est développé autour d’outils qui cherchent à résoudre des problèmes pour des utilisateurs (prisme réducteur). L’enjeu est principalement de structurer des places de marchés pour mettre en relations des acteurs et des consommateurs et pour cela capter temps, attention et données.
On se retrouve donc devant une volonté de domination mondiale, esprit d’entreprise, qui fait primer l’alter-égo sur le bien commun en s’extrayant des cultures et des territoires - les outils sont les mêmes partout. Ce modèle unique numérique est synonyme de défaite collective (on recopie le même modèle partout mais on s’aperçoit que cela ne fonctionne pas), autant sociale et politique (question de la surveillance, des données …) qu’écologique, humaine et créative. Et il ne s’agit pas là d’effets collatéraux mais bien de biais inhérents au modèle.
Pourquoi continuer en étant conscient de ces dysfonctionnements et qu’il faudrait reprendre le modèle à la racine ? Kevin propose de déconstruire ce modèle considéré comme un dogme d’ordre presque religieux. C’est ainsi que Hérétique pose la question de la conception du numérique et travaille à penser, créer et transmettre un numérique alternatif. Pour cela, il faut remettre en question le modèle californien et travailler comme l’incite Philippe Breton à la laïcisation des techniques, mais peut-être (surtout) aussi remettre de la créativité dans ce modèle. En effet, le remettre en question c’est aussi l’utiliser comme un matériau à sculpter.
Différents exemples développés chez hérétique, montrent qu’une perspective politique et philosophique en amont de la création d’un site permet de (ré)ancrer l’expérience dans le territoire et ainsi contrer un modèle qui se veut universel et hégémonique. L’exemple de l’application Dérive destinée à favoriser la flânerie par exemple, ne propose pas un chemin à suivre mais simplement une indication de direction et de distance à parcourir. La création de cette application est partie d’un constat territorial que l’efficacité pour un trajet dépend de la ville et des attentes de l'utilisateur et non uniquement de données de temps et distance. Réduire les données nécessaires au fonctionnement de l’application permet, en plus d’un positionnement éthique, d’avoir une empreinte numérique modérée.
Au-delà de l’application en elle-même cette manière de penser le numérique « pour prendre le temps plutôt que d’en gagner ! » est aussi une manière de (re)commencer à explorer notre manière de vivre et d’utiliser le numérique. Il s’agit de se poser la question éthique de quel numérique nous voulons à court, moyen et long terme.
La table ronde a permis de poursuivre ces réflexions en confrontant nos intervenants aux questions des doctorants du RbD Lab et des partenaires. La réflexion sur la responsabilité des designers s’est vite imposée car ceux-ci sont au cœur de la conception d’outils, d’objets ou d’interfaces qui auront un impact à plus ou moins long terme sur nos manières d’agir et sans doute sur le monde dans lequel nous vivons. En ce sens, le design est toujours politique … et dès ses début, la discipline a intégré ces enjeux dans son projet (cf. Alexandra Midal). Pourtant comme l’a montré Paul, anticiper les risques d’effets négatifs n’est pas forcément la solution car on se rend compte que la stratégie de réduction des risques qui repose sur l'anticipation est peu efficace. Nous avons toujours des surprises. Pour lui, mieux vaut travailler sur une implémentation progressive (expérimentation dans l’espace social) pour pouvoir suivre les évolutions. C’est d’ailleurs ce qu’on retrouve dans la proposition d’éthique synthétique pour la robotique sociale de Luisa. Pour elle, il faut aussi être dans l’analyse dès le début du projet et se baser sur le réel, chercher à comprendre en s'appuyant sur nos savoirs antérieurs mais en évitant d’anticiper pour ne pas fausser cette analyse. Pour Kevin, il s’agit aussi d’accepter que cela ne fonctionne pas ; de regarder le problème en face, le reprendre avec une nouvelle approche et jouer avec plutôt que d’essayer de corriger à la marge. Cela pose également la question du modèle économique et politique dans lequel nous vivons.