Éthique : que devons-nous attendre des robots sociaux ?

Cap Digital
Cap Digital
Published in
8 min readDec 13, 2022

--

À l’occasion de la sortie d’un livre blanc très complet de Blue Frog Robotics sur l’histoire des robots et sur les questions éthiques qui animent aujourd’hui le monde de la robotique sociale, nous avons posé quelques questions à Louise de Clermont-Tonnerre, Chef de projet et référente éthique chez Blue Frog Robotics.

Louise de Clermont-Tonnerre, Chef de projet et référente éthique chez Blue Frog Robotics

À quel moment avons-nous commencé à poser des questions éthiques dans le monde de la robotique sociale, alors même que les technologies IA/robotiques ne sont pas nouvelles ?

Je pense que les réflexions éthiques sur l’usage des robots sociaux ont toujours été omniprésentes, elles existaient déjà avant les robots eux-mêmes. Elles ont seulement évolué en même temps que la technologie. Quand, en 750 avant J-C., Homère imagine dans l’Illiade des créatures capables de suppléer l’Homme, on est déjà dans une dynamique de “robot for good”. L’objectif de ces clones est d’améliorer la qualité de vie des dieux, elle passe néanmoins par un processus de création qui s’apparente à une “folle invention” : sa finalité n’est pas de remplacer l’humanité, mais de suppléer l’Homme dans des taches laborieuses. Le fait est que ces créatures remplacent in fine une entité humaine. Mais la question qui se pose, et qui est toujours d’actualité, c’est dans quel but développons-nous ces outils ? C’est la finalité du projet qui définit son éthique.

Au temps d’Aristote (384–322 avant J.-C), remplacer l’Homme était une solution éthique pour pallier l’esclavage : « Si chaque instrument était capable, sur une simple injonction, ou même pressentant ce qu’on va lui demander, d’accomplir le travail qui lui est propre, comme on le raconte des statues de Dédale ou des trépieds d’Héphaïstos, […] si, de la même manière, les navettes tissaient d’elles-mêmes, et les plectres pinçaient tout seuls la cithare, alors ni les chefs d’artisans n’auraient besoin d’ouvriers, ni les maîtres d’esclaves. » (1, 4, trad. J. Tricot, Vrin).

Aujourd’hui, l’enjeu en robotique sociale, c’est précisément de ne pas remplacer l’Homme. La robotique sociale se présente comme une solution à l’isolement des personnes mais elle n’a pas vocation à se substituer à une personne humaine. L’émergence de ces nouvelles technologies résulte de deux ambitions : pallier le manque de personnel dans les secteurs de l’éducation et du vieillissement, et apporter des solutions contemporaines à ces systèmes pour améliorer les enseignements, la sécurité, l’intégration sociale des personnes isolées, etc.

De nouveaux enjeux éthiques émergent avec les progrès de la technologie, dernièrement les questions qui se sont posées ont été : la forme du robot et les risques liés au phénomène d’anthropomorphisme et à l’empathie artificielle, les enjeux liés à l’intégration de briques d’intelligence artificielle (cf. RGPD), l’autonomie de la machine, la responsabilité en cas de dommages, la dignité des personnes.

Pour bien comprendre, pouvez-vous nous expliquer ce qu’est un « robot social éthique » ?

A ce jour, nous ne pouvons pas donner de définition exacte de ce qu’est un “robot social éthique”. Les robots ne sont pas des produits “finis”, ils sont en constante évolution, tout comme l’intelligence artificielle. Parler d’un “robot éthique” est donc un peu prématuré. En revanche, on peut dire qu’un robot est ethic by design au sens où ses développements sont pensés de manière éthique.

Evidemment, on ne voudra pas d’un robot raciste, misogyne, discriminant, etc. On exclut de facto les comportements socialement non admis, ou non désirables. L’éthique de la robotique sociale pose des questions d’ordre davantage anthropologiques.

L’éthique, c’est un processus de réflexion qui s’inscrit dans une recherche du bien commun. L’objectif de cette discipline est de s’accorder à trouver un consensus sur des enjeux moraux. A défaut de pouvoir s’appuyer sur des réglementations (sur lesquelles il serait d’ailleurs trop tôt de statuer au vue de la maturité des produits), les entreprises doivent réfléchir aux enjeux sociétaux, sociologiques et anthropologiques qu’impliquent leurs développements. S’il existait “une éthique”, nous ne serions pas là aujourd’hui à organiser des évènements pour nous interroger sur ce qui est éthique ou non. Notre vision chez Blue Frog Robotics, c’est d’ancrer le développement de notre robot Buddy dans des réflexions éthiques, lesquelles sont souvent amenées par le terrain.

Aujourd’hui, les enjeux éthiques en robotique sociale sont étroitement liés au développement de l’intelligence artificielle. C’est parce qu’un robot est intelligent et autonome et qu’il interagit notamment avec des profils “fragiles”, qu’il est soumis à une vigilance. L’objectif est donc de mettre la personne humaine au centre des développements et de construire un robot dont la finalité est de servir l’homme. Ce sont notamment les usages et la finalité d’une projet qui définissent l’éthique d’un projet.

Un robot social éthique, sans en donner de définition, c’est donc un robot qui est développé dans une dynamique de recherche de l’éthique. Chez Blue Frog robotics, nous avons mis en place une “charte éthique de Buddy” que l’on peut résumer en 10 points :

1. Adopter une approche anthropocentrée.

2. Adopter une vision commune du robot. Statuer sur une définition du robot social et définir ses cas d’usage.

3. Ne pas nous abandonner à des réflexions trop rationnelles. Et être prudents vis-à-vis de la technique. Ce n’est pas parce qu’on est capable de développer un logiciel d’IA qu’il faut nécessairement l’utiliser.

4. S’interroger à chaque tournant, à chaque nouvelle version du robot, à chaque nouveau développement et à chaque nouvelle application sur son éthique et sa pertinence.

5. Communiquer sur l’état de nos réflexions, de nos décisions éthiques. Et demander à chaque nouveau membre de l’équipe d’adhérer aux principes éthiques établis.

6. S’entourer d’experts et constituer un comité de recherche scientifique pour s’assurer du bon impact de nos développements et de nos solutions.

7. Générer une charte éthique de Buddy et de son utilisation et s’assurer que notre vision soit connue et partagée au plus grand nombre.

8. Décider, faire des choix éthiques pour notre entreprise qui nous engagent et qui se concrétise sur Buddy et sur nos engagements.

9. Nous former toujours davantage à l’éthique et transmettre notre savoir.

10. S’assurer que les utilisateurs de Buddy sont bien informés de ce qu’est Buddy, qu’il ne remplace pas l’homme.

Télécharger le livre blanc

Selon vous, quels sont les principaux enjeux liés à l’éthique de la robotique sur lesquels il faut absolument engager le débat aujourd’hui ?

Les premiers enjeux auxquels nous allons devoir répondre vont surgir du terrain. Prenons l’exemple de Buddy. Notre robot ne présente à priori aucun risque. Ce sont les usages du robot, la présence d’une IA et les situations sur le terrain ainsi que les utilisateurs, potentiellement “fragiles” qui vont faire du robot un objet soumis à des questions.

Les enjeux que nous avons identifié en robotique sociale comme de potentiels risques ou point de vigilance dans notre livre blanc sont :

· Investir affectivement un robot : procédé notamment provoqué par le phénomène d’anthropomorphisme et par l’empathie artificielle ;

· Le risque de dépendance : préférer la machine à l’Homme ;

· La confusion entre l’Homme et la machine : le gommage de frontière entre Nature et Culture (questions liées à la dignité, aux croyances) ;

· Vouloir faire du robot un être de droits, de devoirs et de responsabilités ;

· RGPD, vie privée, manipulation.

L’enjeu est de ne pas vouloir en faire des simulacres humains. Nous ne devons pas perdre de vue les avantages évidents des robots et les raisons pour lesquelles nous les avons pensés originellement, car nous en perdrions leurs bénéfices. En revanche, il ne faut pas que leurs usages nous échappent, le temps du progrès n’est pas le même que celui des usages.

Existe-t-il aujourd’hui des règles internationales qui « font loi » et dictent les principes éthiques à respecter en matière de robotique ? Quel rôle doit jouer le juridique sur ces questions éthiques ?

Le gouvernement Coréen a publié une charte éthique, c’est à ma connaissance le seul pays pour lequel une juridiction a été votée. Il existe au Japon et en Europe des initiatives, publiques et privées, mais il s’agit uniquement de “recommandations”. Parmi elles, nous pouvons citer celles de l’UNESCO. Selon ces recommandations, les robots doivent s’inscrire dans le respect des droits de l’Homme et du citoyen. C’est un début, mais ces recommandations sont pour le moment trop larges pour que des constructeurs puissent s’y référer et en tirer des conclusions pratiques. C’est précisément la raison pour laquelle l’éthique est indispensable, elle permet d’établir des règles “morales”, tant qu’il n’y a pas de juridiction en place. Certaines entreprises mettent en place leurs propres règles en interne.

En revanche, dans le domaine de l’intelligence artificielle, beaucoup de travaux ont été conduit en Europe et en France pour réglementer ses usages. Ces textes sont de plus en plus fournis et permettent de garantir une bonne protection aux utilisateurs.

Concrètement, comment les entreprises de la robotique s’organisent-elles aujourd’hui pour tendre vers une robotique plus éthique ?

Je peux vous parler de la société pour laquelle je travaille, mais je ne prétends pas connaître les initiatives portées par d’autres constructeurs. Blue Frog Robotics a pris le pari l’année dernière de créer un pôle de réflexion éthique pour sensibiliser ses équipes en interne et prendre du recul sur les développements opérés sur Buddy, notre robot.

Tout d’abord, nous nous entourons d’un comité d’experts pour le développement de nos applications, lequel est constitué de psychologues, sociologues, et professionnels du terrain pour nous aider à spécifier les besoins et nous faire prendre conscience de l’impact de nos développements.

Cette année, nous avons également écrit un livre blanc dans lequel nous nous sommes efforcés de décrire ce qu’est un robot social, d’expliciter les initiatives qu’ils portent, leurs avantages, et les réflexions et enjeux éthiques qu’ils posent. Nous avons fait le choix de livrer notre vision des robots et de l’éthique pour être le plus transparent possible. Nous avons voulu diffuser notre livre blanc et le rendre accessible pour initier un travail de recherche pluridisciplinaire et y associer toute personne intéressée par le sujet.

D’autre part, nous souhaitons partager nos réflexions avec d’autres constructeurs pour que nous partagions ensemble nos expertises et nos réflexions. Nous avons déjà entamé ce travail, et le colloque sur l’éthique de la robotique sociale que nous avons organisé le 25 novembre dernier en est un exemple. L’objectif est de reconduire cet évènement chaque année et d’initier un groupe de réflexion autour des enjeux que nous portons. L’enjeu est de construire une conscience de l’usage des robots, et cela passe notamment par de la formation et l’information.

Ces travaux se répercutent directement sur notre robot, sur lequel nous avons développé des applications de programmation pour initier les plus jeunes au code et les préparer au monde de demain. De plus, nos applications se veulent être une porte ouverte vers des interactions sociales et notre robot vise à recréer du lien entre les personnes.

Aujourd’hui, Blue Frog Robotics veut se positionner comme figure de proue de la robotique sociale, et co-construire cette éthique main dans la main avec d’autres constructeurs dans une dynamique de recherche pluridisciplinaire.

Télécharger le livre blanc

--

--

Cap Digital
Cap Digital

Premier collectif européen d’innovateurs du numérique 💡🚀🌳 Nos actions Retail > @NSE_PICOM 🛍 Organisateur @Futuresfestival 🤖