Flèche remontant vers le haut de page

En cliquant sur "Accepter", vous acceptez le stockage de cookies sur votre appareil pour améliorer votre navigation sur ce site. Consultez notre politique de confidentialité pour plus d'informations.

SciencesSociété

Partager sur :

Ethique et intelligence artificielle

Dialogue avec Oriane Peter

Ethique et intelligence artificielle

Illustration : Nelly Damas pour Foliosophy

MCS : Vous travaillez, Oriane, dans le domaine de l’intelligence artificielle et vous vous intéressez tout particulièrement aux questions d’éthique dans ce domaine.

Ce sujet est d’autant plus intéressant qu’il oblige à la rencontre de deux champs traditionnellement disjoints, celui de la technologie et celui de la moralité.

L’intelligence artificielle a fait un bond en avant pour le grand public, notamment avec l’arrivée de ChatGPT dans tous les foyers et on constate chaque jour que, à côté des attentes enthousiastes que cette technologie suscite, des craintes tout aussi nombreuses, mais souvent diffuses, s’élèvent. On a l’impression une fois encore de voir ce que Günther Anders dénonçait dans L’Obsolescence de l’homme à l’œuvre, à savoir que nos productions nous dépassent et que nous ne sommes équipés ni émotionnellement ni intellectuellement pour en prendre la mesure.

Qui êtes-vous, Oriane, en quoi votre travail et vos recherches consistent-elles ? Pourquoi est-il aujourd’hui important de concilier éthique et technologie ?

OP : Je suis une ingénieure diplômée de l’EPFL en science des données et j’exerce ma profession dans une entreprise de services numériques à Zurich, Zühlke. Parallèlement à cela, je poursuis des études sur les implications éthiques et sociétales de l’intelligence artificielle à l’Université de Cambridge. Mon intérêt se porte particulièrement sur le processus de « co-production » entre les technologies et la société qui les conçoit et les utilise. L’idée est que les outils que nous créons ont inévitablement une forme et une fonction que nous jugeons possibles. Par exemple, une application comme YouTube n’aurait pas pu voir le jour au XVème siècle, une époque où ni les vidéos, ni l’internet n’étaient concevables. Les technologies sont donc le reflet de la vision du monde de la société qui les engendre. Cependant, dès qu’une nouvelle technologie voit le jour, elle modifie à son tour notre imaginaire collectif, et donc notre perception de ce qui est envisageable. Lorsque l’internet a été inventé, notre conception du possible a été redéfinie. L’idée de pouvoir partager des vidéos de chats à travers le monde a donc pu voir le jour. C’est pourquoi on parle de co-production : nous modelons les technologies, mais elles nous modèlent également en retour. En reconnaissant cette dynamique circulaire de la création, on comprend l’importance de questionner les technologies que nous créons, et plus précisément comment ces technologies vont redéfinir notre vision du monde.

Nous modelons les technologies, mais elles nous modèlent également en retour.

L’intelligence artificielle est un exemple captivant de co-production. Cette technologie est spécifiquement construite sur notre façon de concevoir le monde car elle dépend de nos données pour fonctionner. Plus directement encore que d’autres technologies, elle agit comme un reflet, révélant une image distordue de ce que nous sommes. Nous utilisons à notre tour ce reflet pour nous conseiller ou automatiser des décisions importantes. Dans le cas d’outils comme ChatGPT, nous utilisons ces outils comme sources d’informations ou de conseils, et notre compréhension du monde va donc évoluer en fonction de l’image qui nous est renvoyée. Ce processus est potentiellement dangereux, car c’est en fait notre passé qui nous est présenté, c’est-à-dire le moment où nos données ont été produites. Si cette réflexion passée devient la chose qui nous façonne, nous risquons ce que l’on appelle un « verrouillage » des données, c’est-à-dire que les valeurs que nous avons actuellement deviennent la source d’automatisation pour des décisions futures, ce qui nous empêcherait de changer ces valeurs. Or, beaucoup de choses que l’on pensait éthiques ou normales il y a cent ans nous paraissent aberrantes aujourd’hui. Il est donc très probable que nos valeurs actuelles mériteraient aussi d’évoluer et non d’être justement verrouillées.

Un autre problème, tout aussi essentiel, est que le reflet que nous tend ChatGPT n’est pas une représentation de l’humanité dans son ensemble. Jusqu’ici, j’ai utilisé un vocabulaire très universel, en parlant de « nos valeurs » ou d’ « imaginaires collectifs ». Pourtant, la compréhension que les humains ont du monde est loin d’être un monolithe. Il y a autant d’imaginaires que d’êtres humains, et les façons de comprendre la réalité sont multiples et contradictoires. Cependant, des outils comme ChatGPT sont créés dans un contexte bien distinct, et par des personnes qui ont une façon spécifique de voir le monde qui n’est pas nécessairement compatible avec celle de ses utilisateurs. Le mouvement de co-production n’est donc pas nécessairement circulaire, mais peut dégénérer en une imposition d’une certaine vision du monde par un groupe de personnes au pouvoir sur le reste des individus. Cette imposition n’est par ailleurs pas nouvelle dans notre histoire : les empires coloniaux ont activement cherché à promouvoir leur intérêt en redéfinissant la conception du monde des populations occupées. Il est essentiel d'éviter qu’un même mécanisme ne se répète. 

Le reflet que nous tend ChatGPT n’est pas une représentation de l’humanité dans son ensemble.

MCS : Je vous arrête sur cette intéressante notion de “verrouillage des données”, que vous décrivez comme une conséquence très vraisemblable de l’intelligence artificielle parce qu’elle s’alimente de données passées. Mais, est-ce que notre intelligence naturelle ne fonctionne pas, au fond, de la même manière ? Les combinaisons que nous établissons entre les connaissances - nécessairement antérieures - loin de reproduire les anciennes, ne débouchent-elles pas, précisément, sur de nouvelles connaissances ? Le futur et les idées nouvelles ne s'enracinent-ils pas dans le corpus des faits connus ? Après tout, notre créativité ne surgit pas du néant. Est-ce qu’il en va autrement de l’intelligence artificielle ? Cela dit, je vois exactement le risque que vous décrivez : les réponses de ChatGPT ne sont pas avares d’idées reçues et de lieux communs et, passés les premiers moments d’émerveillement, on a souvent l’impression de dialoguer avec quelqu’un qui tourne en rond. Pouvons-nous nous attendre à une évolution sur ce plan ?

OP : Il est crucial de comprendre que l’intelligence artificielle, dans son état actuel, est très éloignée du fonctionnement de l’intelligence humaine. Une des différences majeures réside dans le fait que ses algorithmes ne sont pas en “apprentissage” continu. Autrement dit, l’algorithme ne se met pas à jour après chaque conversation que vous avez. Par exemple, si vous répétez 10 fois une information à ChatGPT, le chatbot ne va pas s’en « souvenir » pour une discussion ultérieure, car il n’est pas conçu pour enregistrer et évoluer en fonction de ce que les utilisateurs lui disent. ChatGPT opère donc sur un état figé d'informations qui reflète les données auxquelles il avait accès au moment de l’“entraînement” du modèle. Les valeurs auxquelles il a accès sont donc gelées. Je pense que nous avons l’intuition que ce que l’on dit au modèle va influencer les réponses suivantes, en partie parce que le chatbot est cohérent au sein d’une même conversation, mais aussi parce que nous sommes habitués à des systèmes qui s’adaptent à nous. Par exemple, si je recherche un hôtel dans les Grisons sur Google, je vais être submergée de publicités sur des activités dans cette région. Il y a de nombreuses raisons pour lesquelles un mécanisme d'apprentissage continu n’est pas encore possible pour ChatGPT, notamment parce que ce serait complexe et extrêmement coûteux. Il existe déjà plusieurs façons pour ces systèmes de s’adapter à nous et je pense que c’est effectivement la direction que prennent les choses. Cependant, ces adaptations restent souvent superficielles : les valeurs anciennes imbriquées dans l’essence du modèle ont tendance à persister.

Il est crucial de comprendre que l’intelligence artificielle, dans son état actuel, est très éloignée du fonctionnement de l’intelligence humaine.

MCS : Sur la question de l’éthique, vous avez abordé d’entrée deux questions absolument fondamentales : le fait, d’abord, que nos valeurs et les principes que nous observons ne sont pas éternels, qu’ils sont en évolution constante. Notre conception de l’égalité, par exemple, s’est profondément modifiée en quelques courtes décennies, et les remarques sexistes que je pouvais encore entendre de la part des adultes lorsque j’étais enfant ne feraient même plus rire dans un sketch. Les neurosciences, avec Antonio Damasio en tête, ont montré que, à côté des procédés automatiques d’homéostasie, à savoir les mécanismes que nos organismes assurent pour notre survie sans qu’on ait véritablement besoin d’intervenir consciemment, s’imposent, lorsque la vie n’est plus seulement physique mais qu’elle devient sociale, des procédés non automatisés de régulation. En clair : il faut commencer à réfléchir, à faire des choix, à se mettre d’accord, d’où les techniques de délibération, la pédagogie, la culture, la politique. Ces procédés non automatisés sont des work in progress. La prise de conscience que nous en avons aujourd’hui explique probablement en partie pourquoi l’éthique, qui est le choix du préférable, l’a emporté sur la morale, qui a l’ambition du Bien.

Le deuxième élément sur lequel vous mettez le doigt est celui de notre subjectivité et de nos biais. En tant qu’occidentaux, nous avons à sortir d’une prétention à l’universalisme qui a bercé plusieurs siècles de notre culture. Nous sommes peu à peu en train de nous rendre compte de la dimension, colonialiste elle aussi, de notre pensée. Dans cet ordre d’idée, les BRICS nous rappellent à chacune de leurs réunions que les perspectives occidentales sur le monde ne peuvent prétendre à l’universalité.  

Je me réjouis à cet égard de vous entendre sur ce que deviennent, dans vos recherches, les théories morales et éthiques de notre tradition philosophique, probablement discutables elles aussi sur ce plan.  Mais j’en reviens à notre sujet : sachant que les données sur lesquelles l’intelligence artificielle travaille ne sont pas exemptes de ces biais inférés par notre prétention à une supériorité morale et culturelle, quelles sont les réflexions en cours dans ce domaine pour éviter, comme vous le dites que le “même mécanisme ne se répète ?”

OP : La question de l’universalité est fascinante. Lorsque nous commençons à interroger l’universalité des valeurs morales, nous nous retrouvons face à un spectre de réponses possibles, où chaque extrême semble indésirable. D’un côté, nous pouvons penser qu’aucune valeur morale n’est supérieure à une autre, que tout est relatif à la culture dans laquelle on se trouve. Ce point de vue, nommé « relativisme culturel », semble souvent raisonnable et inclusif au premier abord. Ce qui semble acceptable dans une culture peut ne pas l’être dans une autre, personne n’a raison ou tort. Cependant, quelqu’un qui soutient réellement ce point de vue ne peut plus critiquer un pays pour des pratiques de discrimination basée sur la culture actuelle. En effet, si aucune moralité n’est supérieure à une autre, alors il n’existe pas de position qui permette de porter un jugement sur ces pratiques. De l’autre côté du spectre, il y a la vision qu’il existe une base unique de valeurs qui peuvent s’appliquer partout et pour tout le monde, et qu’il est moralement justifiable d’imposer ces valeurs car elles sont rationnellement meilleures. C’est un extrême qui pousse justement à ces systèmes de domination coloniaux. Quelle base de moralité choisir alors pour s’assurer que l’intelligence artificielle se comporte de manière souhaitable ? Une alternative prometteuse se trouve dans une perspective relationnelle et contextuelle de la moralité. Cette perspective se concentre sur le contexte dans lequel une situation se trouve et s’interroge sur les relations de pouvoir des personnes dans cette situation. Une telle approche existe dans de nombreux courants philosophiques en dehors de l’Europe et des États-Unis. La philosophie Ubuntu, au sud du continent africain, ou la tradition Dharma en Inde en sont des exemples. Dans la tradition occidentale, un courant relativement nouveau mais grandissant qui promeut une telle perspective est l’éthique du care. L’éthique du care (aussi appelé « éthique de la sollicitude ») accepte justement qu’il n’y a pas de base universelle qui dicte quel comportement adopter dans toute situation. Au contraire, il faut pour chaque situation chercher à comprendre qui serait affecté et comment, en échangeant avec les personnes concernées, avant de pouvoir décider de ce qui constituerait un comportement éthique. Je pense que cette vision permet d’éviter d’imposer un système commun de valeurs à tout le monde tout en acceptant que certaines situations sont inadmissibles.

L’éthique du care accepte qu’il n’y a pas de base universelle qui dicte quel comportement adopter dans toute situation.

MCS : Expliquez-nous comment on s’y prend dans un dispositif ou une prise de décision, pour comprendre “qui serait affecté et comment”. J’imagine que cette ambition est impossible sans une large concertation des personnes concernées. Sont-elles toujours faciles à identifier ? Est-ce que l’exercice de la moralité ne passe pas (aussi) par autre chose qu’un intérêt personnel ou que la somme des intérêts ? Je pense au voile d’ignorance de Rawls, par exemple, qui vise à éviter les biais et les inégalités qui découlent de la connaissance des différences individuelles…

Est-ce qu’une perspective telle que celle du care, pourrait être assimilée à un utilitarisme (le maximum de bonheur pour le maximum de personnes possibles) largement renseigné par une vaste méthode de consultation rendue possible, précisément, par l’existence des outils informatiques et par l’intelligence artificielle ? 

OP : Une approche concrète qui se prête bien à l’application de l’éthique du care en pratique est le design “sensible à la valeur1” (Value Sensitive Design en anglais). Cette méthodologie se concentre sur les valeurs que nous souhaitons promouvoir lors de la création, que ce soit un texte de loi ou une intelligence artificielle. Elle propose des outils concrets pour identifier les réseaux de personnes impactées et l’effet que nos créations peuvent avoir. Sa devise est : “le progrès, pas la perfection”. En effet, il est peu probable que nous puissions parfaitement identifier les gens concernés et les valeurs importantes à un projet du premier coup. L’essentiel est de permettre une forme de création itérative et de chercher constamment à améliorer ce que nous construisons.

La devise de l’éthique du care est : “le progrès, pas la perfection.”

Joan Tronto décrit quatre principes essentiels pour l’application pratique de l’éthique du care : compétence, responsabilité, attention et réactivité2. Je pense que ces deux derniers critères, en particulier, reflètent parfaitement ce processus itératif. Premièrement, il est crucial de prêter une grande attention au contexte pour comprendre qui est impacté et comment. Deuxièmement, il faut être réactif et savoir adapter son approche lorsque cela est nécessaire.

1https://vsdesign.org/
2Joan C. Tronto. “An Ethic of Care”. In: Generations: Journal of the American Society on Aging 22.3 (1998)

Comme vous le dites, ce processus est exigeant en temps et en concentration.  Mais je ne pense pas que cela soit un problème.  Au contraire, l'obsession contemporaine pour l'efficacité peut entraver notre capacité à comprendre pleinement les conséquences de nos actions et à fournir l'attention nécessaire pour évaluer et modifier nos méthodes. Cette attention minutieuse est vitale pour éviter de commettre de graves erreurs de jugement.

L'obsession contemporaine pour l'efficacité peut entraver notre capacité à comprendre pleinement les conséquences de nos actions.

Hannah Arendt explique que les crimes de guerre commis par le commandant nazi Eichmann peuvent être interprétés non pas comme découlant d'une cruauté intrinsèque, mais plutôt d'un manque d'attention3. Elle argumente que le maintien d'une activité réflexive est crucial pour encourager un comportement éthique. De même, Simone Weil4 place l'attention au cœur de sa philosophie, la considérant indispensable à la moralité. Ainsi, pour maintenir une conduite morale et prévenir les excès dont l'humanité est capable, il est essentiel de consacrer le temps nécessaire à l'attention et de résister à la pression vers une efficacité immédiate. 

Prendre le temps pour l'attention signifie entre autres dialoguer avec ceux qui sont affectés par nos créations. Par exemple, lors du développement d'un nouvel algorithme d'intelligence artificielle, il est crucial de déterminer qui sera impacté par cet algorithme et de les inclure dans le processus de conception. Mais il ne suffit pas de s'arrêter là : il est tout aussi important de maintenir une communication continue avec ces personnes une fois le modèle devenu opérationnel, afin d'évaluer comment il les affecte sur le long terme. Cette démarche implique un processus itératif où l'algorithme est constamment ajusté en fonction des retours des utilisateurs concernés. Ainsi, l'attention et l'adaptation continue sont fondamentales pour assurer que la technologie reste bénéfique et pertinente pour sa communauté d'utilisateurs.

Le voile de l'ignorance, proposé par John Rawls, bien qu'étant une expérience de pensée intéressante, repose sur l'idée d'un agent moral individuel, détaché de son contexte. Cette perspective omet une réalité fondamentale : nous sommes façonnés par notre environnement. Nos conceptions, nos idées du bien et du mal, ainsi que nos préjugés, émergent de notre milieu et forgent notre identité. Si notre contexte est intrinsèquement lié à notre identité, alors personne ne se trouve réellement derrière le voile où les décisions sont censées être prises. Les choix doivent être ancrés dans le contexte, car c'est là que nous existons de manière inévitable.

3Hannah Arendt and Jens Kroh. Eichmann in Jerusalem,  1964.
4
Simon Weil, Gravity and Grace, 1952

Si notre contexte est intrinsèquement lié à notre identité, alors personne ne se trouve réellement derrière le voile où les décisions sont censées être prises. 

Penser que l'agent moral peut être extrait de ce contexte conduit à l'illusion qu'il reste un être purement rationnel et impartial, idéal promu par certaines traditions philosophiques européennes. La critique des approches contextuelles souligne que cet être n'existe pas en réalité, mais représente plutôt une manifestation des systèmes de valeurs européens. Cette perspective risque de glorifier une vision idéalisée d'un système de valeurs "pur", prétendument supérieur en raison de sa "rationalité", et donc à imposer aux autres. 

L'utilitarisme rencontre un problème similaire. Pour mesurer le "plus grand bonheur pour le plus de personnes", il faut établir une règle générale applicable universellement. Or, cette quête ignore la diversité des expériences humaines et des contextes de vie, risquant d'imposer une vision uniforme du bien qui est ancrée dans une représentation limitée du monde.

La croyance en la possibilité d'éliminer les biais en rationalisant nos décisions trouve un écho particulier dans le domaine de l'intelligence artificielle. Cette notion sous-tend certains efforts visant à automatiser les prises de décision, comme la sélection automatique de CV. L'argument fréquemment avancé est que les IA seraient "plus rationnelles" et "moins biaisées" que les humains, rendant leurs décisions plus équitables. Cependant, de nombreux scandales sur de récentes applications d’IA montrent que ce n’est pas ce qui se passe en pratique. En réalité, ces systèmes automatisent et imposent les valeurs, intrinsèquement biaisées, de leurs concepteurs sous couvert de rationalité. Cela conduit à une forme de systémisme qui rappelle justement les pratiques colonialistes, où la perspective d'un groupe puissant est universalisée et imposée à tous.

Penser que l'agent moral peut être extrait de ce contexte conduit à l'illusion qu'il reste un être purement rationnel et impartial, idéal promu par certaines traditions philosophiques européennes.

En mettant l'accent sur une réflexion conceptuelle durant la conception de nouveaux systèmes d'IA et en valorisant l’attention et la réactivité, on limite le risque d'universalisation.

MCS : J’abonde entièrement dans le sens de votre remarque sur Rawls et son voile d’ignorance, qui m’a en effet toujours paru sujet à caution. On peut bien faire mine d’ignorer notre intérêt personnel et celui de nos proches ou de nos semblables qui seraient concernés par une décision, mais on ne peut pas aller plus loin que ce cercle et, surtout, ce n’est pas parce qu’on fait mine de ne pas tenir compte de ses intérêts propres qu’on le fait véritablement, puisqu’on ne peut pas si facilement connaître les biais qui nous gouvernent, et encore moins les besoins et les valeurs d’autrui.

La manière dont les perspectives contextuelles que vous décrivez viennent interroger notre tradition morale et éthique est vivifiante. Votre critique des thèses morales de notre tradition philosophique, qui s’appuient (sans le savoir vraiment) sur l’hypothèse qu’un agent moral peut représenter l’universalité à lui tout seul, est très percutante. Je pense à Kant, pour qui j’ai néanmoins beaucoup d’admiration, et son impératif catégorique qui a au moins le mérite d’introduire notre responsabilité morale dans le monde. Il voit chacun d’entre nous, en effet, comme un législateur potentiel qui vient compléter la création sur le plan moral. Pourtant tout l’édifice idéaliste kantien repose sur le credo que nous avons en nous une boussole certaine pour décider d’une action objectivement juste. « Agis de telle sorte que tu puisses toujours vouloir que la maxime de ton action devienne une loi universelle ». Vous disiez qu’avec Rawls, il n’y a plus personne derrière le voile d’ignorance. Avec Kant, tout devient parfois si pur dans l’idée qu’on se demande où les humains ont disparu.

Même la troisième formulation de son impératif catégorique, « Traite toujours autrui comme une fin et jamais seulement comme un moyen », précepte qui permet d’effectuer un bon bout du chemin, fait malgré tout fi de ce que les autres considèrent dans la manière dont on les traite. Vous évoquiez Eichmann à l’instant. Le documentaire de Leo Hurwitz, “Un spécialiste, portrait d’un criminel moderne” monté en 1999 à partir des enregistrements filmés du procès d’Adolf Eichmann en 1961, donne à voir un argument saisissant de la part de l’accusé : s’il s’est montré tellement efficace dans l’organisation des convois de juifs vers les camps d’extermination, essayant de diminuer autant que possible le temps de trajet, c’était pour que le voyage ne soit pas trop inconfortable pour les déportés. Il y a là une forme d’attention portée à l’autre qui est proprement terrifiante.

Mais j’en reviens à l’utilitarisme et à son baromètre du “maximum de bonheur pour le maximum de personnes possibles”. Il est vrai que, comme vous le dites très justement, il faut, pour ce faire, établir une règle valable universellement, ou prendre son intuition pour la règle. Et on retombe donc dans les travers que les approches contextuelles dénoncent dans la morale et l’éthique traditionnelles sous nos latitudes. En revanche, est-ce que l’”approche concrète qui se prête bien à l’application de l’éthique du care en pratique, à savoir le design “sensible à la valeur” ne se présente pas, précisément, comme la possibilité effective d’assurer le maximum de bonheur pour le maximum de personnes possibles, à savoir les personnes impactées et consultées sur la question ?

Une autre question qu’un esprit comme le mien, façonné par notre pensée européenne, se pose est celle de la notion de responsabilité, incontournable en éthique. Dans l’approche du design de la valeur, n’y a-t-il pas toujours l’éventualité que réapparaissent des intérêts personnels si nombreux que la conciliation entre eux soit insoluble ?  Est-ce que l’exercice de la moralité ne passe pas (aussi) par autre chose qu’un intérêt personnel ou que la somme des intérêts ? Vivre en collectivité, n’est-ce pas aussi renoncer en partie à ses appétits égotiques ? Mais peut-être cette perspective, teintée de judéo-christianisme, est-elle elle culturellement européo-centrée, à moins que les ajustements éthiques nécessaires ne fassent, précisément, partie de l’itération qui est au cœur du processus…

Ma troisième question porte sur l’application pratique de l’éthique du care que vous avez très bien décrite avec les quatre principes essentiels, le fait que le processus se doit d’être itératif et dont la magnifique devise est : “le progrès, pas la perfection”. Pouvez-vous illustrer ce processus au travers d’une application concrète qui a permis de constater le bénéfice de cette éthique ? 

OP : Il serait en effet intéressant de chercher à adopter des préceptes empruntés à l'utilitarisme dans un contexte spécifique. Il serait possible de définir comment quantifier et agréger des grandeurs telles que le bonheur dans un cas concret et limité et maximiser cette métrique. Une approche contextuelle impliquerait également de questionner si le bonheur est l'aspect le plus important à mesurer dans un contexte donné et si notre objectif est nécessairement de maximiser « le plus grand bonheur pour le plus grand nombre ». Cette perspective peut s'avérer pertinente lors de la création d'un nouveau jeu vidéo, par exemple. En revanche, dans des cas tels que la distribution de ressources essentielles, il pourrait être préférable de minimiser la souffrance la plus intense, c'est-à-dire de s'assurer que la personne souffrant le plus endure le moins possible. Dans ce cas, on adopte plutôt un raisonnement de type rawlsien. La force d'une approche contextuelle réside précisément dans la capacité d'adapter notre méthode en fonction d'informations concrètes sur une situation.

Une approche contextuelle impliquerait également de questionner si le bonheur est l'aspect le plus important à mesurer dans un contexte donné.

Évidemment, l'éthique du care ne suggère pas qu'il soit possible de prendre des décisions morales sans compromis entre nos intérêts et ceux de la collectivité. Elle n'implique pas non plus que tous les intérêts soient de même importance. Respecter la dignité humaine restera vraisemblablement toujours plus crucial que de garantir un accès illimité au spa d'un hôtel. L'idée n'est pas d'éliminer le besoin de faire des sacrifices, mais plutôt que la pondération des intérêts et le choix des compromis se fassent de manière contextuelle et puissent être remis en question et améliorés sur la base des retours des personnes impactées.

Respecter la dignité humaine restera vraisemblablement toujours plus crucial que de garantir un accès illimité au spa d'un hôtel.

Pour comprendre comment appliquer l'éthique du care et le design sensible aux valeurs, je recommande de s'intéresser aux travaux de la chercheuse Aimee van Wynsberghe, qui propose une méthode de conception de robots dans le milieu hospitalier en suivant cette approche. Elle examine, par exemple, des robots conçus pour aider à soulever des patients à mobilité réduite de leur lit. Adopter une approche contextuelle permet d'évaluer si le robot doit opérer de manière indépendante, c'est-à-dire décider par lui-même de la force, de la rapidité et de l'angle à utiliser, ou s'il doit dépendre d'un humain pour ces choix. Comme van Wynsberghe le décrit, permettre à un humain de contrôler le robot peut renforcer la confiance du patient, qui pourrait se sentir mal à l'aise à l'idée de dépendre d'une machine. Cependant, dans d'autres cas, certains patients pourraient apprécier la confidentialité offerte par un robot autonome, et ressentir plus de dignité à se lever par eux-mêmes. Ce n'est là qu'un exemple parmi d'autres de ce qu'elle propose, et j'encourage ceux qui sont intéressés à lire son article intitulé « Designing Robots for Care : Care Centered Value-Sensitive Design » pour plus d'informations.

MCS : Votre démarche ne me semble pas étrangère à la philosophie bantoue, que vous évoquiez tout à l’heure, de l’Ubuntu qui promeut l’humanité, la bienveillance, l’attention envers autrui comme le fondement incontestable d’une collectivité : “Je suis parce que nous sommes”, dit en substance un proverbe de ces communautés. 

La philosophie Ubuntu a été dénigrée par les chercheurs coloniaux qui voyaient dans cette éthique communautaire l’expression d’un primitivisme qu’il convenait de remplacer par une éthique individualiste plus à même, selon la conviction de l’époque, de développer le sens de la responsabilité individuelle. On a maintenant pris conscience qu’une responsabilité individuelle ne prend sens et naissance que dans un contexte de relation à l’autre. Ubuntu inspire-t-il les chercheurs en éthique de l’intelligence artificielle ?

OP : Absolument ! La philosophie Ubuntu est une source précieuse de connaissances pour réimaginer la technologie sous un angle nouveau, favorisant une approche contextuelle. Sabelo Mhlambi illustre comment Ubuntu peut constituer un fondement pour la gouvernance de l'intelligence artificielle. Je recommande vivement la lecture de son travail intitulé : “From Rationality to Relationality : Ubuntu as an Ethical & Human Rights Framework for Artificial Intelligence Governance”. Il y expose ce qu'il appelle “les écueils de la rationalité”, c'est-à-dire la perception de l'être humain en tant qu'entité morale autonome et rationnelle, et suggère de privilégier une perception relationnelle de la personne. Dans cet essai, Mhlambi analyse comment de nombreux problèmes éthiques liés à l'intelligence artificielle prennent racine dans une vision individualiste de la morale et explique en quoi l'adoption de la philosophie Ubuntu pourrait résoudre ces conflits. Il conclut son exposé par une réflexion que je trouve magnifique : “La philosophie de l'ubu-Ntu, grâce à sa conception solide de la relationnalité, offre à l'humanité la possibilité de réimaginer non seulement l'Internet ou l'intelligence artificielle, mais aussi ce que signifie le fait d'être un être humain, d'exister dans un monde interconnecté. En ce sens, comme dans les mots des philosophes Suthu et Nguni, ubu-Ntu est l'un des plus beaux cadeaux de l'Afrique au monde.”

MCS : Quelle dernière question aurais-je dû vous poser ?

OP :  Une question cruciale que nous devrions tous nous poser, particulièrement face aux discours alarmistes concernant les dangers de l'intelligence artificielle pour l'humanité, est la suivante : qui est inclus dans cette notion d'humanité ? Il me semble qu'actuellement, il y a une inclination à formuler les interrogations éthiques relatives à l'IA de manière à favoriser un groupe déjà en position de force. L'intelligence artificielle offre des perspectives exceptionnelles mais également des défis significatifs. Personnellement, je suis persuadée que pour aborder sérieusement ces enjeux et les résoudre de manière inclusive, il est essentiel de reconnaître et de dépasser les limites de la conception morale qui m'a été transmise. Il importe d'explorer des approches externes à celles qui ont traditionnellement été valorisées dans notre culture.

https://ch.linkedin.com/in/oriane-peter

Saisissez votre adresse e-mail et vous recevrez un email chaque fois qu'un nouvel article est publié sur ce blog.

Merci, votre demande a bien été reçue !
Mince, quelque chose s'est mal passée...