fbpx

Si l’on n’y prend garde, l’intelligence artificielle (IA) pourrait bien devenir le cheval de Troie d’une pensée unique qui s’imposerait au motif de l’universalité d’un modèle éthique.

La quête de ce Graal que représente désormais un Code universel d’éthique de l’IA a entrainé à sa suite une quantité remarquable, si ce n’est inquiétante, de projets visant à établir des corpus de normes éthiques pour encadrer le développement et l’utilisation de l’IA. Cette volonté, bien que louable, pourrait être vouée à l’échec si elle n’est pas questionnée dans son fondement. Un questionnement est d’autant plus nécessaire que la multiplication des initiatives tend à interroger à la fois la possibilité d’aboutir à un instrument unique et l’existence d’une volonté partagée d’établir un tel instrument.

Un débat confisqué par l’Occident

Pour preuve, dans son livre L’intelligence artificielle en procès, Yannick Meneceur en répertorie 126[1] et dans son AI Ethics Guidelines Global Inventory le projet AlgorithmWatch en identifie 166[2]. Plus encore, lors de l’étude menée par une équipe de l’ETH Zurich, 1 180 codes « concernant des principes éthiques » ont été identifiés[3].

Cette prolifération invite à questionner la pertinence d’une quête d’un instrument normatif universel et souligne les intérêts particuliers qui motivent l’édition de codes d’éthique appliquée à l’IA.

Pour autant le point le plus inquiétant est que ces documents sont essentiellement produits par un petit nombre d’acteurs dans un aussi petit nombre de pays. Dans la méta-analyse produite par l’ETH Zurich, et portant sur 84 documents, les auteurs soulignent qu’en « termes de distribution géographique, les données montrent une représentation importante des pays les plus développés économiquement, avec les États-Unis (n=20; 23.8%) et le Royaume-Uni (n=14; 16.7%) comptant à eux deux pour plus du tiers de l’ensemble des principes éthique en IA », tandis que « les pays africains et sud-américains ne sont pas représentés indépendamment des organisations internationales ou supra-nationales »[4].

En d’autres termes, les pays occidentaux sont à la manœuvre de la réflexion éthique. Si on ajoute le poids de l’Union européenne, qui par ailleurs affiche sa volonté de s’imposer comme un acteur normatif, l’Occident pèse pour 63% (53 documents) des codes relatifs à l’éthique de l’IA. Cette sur-représentation indique, selon les rédacteurs de l’étude que la question de l’éthique de l’IA ne semble pas faire l’objet d’un traitement global équilibré et que les pays les plus avancés économiquement façonnent le débat en « négligeant les savoirs locaux, le pluralisme culturel et l’équité globale »[5].

On pourrait ajouter que la réflexion et la production sur le sujet sont monopolisées par un petit cercle de « sachants » et d’initiés concentrés dans certains cercles privés, publics et académiques, ce qui en limite encore plus la portée. Même dans les pays occidentaux, il est évident que le débat peine à s’ouvrir au public.

Enfin, il est notable que, du fait de l’importance de la pensée occidentale en la matière, l’éthique de l’IA est abordée exclusivement au travers de la philosophie continentale et de ses trois théories de l’éthique que sont l’éthique de la vertu, la déontologie et le conséquentialisme. À y regarder de plus près on constate même une forte prédominance de l’approche déontologique, approche d’ailleurs très contestable tant elle simplifie à l’extrême la réflexion kantienne pour la transformer en déontologie à bas coût et la réduire à l’édiction top-down de règles à suivre.

On le voit bien, la pensée occidentale occupe l’espace éthique ouvert par l’IA déniant les particularismes culturels, la diversité des perspectives normatives et la complexité de l’analyse éthique.

De fait, la multiplication des codes et autres chartes et réglementations éthiques appliquée à l’IA, est illustrative de l’impasse dans laquelle nous nous trouvons et de la possibilité d’atteindre un consensus permettant l’établissement de normes universelles.

S’ouvrir à la pluralité éthique

Sauf à afficher et à assumer une volonté de fixer les règles du jeu éthique de manière unilatérale, il est aujourd’hui nécessaire d’ouvrir le débat à d’autres cultures et à d’autres perspectives éthiques, et donc philosophiques. Sans quoi, l’éthique de l’IA pourrait devenir très rapidement un instrument de domination intellectuelle, un vecteur moderne d’impérialisme qui obèrerait toute possibilité d’établir un cadre normatif accepté largement.

Au-delà même d’une simple question de représentation géographique, l’éthique de l’IA doit s’ouvrir à différentes philosophies ou sagesses. Elle doit également s’abstenir de reposer sur des jugements de valeur a priori. L’éthique doit jouer son rôle d’évaluation de l’acceptable et du non-acceptable sans parti pris universaliste sur le Bien et le Mal, vision manichéenne religieusement connotée dont elle doit par ailleurs s’extraire. Mais ce rôle de l’éthique n’est possible que si les particularismes culturels sur lesquels repose toute réflexion philosophique sont pris en compte.

À ce titre le cas de la Chine est illustratif de la négation des spécificités culturelles d’un pays vu avant tout comme porteur de valeurs négatives rejetées par l’Occident. La question n’est pas ici de savoir s’il faut adhérer aux positions et décisions chinoises, elle est de les comprendre. Elle n’est pas de prendre parti pour ou contre, mais d’analyser. Car, qu’on le veuille ou non, forte de ses 1,4 milliards d’habitants, de son statut de seconde puissance de l’IA et de ses ambitions dans le domaine, il faudra bien composer avec les acteurs chinois. Or, la Chine a une longue tradition philosophique qu’il est important de connaitre tant pour comprendre ses décisions que pour échanger avec elle de manière constructive.

Comme le soulignait Anna Cheng en 2007, « l’association du mot « philosophie » et de l’adjectif « chinoise » ne manque pas de susciter un embarras plus ou moins explicite, mais bel et bien présent »[6]. Le constat est toujours vrai, notamment en raison de considérations géopolitiques qui dépassent le cadre de ce document, mais aussi parce que « [b]eaucoup de nos contemporains vivent encore avec l’idée que les Chinois n’ont jamais connu de débat, ni dans l’Antiquité ni aujourd’hui, du fait de leur soumission séculaire à un régime autocratique »[7]. Ces a priori interdisent donc à la philosophie chinoise de s’exprimer sur l’IA si tant est qu’elle veuille le faire.

Le très controversé Empire du Milieu n’est pas le seul à subir cette forme d’ostracisation. D’autres régions du monde, d’autres cultures sont invisibles dans ce débat que certains voudraient pourtant universel.

L’Amérique latine est ainsi laissée aux marges de ces questionnements qui la touchent pourtant. Comme le souligne Julio Pertuzé, professeur assistant à la Pontificia Universidad Católica de Chile, « les discussions sur l’éthique de l’IA sont dominées par d’autres voix, notamment l’Europe »[8]. Fort du constat que « le débat au sujet de l’IA est dominé par un nombre restreint d’acteurs alors que l’impact est global,[9] le Centro de Estudios en Tecnología y Sociedad de l’Université de San Andrés en Argentine, a lancé en 2019 le projet GuIA.ai avec pour objectif de « renforcer l’espace dans lequel les chercheurs régionaux peuvent discuter de l’éthique, des principes, des normes et des politiques des systèmes d’intelligence artificielle et des problèmes particuliers de l’Amérique latine et des Caraïbes »[10]. Les pays d’Amérique latine et des Caraïbes s’intéressent pourtant au sujet et les initiatives ne manquent pas, même si « la question de l’éthique de l’IA en est à ses balbutiement dans la région qu’il n’y a pas encore assez d’informations disponibles pour l’évaluer de manière exhaustive »[11].

L’Inde n’est pas en reste et les réflexions, bien que très superficielles pour le moment et marquées par le passé colonial du pays, commencent à naître en même temps que la stratégie indienne sur l’IA se met en place[12].

Au-delà même des régions ou des pays, la philosophie venue d’Afrique comme ses sagesses, telle que l’Ubuntu, doivent trouver leur place dans ce débat. L’ethnophilosophie africaine avec ses propres thématiques de réflexions et ses propres axes marqués eux aussi par l’expérience coloniale[13], le nationalisme culturel[14] sont autant d’apports qu’il convient d’intégrer à nos réflexions éthiques sur l’IA. Le continent africain est donc riche d’une réflexion de plusieurs siècles, de vécus particuliers, de relations à l’humain et à la nature spécifiques et d’une diversité culturelle indéniable, qui pourraient être utile aux débats sur l’éthique de l’IA. Pourtant, tout comme pour la Chine, « tout se passe comme si l’adjectif « africain » recouvrait un particularisme excluant »[15] alors même que la philosophie africaine, comme d’autres, pourrait nous permettre de questionner nos convictions et de les enrichir pour nous ouvrir de nouvelles perspectives. Comme l’affirme justement Alassane Ndaw, « [p]hilosopher en Afrique, c’est comprendre que nul n’a le monopole de la philosophie »[16]. Le constat mérite d’être étendu à toutes les formes de philosophie d’où qu’elles viennent.

Que dire du monde musulman et de la place de l’Islam dans la pensée éthique, si ce n’est que là encore les a priori sont tenaces et interdisent, par convention et conformisme, toute discussion sur l’apport d’une religion multiséculaire recouvrant là aussi une diversité et une richesse culturelle et intellectuelle incroyables. La réduction de l’Islam à sa dimension géopolitique et à sa composante marginale islamiste favorise le rejet global d’une culture extraordinaire et d’une pensée qui pourrait sans doute enrichir le débat sur l’éthique de l’IA.

D’autres ont déjà compris l’importance de s’extraire de nos convictions, de nos structures de pensées. Au Canada se fait jour une réflexion sur l’apport de la culture indigène dans le domaine de l’IA[17], en Nouvelle-Zélande la culture Māori est prise en compte dans les recommandations liées à l’éthique de l’IA[18] : quelques soubresauts qu’il convient de prendre pour exemples.

Pour conclure

La diversité culturelle, ses particularismes, la multiplicité des perspectives que nous avons ici brossés à grands traits, sont autant d’éléments qu’il nous faut désormais prendre en compte dans nos réflexions sur l’éthique de l’IA. Sans a priori. Sans préjugés. Sans jugements de valeurs. Nous devons apprendre à écouter afin de dépolariser et dépolitiser le débat pour nous ouvrir de nouvelles perspectives.

Les réflexions actuelles sont aujourd’hui dans l’impasse. Elles le sont parce que nous avons jusque-là été incapables de nous ouvrir aux Autres, de les écouter. Elles le sont parce que malgré toutes les bonnes intentions, nous imposons une vision occidentale du sujet au reste du monde. Parce que nous transférons nos peurs et nos inquiétudes à l’ensemble des communautés humaines comme si au nom d’une ontologie de l’être humain, nos angoisses étaient universelles. Parce que, conséquemment, nous proposons des solutions à des problèmes qui ne concernent qu’une partie de l’humanité sans considération des problèmes des Autres. Comme si nos problèmes étaient universels et que par conséquent les solutions l’étaient également. Car c’est bien là l’essentiel du problème : l’universel. Cette idée devenue idéologie qui prétend abolir les particularismes, nier la diversité et confine aujourd’hui à une forme de tyrannie.

Au discours réducteur, et souvent dénigrant, sur l’Autre dénoncé par Edward Saïd[19] s’est aujourd’hui ajouté l’indifférence à l’égard de l’Autre, indifférence qui confine souvent au mépris si ce n’est à la négation d’une altérité qui nous inquiète et nous questionne dans nos certitudes.

Nous crions à l’universalité des valeurs tandis que nous louons la diversité culturelle. Nous nous insurgeons contre les biais et discriminations, mais nous écartons du champ de nos réflexions les pensées que nous ne pouvons, voire ne voulons, pas comprendre ni même entendre. Nous condamnons les impérialismes chinois ou américain, tout en imposant notre empire éthique au reste du monde. En d’autres termes nous faisons aux autres ce que nous ne voulons pas que les autres nous fassent.

À la lumière de ces éléments, l’Observatoire Éthique & Intelligence Artificielle de l’Institut Sapiens, a d’ailleurs décidé de consacrer l’année qui vient à une réflexion approfondie sur le multiculturalisme éthique et à la régulation éthique de l’IA. Avec plusieurs partenaires tels que le Center for the Study of Ethics in the Professions de l’Illinois Institute of Technology ; l’Observatorio del impacto social y ético de la inteligencia artificial ; l’Artificial Intelligence Society Bahrain ; l’Institut Français des Études Académique ; INDIAai ; l’Indian Society of Artificial Intelligence and Law ;  l’Université Mohammed Premier à Oujda et bien d’autres acteurs d’Amérique Latine, d’Asie, d’Afrique et du Proche-Orient, l’Observatoire travaillera à la rédaction d’un rapport sur l’importance de la prise en compte du pluralisme culturel dans l’évaluation éthique du développement et de l’utilisation de l’IA. Au travers de ce travail et des divers évènements et publications qui l’entoureront, ce groupe unique en son genre se fixe pour objectif d’élargir le champ des possibles en matière d’éthiques appliquées à l’IA sans ostraciser ni rejeter aucune perspective, sans a priori, mais au contraire en se nourrissant de la richesse des cultures qui constituent l’humanité.

 

 

* Ce commentaire a été publié pour la première fois à L’Institut Sapiens le 12 janvier 2021.

 

Emmanuel R. Goffi

Emmanuel R. Goffi est Directeur de l’Observatoire Ethique & Intelligence Artificielle de l’Institut Sapiens. Il est spécialiste en sciences politiques et éthiques. Il a servi durant 25 ans dans l’armée de l’Air française. Titulaire d’un doctorat en sciences politiques de Science Po Paris, Emmanuel est également professeur en éthique des relations internationales à l’ILERI et chercheur associé au Centre for Defence and Security Studies à la University of Manitoba, à Winnipeg, Canada.

Emmanuel a enseigné et conduit des travaux de recherche dans de nombreux établissements universitaires en France et aux Canada. Il intervient régulièrement dans des colloques et dans les médias. Il a publié de nombreux articles et chapitres d’ouvrages et est l’auteur de Les armées françaises face à la morale : une réflexion au cœur des conflits modernes(Paris : L’Harmattan, 2011) et a coordonné un ouvrage de référence sur les drones, Les drones aériens : passé, présent et avenir. Approche globale(Paris: La Documentation française, coll. Stratégie aérospatiale, 2013).

Ses recherches portent essentiellement sur l’éthique appliquée à la robotique et à l’intelligence artificielle, notamment dans le domaine de la défense.

 

[1] Yannick Meneceur, L’intelligence artificielle en procès: plaidoyer pour une réglementation internationale et européene, Paris Brulant, 2020, p. 201

[2] AI Ethics Guidelines Global Inventory, AlgorithmWatch, available at https://inventory.algorithmwatch.org/database 

[3] Anna Jobin, Marcello Ienco, Effy Vayena, ‘The Global landscape of AI ethics guidelines’, Nature Machine Intelligence, Vol. 1, 20019, p. 391

[4] Idem.

[5] Ibid., p. 396.

[6] Anna Cheng, ‘Les tribulations de la « philosophie chinoise » en Chine’, La pensée en Chine aujourd’hui, Paris, Gallimard, 2007, p. 156-160.

[7] Anna Cheng, Introduction, Op, cit., p. 11-12.

[8] Julio Pertuzé, cited in The global AI agenda: Latin America, MIT Technology Review Insights, 2020, p. 6

[9] Norberto Andrade, Promoting AI ethics research in Latin America and the Caribbean, Facebook Research blog, July 2 2020

[10] CETyS| GuIA.ia, Artificial Intelligence in Latin America and the Caribbean: Ethics, Governance and Policies, GuAI.ia

[11] Constanza Gómez Mont, Claudia May Del Pozo, Cristina Martínez Pinto, Ana Victoria Martín de Campo Alcocer, Artificial Intelligence for Social Good in Latin America and the Caribbean: The Regional Landscape and 12 Country Snapshots, Inter-American Development Bank, fAIr LAC intuitive report, July 2020, p.34.

[12] See in particular Avik Sarkar, Ashish Nayan, Kartikeya Asthana, National Strategy for Artificial Intelligence #AIFORALL, Discussion Paper, NITI Aayog, June 2018; Abhivardhan, Dr Ritu Agarwal, AI Ethics in a Multicultural India: Ethnocentric or Perplexed? A Background Analysis, Discussion Paper, Indian Society of Artificial Intelligence and Law, 2020.

[13] Jean-Godefroy Bidima, Philosophies, démocraties et pratiques: à la recherche d’un « universal latéral», Critique, Tome LXVII, N° 771-772 ‘Philosopher en Afrique’, August- September 2011, p. 672-686

[14] Chike Jeffers, Kwasi Wiredu et la question du nationalisme culturel, Critique, Tome LXVII, N° 771-772 « Philosopher en Afrique », August- September 2011, p. 639-649.

[15]  Séverine Kodjo-Grandvaux, Vous avez dit « philosophie africaine », Critique, Tome LXVII, N° 771-772 « Philosopher en Afrique », August- September 2011, p. 613

[16] Alassane Ndaw, « Philosopher en Afrique, c’est comprendre que nul n’a le monopole de la philosophie », carried out by Rammatoulaye Diagne-Mbengue, Critique, Tome LXVII, N° 771-772 « Philosopher en Afrique », August- September 2011, p. 625.

[17] Karina Kesserwan, How Indigenous Knowledge Shapes our View of AI? Policy Options, February 16, 2018.

[18] See Karaitiana Taiuru, Treaty of Waitangi/Te Tiriti and Māori Ethics Guidelines for: AI, Algorithms, Data and IOT, May 04, 2020 or The Algorithm charter for Aotearoa New Zealand, New Zealand Government, July 2020.

[19] Edward W. Saïd, L’orientalisme : l’Orient créé par l’Occident, Paris, Editions du Seuil, 2005 [1978].

translated from French by Béatrice Vanes

Contact

Phone

Tel: +32 (0) 2 801 13 57-58

Email

info@behorizon.org

Loading...