Revue Européenne du Droit
IA vs dignité humaine : quand la sous-performance humaine est légalement requise
Issue #4
Scroll

Issue

Issue #4

Auteurs

Ginevra Le Moli

La Revue européenne du droit, été 2022, n°4

Lorsque le professeur de mathématiques John McCarthy et ses collègues ont introduit le terme « intelligence artificielle » (IA) en 1956, l’enjeu poursuivi à travers l’IA était défini comme suit : « faire en sorte qu’une machine se comporte d’une manière qui serait qualifiée d’intelligente si un humain se comportait ainsi » 1 . Cette définition considérait l’intelligence humaine comme la mesure et la norme de ce que faisait l’IA 2 . Aujourd’hui, des investissements publics et privés massifs sont consacrés aux outils d’IA 3 , qui sont activement intégrés à toute une série de processus décisionnels dans des domaines tels que les procédures juridiques et le diagnostic médical. Les réalisations pratiques de l’IA ainsi que son « rôle idéologique en tant que paradigme technologique pour la reconstruction du capitalisme » ont suscité l’intérêt des sociétés capitalistes avancées 4 . La restructuration du système capitaliste mondial a en effet été favorisée par les développements technologiques dans les domaines des télécommunications, de la microélectronique et de l’informatique 5 , ce qui a permis de réduire la nécessité de recourir à la main-d’œuvre humaine 6 .  

Cependant, en dépit de l’utilisation croissante de l’IA dans des applications commerciales, militaires et scientifiques, les systèmes d’IA sont déployés en l’absence de cadres réglementaires juridiques nationaux et internationaux spécifiques et efficaces 7 . Pourtant, l’IA soulève d’importants défis normatifs dans divers domaines, tels que les droits de l’homme, la santé mondiale et le droit international du travail, entre autres. À une époque où les systèmes d’IA sont appelés à devenir une composante essentielle du capital, cet essai examine quand l’action humaine est normativement requise au titre de la dignité humaine, et ce indépendamment du fait que les systèmes d’IA puissent surpasser les humains dans une tâche donnée. Je soutiens que la délégation de pouvoirs décisionnels à l’IA est limitée sur le plan normatif et que la dignité humaine fournit un cadre organisationnel pour guider le processus de délégation.

Alors que l’IA est de plus en plus déployée, de la conduite de vastes investissements aux techniques de calcul 8 , sa perception publique est loin d’être uniformément positive 9 . Pour ses enthousiastes, l’IA éliminera le besoin d’un intellect humain faillible et « s’occupera de tous les problèmes vraiment importants pour nous (pour nous, pas avec nous) » 10 . En étendant « la formalisation mathématique au domaine des problèmes sociaux », l’IA aurait « apporté avec elle un sentiment de puissance nouvelle, l’espoir d’un contrôle technique des processus sociaux égal à celui obtenu par les systèmes mécaniques et électroniques » 11 . Ainsi, les optimistes mettent en avant la possibilité de démocratiser les services juridiques et de rendre la prise de décision plus efficace et prévisible 12 . D’autres, au contraire, restent sceptiques 13 et dénoncent une série de risques, notamment un contrôle social intrusif, l’arbitraire et l’inégalité 14 .  

D’un point de vue éthique, les systèmes d’IA soulèvent la tension familière entre deux formes de normativité : le conséquentialisme, c’est-à-dire la normativité basée sur les résultats finaux d’une action, et le déontologisme, c’est-à-dire la normativité basée sur les règles. Cet essai souligne qu’une éthique conséquentialiste de la performance ne doit pas saper les raisons normatives pour lesquelles la « sous-performance » humaine est finalement souhaitable. Il existe un besoin pressant de construire ce que certains appellent une « bonne société de l’IA », élaborée par les efforts publics et privés pour adopter une approche holistique basée sur des valeurs et des fondements universels 15 . Dans ce contexte, les droits de l’homme ont un rôle majeur à jouer. Comme l’a écrit le Secrétaire général de l’ONU dans un rapport de 2018, « les outils d’IA, comme toutes les technologies, doivent être conçus, développés et déployés de manière à être compatibles avec les obligations des États et les responsabilités des acteurs privés en vertu du droit international des droits de l’homme » 16 . Bien qu’un tel rôle ne soit pas toujours simple 17 , le concept normatif de la dignité humaine fournit une clé juridique. Cet essai se concentrera sur cette perspective particulière et, tout d’abord, présentera des exemples illustrant des cas où l’IA est considérée comme offrant de meilleures performances, ainsi que les défis qui y sont liés et, ensuite, examinera pourquoi, indépendamment des hautes performances que l’IA peut offrir, les implications juridiques de la dignité humaine limitent le déploiement de l’IA dans la prise de décision.

1. Performances des technologies d’IA et défis normatifs 

Malgré les défis posés par les algorithmes fondés sur l’apprentissage automatique basé sur les données 18 , les preuves de meilleures performances ont conduit à une utilisation accrue de l’IA dans divers secteurs. 

Dans le secteur juridique, l’IA est de plus en plus adoptée par les agences et les tribunaux à différentes fins 19 . Tout d’abord, l’IA est utilisée pour organiser l’information. Par exemple, l’« eDiscovery », une méthode de recherche de documents utilisée par les tribunaux des États-Unis et du Royaume-Uni 20 , est considérée comme plus rapide et plus précise que la recherche manuelle dans les dossiers. Par ailleurs, des outils d’IA sont également adoptés pour conseiller les professionnels. Le système Solution Explorer du Tribunal de résolution civile (CRT) de la Colombie-Britannique, au Canada 21 , a été mis en place pour traiter les litiges relatifs aux copropriétés, aux logements subventionnés et aux dommages corporels résultant de collisions. Le Solution Explorer est la première étape du processus de résolution des litiges du CRT. Il fournit aux gens des informations juridiques claires, ainsi que des outils d’auto-assistance gratuits pour résoudre leur litige sans avoir à déposer une plainte auprès de la CRT. Troisièmement, les systèmes d’IA sont utilisés pour mieux prédire les résultats possibles des jugements 22 . Par exemple, le système COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) est adopté par les tribunaux des États-Unis pour prédire la récidive dans les affaires pénales 23 ou, en Nouvelle-Zélande, un modèle de prédiction informatisé aide à traiter les demandes d’indemnisation dans le cadre du régime d’indemnisation des accidents 24 . En outre, on constate une utilisation croissante de la reconnaissance faciale en direct (LFR), considérée comme nécessaire, par exemple, lorsque la nature du crime l’exige, car « les besoins sociaux associés à la prévention d’un meurtre seront beaucoup plus élevés que ceux associés à la détection d’un petit vol » 25

Une autre vaste application de l’IA concerne le bien-être et les soins de santé. Les gouvernements et les organisations du secteur privé numérisent l’État-providence pour « automatiser, prévoir, identifier, surveiller » 26 . Les applications de l’IA visant à influencer le comportement des gens se sont développées dans les domaines des soins de santé et de l’éducation. Par exemple, l’Université de Pennsylvanie a créé en 2016 la Penn Medicine Nudge Unit, qui utilise « des options par défaut pour augmenter la prescription de médicaments génériques et réduire la prescription d’opioïdes, en utilisant le choix actif pour augmenter la vaccination contre la grippe, et en utilisant le retour d’information de la comparaison entre pairs pour augmenter la prescription de statines et réduire la prescription inutile d’antibiotiques » 27 . De même, l’apprentissage électronique et l’EduTech font appel aux technologies cognitives dans le domaine de l’apprentissage et de l’éducation 28 .

Un autre domaine où les applications basées sur l’IA sont de plus en plus nombreuses est celui du renseignement, de la surveillance et de la reconnaissance (ISR), y compris la cyberdéfense 29 . Par exemple, l’OTAN utilise des applications d’IA dans le contexte du renseignement, de la surveillance et de la reconnaissance pour « identifier des modèles et des tendances à l’appui de la connaissance de la situation et de la prise de décisions opérationnelles », ainsi que dans le contexte de la cyberdéfense, pour appliquer des correctifs de manière préventive et prendre des mesures correctives plus rapidement et avec plus de précision 30

L’utilisation croissante de l’IA dans ces contextes et dans d’autres est motivée par des considérations de performance. Pourtant, même lorsque ces performances supérieures sont reconnues, l’utilisation de l’IA a fait l’objet de critiques, parfois en raison d’une sous-performance occasionnelle (par exemple, la rigidité ou l’arbitraire), mais d’autres fois précisément en raison des implications normatives des performances élevées dans l’exécution de certaines tâches, notamment la discrimination et l’intrusion 31 . En ce qui concerne l’utilisation de l’IA par les tribunaux, il existe un potentiel d’arbitraire et de discrimination, ainsi que des problèmes d’exactitude juridique 32 , un manque de transparence sur les méthodes basées sur les algorithmes et une augmentation du fossé judiciaire inter partes 33 . De plus, les biais dans les données peuvent produire de la discrimination 34 , tant dans les outils de police prédictive 35 que dans les applications de LFR 36 . La critique publique des utilisations de la LFR a conduit à des contestations judiciaires devant les tribunaux, comme cela s’est produit au Royaume-Uni 37 et aux États-Unis 38 . En outre, la transformation de la protection et de l’assistance sociales, par exemple par le biais de l’automatisation des évaluations d’éligibilité, du calcul des prestations, de la détection des fraudes et de la notation des risques, a suscité diverses inquiétudes 39 ; manque de précision 40 ; ou perte de raisonnement, de proportionnalité et de discrétion 41 . De même, l’utilisation des technologies de l’IA dans des contextes militaires peut poser des difficultés, comme celle d’« alimenter la pression pour une action accélérée de manière inappropriée » 42 , avec pour résultat d’aller à l’encontre des processus de décision traditionnels. 

2. La dignité humaine comme contrainte juridique à la prise de décision en matière d’IA

Afin de déterminer les implications sur les droits de l’homme des décisions prises par l’IA, une évaluation des droits de l’homme devrait englober une évaluation de la conformité des systèmes d’IA avec les droits fondamentaux 43 . Une telle évaluation couvre le respect de la dignité humaine, la liberté de l’individu, le respect de la démocratie, de la justice et de l’État de droit, l’égalité, la non-discrimination et la solidarité et les droits des citoyens 44 . En particulier, même si le respect de la dignité humaine est aujourd’hui remis en question par le développement rapide des nouvelles technologies, sa signification générale reste intacte, à savoir que chaque être humain possède une « valeur intrinsèque », qui ne devrait jamais être mise en danger ou réprimée par d’autres. Les violations de la dignité humaine sont des actes « incompatibles avec la dignité et la valeur de la personne humaine » 45 . Ces actes sont condamnés au niveau international parce qu’ils constituent des pratiques nuisibles, un « déni de dignité » 46 , ayant un « impact négatif » sur la dignité et l’intégrité morale 47 . En ce sens, la dignité humaine est protégée par des cadres juridiques constitutionnels 48 , régionaux et internationaux 49 et elle peut jouer un rôle central en limitant l’étendue de la délégation aux systèmes d’IA, comme le montrent les utilisations qui en sont faites dans divers cas 50

La dignité humaine est en effet un principe directeur du droit international et elle agit comme un « droit-mère » (fonctionnant comme une source de droits et comme une qualification des droits) et comme une source d’obligations 51 . En particulier, la dignité de l’individu est aujourd’hui considérée comme « le principe directeur fondamental du droit international des droits de l’homme » 52 . Il existe un « noyau dur des principes des droits de l’homme relatifs à la dignité humaine » 53 .  C’est pourquoi les instruments relatifs aux droits de l’homme non seulement « réaffirment », selon les termes de la Charte des Nations unies, « la foi […] dans la dignité » 54 de la personne humaine, mais reconnaissent également la dignité humaine comme le fondement de quatre concepts différents. La dignité humaine, in primis, « est le fondement de la liberté, de la justice et de la paix dans le monde », comme le déclare pour la première fois la Déclaration universelle des droits de l’homme (DUDH) 55 . En outre, tous les êtres humains sont « égaux en dignité » 56 , conformément à l’article 1er de la DUDH 57 , et ils ont le droit de poursuivre leur « développement spirituel » dans la dignité 58 . C’est pourquoi le « progrès et le développement social » sont fondés sur le respect de la dignité 59 . Ainsi, il est généralement reconnu que la dignité humaine est à la base des concepts et des principes de « liberté, justice et paix », d’« égalité », de « développement spirituel » et de « progrès et développement social ». Même lorsqu’un instrument international est muet sur ce principe, la dignité humaine reste d’une « importance centrale » pour l’autonomie personnelle et en tant qu’objectif fondamental 60 . Il est généralement admis que le respect de la dignité humaine est « une règle fondamentale et universellement applicable » 61 .

À titre d’illustration, le Comité des droits de l’homme a déploré l’incompatibilité avec ce principe dans divers contextes, par exemple en ce qui concerne l’interdiction de la torture et des mauvais traitements 62 , étant donné que « le traitement humain et le respect de la dignité de toute personne privée de liberté est une norme fondamentale d’application universelle » 63 , ou l’utilisation abusive du progrès scientifique et technique 64 . La Cour européenne des droits de l’homme a plutôt fait référence à des comportements incompatibles avec le principe de la dignité humaine dans l’évaluation des infractions, tels que la discrimination fondée sur le sexe 65 , l’ethnie 66 ou la race 67

L’opérativité du principe de la dignité humaine dans la pratique juridique montre que les considérations d’efficience et d’efficacité justifiant le recours aux technologies de l’IA restent soumises à d’importantes contraintes juridiques, et que la sous-performance peut être normativement requise pour assurer la protection de la dignité humaine. La dignité humaine présuppose que les personnes méritent d’être traitées avec respect. Les systèmes d’IA doivent être conçus et mis en place de manière à protéger les êtres humains 68 , leur santé physique et mentale, mais aussi leur sentiment culturel d’identité 69 . Il est important de noter qu’au niveau de l’UE, les autorités chargées de la protection des données ont reconnu que la dignité humaine peut être compromise de diverses manières dans le contexte du traitement des données 70 . Il existe un lien direct entre la protection des données et les systèmes d’IA car ces derniers sont de plus en plus utilisés pour guider ou contrôler le système de collecte d’informations ainsi que pour traiter les données. Premièrement, la dignité humaine peut être mise en danger par un contrôle constant et intrusif, tel que la vidéosurveillance (ou d’autres technologies similaires) 71 ainsi que les systèmes à forte intensité de données qui recueillent des données sur la mobilité 72 . Deuxièmement, on considère qu’il y a atteinte à la dignité humaine lorsque des systèmes de vidéosurveillance ou d’autres systèmes de contrôle sont installés dans des zones où l’on s’attend plutôt à une grande intimité, comme les vestiaires ou les toilettes 73 , en raison de la gêne personnelle que cela peut entraîner. Troisièmement, l’utilisation de données sensibles peut porter atteinte à la dignité humaine, comme cela a été reconnu dans des cas de demandes d’informations invasives par des employeurs 74 , d’utilisation de dispositifs portables et de l’Internet des objets (IoT) pour collecter des données sensibles (par exemple des données sur la santé) ou des informations de profilage 75 , et de collecte de données biométriques 76 . Enfin, la dignité humaine peut également être affectée par la publication d’informations personnelles qui peuvent causer de la détresse aux personnes concernées, comme dans le cas de la divulgation de jugements d’évaluation 77 , tels que les notations des employés ou les résultats des examens 78 , les rapports de dettes privées 79 , ou l’utilisation de services de l’économie dite de la réputation 80 .  

De même, il existe un risque de discrimination, et un impact connexe sur la dignité humaine, découlant de l’utilisation d’algorithmes dans différents contextes 81 . Par exemple, un système de sécurité sociale automatisé basé sur des algorithmes, tel que celui mis en œuvre au Royaume-Uni, bien qu’il améliore la rentabilité du système de paiement, impose des barrières numériques dans l’accessibilité de la sécurité sociale et peut donc exclure les personnes sans (ou avec une faible) culture numérique 82 . Ceci, à son tour, peut affecter les droits humains fondamentaux des personnes vulnérables, tels que le travail, la nourriture et le logement 83 . En outre, l’analyse prédictive, qui peut également être adoptée dans le cadre de la protection de l’enfance 84 , peut soulever des problèmes de confidentialité et de discrimination 85

Ainsi, ces exemples illustrent la façon dont la compatibilité et la cohérence avec la dignité humaine sont considérées comme des repères ou des normes pour l’évaluation de la compatibilité de la surveillance assistée par la technologie. Il est donc directement pertinent de comprendre la cohérence des technologies d’IA avec les droits fondamentaux.

Conclusion 

Cet article a tenté de montrer comment la dignité humaine peut agir comme une limite et une contrainte juridique dans la décision de déléguer (ou non) une tâche à un outil d’IA, afin de faciliter le respect des droits de l’homme. Dans un contexte d’IA, une approche fondée sur la dignité humaine permet d’équilibrer la tension entre le conséquentialisme et le déontologisme, en faveur de ce dernier et de l’action humaine, indépendamment des performances et des résultats élevés qui pourraient en principe être assurés par l’utilisation des technologies d’IA. Elle permet également de garantir que le fonctionnement du système d’IA ne génère pas de résultats injustement biaisés et soit aussi inclusif que possible. Il est important de noter que la dignité humaine définit une norme de déploiement et joue un rôle dans le processus de décision, établissant ainsi le cadre dans lequel les dommages éventuels peuvent être évalués.

Notes

  1. J. McCarthy, M.L. Minsky, N. Rochester, et C.E. Shannon, « A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August, 31, 1955 », in (2006) 7(4) AI Magazine, 11. 
  2. Ibid. Voir aussi S. J. Russell et P. Norvig, Artificial intelligence: a modern approach, Prentice Hall, 2009, 3rd ed., 2-5. Voir aussiJ.A. Perez, F. Deligianni, D. Ravi, G.-Z. Yang, « Artificial Intelligence and Robotics », UK-RAS, 2018, 2-4.
  3. Voir par exemple, W. Alschner, « The Computational Analysis of International Law », in R. Deplano et N. Tsagourias, Research Methods in International Law, Edward Elgar, 2021, 224-228; A. Deeks, « High-Tech International Law », (2020) 88(3) Geo. Wash. L. Rev., 574-653.
  4.  B.J. Berman, « Artificial Intelligence and the Ideology of Capitalist Reconstruction », (1992) 6 AI & Soc 103, 103, Voir aussi 110. Selon Christopher Freeman, ‘a technological revolution represents a major change of paradigm, affecting almost all managerial decisions in many branches of the economy’, and the new ‘techno-economic paradigm’ is ‘a new set of guiding principles, which become the managerial and engineering ‘common-sense’ for each major phase of development’, voir C. Freeman, ‘Prometheus Unfound’, (octobre 1984), 16(5) Futures 494, 499.
  5. Berman, supra n 4, 107.
  6. Voir R. Kaplinsky, Automation: the Technology and the Society, Longman. 1984 ; H. Shaiken, Work Transformed: Automation and Labour in the Computer Age, Lexington Books, 1985; H. Schiller, Information and the Crisis Economy, Oxford University Press, 1986; V. Mosco, The Pay-Per Society: Computers and Communication in the Information Age, Garamond Press, 1989; T. Roszak, The Cult of Information, Pantheon, 1986, 44-45. Voir aussi G. Raunig, Dividuum: Machinic Capitalism and Molecular Revolution, MIT Press, 2016.
  7. A. Deeks, « Introduction To The Symposium: How Will Artificial Intelligence Affect International Law? », (2020) 114 AJIL Unbound 138, 138.
  8.  J. Kaplan, « Artificial Intelligence: What Everyone Needs to Know », Oxford University Press, 2016; J. Copeland, « The Essential Turing: The Ideas that Gave Birth to the Computer Age », Oxford University Press, 2005.
  9. Berman, supra n 4.
  10. M. Boden, « The Social Impact of Thinking Machines », in T. Forester (dir), The Information Technology Revolution, MIT Press, 1985, 103.
  11. P. Edwards, « The Closed World: Systems Discourse, Military Strategy and Post WWII American Historical Consciousness », (1988) 2(3) AI & Society 245, 252.
  12. R. Susskind, Tomorrow’s Lawyers: An Introduction To Your Future, Oxford University Press, 2017, 2nd ed.
  13. H. Dreyfus, What Computers Still Can’t Do: A Critique of Artificial Reason, MIT Press, 1992. Voir aussi Berman, supra n 4.
  14. Voir F. Pasquale, « A Rule of Persons, Not Machines: The Limits of Legal Automation », (2019) 87(1) Geo. Wash. L. Rev. 1.
  15. C. Cath et al., « Artificial Intelligence and the ‘Good Society’: The US, EU, and UK Approach, Science and Engineering Ethics » (2017) 24(2) Science and Engineering Ethics 505, 507–508; J. Turner, Robot Rules. Regulating Artificial Intelligence, Palgrave Macmillan 2019, 209-210. Voir aussi M. Latonero, « Governing Artificial Intelligence: Upholding Human Rights & Dignity », Report, Data & Society, 10 octobre 2018.
  16. UN GA, Promotion and protection of the right to freedom of opinion and expression, Note par le Secrétaire général, A/73/348, (2018, août 29), paras. 19–20 ; voir aussi UN HRC, Rapport du Rapporteur spécial à l’Assemblée générale sur l’IA et son impact sur la liberté d’opinion et d’expression, (2018).
  17. Voir D. Murray, « Using Human Rights Law to Inform States’ Decisions to Deploy AI », (2020) 114 AJIL Unbound 158, 158; T.L. Van Ho and M.K. Alshaleel, « The Mutual Fund Industry and the Protection of Human Rights », (2018) 18(1) Hum. Rts. L. Rev. 1.
  18. R. Braun, « Artificial Intelligence: Socio-Political Challenges of Delegating Human Decision-Making to Machines », IHS Working Paper 6, avril 2019, 3-4. Voir aussi T. Gillespie, The relevance of algorithms, in T. Gillespie, P. Boczkowski, and K. Foot (dir.), Media technologies: Essays on communication, materiality, and society, MIT Press, 2014, 167-193; B. Lepri, et al., « FairTransparent, and Accountable Algorithmic Decision-making Processes: The Premise, the Proposed Solutions, and the Open Challenges », (2017) 31 Philosophy & Technology 611; M. Willson, « Algorithms (and the) everyday », (2016) Information, Communication & Society  137; R.V. Yampolskiy, Artificial Intelligence Safety and Security, CRC Press, 2018.
  19. A.D. Reiling, « Courts and Artificial Intelligence » (2020) 11(2) IJCA 8.
  20. Aux États-Unis : cette méthodologie a été considérée comme valide pour la première fois dans Anti-Monopoly, Inc. v. Hasbro, Inc., 1995 WL 649934 (S.D.N.Y., Nov. 3, 1995); Da Silva Moore v. Publicis Groupe & MSL Group, No. 11 Civ. 1279 (ALC) (AJP) (S.D.N.Y., Feb. 24, 2012); sur l’examen assisté par la technologie (TAR) des documents, voir  Rio Tinto PLC v. Vale S.A., et al., 2015 WL 872294 (S.D.N.Y., mars  2, 2015); Hyles v. City of New York, et al., No. 10 Civ. 3119 (AT) (AJP) (S.D.N.Y., août  1, 2016). Pour le Royaume-Uni, voir High Court of Justice Chancery Division, U.K. (2016), Pyrrho Investments Ltd v. MWB Property Ltd [2016] EWHC 256 (Ch).
  21. British Columbia Civil Resolution Tribunal (2019), <https://civilresolutionbc.ca>.
  22. D. Katz et al., « A General Approach for Predicting the Behavior of the Supreme Court of the United States », (2017) 12(4) PLoS ONE; M. Medvedeva, M. Vols, M. Wieling, « Judicial Decisions of the European Court of Human Rights: Looking into the Crystal Ball, (2018) Proceedings of the Conference on Empirical Legal Studies in Europe ». Sur les tentatives éventuelles des parties d’obtenir des avantages en adoptant la recherche et la prédiction juridiques basées sur les données, voir Deeks, supra n 3, 600-622; N. Aletras et al., « Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective », (2016) 2 PeerJ Computer Science 1.
  23. B. Green, « ‘Fair’ Risk Assessments: A Precarious Approach for Criminal Justice Reform », 5th Workshop on Fairness, Accountability, and Transparency in Machine Learning, 2018.
  24.  J. Yoshikawa, « Sharing the Costs of Artificial Intelligence: Universal No-Fault Social Insurance for Personal Injuries », (2018-2019) 21 Vand. J. Ent. & Tech. L. 1155.
  25. Murray, supra n 17, 160-161. Voir les affaires jointes C-203/15, C-698/15, Tele2 Sverige AB v Post-och telestyrelsen and Secretary of State for the Home Department v.Watson and Others, ECLI:EU:C:2016:970, para. 102 (déc. 21, 2016).
  26. Rapport du Rapporteur spécial sur l’extrême pauvreté et les droits de l’homme, A/74/48037, para. 8 (oct. 11, 2019) [ci-apès Alston Report].
  27. L. Devillers, F. Fogelman-Soulié, et R. Baeza-Yates, « AI and Human Values. Inequalities, Biases, Fairness, Nudge, and Feedback Loops », in B. Braunschweig et M. Ghallab (dir.), Reflections on Artificial Intelligence for Humanity, Springer, 2021, 83 ; Voir aussi J. Harrison, M. Patel, ‘Designing nudges for success in health care’, (2020) 22(9) AMA J. Ethics E796-801.
  28. M. Damgaard, H. Nielsen, « Nudging in education », (2018) Econ. Educ. Rev. 64, 313–342.
  29. S. Hill, « AI’s Impact on Multilateral Military Cooperation Experience From NATO », (2020) 114 AJIL Unbound 147, 150.
  30. Ibid.
  31. Voir D. Boyd, K. Levy et A. Marwick, « The Networked Nature of Algorithmic Discrimination », Open Technology Institute, octobre 2014; BW Goodman, « A Step Towards Accountable Algorithms?: Algorithmic Discrimination and the European Union General Data Protection », 29th Conference on Neural Information Processing Systems, Barcelone, Espagne, 2016, 3–4; Green, supra n 23; L. McGregor, D. Murray et V. Ng, « International Human Rights as a Framework for Algorithmic Accountability », (2019) 68(2) Int’l & Comp. L.Q. 309.
  32. T. Sourdin, « Judge v Robot? Artificial Intelligence and Judicial Decision-Making », (2018) 41(4) UNSW L.J. 1114.
  33. M Langford, « Taming The Digital Leviathan: Automated Decision-Making and International Human Rights », (2020) AJIL Unbound 141, 144.
  34. Devillers et al., supra n 27, 81-82. Voir aussi E. Pitoura et al., « On measuring bias in online information », (2018) 46(4) ACM SIGMOD Record 16.
  35. R. Richardson, J. Schultz et K. Crawford, « Dirty data, bad predictions: how civil rights violations impact police data, predictive policing systems, and justice » (2019) NYULR 192.
  36. Voir aussi M. Merler, N. Ratha, R.S. Feris et J.R. Smith, Diversity in faces, 29 January 2019, arXiv:1901.10436; J. Buolamwini et T. Gebru, « Gender shades: intersectional accuracy disparities in commercial gender classification », Conference on Fairness, Accountability and Transparency, 2018, 77-91.
  37. Voir R (on the application of Edward Bridges) v The Chief Constable of South Wales [2019] EWHC 2341, 4. Sept., 2019.
  38. Janecyk v. International Business Machines (IBM), Case 1:20-cv-00783 (N.D. Ill.); Vance v. IBM, Case 1: 20-cv-577 (N.D. Ill.); Mutnick v. Clearview AI, et al., Case 1:20-cv-00512 (N.D. Ill.); Hall v. Clearview AI, et al., Case 1:20-cv-00846 (N.D. Ill). Voir aussi Murray, supra n 17, 160-161.
  39. Alston Report, supra n 26, paras. 1, 78. J. Redden, « Democratic Governance in an Age of Datafication: Lessons from Mapping Government Discourses and Practices », (2018) 2 Big Data & Society 1; C. Sheppard and J. Raine, « Parking Adjudications: The Impact of New Technology », in M. Harris and M. Partington (dir.), Administrative Justice in the 21 st Century, Hart Publishing, 1999, 326-334. Voir aussi Langford, supra n 33, 142.
  40. Commission des droits économiques, sociaux et culturels des Nations Unies, Observation générale n° 19 sur le droit à la sécurité sociale, E/C.12/GC/19, para. 11 (4 février 2008).
  41. C. Harlow et R. Rawlings, « Proceduralism and Automation: Challenges to the Values of Administrative Law », in E. Fisher, J. King and A. Young eds., The Foundations And Future of Public Law (in Honour of Paul Craig), Oxford University Press 2019.
  42. Hill, supra n 29, 150.
  43. Groupe d’experts indépendants de haut niveau (HLEG) sur l’IA, « Ethics Guidelines for Trustworthy AI », Commission européenne, 2020, 15-16. Voir également « Algorithmes et droits de l’homme. Étude sur les dimensions des droits de l’homme des techniques de traitement automatisé des données et les implications réglementaires possibles », étude du Conseil de l’Europe DGI, 2017, 12, 40.
  44. HLEG AI, supra n 45, 9–11.
  45. Déclaration et programme d’action de Vienne, Partie I, 15 (paragraphe 2) ; Art. 1, UNESCO, Convention concernant la lutte contre la discrimination dans le domaine de l’enseignement, 14 décembre 1960, art. 1, 1(d) ; Préambule, Convention supplémentaire relative à l’abolition de l’esclavage.
  46.  Joint General Recommendation (GR) 31 CEDAW/GC 18 CRC, para 16.
  47. Ibid., para 15.
  48. Voir A. Barak, Human Dignity: The Constitutional Value and the Constitutional Right, Cambridge University Press 2015.
  49. Voir G. Le Moli, Human Dignity in International Law, Cambridge University Press, 2021, 216-260. Voir aussi Marcus Düwell, Jens Braarvig, Roger Brownsword and Dietmar Mieth (dir), The Cambridge Handbook of Human Dignity. Interdisciplinary Perspectives, Cambridge University Press, 2014.
  50.  Ibid.
  51. Voir Le Moli, supra n 51.
  52. Observation générale (GC) 13, Le droit à l’éducation (art. 13 du Pacte), E/C.12/1999/10, 8 décembre 1999, CESCR, para 41. Voir aussi GC n. 8, Le droit de l’enfant à une protection contre les châtiments corporels et les autres formes cruelles ou dégradantes de châtiments (art. 19 ; 28, par. 2 ; et 37, entre autres), CRC/C/GC/8, 2 mars 2007, CRC, para 16.
  53.  GR 35, Combattre les discours de haine raciste, CERD/C/GC/35, 26 septembre 2013, CERD, paragraphe 10.
  54. Préambule, Charte des Nations unies, 24 octobre 1945, 1 UNTS XVI (Charte des Nations unies).
  55. Préambule, para 1, DUDH.
  56. La formulation « tous les êtres humains naissent libres et égaux en dignité » se retrouve dans divers documents, voir Le Moli, supra n 51.
  57. Voir aussi, à titre d’exemple, 51ème session (1997), GR 23 (XXIII) sur les droits des peuples autochtones, CERD, paragraphe 4 ; CG 10 (2007), Les droits des enfants dans la justice pour mineurs, CRC/C/GC/10 25 avril 2007, paragraphe 13.
  58. Préambule, Convention C122 sur la politique de l’emploi, OIT 1964 ; dans une formulation égale, voir Préambule, Convention concernant la discrimination (emploi et profession), OIT 1958 (n° 111) ; Préambule, Convention relative aux populations aborigènes et tribales, OIT 1957 (n° 107).
  59. Voir l’art. 2, Déclaration sur le progrès et le développement dans le domaine social, résolution GA 2542 (XXIV) du 11 décembre 1969 ; CG 13, supra n 54, para 4.
  60. OG 36, art. 6 du PIDCP, CCPR/C/GC/36, 30 octobre 2018, CCPR, para 9.
  61. Voir, par exemple, GC 21, Art. 10 (Traitement humain des personnes privées de liberté), HRI/GEN/1/Rev.9 (Vol. I), 13 mars 1993, CCPR, paragraphe 4.
  62. Voir GC 20, article. 7 (Interdiction de la torture, ou autres peines ou traitements cruels, inhumains ou dégradants), 30 septembre 1992, CCPR, para 2 ; A.H.G. et M.R. c. Canada (CCPR/C/113/D/2091/2011), 5 juin 2015, para 10.4.
  63. Voir, par exemple, le GC 8, article 9 (droit à la liberté et à la sécurité des personnes), 30 juin 1982, CCPR, paragraphe 1.
  64. Voir, par exemple, GC 17, Le droit de chacun de bénéficier de la protection des intérêts moraux et matériels découlant de toute production scientifique, littéraire ou artistique dont il est l’auteur (art. 15, paragraphe 1 (c), du Pacte), E/C.12/GC/17, 12 janvier 2006, CESCR, para 35.
  65. S.A.S. v. France, [GC], No. 43835/11, Judgment, 1 July 2014, para 120.
  66.  Perincek v. Switzerland, No. 27510/08, 15 October 2015, para 155 and 280.
  67. Abdu v. Bulgaria, No. 26827/08, 11 mars 2014, para 38; see Ananyev and Others v. Russia, No. 42525/07 and 60800/08, 10 janvier 2012, paras 139–142.
  68. D.E. Harasimiuk, T. Braun, Regulating Artificial Intelligence, Routledge, 2021, 63.
  69. E. Hilgendorf, ‘Problem Areas in the Dignity Debate and the Ensemble Theory of Human Dignity’ in D. Grimm, A. Kemmerer, C. Millers (dir.), Human Dignity in Context. Explorations of a Contested Concept, Hart Publishing, 2018, 325 ff.
  70. Voir Conseil de l’Europe, Convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, STE n. 108, 28 janvier 1981, Préambule.
  71. Sur la vidéosurveillance des travailleurs, voir Information Commissioner’s Office (ICO), The employment practices code, 2011, Part. 3 ; Garante per la protezione dei dati personali (GPDP), 4 avril 2013, n. 2439178 ; GPDP, 30 octobre 2013, n. 2851973 ; Commission de la protection de la vie privée (ci-après CPVP), avis, n. 8/2006, 12 avril 2006 ; Commission nationale de l’informatique et des libertés (CNIL) n. 2014-307, 17 juillet 2014. Sur les activités de surveillance invasive, voir GPDP, 25 janvier 2018, n. 7810766.
  72. Comme, par exemple, le GPS, les technologies d’identification par radiofréquence (RFID), les dispositifs de suivi Wi-Fi, les dispositifs « enregistreurs de données d’événements » ou les systèmes de transport intelligents. Voir Agencia Española de Protección de Datos (AEPD), resolución R/01208/2014; CNIL n. 2010-096, 8 avril 2010; CPVP, recommandation n. 01/2010, 17 mars 2010; ICO, « Wi-filocation analytics » (2016); Article 29-Data Protection Working Party (ART29WP), ‘Working document on data protection issues related to RFID technology’, WP 105 (2005); ART29WP, « Opinion 03/2017 on Processing personal data in the context of Cooperative Intelligent Transport Systems (C-ITS) », WP 252 (2017).
  73. Voir, par exemple, GPDP, 4 décembre 2008, n. 1576125; GPDP, 24 février 2010, n.; AEPD, expediente n. E/01760/2017; ICO, « In the picture: A data protection code of practice for surveillance cameras and personal information » (2017); ART29WP, « Opinion 4/2004 on the Processing of Personal Data by means of Video Surveillance », WP 89 (2004).
  74.  Tels que les conditions de santé, les croyances religieuses, les casiers judiciaires et la consommation de drogues et d’alcool. Voir GPDP, 21 juillet 2011, n. 1825852 ; GPDP, 11 janvier 2007, n. 1381620.
  75. Voir ART29WP, « Opinion 8/2014 on the on Recent Developments on the Internet of Things », WP 223 (2014).
  76. Voir GPDP, 1 août 2013, n. 384, n. 2578547; CNIL n. 2008-492, 11 décembre 2008; CPVP, avis n. 17/2008, 9 avril 2008; ART29WP, « Opinion 3/2012 on developments in biometric technologies », WP193 (2012).
  77. Voir GPDP, 13 December 2018, n. 500, n. 9068983.
  78. Voir ICO, « Publication of exam results by schools » (2014); ART29WP, ‘Opinion 2/2009 on the protection of children’s personal data’, WP 160 (2009); GPDP, « Scuola: Privacy, pubblicazione voti online è invasiva », n. 9367295 (2020).
  79.  Voir GPDP, 28 May 2015, n. 319, n. 4131145 ; AEPD, procedimiento n. A/00104/2017.
  80. Par exemple, les plateformes qui affichent et gèrent les avis sur les produits et services, ainsi que les informations fiscales ou pénales. Voir GPDP, 24 novembre 2016, n. 488, n. 5796783.
  81. Voir supra n 31.
  82. Rapporteur spécial de l’ONU sur l’extrême pauvreté et les droits de l’homme Philip Alston, « Statement on Visit to the United Kingdom », 16 novembre 2018.
  83. Ibid.
  84. Sur le système de profilage de l’aide précoce de Xantura (EHPS), voir London Councils, ‘Understanding who the most vulnerable people in your locality are’, at <https://www.londoncouncils.gov.uk/our-key-themes/our-projects/london-ventures/current-projects/childrens-safeguarding> [dernier accès 20 janvier2022].
  85. N. McIntyre et D. Pegg, « Councils Use 377,000 People’s Data in Efforts to Predict Child Abuse », The Guardian, 16 septembre 2018.
+--
voir le planfermer
citer l'article +--

citer l'article

APA

Ginevra Le Moli, IA vs dignité humaine : quand la sous-performance humaine est légalement requise, Groupe d'études géopolitiques, Août 2022,

à lire dans ce numéro +--

à lire dans cette issue

voir toute la revuearrow
notes et sources +