Information | ||
Derechos | Equipo Nizkor
|
Oct18
Les Lignes directrices universelles sur l'Intelligence artificielle : explications, principes et rèfèrences
Contexte
Les Lignes Directrices Universelles sur l'Intelligence Artificielle (LDUIA) attirent l'attention sur les problèmes grandissants que posent les systèmes computationnels intelligents et proposent des recommandations concrètes susceptibles d'améliorer et d'éclairer leur conception. L'objectif principal des lignes directrices universelles est de promouvoir la transparence et la responsabilité de ces systèmes et de veiller à ce que les individus conservent le contrôle des systèmes qu'ils créent. Tous les systèmes n'entrent pas dans le champ d'application de ces lignes directrices. Nous nous intéressons aux systèmes qui ont un impact sur les droits des personnes. Et par dessus tout, ces systèmes ne doivent surtout pas nuire.
La déclaration arrive à point nommé. Les gouvernements du monde entier élaborent des propositions de politiques et les institutions, tant publiques que privées, soutiennent la recherche et le développement de l'IA. L'impact sur le public sera inévitablement énorme, quelle que soit sa participation à la conception et au développement de ces systèmes. C'est pourquoi les LDUIA reflètent le point de vue du public sur ces problèmes.
Les LDUIA ont été annoncées lors de la Conférence internationale des commissaires à la protection des données et de la Vie privée de 2018, l'une des plus importantes réunions de leaders technologiques et d'experts en protection des données de l'histoire.
Ces lignes directrices s'appuient sur les travaux de sociétés scientifiques, de groupes de réflexion, d'ONG et d'organisations internationales. Elles intègrent des éléments de la doctrine des droits de l'homme, de la législation sur la protection des données et des lignes directrices en matière d'éthique. Elles incluent plusieurs principes bien établis pour la gouvernance de l'IA et proposent de nouveaux principes qui n'avaient pas été établis auparavant dans des cadres politiques similaires.
La terminologie
Le terme "intelligence artificielle" est à la fois large et imprécis. Il englobe des aspects de l'apprentissage automatique, de la prise de décision fondée sur des règles et d'autres techniques computationnelles. La question de savoir si l'intelligence artificielle est possible provoque également des débats. Les Lignes directrices universelles sur l'intelligence artificielle reconnaissent simplement que ce terme, d'usage courant, couvre un large éventail de questions connexes et il est adopté pour engager le débat actuel. Les LDUIA ne cherchent pas à en définir les limites, si ce n'est en partant du principe que l'IA nécessite un certain degré d'automatisation sur la prise de décision. Le terme "lignes directrices" suit la pratique des cadres politiques qui s'adressent principalement aux gouvernements et aux entreprises privées.
Les LDUIA concernent les obligations des "institutions" et les droits des "individus". Cela découle de l'articulation des pratiques d'information équitables dans le domaine de la protection des données. Les LDUIA considèrent la protection de l'individu comme un objectif fondamental. Les institutions, publiques et privées, sont les entités qui développent et déploient des systèmes d'IA. Le terme "institution" a été préféré à celui, plus familier, d'"organisation" pour souligner la nature continue et permanente des obligations énoncées dans les lignes directrices. Un des principes s'adresse aux "gouvernements nationaux". La raison est expliquée ci-dessous.
Application
Les présentes lignes directrices devraient être intégrées dans les normes éthiques, adoptées dans les législations nationales et les accords internationaux, et incorporées dans la conception des systèmes.
Les principes
Les éléments du principe de transparence se retrouvent dans plusieurs lois modernes sur la protection de la vie privée, notamment le US Privacy Act, la directive européenne sur la protection des données, le GDPR et la Convention 108 du Conseil de l'Europe. L'objectif de ce principe est de permettre une responsabilité indépendante pour les décisions automatisées, en mettant l'accent sur le droit de l'individu de connaître le fondement d'une décision défavorable. En pratique, il se peut qu'il ne soit pas possible qu'un individu comprenne la base d'une décision particulière, mais cela n'empêche pas la nécessité de veiller à ce qu'une telle explication soit possible.
Le droit à une détermination humaine réaffirme que ce sont les individus et non les machines qui sont responsables de la prise de décision automatisée. Dans de nombreux cas, comme la conduite d'un véhicule autonome, il ne serait ni possible ni pratique de faire passer une décision humaine avant une décision prise par une IA. Mais l'objectif reste de garantir la responsabilité et ce principe doit être compris comme une exigence d'évaluation du résultat par l'humain lorsqu'un système automatisé échoue.
L'obligation d'identification vise à remédier à l'asymétrie d'identification qui apparaît dans l'interaction entre les individus et les systèmes d'IA. Un système d'IA en sait généralement beaucoup sur une personne ; alors que cette dernière peut même ne pas connaître l'opérateur du système d'IA. L'obligation d'identification pose les fondements de la responsabilité en matière d'IA et consiste à préciser l'identité d'un système d'IA et de l'institution qui en est responsable.
L'obligation d'équité reconnaît que tous les systèmes automatisés prennent des décisions qui reflètent des préjugés et des discriminations, mais que ces décisions ne doivent pas être injustes d'un point de vue normatif. Il n'existe pas de réponse simple à la question de savoir ce qui est injuste ou inadmissible. L'évaluation dépend souvent du contexte. Mais l'obligation d'équité indique clairement qu'une évaluation des résultats objectifs ne suffit pas à elle seule pour évaluer un système d'IA. Les conséquences normatives doivent être évaluées, y compris celles qui préexistent ou qui peuvent être amplifiées par un système d'IA.
L'obligation d'évaluation et de responsabilité porte sur l'obligation d'évaluer un système d'IA avant et pendant son déploiement. En ce qui concerne l'évaluation, il convient de comprendre que l'un des principaux objectifs de cette obligation est de déterminer si un système d'IA doit être mis en place. Si une évaluation révèle des risques importants, tels que ceux suggérés par les principes relatifs à la sécurité publique et à la cybersécurité, le projet ne doit pas être développé.
Les obligations relatives à la précision, à la fiabilité et à la validité définissent les principales responsabilités associées au résultat des décisions automatisées. Les termes sont destinés à être interprétés à la fois indépendamment et en conjonction.
Le principe de qualité des données découle de l'obligation précédente.
L'obligation de sécurité publique reconnaît que les systèmes d'IA contrôlent des dispositifs dans le monde physique. C'est pourquoi les institutions doivent à la fois évaluer les risques et prendre des mesures de précaution appropriées.
L'obligation de cybersécurité découle de l'obligation de sécurité publique et souligne le risque que même des systèmes bien conçus peuvent être la cible d'acteurs hostiles. Ceux qui développent et déploient des systèmes d'IA doivent tenir compte de ces risques.
L'interdiction du profilage secret découle de l'obligation d'identification expliquée précédemment. L'objectif est d'éviter l'asymétrie d'information qui se produit de plus en plus avec les systèmes d'IA et de garantir la possibilité d'une responsabilité/redevabilité indépendante.
L'interdiction de la notation unitaire concerne directement le risque d'un numéro unique et polyvalent attribué par un gouvernement à un individu. Dans la législation sur la protection des données, les identifiants universels qui permettent le profilage des individus sont déconseillés. Ces identifiants sont souvent réglementés et, dans certains cas, interdits. Le problème de la notation universelle, décrite ici comme "notation unitaire", est encore plus important. Un score unitaire reflète non seulement un profil unitaire, mais aussi un résultat prédéterminé dans de multiples domaines de l'activité humaine. Il existe un certain risque que des notes unitaires apparaissent également dans le secteur privé. Il est concevable que de tels systèmes soient soumis à la concurrence du marché et à des réglementations gouvernementales. Mais il n'y a même pas de possibilité de contrepoids avec les notations unitaires attribuées par le gouvernement, et elles devraient donc être interdites.
L'obligation de résiliation est la déclaration ultime de responsabilité d'un système d'IA. L'obligation présume que les systèmes doivent rester sous le contrôle humain. Si cela n'est plus possible, le système doit être arrêté.
RÉFÉRENCES
Asilomar AI Principles (2017) Aspen Institute Roundtable on Artificial Intelligence (2016) Association for Computing Machinery, U.S. Public Policy Counsel, Statement on Algorithmic Transparency and Accountability (Jan. 2017) Council of Europe, Convention 108 (1981) Council of Europe and Artificial Intelligence (2018) Data and Society, Governing Artificial Intelligence (2018) European Commission, High Level Expert Group on Artificial Intelligence (2018) EU General Data Protection Regulation (2018) IEEE, Ethically Aligned Design (2016) Japan, Ministry of Internal Affairs and Communications, AI R&D Guidelines (2016) Garry Kasparov, Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins (2017) Madrid Privacy Declaration (2009) OECD, Artificial Intelligence (2018) OECD, Privacy Guidelines (1980) Cathy O’Neil, Weapons of Math Destruction (2016) Frank Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information (2015) Privacy International, Artificial Intelligence (2018) US Privacy Act (1974) Toronto Declaration (2018) Joseph Weizenbaum, Computer Power and Human Reason (1976) Universal Declaration of Human Rights (1948) [Source : The Public Voice Coalition, Bruxelles, Oct18. Traduction française de la version originale en anglais réalisée par l'Équipo nizkor le 18jan24 avec l'aide de DeepL.]
This document has been published on 23Jan24 by the Equipo Nizkor and Derechos Human Rights. In accordance with Title 17 U.S.C. Section 107, this material is distributed without profit to those who have expressed a prior interest in receiving the included information for research and educational purposes. |