L’ONU demande un moratoire sur l’utilisation de l’IA qui met en péril les droits humains


GENÈVE : Le chef des droits de l’homme de l’ONU appelle à un moratoire sur l’utilisation de la technologie de l’intelligence artificielle qui présente un risque grave pour les droits de l’homme, y compris les systèmes de reconnaissance faciale qui suivent les personnes dans les espaces publics.
Michelle Bachelet, la Haut-Commissaire des Nations Unies aux droits de l’homme, a également déclaré mercredi que les pays devraient expressément interdire les applications d’IA qui ne respectent pas le droit international des droits de l’homme.
Les applications qui devraient être interdites incluent les systèmes gouvernementaux de « cote sociale » qui jugent les personnes en fonction de leur comportement et certains outils basés sur l’IA qui catégorisent les personnes en groupes tels que l’origine ethnique ou le sexe.
Les technologies basées sur l’IA peuvent être une force positive, mais elles peuvent également “avoir des effets négatifs, voire catastrophiques, si elles sont utilisées sans tenir suffisamment compte de la manière dont elles affectent les droits humains des personnes”, a déclaré Bachelet dans un communiqué.
Ses commentaires sont accompagnés d’un nouveau rapport de l’ONU qui examine comment les pays et les entreprises se sont précipités pour appliquer des systèmes d’IA qui affectent la vie et les moyens de subsistance des personnes sans mettre en place des garanties appropriées pour prévenir la discrimination et d’autres préjudices.
“Il ne s’agit pas de ne pas avoir d’IA”, a déclaré aux journalistes Peggy Hicks, directrice de l’engagement thématique du bureau des droits de l’homme, alors qu’elle présentait le rapport à Genève. « Il s’agit de reconnaître que si l’IA doit être utilisée dans ces domaines de fonction – très critiques – des droits de l’homme, cela doit être fait de la bonne manière. Et nous n’avons tout simplement pas encore mis en place un cadre garantissant que cela se produise. »
Bachelet n’a pas appelé à une interdiction pure et simple de la technologie de reconnaissance faciale, mais a déclaré que les gouvernements devraient interrompre l’analyse des caractéristiques des personnes en temps réel jusqu’à ce qu’ils puissent montrer que la technologie est exacte, ne discrimine pas et respecte certaines normes de confidentialité et de protection des données.
Bien que les pays ne soient pas nommés nommément dans le rapport, la Chine fait partie des pays qui ont déployé la technologie de reconnaissance faciale – en particulier pour la surveillance dans la région occidentale du Xinjiang, où vivent de nombreux Ouïghours minoritaires. Les principaux auteurs du rapport ont déclaré que nommer des pays spécifiques ne faisait pas partie de leur mandat et que cela pourrait même être contre-productif.
« Dans le contexte chinois, comme dans d’autres contextes, nous sommes préoccupés par la transparence et les applications discriminatoires qui s’adressent à des communautés particulières », a déclaré Hicks.
Elle a cité plusieurs affaires judiciaires aux États-Unis et en Australie où l’intelligence artificielle avait été appliquée à tort.
Le rapport exprime également sa méfiance à l’égard des outils qui tentent de déduire les états émotionnels et mentaux des personnes en analysant leurs expressions faciales ou leurs mouvements corporels, affirmant qu’une telle technologie est susceptible de biais, d’interprétations erronées et manque de base scientifique.
« L’utilisation de systèmes de reconnaissance des émotions par les autorités publiques, par exemple pour identifier des individus lors d’interpellations ou d’arrestations par la police ou pour évaluer la véracité des déclarations lors des interrogatoires, risque de porter atteinte aux droits de l’homme, tels que les droits à la vie privée, à la liberté et à un droit équitable. procès », indique le rapport.
Les recommandations du rapport font écho à la pensée de nombreux dirigeants politiques dans les démocraties occidentales, qui espèrent exploiter le potentiel économique et sociétal de l’IA tout en répondant aux préoccupations croissantes concernant la fiabilité des outils qui peuvent suivre et profiler les individus et faire des recommandations sur qui a accès à des emplois, des prêts et des opportunités éducatives.
Les régulateurs européens ont déjà pris des mesures pour freiner les applications d’IA les plus risquées. Les réglementations proposées par les responsables de l’Union européenne cette année interdiraient certaines utilisations de l’IA, telles que l’analyse en temps réel des traits du visage, et en contrôleraient étroitement d’autres qui pourraient menacer la sécurité ou les droits des personnes.
L’administration du président américain Joe Biden a exprimé des préoccupations similaires, bien qu’elle n’ait pas encore défini d’approche détaillée pour les réduire. Un groupe nouvellement formé appelé le Conseil du commerce et de la technologie, dirigé conjointement par des responsables américains et européens, a cherché à collaborer à l’élaboration de règles communes pour l’IA et d’autres politiques technologiques.
Les efforts visant à limiter les utilisations les plus risquées de l’IA ont été soutenus par Microsoft et d’autres géants de la technologie américains qui espèrent orienter les règles affectant la technologie. Microsoft a travaillé avec le bureau des droits de l’ONU et lui a fourni des fonds pour l’aider à améliorer son utilisation de la technologie, mais le financement du rapport provenait du budget ordinaire du bureau des droits, a déclaré Hicks.
Les pays occidentaux ont été à l’avant-garde pour exprimer leurs préoccupations concernant l’utilisation discriminatoire de l’IA.
“Si vous pensez aux façons dont l’IA pourrait être utilisée de manière discriminatoire, ou pour renforcer davantage les tendances discriminatoires, c’est assez effrayant”, a déclaré la secrétaire américaine au Commerce Gina Raimondo lors d’une conférence virtuelle en juin. « Nous devons nous assurer de ne pas laisser cela se produire. »
Elle parlait avec Margrethe Vestager, vice-présidente exécutive de la Commission européenne pour l’ère numérique, qui a suggéré que certaines utilisations de l’IA devraient être complètement interdites dans «des démocraties comme la nôtre». Elle a cité la notation sociale, qui peut fermer les privilèges de quelqu’un dans la société, et “l’utilisation large et généralisée de l’identification biométrique à distance dans l’espace public”.



Leave a Comment

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*