Un examen critique des « lignes directrices en matière d’éthique pour une IA digne de confiance » de l’UE


  • FrançaisFrançais


  • L’Europe possède certaines des politiques de gouvernance de l’intelligence artificielle les plus progressistes et centrées sur l’humain au monde. Par rapport à la surveillance gouvernementale autoritaire en Chine ou à la manière du Far West tout va approche aux États-Unis, la stratégie de l’UE est conçue pour stimuler l’innovation universitaire et d’entreprise tout en protégeant les citoyens privés contre les préjudices et les excès. Mais cela ne veut pas dire que c’est parfait.

    L’initiative 2018

    En 2018, la Commission européenne a lancé son Initiative de l’Alliance européenne de l’IA. L’alliance existe pour que diverses parties prenantes puissent peser et être entendues alors que l’UE examine ses politiques en cours régissant le développement et le déploiement des technologies d’IA.

    Depuis 2018, plus de 6 000 parties prenantes ont participé au dialogue par le biais de divers lieux, notamment des forums en ligne et des événements en personne.

    Salutations, humanoïdes

    Abonnez-vous à notre newsletter maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA dans votre boîte de réception.

    Les commentaires, préoccupations et conseils fournis par ces parties prenantes ont été pris en compte par le « groupe d’experts de haut niveau sur l’intelligence artificielle » de l’UE, qui a finalement créé quatre documents clés qui servent de base aux discussions politiques de l’UE sur l’IA :

    1. Directives éthiques pour une IA digne de confiance

    2. Recommandations en matière de politique et d’investissement pour une IA digne de confiance

    3. Liste d’évaluation pour une IA digne de confiance

    4. Considérations sectorielles sur les recommandations en matière de politique et d’investissement

    Cet article se concentre sur le point numéro un : les « Lignes directrices en matière d’éthique pour une IA digne de confiance » de l’UE.

    Publié en 2019, ce document expose les principales préoccupations éthiques et les meilleures pratiques pour l’UE. Bien que je ne l’appellerais pas exactement un “document évolutif”, il est soutenu par un système de rapport mis à jour en permanence via l’initiative European AI Alliance.

    Les lignes directrices en matière d’éthique pour une IA digne de confiance fournissent un “ensemble de 7 exigences clés que les systèmes d’IA doivent respecter pour être jugés dignes de confiance”.

    Agence humaine et surveillance

    Selon le document :

    Les systèmes d’IA devraient autonomiser les êtres humains, leur permettant de prendre des décisions éclairées et de promouvoir leurs droits fondamentaux. Dans le même temps, des mécanismes de surveillance appropriés doivent être assurés, ce qui peut être réalisé grâce à des approches humaines dans la boucle, humaines dans la boucle et humaines aux commandes.

    Note de Neural : pauvre

    Human-in-the-loop, human-on-the-loop et human-in-command sont toutes des approches extrêmement subjectives de la gouvernance de l’IA qui reposent presque toujours sur des stratégies de marketing, le jargon d’entreprise et des approches malhonnêtes pour discuter du fonctionnement des modèles d’IA. pour paraître efficace.

    Essentiellement, le mythe de «l’humain dans la boucle» implique l’idée qu’un système d’IA est sûr tant qu’un humain est responsable en dernier ressort de «appuyer sur le bouton» ou d’autoriser l’exécution d’une fonction d’apprentissage automatique qui pourrait potentiellement avoir un effet négatif sur humains.

    Le problème : Human-in-the-loop s’appuie sur des humains compétents à tous les niveaux du processus décisionnel pour garantir l’équité. Malheureusement, des études montrent que les humains sont facilement manipulable par des machines.

    Nous sommes également enclins à ignorer les avertissements lorsqu’ils deviennent une routine.

    Pensez-y, à quand remonte la dernière fois que vous avez lu tous les petits caractères d’un site Web avant d’accepter les conditions présentées ? À quelle fréquence ignorez-vous le voyant « vérifier le moteur » de votre voiture ou l’alerte « il est temps de mettre à jour » un logiciel alors qu’il fonctionne toujours correctement ?

    L’automatisation de programmes ou de services qui affectent les résultats humains sous prétexte qu’il suffit d’avoir un “humain dans la boucle” pour empêcher tout désalignement ou mauvaise utilisation est, de l’avis de cet auteur, une approche inepte de la réglementation qui donne carte blanche aux entreprises pour développer des modèles nuisibles aussi longtemps car ils s’appuient sur une exigence d’utilisation «humaine dans la boucle».

    À titre d’exemple de ce qui pourrait mal tourner, le programme primé de ProPublica “Biais machineL’article a mis à nu la propension du paradigme de l’humain dans la boucle à provoquer un biais supplémentaire en démontrant comment l’IA utilisée pour recommander des peines pénales peut perpétuer et amplifier le racisme.

    Une solution : l’UE devrait renoncer à l’idée de créer des « mécanismes de surveillance appropriés » et se concentrer plutôt sur la création de politiques qui réglementent l’utilisation et le déploiement des systèmes d’IA boîte noire pour les empêcher de se déployer dans des situations où les résultats humains pourraient être affectés à moins qu’il n’y ait une autorité humaine qui peut être tenue responsable en dernier ressort.

    Robustesse technique et sécurité

    Selon le document :

    Les systèmes d’IA doivent être résilients et sécurisés. Ils doivent être sûrs, assurer un plan de secours en cas de problème, tout en étant précis, fiables et reproductibles. C’est la seule façon de s’assurer que les dommages non intentionnels peuvent également être minimisés et évités.

    Note de Neural : a besoin de travaux.

    Sans une définition de «sûr», toute la déclaration est duveteuse. De plus, la «précision» est un terme malléable dans le monde de l’IA qui fait presque toujours référence à des références arbitraires qui ne se traduisent pas au-delà des laboratoires.

    Une solution : l’UE devrait fixer une exigence minimale que les modèles d’IA déployés en Europe et susceptibles d’affecter les résultats humains doivent démontrer égalité. Un modèle d’IA qui atteint une fiabilité ou une “précision” inférieure sur des tâches impliquant des minorités ne devrait être considéré ni sûr ni fiable.

    Confidentialité et gouvernance des données

    Selon le document :

    Outre le plein respect de la vie privée et de la protection des données, des mécanismes adéquats de gouvernance des données doivent également être assurés, en tenant compte de la qualité et de l’intégrité des données, et en garantissant un accès légitimé aux données.

    Note de Neural : bien, mais peut être mieux.

    Heureusement, le Règlement général sur la protection des données (RGPD) fait la majeure partie du gros du travail ici. Cependant, les termes « qualité et intégrité » sont très subjectifs, tout comme le terme « accès légitimé ».

    Une solution : l’UE devrait définir une norme selon laquelle les données doivent être obtenues avec le consentement et vérifiées par des humains afin de garantir que les bases de données utilisées pour former des modèles ne contiennent que des données correctement étiquetées et utilisées avec l’autorisation de la personne ou du groupe qui les a générées.

    Transparence

    Selon le document :

    Les modèles commerciaux de données, de système et d’IA doivent être transparents. Les mécanismes de traçabilité peuvent aider à atteindre cet objectif. De plus, les systèmes d’IA et leurs décisions doivent être expliqués de manière adaptée à l’acteur concerné. Les humains doivent être conscients qu’ils interagissent avec un système d’IA et doivent être informés des capacités et des limites du système.

    Note de Neural : ce sont des déchets chauds.

    Seul un petit pourcentage de modèles d’IA se prêtent à la transparence. La majorité des modèles d’IA en production aujourd’hui sont des systèmes de «boîte noire» qui, de par la nature même de leur architecture, produisent des sorties en utilisant beaucoup trop d’étapes d’abstraction, de déduction ou de fusion pour qu’un humain puisse les analyser.

    En d’autres termes, un système d’IA donné peut utiliser des milliards de paramètres différents pour produire une sortie. Afin de comprendre pourquoi il a produit ce résultat particulier au lieu d’un résultat différent, nous devions examiner chacun de ces paramètres étape par étape afin que nous puissions arriver à la même conclusion que la machine.

    Une solution : l’UE devrait adopter une politique stricte empêchant le déploiement de systèmes d’intelligence artificielle opaques ou en boîte noire qui produisent des résultats susceptibles d’affecter les résultats humains, à moins qu’une autorité humaine désignée ne puisse être tenue entièrement responsable des résultats négatifs imprévus.

    Diversité, non-discrimination et équité

    Selon le document :

    Les préjugés injustes doivent être évités, car ils pourraient avoir de multiples implications négatives, allant de la marginalisation des groupes vulnérables à l’exacerbation des préjugés et de la discrimination. Favorisant la diversité, les systèmes d’IA doivent être accessibles à tous, quel que soit le handicap, et impliquer les acteurs concernés tout au long de leur cycle de vie.

    Note de Neural : pauvre.

    Pour que les modèles d’IA impliquent “les parties prenantes concernées tout au long de leur cycle de vie”, ils doivent être formés sur des données provenant de diverses sources et développés par des équipes de personnes diverses. La réalité est que STEM est dominé par les hommes blancs, hétéros, cis et il existe une myriade d’études évaluées par des pairs démontrant comment ce fait simple et démontrable le rend presque impossible de produire de nombreux types de modèles d’IA sans biais.

    Une solution : à moins que l’UE ne dispose d’une méthode pour résoudre le manque de minorités dans les STEM, elle devrait plutôt se concentrer sur la création de politiques qui empêchent les entreprises et les individus de déployer des modèles d’IA qui produisent des résultats différents pour les minorités.

    Bien-être sociétal et environnemental

    Selon le document :

    Les systèmes d’IA devraient bénéficier à tous les êtres humains, y compris les générations futures. Il faut donc veiller à ce qu’ils soient durables et respectueux de l’environnement. De plus, ils doivent tenir compte de l’environnement, y compris des autres êtres vivants, et leur impact social et sociétal doit être soigneusement étudié.

    Note de Neural : great. Aucune note !

    Responsabilité

    Selon le document :

    Des mécanismes devraient être mis en place pour assurer la responsabilité et l’obligation de rendre compte des systèmes d’IA et de leurs résultats. L’auditabilité, qui permet d’évaluer les algorithmes, les données et les processus de conception, y joue un rôle clé, en particulier dans les applications critiques. En outre, un recours adéquat et accessible doit être assuré.

    Note de Neural : bien, mais peut être mieux.

    Il n’y a actuellement aucun consensus politique quant à savoir qui est responsable lorsque l’IA tourne mal. Si les systèmes de reconnaissance faciale des aéroports de l’UE, par exemple, identifient par erreur un passager et que l’enquête qui en résulte lui cause un préjudice financier (il rate son vol et toutes les opportunités découlant de son voyage) ou une angoisse mentale inutile, personne ne peut être tenu responsable de la erreur.

    Les employés qui suivent la procédure basée sur le signalement par l’IA d’une menace potentielle ne font que leur travail. Et les développeurs qui ont formé les systèmes sont généralement irréprochables une fois leurs modèles mis en production.

    Une solution : l’UE devrait créer une politique qui dicte spécifiquement que les humains doivent toujours être tenus responsables lorsqu’un système d’IA provoque un résultat involontaire ou erroné pour un autre humain. La politique et la stratégie actuelles de l’UE encouragent une approche « blâmer l’algorithme » qui profite davantage aux intérêts des entreprises qu’aux droits des citoyens.

    Renforcer une base solide

    Bien que le commentaire ci-dessus puisse être dur, je pense que la stratégie de l’IA de l’UE est une lumière ouvrant la voie. Cependant, il est évident que le désir de l’UE de concurrencer le marché de l’innovation de la Silicon Valley dans le secteur de l’IA a poussé la barre de la technologie centrée sur l’humain un peu plus loin vers les intérêts des entreprises que les autres initiatives de politique technologique de l’Union.

    L’UE n’approuverait pas un avion dont il a été mathématiquement prouvé qu’il s’écrase plus souvent si des personnes noires, des femmes ou des homosexuels étaient des passagers que lorsqu’il y avait des hommes blancs à bord. Cela ne devrait pas non plus permettre aux développeurs d’IA de déployer des modèles qui fonctionnent de cette façon.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    La Rédaction

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.