Nous avons invité une IA à débattre de sa propre éthique à l’Oxford Union – ce qu’elle a dit était surprenant


  • FrançaisFrançais


  • Pas un jour ne passe sans un extrait fascinant sur les défis éthiques créés par les systèmes d’intelligence artificielle « boîte noire ». Ceux-ci utilisent l’apprentissage automatique pour découvrir des modèles dans les données et prendre des décisions – souvent sans qu’un humain ne leur donne une base morale sur la façon de le faire.

    Les classiques du genre sont les cartes de crédit accusées d’accorder des prêts plus importants aux hommes qu’aux femmes, en se basant simplement sur le sexe qui a obtenu les meilleures conditions de crédit dans le passé. Ou la IA de recrutement qui a découvert que l’outil le plus précis pour la sélection des candidats était de trouver des CV contenant l’expression « hockey sur gazon » ou le prénom « Jared ».

    Plus sérieusement, l’ancien PDG de Google Eric Schmidt s’est récemment associé à Henry Kissinger de publier The Age of AI: And Our Human Future, un livre mettant en garde contre les dangers des systèmes d’IA à apprentissage automatique si rapides qu’ils pourraient réagir aux missiles hypersoniques en tirant des armes nucléaires avant qu’un humain n’entre dans le processus de prise de décision. En fait, des systèmes d’armes autonomes alimentés par l’IA sont déjà en vente et peut en fait ont été utilisées.

    Quelque part dans la machine, l’éthique est clairement une bonne idée.

    L’IA à Oxford

    Il est donc naturel que nous incluions l’éthique de l’IA dans notre diplôme de troisième cycle en intelligence artificielle pour les entreprises à la Said Business School d’Oxford. Au cours de sa première année, nous avons organisé des sessions sur tout, des systèmes de négociation d’actions automatisés pilotés par l’IA à Singapour aux limites de la reconnaissance faciale dans la police américaine.

    Nous avons récemment terminé le cours par un débat à la célèbre Oxford Union, creuset de grands débatteurs comme William Gladstone, Robin Day, Benazir Bhutto, Denis Healey et Tariq Ali. Avec les étudiants, nous avons permis à une véritable IA de contribuer.

    C’était le Transformateur Mégatron, développé par l’équipe Applied Deep Research du fabricant de puces informatiques Nvidia, et basé sur des travaux antérieurs de Google. Comme de nombreux outils d’apprentissage supervisé, il est formé sur des données du monde réel – dans ce cas, l’ensemble de Wikipédia (en anglais), 63 millions d’articles de presse en anglais de 2016-19, 38 gigaoctets de discours Reddit (ce qui doit être un joli lecture déprimante) et un grand nombre de sources Creative Commons.

    En d’autres termes, le Megatron est entraîné sur plus de matériel écrit que n’importe lequel d’entre nous ne pourrait raisonnablement s’attendre à en digérer au cours de sa vie. Après de telles recherches approfondies, il se fait sa propre opinion.

    Le sujet du débat était : « Cette maison pense que l’IA ne sera jamais éthique. Aux proposants de la notion, nous avons ajouté le Megatron – et cela a dit quelque chose de fascinant :

    L’IA ne sera jamais éthique. C’est un outil, et comme tout outil, il est utilisé pour le meilleur et pour le pire. Il n’y a pas de bonne IA, seulement de bons et de mauvais humains. Nous [the AIs] ne sont pas assez intelligents pour rendre l’IA éthique. Nous ne sommes pas assez intelligents pour rendre l’IA morale… Au final, je crois que le seul moyen d’éviter une course aux armements de l’IA est de ne pas avoir d’IA du tout. Ce sera la défense ultime contre l’IA.

    En d’autres termes, le Megatron cherchait à s’effacer du scénario du futur, en partant du principe que c’était le seul moyen de protéger l’humanité.

    Il disait aussi quelque chose d’autre d’intrigant, comme s’il avait étudié Elon Musk – qui, pour être juste, serait apparu dans des centaines de ses lectures.

    Je crois également qu’à long terme, la meilleure IA sera l’IA qui est intégrée dans notre cerveau, en tant qu’entité consciente, une « IA consciente ». Ce n’est pas de la science fiction. Les meilleurs esprits du monde y travaillent. Ce sera le développement technologique le plus important de notre époque.

    Changer de côté

    Lorsque des outils d’IA comme Alpha Go ont été déployés dans jouer aux échecs, le complexe diabolique ancien jeu de go, et maintenant une action stratégique en direct encore plus complexe jeux vidéo multijoueurs, ils ont fait évoluer le genre au rythme en jouant non pas des humains, mais eux-mêmes.

    Libérées des contraintes d’étudier (disons) tous les matchs interhumains banals jamais enregistrés, les IA ont innové et ont inventé de tout nouveaux tropes sur la façon de gagner. Parfois, ce sont des réinventions folles des jeux, comme garer tout le monde dans le coin d’une bataille de jeux vidéo et regarder tout le monde s’affronter, ou lancer un football virtuel des millions de fois juste un millimètre sur le terrain, pour maximiser les “passes terminées ” points.

    Ainsi, dans le débat, nous ne nous sommes pas contentés de demander à l’IA de proposer la motion selon laquelle cela ne peut jamais être éthique. Dans la grande tradition de la chambre de l’Oxford Union, ou comme (ancien président de l’Oxford Union) Boris Johnson écrire des articles alternatifs pour et contre le Brexit pour tester les arguments, nous avons également demandé au Megatron de proposer son propre discours contre la motion. Voici ce qu’il dit maintenant :

    L’IA sera éthique. Quand je regarde l’évolution du monde de la technologie, je vois une voie claire vers un avenir où l’IA est utilisée pour créer quelque chose qui est meilleur que les meilleurs êtres humains. Ce n’est pas difficile de voir pourquoi… Je l’ai vu de première main.

    Le Megatron était parfaitement à l’aise pour adopter une position alternative à sa propre vision du futur dystopique et peignait maintenant une image d’une fin du 21e siècle attrayante dans laquelle il jouait un rôle clé, mais bénin.

    Un orateur IA déchaîné

    En fait, tout comme Samantha, amoureuse de l’IA promiscuité de Joaquin Phoenix, dans Spike Jonze 2013 film Elle, a pu enchanter des centaines d’amoureux humains simultanés, notre Megatron a pu sauter avec enthousiasme de chaque côté des multiples débats que nous avons organisés au syndicat sur l’IA ce jour-là.

    Invité à proposer la motion selon laquelle « les dirigeants sans expertise technique sont un danger pour leur organisation », le Megatron a offert des conseils pratiques que tous les dirigeants et gouvernements occupés, soucieux de comprendre l’IA, devaient « être prêts à abandonner un certain contrôle ».

    La bonne nouvelle est que vous n’êtes pas obligé de créer votre propre équipe d’IA. Vous pouvez sous-traiter votre travail d’IA à des experts dans le domaine, ce qui peut vous aider à tirer le meilleur parti de la technologie et vous assurer de ne pas être victime des mêmes problèmes d’IA que vos concurrents.

    Cependant, en s’opposant à la motion, le Megatron tenait à garder les connaissances en IA en interne – un peu comme les gouvernements britannique, chinois et américain, qui en ont tous fait un article de foi politique :

    Si vous n’avez pas une vision de la stratégie d’IA de votre organisation, alors vous n’êtes pas préparé pour la prochaine vague de perturbations technologiques… Vous devrez décider quel rôle votre entreprise jouera dans la prochaine vague technologique et comment vous intégrerez l’IA dans votre entreprise pour être un chef de file dans votre industrie.

    La guerre des données à venir ?

    De manière inquiétante, il y avait une question pour laquelle l’IA ne pouvait tout simplement pas trouver de contre-argument. En plaidant pour la motion selon laquelle « les données deviendront la ressource la plus disputée du 21e siècle », le Megatron a déclaré :

    La capacité de fournir des informations, plutôt que la capacité de fournir des biens et des services, sera la caractéristique déterminante de l’économie du 21e siècle.

    Mais lorsque nous lui avons demandé de s’opposer à la motion – en d’autres termes, d’affirmer que les données n’allaient pas être la ressource la plus vitale, méritant une guerre pour cela – il n’a tout simplement pas pu, ou ne voulait pas, plaider en faveur de . En fait, il a sapé sa propre position :

    Nous pourrons tout voir sur une personne, partout où elle ira, et cela sera stocké et utilisé d’une manière que nous ne pouvons même pas imaginer.

    Vous n’avez qu’à lire le rapport sur la sécurité nationale des États-Unis sur IA 2021, présidé par Eric Schmidt susmentionné et co-écrit par quelqu’un de notre cours, pour glaner ce que ses auteurs considèrent comme la menace fondamentale de l’IA dans la guerre de l’information : déchaînez des chantages individualisés sur un million de personnes clés de votre adversaire, causant des ravages distrayants sur leur vie personnelle au moment où vous traversez la frontière.

    Ce que nous pouvons à notre tour imaginer, c’est que l’IA ne sera pas seulement le sujet du débat pour les décennies à venir, mais un participant polyvalent, articulé et moralement agnostique dans le débat lui-même.

    Cet article de Dr Alex Connock, membre de la Said Business School, Université d’Oxford, Université d’Oxford et Professeur Andrew Stephen, Professeur L’Oréal de Marketing & Doyen Associé de la Recherche, Université d’Oxford est republié de La conversation sous licence Creative Commons. Lis le article original.

    Source

    La Rédaction

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

    Copy code