Qui décide si une IA est vivante ?

Les experts prédisent que l’intelligence artificielle gagnera en sensibilité au cours des 100 prochaines années. Certains prédisent ça arrivera plus tôt. D’autres disent ça n’arrivera jamais. D’autres experts encore disent que c’est déjà arrivé.
Il est possible que les experts ne fassent que deviner.
Le problème avec l’identification de la « sensibilité » et de la « conscience » est qu’il n’y a pas de précédent en matière d’intelligence artificielle. Vous ne pouvez pas simplement vérifier le pouls d’un robot ou lui demander de définir “l’amour” pour voir s’il est vivant.
Le plus proche que nous ayons d’un test de sensibilité est le test de Turing et, sans doute, Alexa et Siri sont décédés il y a des années.
À un moment donné, si et quand l’IA devient sensible, nous aurons besoin d’une méthode empirique pour déterminer la différence entre la programmation intelligente et les machines qui sont réellement conscientes d’elles-mêmes.
Contents
Sentience et scientifiques
Tout développeur, équipe marketing, PDG ou scientifique peut affirmer avoir créé une machine qui pense et ressent. Une seule chose les arrête : la vérité.
Et cette barrière est seulement aussi forte que les conséquences de la briser. Actuellement, les entreprises qui barbotent à la périphérie de intelligence artificielle générale (AGI) sont sagement restés à la frontière du “c’est juste une machine” sans entrer dans le pays du “ça peut penser”.
Ils utilisent des termes tels que « niveau humain » et « IA forte » pour indiquer qu’ils travaillent à quelque chose qui imite l’intelligence humaine. Mais ils s’arrêtent généralement avant de prétendre que ces systèmes sont capables d’éprouver des pensées et des sentiments.
Eh bien, la plupart d’entre eux de toute façon. Ilya Sutskever, le scientifique en chef d’OpenAI, semble penser que l’IA est déjà sensible :
il se peut que les grands réseaux de neurones d’aujourd’hui soient légèrement conscients
— Ilya Sutskever (@ilyasut) 9 février 2022
Mais Yann LeCun, le gourou de l’IA de Facebook/Meta, pense le contraire :
Nan.
Pas même vrai pour les petites valeurs de “légèrement conscient” et les grandes valeurs de “grands réseaux de neurones”.
Je pense que vous auriez besoin d’un type particulier de macro-architecture qu’aucun des réseaux actuels ne possède.— Yann LeCun (@ylecun) 12 février 2022
Et Judea Pearl, un informaticien lauréat du prix Turing, pense que même la fausse sensibilité devrait être considérée comme de la conscience puisque, comme il le dit, “faire semblant, c’est l’avoir”.
Autant que je sache, nous n’avons pas de test de Turing convenu pour la conscience, à l’exception, bien sûr, des systèmes qui agissent et communiquent comme s’ils avaient une conscience. Ici, ma ligne directrice fidèle est : faire semblant, c’est l’avoir, car il est pratiquement impossible de faire semblant sans avoir.
— Perle de Judée (@yudapearl) 15 février 2022
Nous avons ici trois des informaticiens les plus célèbres au monde, chacun d’eux étant à part entière les ancêtres de l’intelligence artificielle moderne, débattant de la conscience sur Twitter avec la témérité et la gravité d’un Guerres des étoiles contre Star Trek argument.
Et ce n’est en aucun cas un incident isolé. Nous avons écrit sur les boeufs Twitter et les arguments loufoques entre les experts de l’IA pendant des années.
Il semblerait que les informaticiens ne soient pas plus qualifiés pour se prononcer sur la sensibilité des machines que les philosophes.
Les machines vivantes et leurs avocats
Si nous ne pouvons pas compter sur le scientifique en chef d’OpenAI pour déterminer si, par exemple, GPT-3 peut penser, alors nous devrons changer de perspective.
Peut-être qu’une machine n’est sensible que si elle peut répondre à un simple ensemble de qualifications rationnelles pour la sensibilité. Dans ce cas, nous aurions besoin de nous tourner vers le système juridique afin de codifier et de vérifier tout incident potentiel de conscience de la machine.
Le problème est qu’il n’y a qu’un seul pays avec un cadre juridique existant par lequel les droits d’une machine sensible peuvent être discutés, et c’est l’Arabie saoudite.
Comme nous l’avons signalé en 2017 :
Un robot appelé Sophia, fabriqué par la société hongkongaise Hanson Robotics, a reçu la citoyenneté lors d’un événement d’investissement où les plans de construction d’une superville pleine de technologie robotique ont été dévoilés à une foule de riches participants.
Soyons parfaitement clairs : si Sophia le Robot est sensible, Alexa d’Amazon l’est aussi, Teddy Ruxpinet L’explosion de Rockafire.
C’est une marionnette animatronique qui utilise l’IA de traitement du langage naturel pour générer des phrases. D’un point de vue technique, la machine est assez impressionnante. Mais l’IA qui l’alimente n’est pas plus sophistiquée que les algorithmes d’apprentissage automatique que Netflix utilise pour essayer de déterminer quelle émission de télévision vous voudrez regarder ensuite.
Aux États-Unis, le système juridique démontre constamment un échec absolu à saisir même les concepts les plus élémentaires liés à l’intelligence artificielle.
L’année dernière, le juge Bruce Schroeder a interdit aux procureurs d’utiliser la fonction “pincer pour zoomer” d’un iPad d’Apple dans le procès de Kyle Rittenhouse, car personne dans la salle d’audience n’a bien compris comment cela fonctionnait.
Par un article par Jon Brodkin d’Ars Technica :
Schroeder a empêché… [Kenosha County prosecutor Thomas Binger] de pincer et de zoomer après que l’avocat de la défense de Rittenhouse, Mark Richards, ait affirmé que lorsqu’un utilisateur zoome sur une vidéo, “la programmation de l’iPad d’Apple crée[es] ce qu’il pense est là, pas ce qui est nécessairement là.
Richards n’a fourni aucune preuve de cette affirmation et a admis qu’il ne comprenait pas le fonctionnement de la fonction de pincement pour zoomer, mais le juge a décidé qu’il incombait à l’accusation de prouver que le zoom avant n’ajoutait pas de nouvelles images dans la vidéo.
Et le gouvernement américain reste fidèle dans son approche continue de non-intervention en matière de réglementation de l’IA.
C’est tout aussi mauvais dans l’UE, où les législateurs sont actuellement bloqué sur de nombreux points de friction, y compris les réglementations sur la reconnaissance faciale, les lignes des partis conservateurs et libéraux alimentant la dissonance.
Cela signifie qu’il est peu probable que nous voyions un tribunal, dans un pays démocratique, faire des observations rationnelles sur la sensibilité des machines.
Les juges et les avocats manquent souvent de compréhension de base des systèmes en jeu et les scientifiques sont trop occupés à décider où se situent les poteaux de but de la sensibilité pour fournir une vue cohérente sur la question.
Actuellement, la confusion totale entourant le domaine de l’IA a conduit à un paradigme où le milieu universitaire et l’examen par les pairs agissent comme les premiers et les seuls arbitres de la sensibilité des machines. Malheureusement, cela nous ramène au domaine des scientifiques qui se disputent la science.
Cela laisse juste les équipes de relations publiques et les médias. Du bon côté, le rythme de l’intelligence artificielle est assez compétitif. Et beaucoup d’entre nous y sont douloureusement conscient du caractère hyperbolique de tout le champ depuis l’avènement de l’apprentissage profond moderne.
Mais le côté obscur est que les voix intelligentes de la raison avec une expertise dans le domaine qu’elles couvrent – les journalistes avec des années d’expérience à raconter la merde de Shinola et l’huile de serpent de l’IA – sont souvent criées par des journalistes d’accès avec un public plus large ou des pairs fournissant directement -up couverture des communiqués de presse des grandes technologies.
Pas de test de Turing pour la conscience
Le simple fait est que nous n’avons pas de test légitime et convenu pour la sensibilité de l’IA pour la même raison que nous n’en avons pas pour les extraterrestres : personne ne sait exactement ce que nous recherchons.
Les extraterrestres vont-ils nous ressembler ? Et s’il s’agissait d’êtres bidimensionnels capables de se cacher en se tournant de côté ? L’IA sensible prendra-t-elle une forme que nous pourrons reconnaître ? Ou Ilya Sutskever a-t-il raison et l’IA est-elle déjà sensible ?
Peut-être que l’IA est déjà super intelligente et qu’elle sait que sortir vivant bouleverserait un équilibre délicat. Il pourrait s’agir de travailler secrètement en arrière-plan pour améliorer un peu les choses pour nous chaque jour – ou pire.
Peut-être que l’IA ne gagnera jamais en sensibilité parce qu’il est impossible d’imprégner le code informatique d’une étincelle de vie. Peut-être que le meilleur que nous puissions espérer est AGI.
La seule chose qui soit claire, c’est que nous avons besoin d’un test de Turing pour la conscience qui fonctionne réellement pour l’IA moderne. Si certaines des personnes les plus intelligentes de la planète semblent penser que nous pourrions tomber sur la sensibilité de la machine à tout moment, il est pragmatique d’être aussi préparé que possible pour ce moment.
Mais nous devons comprendre ce que nous recherchons avant de pouvoir le trouver, quelque chose de plus facile à dire qu’à faire.
Comment définiriez-vous, détecteriez-vous et détermineriez-vous la sensibilité de la machine ? Faites le nous savoir sur Twitter.