Nouvelles découvertes de l’informatique théorique –

  • FrançaisFrançais



  • Nous sommes fascinés par les machines capables de contrôler des voitures, de composer des symphonies ou de vaincre des gens aux échecs, au Go ou au Jeopardy! Alors que de plus en plus de progrès sont réalisés en permanence dans l’intelligence artificielle (IA), certains scientifiques et philosophes mettent en garde contre les dangers d’une IA superintelligente incontrôlable. À l’aide de calculs théoriques, une équipe internationale de chercheurs, dont des scientifiques du Center for Humans and Machines de l’Institut Max Planck pour le développement humain, montre qu’il ne serait pas possible de contrôler une IA superintelligente. L’étude a été publiée dans le Journal de recherche sur l’intelligence artificielle.

    Supposons que quelqu’un programme un système d’IA avec une intelligence supérieure à celle des humains, afin qu’il puisse apprendre de manière indépendante. Connectée à Internet, l’IA peut avoir accès à toutes les données de l’humanité. Il pourrait remplacer tous les programmes existants et prendre le contrôle de toutes les machines en ligne dans le monde entier. Cela produirait-il une utopie ou une dystopie? L’IA guérirait-elle le cancer, apporterait-elle la paix dans le monde et empêcherait-elle une catastrophe climatique? Ou est-ce que cela détruirait l’humanité et envahirait la Terre?

    Les informaticiens et les philosophes se sont demandé si nous ne pourrions même pas contrôler une IA superintelligente, pour nous assurer qu’elle ne constituerait pas une menace pour l’humanité. Une équipe internationale d’informaticiens a utilisé des calculs théoriques pour montrer qu’il serait fondamentalement impossible de contrôler une IA super intelligente.

    “Une machine super-intelligente qui contrôle le monde ressemble à de la science-fiction. Mais il existe déjà des machines qui exécutent certaines tâches importantes de manière indépendante sans que les programmeurs comprennent pleinement comment ils l’ont appris. La question se pose donc de savoir si cela pourrait à un moment donné devenir incontrôlable et dangereux pour l’humanité », déclare Manuel Cebrian, co-auteur de l’étude, responsable du groupe de mobilisation numérique au Centre pour les humains et les machines de l’Institut Max Planck pour le développement humain.

    Les scientifiques ont exploré deux idées différentes sur la façon dont une IA superintelligente pourrait être contrôlée. D’une part, les capacités de l’IA superintelligente pourraient être spécifiquement limitées, par exemple en la isolant d’Internet et de tous les autres appareils techniques afin qu’elle ne puisse avoir aucun contact avec le monde extérieur – mais cela rendrait l’IA superintelligente beaucoup moins puissants, moins capables de répondre aux quêtes des sciences humaines. En l’absence de cette option, l’IA pourrait être motivée dès le départ à poursuivre uniquement des objectifs qui sont dans le meilleur intérêt de l’humanité, par exemple en y programmant des principes éthiques. Cependant, les chercheurs montrent également que ces idées et d’autres idées contemporaines et historiques pour contrôler l’IA super-intelligente ont leurs limites.

    Dans leur étude, l’équipe a conçu un algorithme de confinement théorique qui garantit qu’une IA superintelligente ne peut nuire aux personnes en aucune circonstance, en simulant d’abord le comportement de l’IA et en l’interrompant si elle est considérée comme nuisible. Mais une analyse minutieuse montre que dans notre paradigme informatique actuel, un tel algorithme ne peut pas être construit.

    «Si vous décomposez le problème en règles de base issues de l’informatique théorique, il s’avère qu’un algorithme qui ordonnerait à une IA de ne pas détruire le monde pourrait interrompre par inadvertance ses propres opérations. Si cela se produisait, vous ne sauriez pas si l’algorithme de confinement analyse toujours la menace, ou si elle a cessé de contenir l’IA nuisible. En effet, cela rend l’algorithme de confinement inutilisable », déclare Iyad Rahwan, directeur du Center for Humans and Machines.

    Sur la base de ces calculs, le problème de confinement est incalculable, c’est-à-dire qu’aucun algorithme unique ne peut trouver une solution pour déterminer si une IA causerait un préjudice au monde. De plus, les chercheurs démontrent que nous ne savons même pas quand des machines superintelligentes sont arrivées, car décider si une machine présente une intelligence supérieure aux humains relève du même domaine que le problème de confinement.

    Source de l’histoire:

    Matériaux fourni par Institut Max Planck pour le développement humain. Remarque: le contenu peut être modifié pour le style et la longueur.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.