Un nouveau test de “bon sens” pour l’IA pourrait conduire à des machines plus intelligentes


  • FrançaisFrançais



  • Contenu fourni par IBM et TNW.

    Les systèmes d’IA d’aujourd’hui évoluent rapidement pour devenir le nouveau meilleur ami des humains. Nous avons maintenant des IA capables de concocter du whisky primé, d’écrire de la poésie et d’aider les médecins à effectuer des opérations chirurgicales extrêmement précises. Mais une chose qu’ils ne peuvent pas faire – qui est, à première vue, beaucoup plus simple que toutes ces autres choses – est d’utiliser le bon sens.

    Le bon sens est différent de l’intelligence en ce sens qu’il s’agit généralement de quelque chose d’inné et de naturel pour les humains qui les aide à naviguer dans la vie quotidienne et qui ne peut pas vraiment être enseigné. En 1906, le philosophe GK Chesterton a écrit que “le bon sens est une chose sauvage, sauvage et au-delà des règles”.

    Salutations, humanoïdes

    Abonnez-vous à notre newsletter maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA dans votre boîte de réception.

    Les robots, bien sûr, fonctionnent sur des algorithmes qui ne sont que cela : des règles.

    Donc non, les robots ne peuvent pas encore faire preuve de bon sens. Mais grâce aux efforts actuels sur le terrain, nous pouvons désormais mesurer la capacité de raisonnement psychologique de base d’une IA, ce qui nous rapproche un peu plus.

    Alors pourquoi est-ce important si nous enseignons le bon sens à l’IA ?

    En réalité, cela revient au fait que le bon sens rendra l’IA plus efficace pour nous aider à résoudre les problèmes du monde réel. Beaucoup soutiennent que les solutions basées sur l’IA conçues pour des problèmes complexes, comme diagnostiquer les traitements Covid-19 par exemple, échouent souvent, car le système ne peut pas s’adapter facilement à une situation réelle où les problèmes sont imprévisibles, vagues et non définis par des règles.

    Le bon sens comprend non seulement les capacités sociales et le raisonnement, mais aussi un « sens naïf de la physique ».

    Injecter du bon sens dans l’IA pourrait signifier de grandes choses pour les humains ; un meilleur service client, où un robot peut réellement aider un client mécontent au-delà de l’envoyer dans une boucle sans fin “Choisissez parmi les options suivantes”. Cela peut permettre aux voitures autonomes de mieux réagir aux incidents routiers inattendus. Cela peut même aider les militaires tirer des informations de vie ou de mort du renseignement.

    Alors pourquoi les scientifiques n’ont-ils pas été capables de déchiffrer le code de bon sens jusqu’à présent ?

    Appelé le “matière noire de l’IA“, le bon sens est à la fois crucial pour le développement futur de l’IA et, jusqu’à présent, insaisissable. Équiper les ordinateurs de bon sens est en fait un objectif de l’informatique depuis le tout début du domaine; en 1958, l’informaticien pionnier John McCarthy publié un article intitulé “Programs with common sense” qui examinait comment la logique pouvait être utilisée comme méthode de représentation des informations dans la mémoire de l’ordinateur. Mais nous n’avons pas beaucoup progressé depuis pour en faire une réalité.

    Le bon sens comprend non seulement les capacités sociales et le raisonnement, mais aussi une “sens naïf de la physique” – cela signifie que nous savons certaines choses sur la physique sans avoir à travailler sur des équations physiques, comme pourquoi vous ne devriez pas mettre une boule de bowling sur une surface inclinée. Cela inclut également des connaissances de base sur des choses abstraites comme le temps et l’espace, ce qui nous permet de planifier, d’estimer et d’organiser. “C’est la connaissance que vous devrait avoir,” dit Michael Witbrock, chercheur en IA à l’Université d’Auckland.

    Tout cela signifie que le bon sens n’est pas une chose précise et ne peut donc pas être facilement défini par des règles.

    Agent secret

    Nous avons établi que le bon sens nécessite un ordinateur pour déduire des choses basées sur des situations complexes du monde réel – quelque chose qui vient facilement aux humains et commence à se former depuis l’enfance.

    Les informaticiens font des progrès (lents) mais réguliers vers la construction d’agents d’IA capables de déduire des états mentaux, de prédire des actions futures et de travailler avec des humains. Mais pour voir à quel point nous sommes réellement proches, nous avons d’abord besoin d’une référence rigoureuse pour évaluer le « bon sens » d’une IA, ou sa capacité de raisonnement psychologique.

    Des chercheurs d’IBM, du MIT et de Harvard ont créé exactement cela : AGENT, qui signifie UNction-goal-Eefficacité-coNsouche-uJilité. Après test et validation, ce benchmark s’avère capable d’évaluer la capacité de raisonnement psychologique de base d’un modèle d’IA. Cela signifie qu’il peut réellement donner un sentiment de conscience sociale et pourrait interagir avec les humains dans des contextes réels.

    Pour faire preuve de bon sens, un modèle d’IA doit avoir des représentations intégrées de la façon dont les humains planifient.

    Alors qu’est-ce qu’AGENT ? AGENT est un ensemble de données à grande échelle d’animations 3D inspirées d’expériences qui étudient le développement cognitif chez les enfants. Les animations représentent une personne interagissant avec différents objets sous différentes contraintes physiques. D’après IBM:

    “Les vidéos comprennent des essais distincts, chacun comprenant une ou plusieurs vidéos de” familiarisation “du comportement typique d’un agent dans un certain environnement physique, associées à des vidéos” de test “du même comportement d’agent dans un nouvel environnement, qui sont étiquetées comme « attendu » ou « surprenant », compte tenu du comportement de l’agent dans les vidéos de familiarisation correspondantes. »

    Un modèle doit ensuite juger du degré de surprise des comportements de l’agent dans les vidéos « test », en fonction des actions qu’il a apprises dans les vidéos de « familiarisation ». À l’aide de la référence AGENT, ce modèle est ensuite validé par rapport à des essais d’évaluation humaine à grande échelle, où les humains ont évalué les vidéos de test “surprenantes” comme plus surprenantes que les vidéos de test “attendues”.

    Bon sens?

    L’essai d’IBM montre que pour faire preuve de bon sens, un modèle d’IA doit avoir des représentations intégrées de la façon dont les humains planifient. Cela signifie combiner à la fois un sens de base de la physique et des “compromis coût-récompense”, ce qui signifie une compréhension de la façon dont les humains agissent “basé sur l’utilitééchangeant les récompenses de son objectif contre les coûts pour l’atteindre.

    Bien qu’ils ne soient pas encore parfaits, les résultats montrent que l’AGENT est un outil de diagnostic prometteur pour développer et évaluer le bon sens dans l’IA, un sujet sur lequel IBM travaille également. Cela montre également que nous pouvons utiliser des méthodes de psychologie du développement traditionnelles similaires à celles utilisées pour enseigner aux enfants humains comment les objets et les idées sont liés.

    À l’avenir, cela pourrait contribuer à réduire considérablement le besoin de formation à ces modèles, permettant aux entreprises d’économiser de l’énergie, du temps et de l’argent en informatique.

    Les robots ne comprennent pas encore la conscience humaine, mais avec le développement d’outils d’analyse comparative comme AGENT, nous serons en mesure de mesurer à quel point nous nous en rapprochons.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    La Rédaction

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *