Désinformation ou artefact: une nouvelle façon de penser à l’apprentissage automatique: un chercheur considère quand – et si – nous devrions considérer l’intelligence artificielle comme un échec –

  • FrançaisFrançais



  • Les réseaux de neurones profonds, les systèmes multicouches conçus pour traiter des images et d’autres données grâce à l’utilisation de la modélisation mathématique, sont la pierre angulaire de l’intelligence artificielle.

    Ils sont capables d’obtenir des résultats apparemment sophistiqués, mais ils peuvent également être dupés de manières qui vont de relativement inoffensives – identifier à tort un animal comme un autre – à potentiellement mortelles si le réseau guidant une voiture autonome interprète mal un panneau d’arrêt comme l’indiquant. est sûr de procéder.

    Un philosophe de l’Université de Houston suggère dans un article publié dans Intelligence artificielle de la nature que les hypothèses courantes sur la cause de ces prétendus dysfonctionnements peuvent être erronées, information cruciale pour évaluer la fiabilité de ces réseaux.

    Alors que l’apprentissage automatique et d’autres formes d’intelligence artificielle deviennent de plus en plus intégrés dans la société, utilisés dans tout, des guichets automatiques aux systèmes de cybersécurité, Cameron Buckner, professeur agrégé de philosophie à UH, a déclaré qu’il était essentiel de comprendre la source des défaillances apparentes causées par ce les chercheurs appellent «des exemples contradictoires», lorsqu’un système de réseau neuronal profond évalue mal des images ou d’autres données lorsqu’il est confronté à des informations en dehors des entrées de formation utilisées pour construire le réseau. Ils sont rares et sont qualifiés de «contradictoires» car ils sont souvent créés ou découverts par un autre réseau d’apprentissage automatique – une sorte de rupture dans le monde de l’apprentissage automatique entre des méthodes plus sophistiquées pour créer des exemples contradictoires et des méthodes plus sophistiquées pour les détecter et les éviter. .

    “Certains de ces événements contradictoires pourraient plutôt être des artefacts, et nous devons mieux savoir ce qu’ils sont afin de savoir à quel point ces réseaux sont fiables”, a déclaré Buckner.

    En d’autres termes, le raté pourrait être causé par l’interaction entre ce que le réseau est invité à traiter et les modèles réels impliqués. Ce n’est pas tout à fait la même chose que de se tromper complètement.

    “Comprendre les implications des exemples contradictoires nécessite d’explorer une troisième possibilité: qu’au moins certains de ces modèles soient des artefacts”, a écrit Buckner. “… Ainsi, il y a actuellement à la fois des coûts à rejeter simplement ces modèles et des dangers à les utiliser naïvement.”

    Les événements contradictoires qui provoquent des erreurs dans ces systèmes d’apprentissage automatique ne sont pas nécessairement causés par des malversations intentionnelles, mais c’est là que le risque le plus élevé entre en jeu.

    “Cela signifie que des acteurs malveillants pourraient tromper les systèmes qui reposent sur un réseau par ailleurs fiable”, a déclaré Buckner. “Cela a des applications de sécurité.”

    Un système de sécurité basé sur la technologie de reconnaissance faciale pourrait être piraté pour permettre une violation, par exemple, ou des décalcomanies pourraient être placées sur des panneaux de signalisation qui incitent les voitures autonomes à mal interpréter le signe, même si elles semblent inoffensives pour l’observateur humain.

    Des recherches antérieures ont montré que, contrairement aux hypothèses précédentes, il existe des exemples de confrontation naturelle – des moments où un système d’apprentissage automatique interprète mal les données par une interaction imprévue plutôt que par une erreur dans les données. Ils sont rares et ne peuvent être découverts que grâce à l’utilisation de l’intelligence artificielle.

    Mais ils sont réels, et Buckner a déclaré que cela suggère la nécessité de repenser la façon dont les chercheurs abordent les anomalies ou les artefacts.

    Ces artefacts n’ont pas été bien compris; Buckner propose l’analogie d’une lumière parasite sur une photographie – un phénomène qui n’est pas causé par un défaut de l’objectif de l’appareil photo mais qui est plutôt produit par l’interaction de la lumière avec l’appareil photo.

    La lumière parasite offre potentiellement des informations utiles – l’emplacement du soleil, par exemple – si vous savez comment l’interpréter. Cela, a-t-il dit, soulève la question de savoir si les événements indésirables dans l’apprentissage automatique qui sont causés par un artefact ont également des informations utiles à offrir.

    Tout aussi important, a déclaré Buckner, est que cette nouvelle façon de penser à la manière dont les artefacts peuvent affecter les réseaux de neurones profonds suggère qu’une mauvaise lecture par le réseau ne devrait pas être automatiquement considérée comme une preuve que l’apprentissage en profondeur n’est pas valide.

    “Certains de ces événements contradictoires pourraient être des artefacts”, a-t-il déclaré. “Nous devons savoir quels sont ces artefacts afin de savoir à quel point les réseaux sont fiables.”

    Source de l’histoire:

    Matériaux fourni par Université de Houston. Original écrit par Jeannie Kever. Remarque: le contenu peut être modifié pour le style et la longueur.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.