Vision par ordinateur précise du réseau neuronal sans la “ boîte noire ” –

  • FrançaisFrançais



  • L’intelligence artificielle derrière les voitures autonomes, l’analyse d’images médicales et d’autres applications de vision par ordinateur repose sur ce qu’on appelle des réseaux de neurones profonds.

    Modélisés librement sur le cerveau, ceux-ci sont constitués de couches de “neurones” interconnectés – des fonctions mathématiques qui envoient et reçoivent des informations – qui “se déclenchent” en réponse aux caractéristiques des données d’entrée. La première couche traite une entrée de données brutes – comme des pixels dans une image – et transmet ces informations à la couche suivante ci-dessus, déclenchant certains de ces neurones, qui transmettent ensuite un signal à des couches encore plus élevées jusqu’à ce qu’il arrive finalement à une détermination de ce qui est dans l’image d’entrée.

    Mais voici le problème, dit Cynthia Rudin, professeur d’informatique à Duke. «Nous pouvons entrer, par exemple, une image médicale, et observer ce qui sort à l’autre extrémité (« c’est une image d’une lésion maligne », mais il est difficile de savoir ce qui s’est passé entre les deux».

    C’est ce qu’on appelle le problème de la «boîte noire». Ce qui se passe dans l’esprit de la machine – les couches cachées du réseau – est souvent impénétrable, même pour les personnes qui l’ont construite.

    «Le problème avec les modèles d’apprentissage en profondeur est qu’ils sont si complexes que nous ne savons pas vraiment ce qu’ils apprennent», a déclaré Zhi Chen, Ph.D. étudiant dans le laboratoire de Rudin à Duke. “Ils peuvent souvent exploiter des informations que nous ne voulons pas qu’ils utilisent. Leurs processus de raisonnement peuvent être complètement faux.”

    Rudin, Chen et Duke Yijie Bei, étudiant de premier cycle, ont trouvé un moyen de résoudre ce problème. En modifiant le processus de raisonnement derrière les prédictions, il est possible que les chercheurs puissent mieux dépanner les réseaux ou comprendre s’ils sont dignes de confiance.

    La plupart des approches tentent de découvrir ce qui a conduit un système de vision par ordinateur à la bonne réponse après coup, en pointant sur les principales caractéristiques ou pixels qui ont identifié une image: “La croissance de cette radiographie thoracique a été classée comme maligne parce que, selon le modèle , ces domaines sont essentiels dans la classification du cancer du poumon. ” De telles approches ne révèlent pas le raisonnement du réseau, juste où il regardait.

    L’équipe Duke a tenté une approche différente. Au lieu d’essayer de rendre compte de la prise de décision d’un réseau sur une base post hoc, leur méthode forme le réseau à montrer son travail en exprimant sa compréhension des concepts en cours de route. Leur méthode fonctionne en révélant à quel point le réseau évoque différents concepts pour aider à déchiffrer ce qu’il voit. “Il démêle la façon dont les différents concepts sont représentés dans les couches du réseau”, a déclaré Rudin.

    À partir d’une image d’une bibliothèque, par exemple, l’approche permet de déterminer si et dans quelle mesure les différentes couches du réseau neuronal s’appuient sur leur représentation mentale de «livres» pour identifier la scène.

    Les chercheurs ont découvert qu’avec un petit ajustement à un réseau de neurones, il est possible d’identifier des objets et des scènes dans des images aussi précisément que le réseau d’origine, tout en obtenant une interprétabilité substantielle dans le processus de raisonnement du réseau. “La technique est très simple à appliquer”, a déclaré Rudin.

    La méthode contrôle la manière dont les informations circulent sur le réseau. Il s’agit de remplacer une partie standard d’un réseau neuronal par une nouvelle partie. La nouvelle partie contraint un seul neurone du réseau à se déclencher en réponse à un concept particulier que les humains comprennent. Les concepts peuvent être des catégories d’objets du quotidien, comme «livre» ou «vélo». Mais il peut aussi s’agir de caractéristiques générales, telles que «métal», «bois», «froid» ou «chaud». En ayant un seul neurone qui contrôle les informations sur un concept à la fois, il est beaucoup plus facile de comprendre comment le réseau «pense».

    Les chercheurs ont essayé leur approche sur un réseau neuronal formé par des millions d’images étiquetées pour reconnaître divers types de scènes intérieures et extérieures, des salles de classe et des aires de restauration aux terrains de jeux et patios. Ensuite, ils l’ont allumé sur des images qu’ils n’avaient jamais vues auparavant. Ils ont également cherché à savoir sur quels concepts les couches réseau s’appuyaient le plus lors du traitement des données.

    Chen tire un complot montrant ce qui s’est passé quand ils ont introduit une image d’un coucher de soleil orange dans le réseau. Leur réseau neuronal entraîné indique que les couleurs chaudes de l’image du coucher du soleil, comme l’orange, ont tendance à être associées au concept de «lit» dans les couches antérieures du réseau. En bref, le réseau active fortement le “neurone du lit” dans les premières couches. Au fur et à mesure que l’image parcourt des couches successives, le réseau s’appuie progressivement sur une représentation mentale plus sophistiquée de chaque concept, et le concept «avion» devient plus activé que la notion de lits, peut-être parce que les «avions» sont plus souvent associés au ciel et aux nuages .

    Ce n’est qu’une petite partie de ce qui se passe, bien sûr. Mais à partir de cette trajectoire, les chercheurs sont capables de capturer des aspects importants du train de pensée du réseau.

    Les chercheurs affirment que leur module peut être connecté à n’importe quel réseau neuronal qui reconnaît les images. Dans une expérience, ils l’ont connecté à un réseau neuronal formé pour détecter le cancer de la peau sur les photos.

    Avant qu’une IA puisse apprendre à détecter un mélanome, elle doit apprendre ce qui différencie les mélanomes des grains de beauté normaux et des autres taches bénignes de votre peau, en passant au crible des milliers d’images d’entraînement étiquetées et marquées par des experts du cancer de la peau.

    Mais le réseau semble évoquer un concept de «frontière irrégulière» qu’il a formé de lui-même, sans l’aide des labels de formation. Les personnes annotant les images à utiliser dans les applications d’intelligence artificielle n’avaient pas noté cette fonctionnalité, mais la machine l’a fait.

    “Notre méthode a révélé une lacune dans l’ensemble de données”, a déclaré Rudin. Peut-être que s’ils avaient inclus cette information dans les données, il aurait été plus clair si le modèle raisonnait correctement. “Cet exemple illustre simplement pourquoi nous ne devrions pas faire confiance aveugle aux modèles de” boîte noire “sans aucune idée de ce qui se passe à l’intérieur, en particulier pour les diagnostics médicaux délicats”, a déclaré Rudin.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.