Que se passe-t-il dans la boîte noire? –

  • FrançaisFrançais



  • Le professeur adjoint Peter Koo du Cold Spring Harbor Laboratory (CSHL) et son collaborateur Matt Ploenzke ont décrit un moyen de former des machines pour prédire la fonction des séquences d’ADN. Ils ont utilisé des «réseaux neuronaux», un type d’intelligence artificielle (IA) généralement utilisé pour classer les images. Apprendre au réseau neuronal à prédire la fonction de courtes portions d’ADN lui a permis de travailler jusqu’à déchiffrer des modèles plus larges. Les chercheurs espèrent analyser des séquences d’ADN plus complexes qui régulent l’activité des gènes essentiels au développement et à la maladie.

    Les chercheurs en apprentissage automatique peuvent entraîner un ordinateur de type «réseau neuronal» à reconnaître des objets, tels que des chats ou des avions, en lui montrant de nombreuses images de chacun. Tester le succès de l’entraînement nécessite de montrer à la machine une nouvelle photo d’un chat ou d’un avion et de voir si elle la classe correctement. Mais, lorsque les chercheurs appliquent cette technologie à l’analyse des modèles d’ADN, ils ont un problème. Les humains ne peuvent pas reconnaître les modèles, ils peuvent donc ne pas être capables de dire si l’ordinateur identifie la bonne chose. Les réseaux neuronaux apprennent et prennent des décisions indépendamment de leurs programmeurs humains. Les chercheurs appellent ce processus caché une «boîte noire». Il est difficile de faire confiance aux sorties de la machine si nous ne savons pas ce qui se passe dans la boîte.

    Koo et son équipe ont introduit des séquences d’ADN (génomique) dans un type spécifique de réseau neuronal appelé réseau neuronal convolutif (CNN), qui ressemble à la façon dont le cerveau animal traite les images. Koo dit:

    “Il peut être assez facile d’interpréter ces réseaux de neurones parce qu’ils vont juste pointer vers, disons, les moustaches d’un chat. Et c’est pourquoi c’est un chat contre un avion. En génomique, ce n’est pas si simple parce que les séquences génomiques ne sont pas” t sous une forme où les humains comprennent vraiment l’un des modèles vers lesquels ces réseaux neuronaux pointent. “

    Les recherches de Koo, rapportées dans le journal Intelligence artificielle de la nature, a introduit une nouvelle méthode pour enseigner des modèles d’ADN importants à une couche de son CNN. Cela a permis à son réseau neuronal de s’appuyer sur les données pour identifier des modèles plus complexes. La découverte de Koo permet de jeter un œil à l’intérieur de la boîte noire et d’identifier certaines fonctionnalités clés qui mènent au processus de prise de décision de l’ordinateur.

    Mais Koo a un objectif plus large en tête pour le domaine de l’intelligence artificielle. Il existe deux façons d’améliorer un réseau neuronal: l’interprétabilité et la robustesse. L’interprétabilité fait référence à la capacité des humains à déchiffrer pourquoi les machines donnent une certaine prédiction. La capacité de produire une réponse même avec des erreurs dans les données est appelée robustesse. Habituellement, les chercheurs se concentrent sur l’un ou l’autre. Koo dit:

    «Ce que mes recherches essaient de faire, c’est de relier ces deux éléments, car je ne pense pas que ce soient des entités distinctes. Je pense que nous obtenons une meilleure interprétabilité si nos modèles sont plus robustes.

    Koo espère que si une machine peut trouver des modèles d’ADN robustes et interprétables liés à la régulation des gènes, elle aidera les généticiens à comprendre comment les mutations affectent le cancer et d’autres maladies.

    Source de l’histoire:

    Matériaux fourni par Laboratoire de Cold Spring Harbor. Original écrit par Jasmine Lee. Remarque: le contenu peut être modifié pour le style et la longueur.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.