Les chercheurs réalisent une réduction de puissance de 94% pour les tâches d’IA sur les appareils

  • FrançaisFrançais



  • Chercheurs de Recherche appliquée sur le cerveau (ABR) ont réduit considérablement la consommation d’énergie pour une gamme d’appareils alimentés par l’IA.

    ABR a conçu un nouveau réseau neuronal appelé Legendre Memory Unit (LMU). Avec LMU, les tâches d’intelligence artificielle sur appareil – telles que celles sur les appareils à prise vocale tels que les appareils portables, les smartphones et les haut-parleurs intelligents – peuvent consommer jusqu’à 94% d’énergie en moins.

    La réduction de la consommation d’énergie obtenue grâce à LMU sera particulièrement bénéfique pour les appareils de plus petit facteur de forme tels que les smartwatches; qui ont du mal avec de petites batteries. Les appareils IoT qui effectuent des tâches d’IA – mais qui peuvent devoir durer des mois, voire des années, avant d’être remplacés – devraient également en bénéficier.

    LMU est décrit comme un réseau neuronal récurrent (RNN) qui permet une puissance plus faible et un traitement plus précis des signaux variant dans le temps.

    Selon ABR, le LMU peut être utilisé pour créer des réseaux d’IA pour toutes les tâches qui varient dans le temps, telles que le traitement de la parole, l’analyse vidéo, la surveillance des capteurs et les systèmes de contrôle.

    Le modèle de référence actuel de l’industrie de l’IA est le réseau de mémoire à long-court terme (LSTM). LSTM a été proposé pour la première fois en 1995 et est utilisé pour les services de reconnaissance vocale et de traduction les plus populaires aujourd’hui, comme ceux de Google, Amazon, Facebook et Microsoft.

    L’année dernière, des chercheurs de l’Université de Waterloo ont lancé le LMU comme RNN alternatif au LSTM. Ces chercheurs ont ensuite formé ABR, qui compte désormais 20 employés.

    Peter Suma, co-PDG d’Applied Brain Research, a déclaré dans un e-mail:

    «Nous sommes une entreprise dérivée de l’Université de Waterloo du Theoretical Neuroscience Lab de l’UW. Nous avons examiné comment le cerveau traite les signaux dans le temps et créé un algorithme basé sur le fonctionnement des «cellules temporelles» de votre cerveau.

    Nous avons appelé la nouvelle IA, une Legendre-Memory-Unit (LMU) après un outil mathématique que nous avons utilisé pour modéliser les cellules de temps. Il est mathématiquement prouvé que le LMU est optimal pour le traitement des signaux. Vous ne pouvez pas faire mieux. Dans les années à venir, cela améliorera toutes les formes d’IA temporelle. »

    ABR a lancé un article à la fin de 2019 lors de la conférence NeurIPS qui a démontré que LMU est 1000000 fois plus précis que le LSTM tout en codant 100 fois plus de pas de temps.

    En termes de taille, le modèle LMU est également plus petit. Le LMU utilise 500 paramètres par rapport aux 41 000 paramètres du LSTM (une réduction de 98% de la taille du réseau).

    «Nous avons implémenté notre reconnaissance vocale avec le LMU et cela a réduit la puissance utilisée pour le traitement de texte de commande à ~ 8 millionièmes de watt, soit 94% de moins que le meilleur du marché aujourd’hui», déclare Suma. «Pour un discours complet, nous avons réduit la puissance à 4 milliwatts, ce qui est environ 70% plus petit que le meilleur du marché.»

    Suma dit que la prochaine étape pour ABR consiste à travailler sur le traitement de l’IA de contrôle de la vidéo, des capteurs et des drones – pour les rendre également plus petits et meilleurs.

    Un livre blanc complet détaillant LMU et ses avantages peut être trouvé sur le référentiel de pré-impression arXiv ici.

    Vous souhaitez entendre les leaders de l’industrie discuter de sujets comme celui-ci? Assistez à la colocation Expo 5G, Expo IoT Tech, Blockchain Expo, Salon IA et Big Data, et Cyber ​​Security & Cloud Expo World Series avec des événements à venir dans la Silicon Valley, Londres et Amsterdam.

    Mots clés: abr, ai, recherche appliquée sur le cerveau, intelligence artificielle, appareils, En vedette, unité de mémoire legendre, lmu, mémoire à long terme, lstm, réseau, réseau neuronal, sur appareil, réseau neuronal récurrent, rnn, reconnaissance vocale, reconnaissance vocale

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    Laisser un commentaire

    Votre adresse de messagerie ne sera pas publiée.