Fabrication industrielle
Internet des objets industriel | Matériaux industriels | Entretien et réparation d'équipement | Programmation industrielle |
home  MfgRobots >> Fabrication industrielle >  >> Industrial Internet of Things >> Embarqué

L'orientation actuelle du matériel d'IA est erronée, selon le pionnier de l'IA

"C'est vraiment difficile de réussir avec du matériel exotique", a déclaré Yann Le Cun, scientifique en chef de l'IA de Facebook, lors de son discours à NeurIPS. S'adressant au rassemblement mondial d'experts en IA à Vancouver, au Canada, en décembre, Le Cun a passé en revue l'histoire des puces informatiques spécialisées pour le traitement des charges de travail des réseaux neuronaux, a offert un aperçu de ce sur quoi travaille Facebook et a fait quelques prédictions pour l'avenir de la profondeur. matériel d'apprentissage.

Histoire ancienne

Le Cun est un visionnaire renommé dans le domaine de l'IA, ayant été à la pointe de la recherche sur les réseaux de neurones dans les années 1980 et 1990. En tant que chercheur des Bell Labs à la fin des années 1980, il a travaillé avec les premiers types de processeurs de réseau de neurones dédiés, qui comprenaient des réseaux de résistances et étaient utilisés pour effectuer une multiplication matricielle. Alors que les réseaux de neurones tombaient en disgrâce à la fin des années 1990 et au début des années 2000, Le Cun faisait partie d'une poignée de scientifiques qui ont continué à travailler sur le terrain. Dans son discours, il a partagé certaines des choses qu'il a apprises sur le matériel pour l'apprentissage en profondeur pendant cette période.


Yann Le Cun, scientifique en chef de l'IA sur Facebook

Premièrement, les outils sont vraiment importants. Ce qui a tué (temporairement) les réseaux neuronaux dans les années 90, c'est que seules quelques personnes, dont Le Cun, disposaient d'outils pour les former. Le Cun et ses collègues ont passé beaucoup de temps à créer ce que l'on appellerait désormais un cadre d'apprentissage en profondeur :un logiciel flexible qui interprétait les langages frontaux, permettant aux chercheurs de s'entraîner et d'expérimenter avec les réseaux de neurones. Les travaux des chercheurs ont avancé le concept selon lequel les systèmes d'apprentissage en profondeur peuvent être assemblés à partir de modules différenciables, puis différenciés automatiquement. Bien que nouveau à l'époque, c'est une pratique courante maintenant.

Les bons outils ont donné à l'équipe de Le Cun sa «superpuissance» et ont également été un facteur important pour produire des résultats reproductibles, a-t-il déclaré. « De bons résultats ne suffisent pas… même si vous obtenez de bons résultats, les gens seront toujours sceptiques », a-t-il déclaré. « Rendre ces résultats reproductibles est presque aussi important que de produire réellement les résultats en premier lieu. »

Avec les bons outils, les performances du matériel sont cruciales pour la communauté des chercheurs, car les limitations du matériel peuvent influencer des directions entières de la recherche, a déclaré Le Cun.

« [What] la communauté du matériel construit pour la recherche ou pour la formation influence en fait les idées auxquelles les gens pensent », a-t-il déclaré. "Des idées entières peuvent être abandonnées simplement parce que le matériel n'est pas assez puissant, même s'il s'agissait de bonnes idées."

La réponse ne réside peut-être pas dans les nouvelles formes d'informatique, a-t-il déclaré, notant que de nombreuses technologies de fabrication exotiques n'ont pas réussi à décoller lorsqu'elles ne s'intégraient pas à l'environnement informatique existant.

L'une des frustrations de Le Cun avec les solutions matérielles d'aujourd'hui pour l'accélération de l'IA est que la plupart sont conçues pour la multiplication matricielle, pas pour la convolution, qui est l'opération mathématique clé utilisée dans la plupart des réseaux neuronaux de traitement d'image et de reconnaissance vocale aujourd'hui. « [L'approche dominante] deviendra de plus en plus erronée, dans le sens où nous aurons des besoins de plus en plus importants en énergie », a-t-il déclaré. « Si nous construisons un matériel générique dans lequel 95 % des cycles sont consacrés à la réalisation de convolutions, nous ne faisons pas du bon travail. »

Application tueuse

L'avenir, comme Le Cun l'a décrit, verra les réseaux de neurones convolutifs (CNN) utilisés dans tout, des jouets aux aspirateurs en passant par les équipements médicaux. Mais la killer app — la seule application qui prouvera la valeur de l'IA aux appareils grand public — est le casque de réalité augmentée.

Facebook travaille actuellement sur du matériel pour les lunettes AR. C'est un énorme défi matériel en raison de la quantité de traitement requise à faible latence, alimentée uniquement par des batteries. "Lorsque vous vous déplacez, les objets superposés dans le monde doivent se déplacer avec le monde, pas avec vous, et cela nécessite pas mal de calculs", a déclaré Le Cun.

Facebook envisage des lunettes AR qui sont actionnées par la voix et interagissent par des gestes via le suivi des mains en temps réel. Bien que ces fonctionnalités soient possibles aujourd'hui, elles dépassent ce que nous pouvons faire en termes de consommation d'énergie, de performances et de facteur de forme. Le Cun a noté quelques « trucs » qui peuvent aider.

Par exemple, lors de l'exécution du même réseau de neurones sur chaque image d'une vidéo - peut-être pour détecter des objets - peu importe si le résultat pour une image est erroné, car nous pouvons regarder les images avant et après et vérifier la cohérence .

« Vous pouvez donc imaginer utiliser du matériel extrêmement basse consommation qui n'est pas parfait ; en d'autres termes, vous pouvez [tolérer] les retournements de bits de temps en temps », a déclaré Le Cun. "C'est facile de le faire en abaissant la tension de l'alimentation."

Développements du réseau neuronal

L'évolution rapide des réseaux de neurones est un défi majeur pour la conception matérielle. Par exemple, les réseaux dynamiques - ceux dont la mémoire peut être entraînée pour apprendre des modèles séquentiels ou variables dans le temps - gagnent en popularité, en particulier pour le traitement du langage naturel (NLP). Cependant, ils se comportent différemment de nombreuses hypothèses émises par le matériel actuel. Le graphe de calcul ne peut pas être optimisé au moment de la compilation ; cela doit être fait au moment de l'exécution. Il est également assez difficile de mettre en œuvre le traitement par lots, une technique populaire grâce à laquelle plusieurs échantillons sont traités à la fois pour améliorer les performances.

« Tout le matériel le plus courant que nous avons à notre disposition suppose que vous pouvez traiter par lots, car si vous avez un lot avec plus d'un échantillon, vous pouvez transformer chaque opération en une multiplication matricielle, y compris les convolutions et les réseaux entièrement connectés », a déclaré Le Cun. « [C']est un défi pour la communauté du matériel de créer des architectures qui ne perdent pas de performances en utilisant une taille de lot =1. Cela s'applique à la formation, bien sûr ; la taille optimale du lot pour la formation est de 1. Nous en utilisons plus parce que notre matériel nous oblige à le faire. »

Apprentissage auto-supervisé

Un autre défi pour le matériel est que les paradigmes d'apprentissage que nous utilisons actuellement vont changer, et cela se produira de manière imminente, selon Le Cun.

"Il y a beaucoup de travail [en cours] pour essayer de faire en sorte que les machines apprennent davantage comme les humains et les animaux, et les humains et les animaux n'apprennent pas par apprentissage supervisé ou même par apprentissage par renforcement", a-t-il déclaré. « Ils apprennent par quelque chose que j'appelle l'apprentissage auto-supervisé, qui se fait principalement par l'observation. »

Le Cun a décrit une approche courante de l'apprentissage auto-supervisé dans laquelle une partie de l'échantillon est masquée et le système est entraîné pour prédire le contenu de la partie masquée en fonction de la partie de l'échantillon disponible. Ceci est couramment utilisé avec des images, dans lesquelles une partie de l'image est supprimée, et du texte, avec un ou plusieurs mots masqués. Les travaux réalisés jusqu'à présent ont montré qu'il est particulièrement efficace pour la PNL; le type de réseaux utilisés, les transformateurs, ont une phase d'apprentissage qui utilise l'apprentissage auto-supervisé.

Le problème d'un point de vue matériel est que les réseaux de transformateurs pour la PNL peuvent être énormes :les plus grands ont aujourd'hui 5 milliards de paramètres et se développent rapidement, a déclaré Le Cun. Les réseaux sont si grands qu'ils ne rentrent pas dans les mémoires GPU et doivent être brisés en morceaux.

« L'apprentissage auto-supervisé est l'avenir – il n'y a aucun doute [à ce sujet] », a-t-il déclaré. « Mais c'est un défi pour la communauté du matériel car les besoins en mémoire sont absolument gigantesques. Parce que ces systèmes sont entraînés avec des données non étiquetées, qui sont abondantes, nous pouvons entraîner de très grands réseaux en termes de données. Les exigences matérielles pour le système final seront beaucoup, beaucoup plus importantes qu'elles ne le sont actuellement. La course au matériel ne s'arrêtera pas de sitôt."

Tendances du matériel

De nouvelles idées de matériel utilisant des techniques telles que l'informatique analogique, la spintronique et les systèmes optiques sont sur le radar de Le Cun. Il a cité les difficultés de communication - les problèmes de conversion des signaux entre le nouveau matériel et le reste de l'infrastructure informatique requise - comme un gros inconvénient. Les implémentations analogiques, a-t-il déclaré, reposent sur des activations extrêmement rares afin d'obtenir des avantages en termes de consommation d'énergie, et il s'est demandé si cela serait toujours possible.

Le Cun s'est décrit comme « sceptique » vis-à-vis des nouvelles approches futuristes telles que les réseaux de neurones à pointes et l'informatique neuromorphique en général. Il est nécessaire de prouver que les algorithmes fonctionnent avant de construire des puces pour eux, a-t-il déclaré.

"Conduire la conception de tels systèmes via du matériel, en espérant que quelqu'un proposera un algorithme qui utilisera ce matériel, n'est probablement pas une bonne idée", a déclaré Le Cun.

Une chronologie de traitement de réseau neuronal

Fin des années 80 :Les tableaux de résistances sont utilisés pour effectuer des multiplications matricielles. À la fin des années 1980, les réseaux ont gagné des amplificateurs et des convertisseurs autour d'eux, mais sont encore assez primitifs par rapport aux normes d'aujourd'hui. La limitation est la vitesse à laquelle les données peuvent être introduites dans la puce.
1991 :La première puce conçue pour les réseaux de neurones convolutifs (CNN) est construite. La puce est capable de 320 giga-opérations par seconde (GOPS) sur des données binaires, avec des registres à décalage numériques qui minimisent la quantité de trafic externe nécessaire pour effectuer une convolution, accélérant ainsi l'opération. La puce ne voit pas d'utilisation au-delà du milieu universitaire.
1992 :ANNA, une puce ALU de réseau neuronal analogique, fait ses débuts. Conçu pour les CNN avec des poids de 6 bits et des activations de 3 bits, ANNA contient 180 000 transistors en CMOS de 0,9 µm. Il est utilisé pour la reconnaissance optique des caractères du texte manuscrit.
1996 :DIANA, une version numérique d'ANNA, est sortie. Mais avec les réseaux de neurones tombés en disgrâce au milieu des années 90, DIANA est finalement réutilisé pour le traitement du signal dans les tours de téléphonie mobile.
2009-2010 :Des chercheurs font la démonstration d'un accélérateur de réseau de neurones matériel sur un FPGA (le Xilinx Virtex 6). Il exécute une démo de segmentation sémantique pour la conduite automatisée et il est capable de 150 GOPS à environ 0,5 W. L'équipe, de l'Université Purdue, essaie de faire un ASIC basé sur ce travail, mais le projet s'avère infructueux. (Source :Yann Le Cun/Facebook)


Embarqué

  1. Batteries parallèles
  2. Diviseur de courant
  3. Bizarreries BJT
  4. IGBT
  5. Le DIAC
  6. Systèmes de signalisation actuels
  7. La sécurité IoT industrielle repose sur le matériel
  8. Les accélérateurs matériels servent les applications d'IA
  9. Qu'est-ce qu'un ampèremètre ?