Rechercher

Google dévoile de minuscules nouvelles puces d'IA pour l'apprentissage automatique sur l'appareil

Le matériel est conçu pour des applications en entreprise, comme l'automatisation des contrôles de qualité dans une usine




Il y a deux ans, Google a dévoilé ses Tensor Processing Units ou TPU - des puces spécialisées qui vivent dans les centres de données de l'entreprise et simplifient les tâches d'IA. Aujourd'hui, l'entreprise retire son expertise en IA du cloud et a dévoilé son nouveau Edge TPU ; un petit accélérateur d'IA qui effectuera des tâches d'apprentissage automatique dans les appareils IoT.

L'Edge TPU est conçu pour faire ce que l'on appelle « l'inférence ». C'est la partie de l'apprentissage automatique où un algorithme effectue réellement la tâche pour laquelle il a été formé ; comme, par exemple, reconnaître un objet dans une image. Les TPU basés sur serveur de Google sont optimisés pour la partie formation de ce processus, tandis que ces nouveaux TPU Edge feront l'inférence.

Ces nouvelles puces sont destinées à être utilisées dans les travaux d'entreprise, pas votre prochain smartphone. Cela signifie des tâches telles que l'automatisation des contrôles de qualité dans les usines. Faire ce genre de travail sur l'appareil présente un certain nombre d'avantages par rapport à l'utilisation de matériel qui doit envoyer des données sur Internet pour analyse. L'apprentissage automatique sur l'appareil est généralement plus sécurisé ; connaît moins de temps d'arrêt ; et fournit des résultats plus rapides. C'est de toute façon l'argumentaire de vente.

Cependant, Google n'est pas la seule entreprise à concevoir des puces pour ce type de tâche d'IA sur l'appareil. ARM, Qualcomm, Mediatek et d'autres fabriquent tous leurs propres accélérateurs d'IA, tandis que les GPU fabriqués par Nvidia dominent le marché des algorithmes de formation.

Néanmoins, ce que Google a que ses rivaux n'ont pas, c'est le contrôle de l'ensemble de la pile d'IA. Un client peut stocker ses données sur le Cloud de Google ; entraîner leurs algorithmes à l'aide de TPU ; puis effectuez une inférence sur l'appareil à l'aide des nouveaux TPU Edge. Et, plus que probablement, ils créeront leur logiciel d'apprentissage automatique à l'aide de TensorFlow, un cadre de codage créé et exploité par Google.

Ce type d'intégration verticale présente des avantages évidents. Google peut s'assurer que toutes ces différentes parties communiquent entre elles de manière aussi efficace et fluide que possible, ce qui permet aux clients de jouer (et de rester) plus facilement dans l'écosystème de l'entreprise.

Le vice-président de l'IoT de Google Cloud, Injong Rhee, a décrit le nouveau matériel comme une "puce ASIC spécialement conçue pour exécuter les modèles TensorFlow Lite ML à la périphérie" dans un article de blog. Rhee a déclaré : « Les TPU Edge sont conçus pour compléter notre offre Cloud TPU, vous pouvez donc accélérer la formation ML dans le cloud, puis bénéficier d'une inférence ML ultra-rapide à la périphérie. Vos capteurs deviennent plus que des collecteurs de données : ils prennent des décisions locales, en temps réel et intelligentes.

Fait intéressant, Google met également Edge TPU à disposition sous forme de kit de développement, ce qui permettra aux clients de tester plus facilement les capacités du matériel et de voir comment il pourrait s'intégrer à leurs produits. Ce kit de développement comprend un système sur module (SOM) contenant le TPU Edge, un processeur NXP, un élément sécurisé Microchip et une fonctionnalité Wi-Fi. Il peut se connecter à un ordinateur ou un serveur via USB ou un slot d'extension PCI Express. Ces kits de développement ne sont cependant disponibles qu'en version bêta, et les clients potentiels devront demander l'accès.

Cela peut sembler être une petite partie de l'actualité, mais c'est remarquable car Google ne laisse généralement pas le public mettre la main sur son matériel d'IA. Cependant, si l'entreprise souhaite que les clients adoptent sa technologie, elle doit s'assurer qu'ils peuvent d'abord l'essayer, plutôt que de simplement leur demander de faire un acte de foi dans la Googlesphere de l'IA. Cette carte de développement n'est pas seulement un leurre pour les entreprises - c'est un signe que Google est sérieux au sujet de la possession de l'intégralité de la pile d'IA.


Source : James Vincent pour The Verge

5 vues0 commentaire