Baidu dévoile la puce IA haute performance «Kunlun»



Baidu Inc. today announced Kunlun, China's first cloud-to-edge AI chip, built to accommodate high performance requirements of a wide variety of AI scenarios. The announcement includes training chip '818-300'and inference chip '818-100'. Kunlun can be applied to both cloud and edge scenarios, such as data centers, public clouds and autonomous vehicles.

Kunlun est une solution performante et rentable pour les exigences de traitement élevées de l'IA. Il exploite l'écosystème d'intelligence artificielle de Baidu, qui comprend des scénarios d'intelligence artificielle comme le classement de la recherche et des cadres d'apprentissage approfondi comme PaddlePaddle. Les années d'expérience de Baidu dans l'optimisation des performances de ces services et cadres d'IA ont fourni �� l'entreprise l'expertise requise pour construire une puce d'IA de classe mondiale.

En 2011, Baidu a commencé à développer un accélérateur d'IA basé sur FPGA pour l'apprentissage en profondeur et a commencé à utiliser des GPU dans les centres de données. Kunlun, qui est composé de milliers de petits cœurs, a une capacité de calcul qui est près de 30 fois plus rapide que l'accélérateur FPGA d'origine. Les autres spécifications clés incluent: l'ingénierie Samsung 14 nm, une bande passante mémoire de 512 Go / seconde, ainsi que 260 Tops tout en consommant 100 watts d'énergie.

En plus de soutenir l'ouverture commune
Source d'algorithmes d'apprentissage en profondeur, la puce Kunlun peut également prendre en charge une grande variété d'applications d'IA, notamment la reconnaissance vocale, le classement de la recherche, le traitement du langage naturel, la conduite autonome et des recommandations à grande échelle.

Avec l'émergence rapide des applications d'IA, des exigences de plus en plus fortes sont imposées à la puissance de calcul. Les puces traditionnelles limitent la puissance de calcul disponible et donc la mesure dans laquelle les technologies d'IA peuvent être accélérées. Baidu a développé cette puce, spécialement conçue pour les charges de travail d'IA à grande échelle, en réponse à cette demande. Baidu pense que cela permettra des avancées significatives dans l'écosystème de l'IA ouverte.

Baidu plans to continue to iterate upon this chip, developing it progressively to enable the expansion of an open AI ecosystem. As part of this, Baidu will continue to create 'chip power' to meet the needs of various fields including intelligent vehicles, intelligent devices, voice recognition and image recognition.