Xilinx affine sa stratégie de puces d’IA: il n’y a pas que le réseau de neurones

Le fabricant de puces Xilinx a tenu mardi à New York son événement annuel “Journée des analystes”, où il a indiqué aux compteurs de haricots de Wall Street à quoi s’attendre du titre.

Ce marché devrait passer de 1,8 milliard de dollars en 2020 à 6,1 milliards de dollars d’ici 2024.

Xilinx se concentre sur une multitude de nouveaux produits de plate-forme qui vont au-delà des «matrices de portes programmables sur le terrain», ou FPGA, vendues depuis des décennies.

L’approche par plate-forme vise à tirer parti de plusieurs marchés prometteurs pour la société, parmi lesquels le centre de données, où les puces pour ordinateurs serveurs du centre de données gèrent de plus en plus les tâches d’apprentissage automatique.

Les centres de données ne représentent qu’une petite partie des revenus globaux de Xilinx, atteignant 232 millions USD pour l’exercice clos le mois de mars, sur un total de 3,1 milliards USD de revenus de l’entreprise.

Xilinx espère gagner du terrain en inférence d’apprentissage machine grâce aux “pavés”, blocs de calcul qui se connectent les uns aux autres via un bus mémoire à grande vitesse, dans la partie “Moteurs AI” de ses puces programmables “Versal”.

Pour ce faire, Xilinx dépasse son héritage en matière de FPGA pour passer à quelque chose de plus complexe.

Xilinx souhaite maintenant vendre ces puces de plate-forme, qui possèdent encore des portes logiques programmables mais intègrent également plusieurs éléments fonctionnels sur une seule puce en silicium.

Le directeur général de la société, Victor Peng, a commencé sa présentation pour l’événement par un graphique d’applications, une sorte de sandwich dans lequel les algorithmes d’apprentissage automatique étaient bloqués au milieu de deux autres parties, une étape de prétraitement et un post-traitement.

Ce serait bien, a déclaré Peng, que les puces pour l’apprentissage automatique accélèrent non seulement le traitement de la partie d’apprentissage automatique au milieu, mais également les éléments de pré et post-traitement avant et après.

“Il ne s’agit pas uniquement du traitement du réseau neuronal, même si c’est ce dont on parle”, a déclaré Peng.

Le directeur général de Xilinx, Victor Peng, a souligné lors de la journée des analystes de la société qu’il ne s’agissait pas uniquement du réseau de neurones, mais que toute l’application devait être améliorée pour être plus performante.

Par exemple, a déclaré Peng, dans la technologie des véhicules autonomes, tels que les “systèmes avancés d’aide à la conduite” ou ADAS, “la latence totale est ce qui compte, mais l’apprentissage automatique ne représente qu’une étape.”

Pour gérer tout cela, Xilinx parie que les processeurs Intel et les GPU Nvidia sont trop limités.

Cela commence par les processeurs Zynq de Xilinx actuellement disponibles, qui incluent un processeur ARM intégré dans une mer de portes logiques programmables.

Les moteurs AI sont en réalité un ensemble de mosaïques, de zones individuelles sur puce avec traitement vectoriel et de mémoires caches dédiées, connectées les unes aux autres par un bus haute vitesse.

Bien entendu, il reste à voir si les chercheurs en apprentissage automatique, qui apprécient de plus en plus les avantages des FPGA, adopteront une approche basée sur une plateforme.

Au cours d’une période de questions, Peng a souligné que la “famille” de Versal sera composée de “six produits différents”.

Xilinx prévoit une croissance rapide du marché des puces de centres de données, y compris des pièces pour l’apprentissage automatique.
 

Salil Raje, responsable du centre de données de Peng, a ajouté que la société tirerait parti du fait que les approches d’apprentissage automatique peuvent être écrites sur le périphérique simplement en important le code TensorFlow ou un autre code standard dans le développement de l’apprentissage automatique.

Peng a ajouté une perspective historique, notant que lorsqu’il travaillait il y a de nombreuses années dans la société alors appelée ATI, qui a finalement été achetée par AMD, “personne ne savait comment épeler GP-GPU”, faisant référence au “GPU polyvalent”.

Un analyste financier dans la salle a fait remarquer qu’il semblait que le marché des puces d’inférence innovantes prenait beaucoup de temps – Intel domine toujours le marché avec ses processeurs.

Peng a exhorté la patience.

“Nous avons toujours pensé que ce serait une grande opportunité, mais avec le temps”, a-t-il déclaré.