Ekhbary
Sunday, 22 February 2026
Breaking

Les centres de données IA de 2036 ne seront pas remplis de GPU, selon le PDG de FuriosaAI

Entretien avec June Paik de FuriosaAI sur le matériel IA, la

Les centres de données IA de 2036 ne seront pas remplis de GPU, selon le PDG de FuriosaAI
7DAYES
10 hours ago
6

Corée du Sud - Agence de presse Ekhbary

Au-delà du GPU : FuriosaAI envisage des puces spécialisées dominant les centres de données de 2036

Le paysage des centres de données d'intelligence artificielle est sur le point de connaître une transformation radicale d'ici 2036, s'éloignant du modèle actuel centré sur les GPU, selon June Paik, PDG de FuriosaAI. Dans une interview exclusive, Paik a exposé la vision de son entreprise pour l'avenir du matériel IA, mettant l'accent sur l'efficacité, la performance et les alternatives innovantes à la domination actuelle des GPU, en particulier dans le domaine des puces d'inférence.

Le marché en plein essor du matériel d'accélération IA est confronté à des obstacles importants. Les puces de nouvelle génération exigent des budgets énergétiques substantiels et des investissements majeurs en infrastructure, créant des barrières redoutables pour les startups et les petites entreprises visant à déployer l'IA à grande échelle. FuriosaAI, un innovateur sud-coréen en semi-conducteurs, conteste activement ce paradigme en se concentrant sur l'efficacité, la performance et les architectures alternatives au marché dominé par les GPU.

Fondée en Corée du Sud, FuriosaAI développe des puces d'inférence IA conçues pour des performances élevées tout en réduisant simultanément la consommation d'énergie et en allégeant la pression sur l'infrastructure des centres de données. Leur dernier processeur, RNGD, est basé sur l'architecture propriétaire Tensor Contraction Processor (TCP) de l'entreprise. Cette conception vise à exécuter des modèles d'IA exigeants sans nécessiter les frameworks traditionnels des GPU, marquant une rupture avec les normes établies de l'industrie.

Paik, qui a précédemment perfectionné ses compétences en ingénierie matérielle et logicielle chez AMD et Samsung avant de cofonder FuriosaAI en 2017, a reconnu l'intense concurrence sur le marché des puces IA. Bien que très peu de startups matérielles aient réussi à contester la domination de Nvidia, l'innovation émerge de quarters inattendus. Contrairement aux algorithmes fixes du minage de cryptomonnaies, où les ASIC excellent, l'évolution rapide de l'IA nécessite un matériel adaptable. La construction de puces pour un domaine aussi dynamique exige une expertise approfondie en matière de matériel et de technologie de compilateurs, souvent concentrée dans des régions dotées de solides traditions en matière de semi-conducteurs et de relations établies avec les fonderies.

La base sud-coréenne de FuriosaAI s'est avérée être un avantage stratégique. L'entreprise a eu accès à un riche vivier de talents issus de programmes d'ingénierie de classe mondiale dans les universités coréennes et les grandes entreprises technologiques. De plus, elle a favorisé des partenariats clés avec des entreprises asiatiques de premier plan, notamment SK Hynix pour la mémoire HBM3 de sa puce d'inférence de deuxième génération, RNGD, et TSMC à Taïwan en tant que partenaire de fonderie. Opérer en dehors de l'orbite immédiate de la Silicon Valley a également inculqué une approche disciplinée. FuriosaAI a été lancée avec un financement d'amorçage modeste de 1 million de dollars US, consacrant plusieurs années à affiner sa technologie avant de livrer ses puces.

L'entreprise rejette explicitement l'idée de répliquer la vaste bibliothèque CUDA de Nvidia comme une stratégie viable. Au lieu de cela, FuriosaAI a suivi une voie plus audacieuse en co-concevant son matériel et ses logiciels à partir des principes premiers, spécifiquement pour l'IA. Cela leur a permis d'éviter la nécessité de recréer CUDA. Leurs puces exploitent l'architecture TCP propriétaire, qui exécute nativement les mathématiques multidimensionnelles complexes inhérentes à l'apprentissage profond, évitant ainsi les inefficacités d'adaptation des structures héritées des GPU. Ce choix architectural permet à leur compilateur d'optimiser les modèles sans dépendre de milliers de noyaux réglés manuellement.

La puce RNGD, produite en masse, illustre les avantages de l'approche de FuriosaAI. Elle offre une inférence haute performance pour les modèles d'IA les plus exigeants tout en consommant seulement 180 watts, une différence frappante par rapport aux 600 watts ou plus souvent requis par les GPU. Des partenaires mondiaux, tels que LG AI Research, ont validé cette efficacité dans des environnements de production. En construisant sa pile logicielle pour s'intégrer de manière transparente avec des outils standard comme PyTorch et vLLM, FuriosaAI a efficacement brisé le verrouillage de CUDA, permettant aux développeurs d'exploiter ses performances sans modifier leurs flux de travail existants.

La dépendance actuelle vis-à-vis des GPU crée des défis énergétiques et des goulets d'étranglement d'infrastructure importants dans toute l'industrie, y compris pour les hyperscalers. FuriosaAI envisage un avenir caractérisé par le calcul hétérogène, où diverses architectures travaillent en collaboration pour répondre à des besoins spécifiques, comme la différenciation entre les charges de travail d'entraînement et d'inférence. L'accent mis par l'entreprise sur le coût total de possession (TCO), l'efficacité énergétique et la flexibilité positionne sa technologie comme une solution clé à ces problèmes croissants de l'industrie.

Actuellement, FuriosaAI cible quatre secteurs clés qui connaissent les problèmes les plus aigus en matière d'énergie et d'infrastructure : les pays et les industries réglementées nécessitant le traitement de données sensibles sur site (on-premise), les clients d'entreprise privilégiant le TCO et la flexibilité (RNGD s'intègre dans des racks standard et évite le refroidissement liquide coûteux), les fournisseurs de cloud régionaux et spécialisés cherchant à concurrencer les grandes entreprises en termes de marges (RNGD offre une densité de calcul élevée), et les entreprises de télécommunications opérant dans des environnements de centres de données en périphérie à faible consommation d'énergie.

Pour l'avenir, la puce de nouvelle génération de FuriosaAI est développée pour cibler directement les hyperscalers, aux côtés de ces secteurs critiques. Paik prévoit que d'ici 2036, le terme "centre de données" englobera un large éventail d'installations, des installations massives potentiellement alimentées par fusion aux unités locales petites et hyper-efficaces. Il prévoit des centres de données IA sur site dans les hôpitaux pour des assistants IA sécurisés à faible latence, et de nombreux centres de données IA périphériques haute performance pour les entreprises de télécommunications.

La raison fondamentale de ce changement, soutient Paik, réside dans l'inefficacité inhérente de l'architecture des GPU pour les tâches d'IA. Bien que les fabricants de GPU aient introduit des innovations telles que les cœurs tenseurs, les avantages des architectures dédiées à l'IA deviennent trop importants pour être ignorés. La stratégie produit de FuriosaAI reste axée sur la fourniture d'une inférence haute performance, économe en énergie, rentable et déployable sans refonte massive de l'infrastructure. Cela implique de prioriser des métriques telles que les jetons par watt et les jetons par rack pour une densité de calcul accrue.

L'entreprise prévoit d'adopter agressivement les nouvelles avancées de l'industrie, y compris les nœuds de fabrication plus petits et les nouvelles technologies de mémoire. Alors que sa puce de première génération utilisait un nœud de 14 nm et que RNGD utilise un nœud de 5 nm avec HBM3, FuriosaAI souligne que son innovation architecturale, et non seulement les réductions de nœuds, est le principal moteur de ses performances supérieures et économes en énergie.

Enfin, Paik a souligné que la feuille de route de FuriosaAI concerne autant le logiciel que le matériel. Avec plus d'ingénieurs logiciels que d'ingénieurs matériels, l'entreprise privilégie un support rapide et efficace des nouveaux modèles et outils de déploiement, publiant trois mises à jour majeures de son SDK en 2025 et s'engageant à maintenir ce rythme à l'avenir.

Mots clés: # FuriosaAI # June Paik # matériel IA # centres de données IA # GPU # puces d'inférence # semi-conducteurs # Corée du Sud # puces IA # efficacité énergétique # performance # architecture TCP # Nvidia # AMD # Samsung # SK Hynix # TSMC # PyTorch # vLLM # calcul hétérogène