WEKA dévoile sa nouvelle génération de baies WEKApod pour redéfinir l'économie du stockage IA
Grâce à AlloyFlash, WEKApod Prime offre une rentabilité révolutionnaire, avec un rapport prix/performance amélioré de 65 % ; WEKApod Nitro propose une densité de performance sans précédent sur la base de vitesses doublées pour les charges de travail d'IA exigeantes
SAINT-LOUIS et CAMPBELL, Californie, 19 novembre 2025 /PRNewswire/ -- À la conférence SC25, la société de stockage IA WEKA a annoncé sa nouvelle génération de baies WEKApod™, qui vient bouleverser le compromis traditionnel entre performance et coût. La baie WEKApod Prime, entièrement repensée, améliore le rapport prix/performance de 65 % en plaçant intelligemment les données dans des configurations flash mixtes pour réaliser des économies inédites sans concession. WEKApod Nitro double la densité de performance grâce à un matériel renouvelé, qui permet aux organisations et aux entreprises d'accélérer sur la voie de l'innovation en matière d'IA et de calcul à haute performance, d'optimiser l'utilisation du processeur graphique et de répondre aux besoins de toujours plus de clients. Sa conception à densité supérieure en fait également le système idéal pour les référentiels de stockage d'objets à grande échelle et les lacs de données d'IA qui exigent des performances sans compromis.
Les baies WEKApod constituent le moyen le plus simple et le plus rapide de déployer et de faire évoluer l'architecture NeuralMesh™ by WEKA, le seul système de stockage du monde spécialement conçu pour accélérer l'IA à grande échelle. WEKApod offre la souplesse définie par logiciel de NeuralMesh dans des configurations prévalidées et prêtes à être déployées, avec un utilitaire d'installation considérablement amélioré qui assure un fonctionnement immédiat. Les entreprises peuvent commencer avec seulement huit serveurs, puis en ajouter des centaines au fur et à mesure du déploiement, en éliminant le travail d'intégration complexe pour accéder à l'ensemble des fonctionnalités de NeuralMesh destinées aux entreprises, notamment la protection des données distribuées, les instantanés, l'accès multiprotocole, la hiérarchisation automatisée, le chiffrement et les capacités de nuage hybride.
Crise de l'efficacité de l'infrastructure
Les entreprises qui investissent dans l'infrastructure d'IA sont confrontées à une pression croissante pour démontrer leur retour sur investissement, alors même que de précieuses ressources de processeur graphique sont sous-utilisées, que les cycles d'entraînement s'allongent, que les coûts d'inférence réduisent les marges et que les factures d'infonuagique augmentent avec la croissance des données. Les systèmes de stockage traditionnels imposent un choix impossible : des performances extrêmes ou des coûts raisonnables, mais jamais les deux à la fois. Parallèlement, les contraintes liées aux centres de données : espace de rack, budgets d'électricité et capacité de refroidissement limités, signifient que chaque unité de rack doit fournir davantage de capacités, faute de quoi les coûts d'infrastructure deviennent incontrôlables.
La gamme WEKApod de nouvelle génération s'attaque de front à ces défis opérationnels. WEKApod Prime élimine le compromis forcé entre performance et coût, en proposant un rapport prix/performance amélioré de 65 % grâce à une disposition intelligente des données qui optimise automatiquement leur placement en fonction des caractéristiques de la charge de travail, pour garantir que les écritures maintiennent une performance complète tout en réalisant des économies sans précédent.
Les concepteurs d'IA et les fournisseurs de services d'informatique en nuage n'ont désormais plus à choisir entre performance et coût
WEKApod Prime : Offre une approche unique de la technologie flash mixte, en combinant intelligemment des disques à mémoire flash TLC et eTLC dans des configurations prenant en charge jusqu'à 20 disques dans un rack 1U ou 40 disques dans un rack 2U. Contrairement aux solutions de stockage hiérarchisées traditionnelles, qui introduisent des hiérarchies de cache, des mouvements de données entre les niveaux et des pénalités sur le plan des performances d'écriture, l'AlloyFlash de WEKApod assure des performances constantes pour toutes les opérations, y compris des performances d'écriture complètes sans étranglement, tout en permettant des économies incomparables. Pas de compromis, pas de pénalités sur les performances d'écriture, pas de hiérarchies de cache. WEKApod Prime est déjà utilisé par les principaux pionniers de l'IA en nuage, tels que le Centre danois d'innovation en IA (DCAI).
Il en résulte une densité exceptionnelle qui répond directement aux contraintes de ressources des centres de données : une densité de capacité 4,6 fois supérieure, des IOPS en écriture 5 fois supérieures par unité de rack (par rapport à la génération précédente), une densité de puissance 4 fois supérieure, avec 23 000 IOPS par kW (ou 1,6 Po par kW), et une consommation électrique 68 % inférieure par téraoctet, tout en maintenant les performances exceptionelles exigées par les charges de travail d'IA. Pour les charges de travail d'IA à forte intensité d'écriture, telles que l'entraînement ou le point de contrôle, cela signifie que le stockage suit le rythme des tâches sans pénalités sur les performances, qui pourraient faire tourner au ralenti de coûteux processeurs graphiques pendant des opérations cruciales.
WEKApod Nitro : Spécifiquement conçu pour les usines d'IA qui exploitent des centaines ou des milliers de processeurs graphiques, il propose des performances deux fois plus rapides et un rapport prix/performance 60 % plus avantageux grâce à un matériel mis à niveau, en particulier la carte NVIDIA ConnectX-8 SuperNIC, qui fournit un débit de 800 Gb/s et 20 disques TLC dans un format compact 1U. Baies clés en main certifiées (NCP) pour NVIDIA DGX SuperPOD et NVIDIA Cloud Partner (partenaire dans le nuage NVIDIA), les deux configurations WEKApod éliminent des semaines de travail d'intégration, ce qui permet aux entreprises de proposer des services à leurs clients en seulement quelques jours, et non plus en plusieurs mois, tout en s'assurant que l'infrastructure de stockage reste en phase avec les accélérateurs de nouvelle génération.
Impact opérationnel mesurable dans les déploiements d'IA
- Pour les fournisseurs de nuage d'IA et les nouveaux nuages informatiques : Satisfaction des attentes de davantage de clients de manière rentable sur la base de l'infrastructure existante, et respect des accords de niveau de service relatifs aux performances garanties. L'amélioration de 65 % du rapport prix/performance se traduit directement par des marges plus élevées sur les offres de processeur graphique comme service. Des délais de déploiement plus courts riment avec rentabilisation plus rapide des nouveaux clients.
- Pour les entreprises déployant des usines d'IA : Déploiement des initiatives d'IA en quelques jours, et non plus en plusieurs mois, grâce à des solutions clés en main qui éliminent le travail d'intégration complexe et permettent aux équipes informatiques d'atteindre des performances de stockage de niveau professionnel sans compétences spécialisées. Réduction de la consommation électrique allant jusqu'à 68 % grâce à une densité et à une efficacité accrues, et développement des capacités d'IA sans augmentation proportionnelle de l'encombrement du centre de données, des besoins en électricité ou en refroidissement pour offrir un retour sur investissement mesurable de l'infrastructure dès le premier jour.
- Pour les concepteurs et les chercheurs en IA : Accélération du développement de modèles présentant des taux d'utilisation du processeur graphique supérieurs à 90 %. Réduction de la durée d'entraînement pour accélérer les cycles d'itération et acquérir un avantage concurrentiel. Coûts d'inférence plus faibles qui rendent les nouvelles applications d'IA économiquement viables. Démarrage avec seulement huit serveurs, puis évolution vers des centaines à mesure que les besoins augmentent. Inclusion par défaut des fonctionnalités complètes de NeuralMesh conçues pour les entreprises.
Les fournisseurs d'infrastructures d'IA constatent déjà l'impact opérationnel direct de ces innovations :
« L'espace et l'énergie sont les nouvelles limites de l'innovation dans les centres de données. La densité exceptionnelle des performances de stockage de WEKApod nous permet de fournir un débit de données et une efficacité dignes de centres de données à très grande échelle dans un espace optimisé, pour multiplier les capacités d'IA par kilowatt et par mètre carré », a déclaré Nadia Carlsten, directrice générale du Centre danois d'innovation en IA (DCAI). « Cette efficacité bénéficie directement à l'économie et rend l'innovation en matière d'IA plus rapidement accessible à nos clients. »
« Les investissements dans l'IA doivent démontrer un retour sur investissement. WEKApod Prime propose un rapport prix/performance 65 % plus avantageux sans concession sur la vitesse, tandis que WEKApod Nitro double la performance pour optimiser l'utilisation du processeur graphique. Il en résulte un développement de modèles plus rapide, un débit d'inférence plus élevé et un meilleur retour sur les investissements informatiques, qui ont un impact direct sur la rentabilité et le délai de lancement », a ajouté Ajay Singh, directeur des produits chez WEKA.
« La mise en réseau est essentielle à l'infrastructure d'IA, car elle transforme le calcul et le stockage IA en une plateforme de réflexion qui génère et fournit des jetons d'intelligence numérique à grande échelle », a commenté Kevin Deierling, vice-président principal chargé de la mise en réseau chez NVIDIA. « En plaçant à la base de WEKApod les réseaux NVIDIA Spectrum-X Ethernet et NVIDIA ConnectX-8, WEKA aide les entreprises à éliminer les goulets d'étranglement des données, une étape décisive pour optimiser les performances de l'IA. »
Disponibilité
Les baies WEKApod de nouvelle génération sont disponibles dès maintenant. Les entreprises peuvent en savoir plus sur weka.io/wekapod, ou venir rencontrer WEKA à la conférence SuperComputing 2025, sur le stand nº 2215.
À propos de WEKA
WEKA transforme la façon dont les organisations et les entreprises conçoivent, exécutent et développent les flux de travail d'IA avec NeuralMesh™ by WEKA®, son système de stockage maillé intelligent et adaptatif. Contrairement aux infrastructures de données classiques, qui deviennent plus lentes et plus fragiles à mesure que les charges de travail augmentent, l'infrastructure NeuralMesh devient plus rapide, plus solide et plus efficace à mesure qu'elle évolue en s'adaptant dynamiquement aux environnements d'IA afin de fournir une base souple pour l'IA d'entreprise et l'IA agentique innovante. Plébiscitée par 30 % des entreprises du classement Fortune 50, l'infrastructure NeuralMesh aide les grandes entreprises, les fournisseurs de nuage d'IA et les concepteurs d'IA à optimiser leurs processeurs graphiques, à accélérer l'expansion de l'IA et à réduire leurs coûts d'innovation. Pour en savoir plus, consultez le site www.weka.io ou retrouvez-nous sur LinkedIn ou sur X.
WEKA et le logo W sont des marques déposées de WekaIO, Inc. Les autres noms commerciaux figurant dans le présent document peuvent être des marques déposées de leurs propriétaires respectifs.
Photo - https://mma.prnewswire.com/media/2825279/PR_Next_Gen_WEKAPod_launch_ID_3f30ac2ba733.jpg
Logo - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
Partager cet article