Exascale AI परिनियोजन के लिए WEKA ने NeuralMesh Axon की शुरुआत की
बड़े पैमाने पर AI प्रशिक्षण और इंफरेंस कार्यभारों के लिए अभूतपूर्व प्रदर्शन, लाभ प्राप्त करने और इंफ्रास्ट्रक्चर की आवश्यकताओं को कम करने के लिए नई प्रस्तुति एक अद्वितीय फ्यूज़न आर्किटेक्चर प्रदान करती है जिसका लाभ उद्योग-अग्रणी Cohere, CoreWeave, और NVIDIA जैसे AI अग्रगामियों द्वारा उठाया जा रहा है
पेरिस और कैंपबेल, कैलिफ़ोर्निया, 10 जुलाई, 2025 /PRNewswire/ -- RAISE SUMMIT 2025: WEKA द्वारा NeuralMesh Axon, एक नवप्रवर्तनशील फ्यूज़न आर्किटेक्चर का लाभ उठाने वाला एक सफल स्टोरेज सिस्टम, का अनावरण किया गया है जिसे एक्सास्केल AI एप्लीकेशनों और कार्यभारों को चलाने की मूलभूत चुनौतियों का समाधान करने के लिए डिज़ाइन किया गया है। GPU सर्वरों और AI फैक्टरियों के साथ सहजता से जुड़कर NeuralMesh Axon परिनियोजनों को व्यवस्थित करते हुए उनकी लागत को कम करता है, AI कार्यभार की प्रतिक्रिया और प्रदर्शन को उल्लेखनीय रूप से बढ़ाता है, तथा कम उपयोग किए जाने वाले GPU संसाधनों को एकीकृत और उच्च प्रदर्शन वाले इंफ्रास्ट्रक्चर परत में बदलाव करता है।
कंपनी के हाल ही में घोषित NeuralMesh स्टोरेज सिस्टम पर आधारित, यह नई प्रस्तुति शक्तिशाली एम्बेडेड कार्यक्षमता के साथ इसके कंटेनरीकृत माइक्रोसर्विस आर्किटेक्चर को बढ़ाती है, जिससे AI अग्रगामियों, AI क्लाउड और नियोक्लाउड सेवा प्रदाताओं को बड़े पैमाने पर AI मॉडल विकास में तेजी लाने में मदद मिलती है, विशेषत: जब इसे उन्नत मॉडल प्रशिक्षण और इंफरेंस अनुकूलन के लिए NVIDIA AI Enterprise सॉफ़्टवेयर स्टैक के साथ जोड़ा जाता है। NeuralMesh Axon वास्तविक समय तर्क का भी समर्थन करता है, जिसमें पहले टोकन के लिए समय और समग्र टोकन थ्रूपुट में उल्लेखनीय सुधार होता है, जिससे ग्राहक तेजी से बाजार में नवाचार लाने में सक्षम होते हैं।
Exascale में AI इंफ्रास्ट्रक्चर की बाधाएं बढ़ती जा रही हैं
बड़े भाषा मॉडल (LLM) प्रशिक्षण और इंफरेंस कार्यभारों के लिए प्रदर्शन निर्णायक होता है, विशेषत: जब यह बड़े पैमाने पर चल रहा हो। रीप्लिकेशन-आधारित दृष्टिकोणों पर निर्भर पारंपरिक स्टोरेज आर्किटेक्चरों के माध्यम से बड़े पैमाने पर AI कार्यभारों को चलाने वाले प्रतिष्ठान, NVMe क्षमता को बर्बाद करते हैं, महत्वपूर्ण अक्षमताओं का सामना करते हैं, और अप्रत्याशित प्रदर्शन और संसाधन आवंटन में संघर्ष करते हैं।
कारण? पारंपरिक आर्किटेक्चरों को वास्तविक समय में बड़ी मात्रा में डेटा को संसाधित करने और संग्रहीत करने के लिए डिज़ाइन नहीं किया गया था। वे डेटा पाइपलाइनों और AI कार्यप्रवाहों में विलंबता और अड़चनें पैदा करते हैं जो एक्सास्केल AI परिनियोजन को बाधित कर सकते हैं। कम उपयोग किए जाने वाले GPU सर्वर और पुराने डेटा आर्किटेक्चर प्रीमियम हार्डवेयर को निष्क्रिय पूंजी में बदल देते हैं, जिसके परिणामस्वरूप प्रशिक्षण कार्यभारों के लिए डाउनटाइम महंगा हो जाता है। इंफरेंस कार्यभार कुंजी-मूल्य (KV) कैश और हॉट डेटा सहित मेमोरी-बाउंड बाधाओं से जूझते हैं, जिसके परिणामस्वरूप थ्रूपुट कम हो जाता है और इंफ्रास्ट्रक्चर पर दबाव बढ़ जाता है। डेटा एक्सेस में सीमित KV कैश ऑफलोड क्षमता रुकावटें पैदा करती है और आने वाले प्रॉम्प्ट के लिए संसाधन आवंटन को जटिल बनाती है, जिसका परिचालन व्यय और इनसाइट तक पहुंचने में लगने वाले समय पर सीधा प्रभाव पड़ता है। कई प्रतिष्ठान इन चुनौतियों का समाधान करने के लिए NVIDIA AI Enterprise सॉफ्टवेयर के साथ मिलकर NVIDIA त्वरित कंप्यूट सर्वर का उपयोग कर रहे हैं। हालांकि, आधुनिक स्टोरेज एकीकरण के बिना, उन्हें अभी भी पाइपलाइन दक्षता और समग्र GPU उपयोग में महत्वपूर्ण बाधाओं का सामना करना पड़ता है।
इन चुनौतियों का समाधान करने के लिए, विश्व के सबसे बड़े और सबसे अधिक चुनौतीपूर्ण त्वरित कंप्यूट वातावरण के लिए निर्मित
NeuralMesh Axon का उच्च-प्रदर्शन, आत्मनिर्भर स्टोरेज फैब्रिक स्थानीय NVMe, अतिरिक्त CPU कोर और इसके मौजूदा नेटवर्क इंफ्रास्ट्रक्चर का लाभ उठाकर सीधे त्वरित कंप्यूट सर्वर में जुड़ जाता है। यह एकीकृत, सॉफ्टवेयर-परिभाषित कंप्यूट और स्टोरेज परत स्थानीय और दूरस्थ दोनों कार्यभारों के लिए सुसंगत माइक्रोसेकंड विलंबता प्रदान करती है - जो NFS जैसे पारंपरिक स्थानीय प्रोटोकॉल से अधिक है।
इसके अतिरिक्त, WEKA की संवर्धित मेमोरी ग्रिड क्षमता का लाभ उठाने पर, यह बड़े पैमाने पर KV कैश लोड के लिए निकट-मेमोरी गति प्रदान कर सकता है। समग्र क्षमता को बर्बाद करते हैं और विफलताओं के तहत ढह जाने वाले रीप्लिकेशन से भरे दृष्टिकोणों के विपरीत, NeuralMesh Axon का अद्वितीय इरेज़र कोडिंग डिज़ाइन चार समकालिक नोड हानियों को सहन करता है, पुनर्निर्माण के दौरान पूर्ण थ्रूपुट बनाए रखता है, और मौजूदा NVMe, CPU कोर और नेटवर्किंग संसाधनों में पूर्वनिर्धारित संसाधन आवंटन को सक्षम करता है - सभी ज्ञात डेटा तक लगातार कम विलंबता पहुंच प्रदान करते हुए एक्सास्केल और उससे आगे एक मेमोरी जैसे स्टोरेज पूल में एकाकी डिस्क को परिवर्तित करता है।
एक्सास्केल पर काम करने वाले क्लाउड सेवा प्रदाताओं और AI इनोवेटर्स को मॉडल जटिलता और डेटासेट आकार में तेजी से हो रही वृद्धि से मेल खा सकने वाले इंफ्रास्ट्रक्चर समाधान की आवश्यकता होती है। NeuralMesh Axon को विशेष रूप से AI नवाचार के क्षेत्र में अग्रणी संगठनों के लिए डिज़ाइन किया गया है, जिन्हें समय के साथ क्रमिक स्केलिंग के बजाय तत्काल, अत्यधिक-स्तरीय प्रदर्शन की आवश्यकता होती है। इसमें AI क्लाउड प्रदाता और AI सेवाएं तैयार करने वाले नियोक्लाउड, क्षेत्रीय AI कारखाने, उद्यम ग्राहकों के लिए AI समाधान विकसित करने वाले प्रमुख क्लाउड प्रदाता, और सबसे अधिक मांग वाले AI इंफरेंस और प्रशिक्षण समाधानों को परिनियोजित करने वाले बड़े उद्यम प्रतिष्ठान शामिल हैं, जिन्हें तेजी से नवाचार चक्रों को सपोर्ट करने के लिए अपने AI इंफ्रास्ट्रक्चर के निवेश को तेजी से बढ़ाना और अनुकूलित करने की आवश्यकता होती है।
त्वरित AI नवाचार के लिए गेम-चेंजिंग प्रदर्शन प्रदान करते हुए
उद्योग की अग्रणी सुरक्षा-प्रथम एंटरप्राइज़ AI कंपनी Cohere सहित शुरुआती अडाप्टरों को पहले से ही परिवर्तनकारी परिणाम प्राप्त हो रहे हैं।
Cohere, WEKA के उन प्रथम ग्राहकों में से है जिन्होंने अपने AI मॉडल प्रशिक्षण और इंफरेंस कार्यभार को सशक्त बनाने के लिए NeuralMesh Axon को परिनियोजित किया है। उच्च नवाचार लागत, डेटा स्थानांतरण बाधाओं और कम उपयोग वाले GPU का सामना करते हुए, Cohere ने अपने AI स्टैक को एकीकृत करने और परिचालन को सुव्यवस्थित करने के लिए सबसे पहले NeuralMesh Axon को सार्वजनिक क्लाउड में परिनियोजित किया।
"AI मॉडल बिल्डरों के लिए, गति, GPU अनुकूलन और लागत दक्षता ध्येय-महत्वपूर्ण हैं। अर्थात, क्षमता की प्रतीक्षा किए बिना या डेटा माइग्रेट किए बिना कम हार्डवेयर का उपयोग करना, अधिक टोकन उत्पन्न करना, और अधिक मॉडल चलाना," Cohere में इंजीनियरिंग के उपाध्यक्ष, Autumn Moulder, ने कहा। "हमारे GPU सर्वरों में WEKA के NeuralMesh Axon को लगाने से हम उपयोग को अधिकतम करने और अपनी AI पाइपलाइनों के प्रत्येक चरण को गति देने में सक्षम हुए हैं। प्रदर्शन में हुई प्रगति ने आमूल-चूल परिणाम दिए हैं: इंफरेंस परिनियोजन में पहले पांच मिनट लगने वाला समय अब 15 सेकंड, तथा चेकपॉइंटिंग 10 गुना तेज हो सकती है। हमारी टीम अब North जैसे क्रांतिकारी नए AI मॉडलों को अभूतपूर्व गति के साथ बाजार में ला सकती है।"
प्रशिक्षण में सुधार करने और Cohere के सुरक्षित AI एजेंट प्लेटफ़ॉर्म North को विकसित करने में मदद करने के लिए, कंपनी CoreWeave Cloud पर WEKA के NeuralMesh Axon को परिनियोजित कर रही है, जिससे वास्तविक समय में तर्क करने और Cohere के अंतिम ग्राहकों के लिए असाधारण अनुभव प्रदान करने के लिए एक मजबूत आधार तैयार हो रहा है।
"हम एक ऐसे युग में प्रवेश कर रहे हैं जहां AI उन्नति केवल कच्चे कम्प्यूट तक ही नहीं रहती है - यह इंटेलिजेंट इंफ्रास्ट्रक्चर के डिजाइन द्वारा सामने आती है। CoreWeave, बड़े पैमाने पर AI को बाधित करने वाली जटिलताओं को समाप्त करके AI अग्रगामियों के लिए संभव तत्वों को पुनर्परिभाषित कर रहा है," CoreWeave के CTO और सह-संस्थापक, Peter Salanki, ने कहा। "WEKA के NeuralMesh Axon को CoreWeave के AI क्लाउड इंफ्रास्ट्रक्चर में सहजता से एकीकृत करके, हम प्रोसेसिंग क्षमता को सीधे डेटा तक पहुंचा रहे हैं, माइक्रोसेकंड विलंबता प्राप्त कर रहे हैं जो I/O प्रतीक्षा समय को कम करता है और एक व्यक्तिगत GPU सर्वर को 30 GB/s से अधिक पठन, 12 GB/s लेखन, और 1 मिलियन IOPS प्रदान करता है। यह क्रांतिकारी दृष्टिकोण GPU उपयोग को बढ़ाता है और Cohere को प्रदर्शन का आधार प्रदान करता है, जिसकी उन्हें इंफरेंस गति अवरोधों को तोड़ने और अपने ग्राहकों को उन्नत AI समाधान प्रदान करने के लिए आवश्यकता होती है।"
NVIDIA में समाधानों के आर्किटेक्चर और इंजीनियरिंग के उपाध्यक्ष, Marc Hamilton, ने कहा, "AI कारखाने, NVIDIA त्वरित कंप्यूट और NVIDIA क्लाउड पार्टनर्स के हमारे इकोसिस्टम पर निर्मित AI इंफ्रास्ट्रक्चर के भविष्य को परिभाषित कर रहे हैं। पैमाने पर इंफरेंस को अनुकूलित करके और GPU के करीब अल्ट्रा-लो लेटेंसी NVMe स्टोरेज लगा कर प्रतिष्ठान अधिक बैंडविड्थ को अनलॉक कर सकते हैं और किसी भी क्षमता के लिए उपलब्ध GPU मेमोरी का विस्तार कर सकते हैं। CoreWeave के साथ परिनियोजित WEKA के NeuralMesh Axon जैसे पार्टनर समाधान त्वरित इंफरेंस प्राप्त करने के लिए एक महत्वपूर्ण आधार प्रदान करते हैं, तथा असाधारण प्रदर्शन और लागत दक्षता के साथ अगली पीढ़ी की AI सेवाओं को सक्षम करते हैं।"
AI नवाचार के लिए स्टोरेज और कंप्यूट को मिलाने के लाभ
NeuralMesh Axon, एक्सास्केल पर काम करने वाले AI बिल्डरों और क्लाउड सेवा प्रदाताओं के लिए तत्काल, मापनीय सुधार प्रदान करता है, जिसमें निम्न सम्मिलित हैं:
- त्वरित टोकन थ्रूपुट के साथ विस्तारित मेमोरी: WEKA का संवर्धित मेमोरी ग्रिड, GPU मेमोरी को टोकन वेयरहाउस के रूप में उपयोग करके विस्तार करते हुए टेक्नोलॉजी के साथ सुदृढ़ एकीकरण प्रदान करता है। इससे कई ग्राहक परिनियोजनों में प्रथम टोकन निष्पादन के समय में 20 गुना सुधार हुआ है, जिससे बड़े संदर्भ विंडो सक्षम हुए हैं और इंफरेंस-गहन कार्यभारों के लिए टोकन प्रोसेसिंग दक्षता में उल्लेखनीय सुधार हुआ है। इसके अतिरिक्त, NeuralMesh Axon ग्राहकों को कम्प्यूट और स्टोरेज संसाधनों को गतिशील रूप से समायोजित करने में सक्षम बनाता है और जस्ट-इन-टाइम प्रशिक्षण और जस्ट-इन-टाइम इंफरेंस का सहज समर्थन करता है।
- विशाल GPU त्वरण और दक्षता लाभ: 90% से अधिक AI मॉडल प्रशिक्षण कार्यभारों के साथ ग्राहक NeuralMesh Axon के साथ नाटकीय प्रदर्शन और GPU उपयोग सुधार प्राप्त कर रहे हैं, जो उद्योग औसत से तीन गुना अधिक सुधार है। NeuralMesh Axon ऑन-प्रिमाइसेस डेटा सेंटरों में आवश्यक रैक स्पेस, पावर और कूलिंग आवश्यकताओं को भी कम करता है, जिससे मौजूदा सर्वर संसाधनों का उपयोग करके इंफ्रास्ट्रक्चर की लागत और जटिलता को कम करने में मदद मिलती है।
- विशाल AI कार्यप्रवाहों के लिए तत्काल पैमाना: यह ऐसे AI इन्नोवेटरों के लिए डिज़ाइन किया गया है जिन्हें समय के साथ बढ़ने के बजाय तत्काल चरम पैमाने की आवश्यकता होती है। NeuralMesh Axon की कंटेनरीकृत माइक्रोसर्विस आर्किटेक्चर और क्लाउड-नेटिव डिज़ाइन, संगठनों को हाइब्रिड और मल्टीक्लाउड वातावरण में सुसंगत प्रदर्शन विशेषताओं को बनाए रखते हुए, स्टोरेज प्रदर्शन और क्षमता को स्वतंत्र रूप से बढ़ाने में सक्षम बनाता है।
- टीमों को इंफ्रास्ट्रक्चर पर नहीं, बल्कि AI निर्माण पर ध्यान केंद्रित करने में सक्षम बनाता है: हाइब्रिड और क्लाउड परिवेशों में निर्बाध रूप से चलता है, बाहरी स्टोरेज इंफ्रास्ट्रक्चर की आवश्यकता को समाप्त करने और जटिलता को कम करने के लिए मौजूदा Kubernetes और कंटेनर परिवेशों के साथ एकीकृत होता है।
"एक्सास्केल AI की इंफ्रास्ट्रक्चर संबंधी चुनौतियों का उद्योग ने पहले कभी सामना नहीं किया है। WEKA में, हम देख रहे हैं कि प्रशिक्षण के दौरान प्रतिष्ठान कम GPU उपयोग और इंफरेंस के दौरान GPU ओवरलोड से जूझ रहे हैं, जबकि AI की प्रति मॉडल लागत और एजेंट लाखों में पहुंच रहे हैं," WEKA के मुख्य उत्पाद अधिकारी, Ajay Singh, ने कहा। "इसी कारण से हमने NeuralMesh Axon को तैयार किया, जो GPU से लेकर AI इंफ्रास्ट्रक्चर की प्रत्येक परत को अनुकूलित करने पर हमारे गहन ध्यान का निष्कर्ष है। अब, AI-प्रथम प्रतिष्ठान एक्सास्केल और उससे आगे काम करते हुए प्रतिस्पर्धी AI नवाचार के लिए आवश्यक प्रदर्शन और लागत दक्षता हासिल कर सकते हैं।"
उपलब्धता
NeuralMesh Axon वर्तमान में बड़े पैमाने पर एंटरप्राइज़ AI और नियोक्लाउड ग्राहकों के लिए सीमित रिलीज़ में उपलब्ध है, जिसकी सामान्य उपलब्धता 2025 की शरद ऋतु के लिए निर्धारित है। अधिक जानकारी के लिये यहां जाएँ:
- उत्पाद पृष्ठ: https://www.weka.io/product/neuralmesh-axon/
- समाधान सारपत्र: https://www.weka.io/resources/solution-brief/weka-neuralmesh-axon-solution-brief
- ब्लॉग पोस्ट: https://www.weka.io/blog/ai-ml/neuralmesh-axon-reinvents-ai-infrastructure-economics-for-the-largest-workloads/
WEKA का परिचय
WEKA अपने इंटेलिजेंट, अनुकूलनीय मेश स्टोरेज सिस्टम, NeuralMesh™ के माध्यम से संगठनों के AI कार्यप्रवाहों के निर्माण, संचालन और स्केलिंग के तरीके को बदल रहा है। AI परिवेश के विस्तार के साथ अधिक नाजुक होने वाले पारंपरिक डेटा इंफ्रास्ट्रक्चर के विपरीत, NeuralMesh अपने विस्तार के साथ-साथ अधिक तेज, मजबूत और अधिक कुशल होता जाता है, तथा आपके AI परिवेश के साथ विकसित होकर उद्यम और एजेंटिक AI नवाचार के लिए एक लचीला आधार प्रदान करता है। Fortune 50 के 30% और विश्व के अग्रणी नियोक्लाउड्स और AI इनोवेटरों के विश्वसनीय, NeuralMesh GPU उपयोग को अधिकतम करता है, पहले टोकन के लिए समय के गति को तेज करता है, और AI नवाचार की लागत को कम करता है। www.weka.io पर अधिक जानकारी प्राप्त करें, या LinkedIn और X पर हमसे जुड़ें।
WEKA और W लोगो WekaIO, Inc. के पंजीकृत ट्रेडमार्क हैं। यहां दिए गए अन्य ट्रेड नाम उनके संबंधित स्वामियों के ट्रेडमार्क हो सकते हैं।
फ़ोटो - https://mma.prnewswire.com/media/2726225/WEKA_og_pr_wire_neuralmesh_axon.jpg
लोगो - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg

Share this article