WEKA ने NeuralMesh पर Augmented Memory Grid के साथ AI मेमोरी बैरियर को तोड़ा
Oracle Cloud Infrastructure पर प्रमाणित, अभूतपूर्व मेमोरी एक्सटेंशन टेक्नोलॉजी से इंफरेंस सर्वसुलभ बन रहा है और NeuralMesh ग्राहकों के लिए 1000 गुना अधिक मेमोरी और पहले टोकन तक 20 गुना तेज़ समय प्रदान कर रही है
सेंट लुईस और कैंपबेल, कैलिफ़ोर्निया, 19 नवंबर, 2025 /PRNewswire/ -- SC25: WEKA से, AI स्टोरेज कंपनी, ने आज NeuralMesh™ पर Augmented Memory Grid™ की व्यावसायिक उपलब्धता की घोषणा की, जो AI नवाचार में आने वाली निम्न मूलभूत बाधा का समाधान करने वाली एक क्रांतिकारी मेमोरी एक्सटेंशन टेक्नोलॉजी है: GPU मेमोरी। Oracle Cloud Infrastructure (OCI) और अन्य अग्रणी AI क्लाउड प्लेटफार्मों पर प्रमाणित, Augmented Memory Grid पर GPU मेमोरी क्षमता को 1000x बढ़ाकर गीगाबाइट से पेटाबाइट कर देता है, जबकि पहले टोकन तक का समय 20x तक कम कर देता है। यह सफलता AI विकसित करने वालों को दीर्घ-संदर्भ तर्क और एजेंटिक AI कार्यप्रवाहों को सुव्यवस्थित करने में सक्षम बनाती है, जिससे इंफरेंस कार्यभारों की दक्षता में नाटकीय रूप से सुधार होता है, जिसे पहले मापना चुनौतीपूर्ण होता था।
From Innovation to Production: Solving For The AI Memory Wall
NVIDIA GTC 2025 में अपनी शुरुआत के बाद से, Augmented Memory Grid को OCI से शुरू करते हुए, अग्रणी उत्पादन AI क्लाउड वातावरणों में मजबूत, परीक्षण और प्रमाणित किया गया है। परिणामों ने प्रारंभिक परीक्षण से प्राप्त संकेतों की पुष्टि की है: जैसे-जैसे AI सिस्टम लंबे, अधिक जटिल अंतःक्रियाओं की ओर विकसित हो रहे हैं - कोडिंग सह-पायलट से लेकर अनुसंधान सहायकों और तर्क एजेंटों तक - मेमोरी, इंफरेंस प्रदर्शन और अर्थशास्त्र को सीमित करने वाली महत्वपूर्ण बाधा बन गई है।
WEKA के सह-संस्थापक और CEO, Liran Zvibel, ने कहा, "हम Oracle Cloud Infrastructure और अन्य अग्रणी AI इन्फ्रास्ट्रक्चर प्लेटफार्मों द्वारा सत्यापित एक प्रमाणित समाधान मार्केट में ला रहे हैं। एजेंटिक AI का मापन केवल कच्ची गणना के बारे में नहीं है - यह इंटेलिजेंट डेटा मार्गों के साथ मेमोरी वॉल को हल करने के बारे में भी है। Augmented Memory Grid ग्राहकों को प्रति GPU अधिक टोकन चलाने, एक ही समय पर अधिक उपयोगकर्ताओं को सपोर्ट करने, तथा दीर्घ-संदर्भ कार्यभारों के लिए पूरी तरह से नए सेवा मॉडल को अनलॉक करने में सक्षम बनाता है। उच्च प्रदर्शन वाली RDMA नेटवर्किंग और GPUDirect Storage क्षमताओं के साथ OCI का बेयर मेटल इंफ्रास्ट्रक्चर इसे बड़े पैमाने पर इंफरेंस को गति देने के लिए एक अद्वितीय प्लेटफ़ार्म बनाता है।"
आज के इंफरेंस सिस्टमों को एक मूलभूत बाधा का सामना करना पड़ता है: GPU उच्च-बैंडविड्थ मेमोरी (HBM) असाधारण रूप से तेज है, लेकिन इसकी क्षमता सीमित है, जबकि सिस्टम DRAM अधिक स्थान प्रदान करता है, परन्तु बैंडविड्थ बहुत कम है। एक बार जब दोनों स्तर भर जाते हैं, तो की-वैल्यू कैश (KV कैश) प्रविष्टियां निकाल दी जाती हैं और GPUs को पहले ही संसाधित किए गए टोकनों की पुनः गणना करने के लिए मजबूर किया जाता है - जिससे चक्रों, शक्ति और समय की बर्बादी होती है।
WEKA का Augmented Memory Grid, GPU मेमोरी (आमतौर पर HBM) और फ्लैश-आधारित स्टोरेज के बीच एक उच्च गति वाला पुल बनाकर GPU मेमोरी वॉल को तोड़ देता है। यह मेमोरी गति प्राप्त करने के लिए RDMA और NVIDIA Magnum IO GPUDirect Storage का उपयोग करते हुए GPU मेमोरी और WEKA के टोकन वेयरहाउस के बीच की-वैल्यू कैश डेटा को लगातार स्ट्रीम करता है। इससे बड़ी भाषा और एजेंटिक AI मॉडलों को पहले से कम्प्यूट किए गए KV कैश या पहले से उत्पन्न टोकन की पुनर्गणना किए बिना कहीं अधिक संदर्भ तक पहुंचने की सुविधा मिलती है, जिससे दक्षता और मापनीयता में नाटकीय रूप से सुधार होता है।
OCI-Tested Performance and Ecosystem Integration
OCI पर सत्यापन सहित इंडिपेंडेंट परीक्षण ने निम्न की पुष्टि की है:
- 1000x अधिक KV कैश क्षमता जबकि नियर-मेमोरी प्रदर्शन बनाए रखना।
- प्रीफ़िल चरण की पुनः गणना की तुलना में 128,000 टोकन संसाधित करते समयपहले टोकन तक 20 गुना तेज़ समय।
- 7.5M पठन IOPs और 1.0M लेखन IOPs एक आठ-नोड क्लस्टर में।
AI क्लाउड प्रदाताओं, मॉडल प्रदाताओं और उद्यम AI निर्माताओं के लिए, ये प्रदर्शन लाभ मूल रूप से इंफरेंस अर्थशास्त्र को बदल देते हैं। अनावश्यक प्रीफिल परिचालनों को समाप्त करके और उच्च कैश प्रभावित दरों को बनाए रखकर, संगठन टेनेंट घनत्व को अधिकतम कर सकते हैं, निष्क्रिय GPU चक्रों को कम कर सकते हैं, और प्रति किलोवाट-घंटे ROI में नाटकीय रूप से सुधार कर सकते हैं। मॉडल प्रदाता अब लाभप्रद रूप से दीर्घ-संदर्भ मॉडलों की सेवा, इनपुट टोकन लागत में कटौती और स्थायी, स्टेटफुल AI सत्रों के आसपास पूरी तरह से नए व्यवसाय मॉडल को सक्षम कर सकते हैं।
व्यावसायिक उपलब्धता की ओर कदम, NVIDIA और Oracle सहित अग्रणी AI इंफ्रास्ट्रक्चर सहयोगियों के साथ गहन सहयोग को दर्शाता है। यह समाधान NVIDIA GPUDirect Storage, NVIDIA Dynamo, और NVIDIA NIXL के साथ घनिष्ठ रूप से एकीकृत है, तथा WEKA ने NVIDIA Inference Transfer Library (NIXL) के लिए एक समर्पित प्लगइन को ओपन-सोर्स किया है। RDMA नेटवर्किंग और NVIDIA GPUDirect स्टोरेज क्षमताओं के साथ OCI का बेयर-मेटल GPU कंप्यूट, WEKA को उच्च-प्रदर्शन आधार प्रदान करता है, जो क्लाउड-आधारित AI परिनियोजन में प्रदर्शन से समझौता किए बिना Augmented Memory Grid प्रदान करने के लिए आवश्यक है।
Oracle Cloud Infrastructure के मल्टीक्लाउड उपाध्यक्ष, Nathan Thomas, ने कहा, "बड़े पैमाने पर इंफरेंस का अर्थशास्त्र उद्यमों के लिए एक प्रमुख विचारणीय विषय है। WEKA का Augmented Memory Grid सीधे इस चुनौती का सामना करता है। OCI पर संयुक्त परीक्षण में हमने जो प्रथम टोकन प्राप्त करने के समय में 20 गुना सुधार देखा, वह केवल एक प्रदर्शन मीट्रिक नहीं है; मूल रूप से यह AI कार्यभारों को चलाने की लागत संरचना को नया रूप देता है। हमारे ग्राहकों के लिए, इससे अगली पीढ़ी की AI को लागू करना आसान और सस्ता हो जाएगा।"
व्यावसायिक उपलब्धता
Augmented Memory Grid अब NeuralMesh परिनियोजनों और Oracle Cloud Marketplace पर एक सुविधा के रूप में शामिल है, और अतिरिक्त क्लाउड प्लेटफार्मों के लिए जल्द ही सपोर्ट प्रदान करेगा।
Augmented Memory Grid को लागू करने के इच्छुक संगठनों को समाधान और योग्यता मानदंडों के बारे में अधिक जानकारी के लिए WEKA के Augmented Memory Grid पृष्ठ पर जाना चाहिए।
WEKA का परिचय
WEKA अपने इंटेलिजेंट, अनुकूली मेश स्टोरेज सिस्टम, NeuralMesh™ के साथ संगठनों के AI कार्यप्रवाहों के निर्माण, संचालन और स्केलिंग के तरीके को बदल रहा है। कार्यभारों के बढ़ने के साथ धीमा और अधिक नाजुक होने वाले परंपरागत डेटा इंफ्रास्ट्रक्चर के विपरीत, NeuralMesh तेज, मजबूत और अधिक कुशल हो जाता है क्योंकि यह बढ़ता है, और उद्यम AI और एजेंटिक AI नवाचार के लिए एक लचीला आधार प्रदान करने के लिए AI वातावरण के लिए गतिशील रूप से अनुकूलित होता है। Fortune 50 के 30% का विश्वसनीय, NeuralMesh अग्रणी उद्यमों, AI क्लाउड प्रदाताओं और AI विकसित करने वालों को GPUs को अनुकूलित करने, AI को तेजी से बढ़ाने और नवाचार लागत को कम करने में सहायता करता है। www.weka.io पर अधिक जानकारी प्राप्त करें या हमसे LinkedIn और X पर जुड़ें।
WEKA और W लोगो WekaIO, Inc. के पंजीकृत ट्रेडमार्क हैं। यहां दिए गए अन्य ट्रेड नाम उनके संबंधित स्वामियों के ट्रेडमार्क हो सकते हैं।
फ़ोटो - https://mma.prnewswire.com/media/2825138/PR_WEKA_Augmented_Memory_Grid.jpg
लोगो - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
Share this article