شركة WEKA تكسر حاجز ذاكرة الذكاء الاصطناعي باستخدام شبكة الذاكرة المُعززة على نظام NeuralMesh
تكنولوجيا توسيع الذاكرة الثورية، التي تم التحقق من فعاليتها على منصة Oracle Cloud Infrastructure ، تتيح للجميع الاستدلال، وتقدّم سعة ذاكرة أكبر بـ 1000 ضِعف، وزمن وصول لأول توكن أسرع بـ 20 ضِعفًا لعملاء نظام NeuralMesh
سانت لويس وكامبل، كاليفورنيا، 19 نوفمبر 2025 / PRNewswire / -- من مؤتمر الحوسبة الفائقة لعام 2025 ( SC25 ): أعلنت شركة WEKA ، شركة تخزين الذكاء الاصطناعي، اليوم عن توفر شبكة الذاكرة المُعززة™ للاستعمال التجاري على نظام NeuralMesh ™، وهي تكنولوجيا ثورية لتوسيع الذاكرة تحل العقبة الأساسية التي تعيق الابتكار في الذكاء الاصطناعي: ذاكرة وحدات معالجة الرسومات ( GPU ). تقوم شبكة الذاكرة المُعززة، التي تم التحقق من فعاليتها على منصة Oracle Cloud Infrastructure ( OCI ) ومنصات سحابية رائدة أخرى للذكاء الاصطناعي، بزيادة سعة ذاكرة وحدات معالجة الرسومات ( GPU ) بمقدار 1000 ضِعف، من الجيجابايت إلى البيتابايت، مع تقليل زمن الوصول لأول توكن حتى 20 ضِعفًا. هذا الاختراق يُتيح لمطوري الذكاء الاصطناعي تبسيط عملية التفكير في السياقات الطويلة، ومسارات عمل الذكاء الاصطناعي القائم على الوكلاء، مما يحسّن بشكلٍ كبير كفاءة أعباء العمل الخاصة بالاستدلال التي كانت سابقًا صعبةَ التوسيع.
من الابتكار إلى الإنتاج: تخطي حاجز ذاكرة الذكاء الاصطناعي
منذ تقديمها في مؤتمر NVIDIA GTC 2025 ، تم تعزيز شبكة الذاكرة المُعززة واختبارها والتحقق من فعاليتها في البيئات السحابية الإنتاجية الرائدة للذكاء الاصطناعي، بدءًا بمنصة OCI . وأكدت النتائج ما أشارت إليه الاختبارات المبكرة: مع تطور أنظمة الذكاء الاصطناعي نحو تفاعلات أطول وأكثر تعقيدًا — من مساعدي البرمجة إلى مساعدي البحث ووكلاء الاستدلال — أصبحت الذاكرة هي العقبة الحرجة التي تحُد من أداء الاستدلال وتكلفته الاقتصادية.
قال Liran Zvibel ، المؤسس المشارك والرئيس التنفيذي لشركة WEKA : "نحن نقدم للسوق حلًا مُثبتًا تم التحقق منه على منصة Oracle Cloud Infrastructure ومنصات البنية التحتية الرائدة للذكاء الاصطناعي". "إن توسيع نطاق الذكاء الاصطناعي القائم على الوكلاء لا يتعلق فقط بالقوة الحسابية الخام — بل بتخطي حاجز الذاكرة من خلال مسارات بيانات ذكية. حيث تمكن شبكة الذاكرة المُعززة العملاء من معالجة المزيد من التوكنات لكل وحدة معالجة رسومات ( GPU )، ودعم المزيد من المستخدمين في نفس الوقت، وفتح نماذج خدمة جديدة تمامًا لأعباء العمل ذات السياق الطويل. إن بنية OCI القائمة على الأجهزة الفعلية ( Bare Metal ) مع شبكات RDMA عالية الأداء وقدرات GPUDirect Storage هي ما يجعلها منصة فريدة لتسريع الاستدلال على نطاق واسع".
تواجه أنظمة الاستدلال اليوم قيدًا أساسيًا: ذاكرة وحدات معالجة الرسومات ( GPU ) عالية النطاق الترددي ( HBM ) سريعة للغاية لكنها محدودة السعة، بينما توفر ذاكرة DRAM الخاصة بالنظام مساحة أكبر، ولكن بنطاق ترددي أقل بكثير. عندما تمتلئ كلتا الطبقتين، يتم إخلاء خانات ذاكرة التخزين المؤقت على شكل "مفتاح وقيمة" ( KV cache )، وتُضطر وحدة معالجة الرسومات ( GPU ) لإعادة حساب التوكنات التي عالجتها مسبقًا — مما يهدر الدورات الحسابية والطاقة والوقت.
تكسر شبكة الذاكرة المُعززة من WEKA حاجز ذاكرة وحدة معالجة الرسومات ( GPU ) عن طريق إنشاء جسر عالي السرعة بين ذاكرة وحدة معالجة الرسومات ( GPU ) (عادةً من نوع HBM ) والتخزين القائم على أقراص الفلاش. وتبُث بيانات ذاكرة التخزين المؤقت على شكل "مفتاح وقيمة" باستمرار بين ذاكرة وحدة معالجة الرسومات ( GPU ) ومستودع التوكن الخاص بشركة WEKA ، باستخدام شبكة RDMA وقدرات NVIDIA Magnum IO GPUDirect Storage لتحقيق سرعات ذاكرة عالية. مما يُتيح للنماذج اللغوية الكبيرة والذكاء الاصطناعي القائم على الوكلاء الوصول إلى سياق أكبر بكثير دون الحاجة لإعادة حساب ذاكرة التخزين المؤقت على شكل "مفتاح وقيمة" ( KV cache ) أو التوكنات التي تم توليدها مسبقًا، وهذا يحسّن الكفاءة وقابلية التوسع بشكلٍ كبير.
أداءٌ اختُبر على OCI وتكامل مع المنظومات
أكدت الاختبارات المستقلة، بما في ذلك التحقق من الفاعلية على OCI ما يلي:
- قدرة تخزين الذاكرة المؤقتة على شكل "مفتاح وقيمة" أكبر بـ 1000 ضِعف مع الحفاظ على أداء قريب من أداء الذاكرة الفعلية.
- زمن الوصول لأول توكن أسرع بـ 20 ضعفًا حتى عند معالجة 128,000 توكن مقارنةً بما كان يحدث من إعادةِ حسابٍ لعمليات التحميل المسبق.
- 7.5 مليون عملية إدخال/إخراج للقراءة في الثانية ( IOPS ) و1.0 مليون عملية إدخال/إخراج للقراءة في الثانية ( IOPS ) في مجموعة مكونة من ثماني عُقد.
بالنسبة لمزودي الحوسبة السحابية للذكاء الاصطناعي، ومقدمي النماذج، ومطوري الذكاء الاصطناعي المؤسسي، فإن هذه المكاسب في الأداء تغيّر بشكلٍ جذري التكلفة الاقتصادية لعمليات الاستدلال. من خلال التخلص من عمليات التحميل المسبق المكررة والحفاظ على معدلات عالية لنجاح الوصول إلى ذاكرة التخزين المؤقت، يمكن للمنظمات زيادة كثافة المستأجرين، وتقليل الدورات غير المستخدمة لوحدات معالجة الرسومات GPU) )، وتحسين العائد على الاستثمار ( ROI ) لكل كيلوواط/ساعة بشكلٍ كبير. يمكن لمقدمي النماذج الآن تقديم نماذج طويلة السياق بشكلٍ مربح، مما يقلل من تكلفة التوكنات المُدخلة ويُتيح نماذج أعمال جديدة تمامًا تتمحور حول جلسات ذكاء اصطناعي مستمرة وحافظة للحالة.
إن هذا الانتقال نحو التوفر التجاري يُظهر التعاون العميق مع شركاء البنية التحتية الرائدين في مجال الذكاء الاصطناعي، بما في ذلك NVIDIA و Oracle . يتكامل الحل بشكلٍ وثيق مع قدرات NVIDIA GPUDirect Storage و NVIDIA Dynamo و NVIDIA NIXL ، كما قامت WEKA بإصدار إضافة مفتوحة المصدر مُخصصة لـ NVIDIA Inference Transfer Library (NIXL) . تعمل القدرة السحابية لوحدات معالجة الرسومات ( GPU ) القائمة على الأجهزة الفعلية ( Bare Metal ) من OCI مع شبكات RDMA وقدرات NVIDIA GPUDirect Storage لتوفير الأساس عالي الأداء الذي تحتاجه WEKA لتقديم شبكة الذاكرة المُعززة دون التنازل عن الأداء في عمليات نشر الذكاء الاصطناعي القائمة على الحوسبة السحابية.
قال Nathan Thomas ، نائب رئيس قسم السحابة المتعددة في Oracle Cloud Infrastructure : "التكلفة الاقتصادية للاستدلال واسع النطاق هي ضمن الاعتبارات الرئيسية لجميع المؤسسات". "وشبكة الذاكرة المُعززة من WEKA تواجه هذا التحدي مباشرة. "إن تحسين زمن الوصول لأول توكن بمقدار 20 ضِعفًا الذي لاحظناه في الاختبارات المشتركة على OCI ليس مجرد مقياس أداء؛ بل يعيد تشكيل هيكل تكلفة تشغيل أعباء العمل الخاصة بالذكاء الاصطناعي بشكلٍ جذري. وبالنسبة لعملائنا، سيصبح نشر الجيل القادم من الذكاء الاصطناعي أسهل وأرخص".
التوفر التجاري
أصبحت شبكة الذاكرة المُعززة متاحة الآن كميزة لعمليات نشر نظام NeuralMesh وعلى سوق Oracle Cloud ، مع دعمها قريبًا لمنصات سحابية إضافية.
ينبغي للمنظمات المهتمة بنشر شبكة الذاكرة المُعززة زيارة صفحة شبكة الذاكرة المُعززة الخاصة بـ WEKA لمعرفة المزيد عن الحل ومعايير التأهيل.
نبذة عن شركة WEKA
شركة WEKA تحوّل الطريقة التي تبني بها المؤسسات وتشغل وتوسع سير عمل الذكاء الاصطناعي من خلال ™ NeuralMesh ، نظام التخزين الشبكي الذكي والتكيفي الخاص بالشركة. على عكس البنية التحتية التقليدية للبيانات، التي تصبح أبطأ وأكثر هشاشة مع توسّع أعباء العمل، فإن نظام NeuralMesh يزداد سرعةً وقوة وكفاءةً كلما توسّع، ويتكيف بسرعة مع بيئات الذكاء الاصطناعي؛ لتوفير أساس مرن للذكاء الاصطناعي المؤسسي وابتكارات الذكاء الاصطناعي القائم على الوكلاء. يتمتع نظام NeuralMesh بثقة 30% من شركات Fortune 50 ، ويساعد المؤسسات الرائدة ومزودي الحوسبة السحابية للذكاء الاصطناعي، ومُطوري الذكاء الاصطناعي على تحسين وحدات معالجة الرسومات ( GPUs ) الخاصة بهم، وتوسيع نطاق الذكاء الاصطناعي بشكلٍ أسرع، وخفض تكاليف الابتكار. تعرف على المزيد على www.weka.io أو تواصل معنا عبر LinkedIn و X .
WEKA وشعار W هما علامتان تجاريتان مسجلتان لشركة WekaIO, Inc. وقد تكون الأسماء التجارية الأخرى المستخدمة هنا علامات تجارية خاصةً بأصحابها.
الصورة - https://mma.prnewswire.com/media/2825138/PR_WEKA_Augmented_Memory_Grid.jpg
الشعار - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg
شارك هذا المقال