Accessibility Statement Skip Navigation
  • العودة إلى المواقع العالمية
  • +971 (0) 4 368 1644
  • اللائحة العامة لحماية البيانات
  • صحفيون
  • إرسال بيان صحفي
PR Newswire: news distribution, targeting and monitoring
  • أخبار
  • منتجات
  • تواصل معنا
  • Hamburger menu
  • PR Newswire: news distribution, targeting and monitoring
  • إرسال بيان صحفي
    • Telephone

    • +971 (0) 4 368 1644 from 8 AM - 10 PM ET

    • Contact
    • Contact

      +971 (0) 4 368 1644
      from 8 AM - 10 PM ET

  • طلب المزيد من المعلومات
  • صحفيون
  • اللائحة العامة لحماية البيانات
  • طلب المزيد من المعلومات
  • صحفيون
  • اللائحة العامة لحماية البيانات
  • طلب المزيد من المعلومات
  • صحفيون
  • اللائحة العامة لحماية البيانات
  • طلب المزيد من المعلومات
  • صحفيون
  • اللائحة العامة لحماية البيانات

شركة WEKA تكشف عن نظام NeuralMesh Axon المُبتكر والمُصمم خصيصًا لدعم تطبيقات الذكاء الاصطناعي AI فائقة النطاق
  • France - Français
  • APAC - Traditional Chinese
  • India - Hindi
  • Korea - 한국어
  • APAC - English
  • Middle East - English
  • USA - English

WEKA: The Foundation for Enterprise AI

صدر عن

WEKA

10 يوليو, 2025, 03:13 AST

شارك هذا المقال

Share toX

شارك هذا المقال

Share toX

الحل الجديد يقدم بنية دمج فريدة تعتمد عليها كبرى الشركات الرائدة في مجال الذكاء الاصطناعي AI على غرار Cohere، وCoreWeave، وNVIDIA لتحقيق قفزات نوعية في الأداء، وخفض متطلبات البنية التحتية اللازمة لأعباء العمل الضخمة في تدريبات الذكاء الاصطناعي AI والاستدلال.

Continue Reading
WEKA's NeuralMesh Axon delivers an innovative fusion architecture designed to address the fundamental challenges of running exascale AI applications and workloads.
WEKA's NeuralMesh Axon delivers an innovative fusion architecture designed to address the fundamental challenges of running exascale AI applications and workloads.

باريس وكامبل، كاليفورنيا, 10 يوليو، 2025 /PRNewswire/ -- من على منصة قمة مؤتمر RAISE 2025: أزاحت شركة WEKA الستار عن نظام NeuralMesh Axon، وهو نظام تخزين ثوري يعتمد على بنية دمج مبتكرة، صُممت لمواجهة التحديات الجوهرية التي تعترض تشغيل تطبيقات وأعباء عمل الذكاء الاصطناعي AI فائقة النطاق. يندمج نظام NeuralMesh Axon بسلاسة مع خوادم وحدات معالجة الرسومات GPU ومصانع الذكاء الاصطناعي AI لتبسيط عمليات النشر، وخفض التكاليف، وتعزيز استجابة وأداء أعباء عمل الذكاء الاصطناعي AI بشكلٍ كبير، محولًا موارد وحدات معالجة الرسومات GPU غير المُستغلة إلى طبقة موحدة وعالية الأداء من طبقات البنية تحتية.

وبناءً على نظام التخزين NeuralMesh الذي أعلنت عنه الشركة مؤخرًا، يُعزز الحل الجديد بنيته القائمة على الخدمات المصغرة المعبأة في حاويات بوظائف مدمجة قوية، مما يمكّن رواد الذكاء الاصطناعي AI ومقدمي خدمات السحابة القائمة على الذكاء الاصطناعي AI والمزودين الناشئين لخدمات الحوسبة السحابية المصممة خصيصًا لتطبيقات الذكاء الاصطناعي، من تسريع تطوير نماذج الذكاء الاصطناعي AI على نطاق هائل، خاصةً عند دمجه مع حزم برمجيات NVIDIA AI Enterprise لتحسين تدريب النماذج والاستدلال المتقدم. كما يدعم نظام NeuralMesh Axon الاستدلال في الوقت الفعلي، مع تحسين ملحوظ في زمن الاستجابة للرمز الأول وإنتاجية الرموز الإجمالية، مما يسمح للعملاء بطرح ابتكاراتهم في السوق بوتيرة أسرع.

عقبات البنية التحتية للذكاء الاصطناعي AI تتفاقم مع النطاقات الفائقة 
يُمثل الأداء عاملاً حاسماً لنجاح أعباء عمل تدريب النماذج اللغوية الكبيرة (LLM) والاستدلال، خاصة عند التشغيل على نطاقات فائقة. هذا وتواجه المؤسسات التي تُشغّل أعباء عمل ضخمة للذكاء الاصطناعي AI على بنى تخزين تقليدية، والتي تعتمد بكثافة على النسخ المتماثل، إهدارًا لسعة وسائط التخزين NVMe، وتعاني أيضًا من أوجه قصور كبيرة، وتكافح مع أداء غير متوقع وتخصيص غير فعال للموارد.

والسبب في ذلك؟ هو أن البنى التقليدية لم تُصمم لمعالجة وتخزين كميات هائلة من البيانات في الوقت الفعلي. الأمر الذي بدوره يخلق تأخيرات واختناقات في مسارات البيانات وسير عمل الذكاء الاصطناعي AI، وهو ما قد يُشلّ تطبيقات الذكاء الاصطناعي AI فائقة النطاق. إن خوادم وحدات GPU غير المُستغلة وبنى البيانات القديمة تحوّل الأجهزة المتميزة إلى رأس مال مُعطّل، مما يؤدي إلى فترات توقف مكلفة لأعباء التدريب. أما أعباء الاستدلال، فتعاني من حواجز مرتبطة بالذاكرة، بما في ذلك ذاكرة التخزين المؤقت للقيم والمفاتيح (KV cache) والبيانات النشطة، مما يؤدي إلى انخفاض الإنتاجية وزيادة الضغط على البنية التحتية. كما أن القدرة المحدودة على تخفيف العبء عن ذاكرة KV cache تخلق اختناقات في الوصول إلى البيانات وتعقّد تخصيص الموارد للمطالبات الواردة، مما يؤثر بشكلٍ مباشر على النفقات التشغيلية والوقت المستغرق للحصول على النتائج. هذا وتتجه العديد من المؤسسات إلى خوادم الحوسبة المسرّعة من NVIDIA، المقترنة ببرنامج NVIDIA AI Enterprise، لمواجهة هذه التحديات. ومع ذلك، ودون تكامل مع أنظمة التخزين الحديثة، لا تزال هذه المؤسسات تواجه قيودًا كبيرة في كفاءة مسارات البيانات والاستفادة الإجمالية من وحدات معالجة الرسومات.

مصمم لأكبر بيئات الحوسبة المسرّعة وأكثرها تطلبًا في العالم
لمواجهة هذه التحديات، يندمج نسيج التخزين عالي الأداء والمرونة لنظام NeuralMesh Axon مباشرةً في خوادم الحوسبة المسرّعة من خلال الاستفادة من وسائط NVMe المحلية، وأنوية وحدات المعالجة المركزية CPU الاحتياطية، والبنية التحتية للشبكة الحالية. وتُوفر هذه الطبقة الموحدة من الحوسبة والتخزين، المعرّفة بالبرمجيات، وزمن استجابة ثابتًا يُقاس بالميكروثانية لكلٍ من أعباء العمل المحلية والبعيدة، متفوقةً على البروتوكولات المحلية التقليدية مثل NFS.

بالإضافة إلى ذلك، عند الاستفادة من ميزة شبكة الذاكرة المعززة من WEKA، يمكن للنظام توفير سرعات تقارب سرعة الذاكرة لتحميلات ذاكرة KV cache على نطاق واسع. وعلى عكس الأساليب التي تعتمد بكثافة على النسخ المتماثل والتي تهدر السعة الإجمالية وتنهار عند حدوث أعطال، فإن تصميم تشفير المحو الفريد في نظام NeuralMesh Axon يسمح بتحمل فقدان ما يصل إلى أربع عُقد في وقتٍ واحد، ويحافظ على الإنتاجية الكاملة أثناء عمليات إعادة البناء، ويمكّن من تخصيص الموارد مسبقًا عبر موارد NVMe وأنوية وحدات CPU والشبكات الحالية، مما يحول الأقراص المعزولة إلى مجمع تخزين شبيه بالذاكرة على نطاق فائق وما هو أبعد من ذلك، مع توفير وصول ثابت بزمن استجابة منخفض لجميع البيانات القابلة للعنونة.

يحتاج مقدمو الخدمات السحابية ومبتكرو الذكاء الاصطناعي AI الذين يعملون على نطاق فائق إلى حلول بنية تحتية قادرة على مواكبة النمو الهائل في تعقيد النماذج وأحجام مجموعات البيانات. وقد صُمم نظام NeuralMesh Axon خصيصًا للمؤسسات التي تعمل في طليعة ابتكارات الذكاء الاصطناعي وتتطلب أداءً فوريًا وفائق النطاق بدلاً من التوسع التدريجي بمرور الوقت. ويشمل ذلك مقدمي خدمات سحابة الذكاء الاصطناعي AI والشركات التي تقدم خدمات حوسبة سحابية مصممة خصيصًا لتطبيقات الذكاء الاصطناعي AI، ومصانع الذكاء الاصطناعي الإقليمية AI، وكبار مزودي الخدمات السحابية الذين يطورون حلول الذكاء الاصطناعي AI للعملاء من المؤسسات، والمؤسسات الكبيرة التي تنشر حلول الاستدلال والتدريب الأكثر تطلبًا والتي يجب أن تتوسع بمرونة وتحسن استثماراتها في البنية التحتية للذكاء الاصطناعي AI لدعم دورات الابتكار السريعة.

تقديم أداء يغير قواعد اللعبة لتسريع الابتكارات في مجال الذكاء الاصطناعي AI
بدأ المتبنون الأوائل، بما في ذلك شركة Cohere، الشركة الرائدة في مجال الذكاء الاصطناعي AI للمؤسسات مع التركيز على الأمان، في رؤية نتائج تحويلية بالفعل.

وتُعد Cohere من بين أوائل عملاء WEKA الذين قاموا بنشر نظام NeuralMesh Axon لتشغيل أعباء عمل تدريب نماذج الذكاء الاصطناعي AI والاستدلال الخاصة بهم. وبعد مواجهة تكاليف ابتكار باهظة واختناقات في نقل البيانات ووحدات معالجة رسومات GPUs غير مُستغلة، قامت Cohere أولاً بنشر نظام NeuralMesh Axon في السحابة العامة لتوحيد حزمة الذكاء الاصطناعي AI الخاصة بها وتبسيط العمليات.

وقالت Autumn Moulder، نائبة رئيس قسم الهندسة في شركة Cohere: "بالنسبة لمطوري نماذج الذكاء الاصطناعي AI، تعتبر السرعة وتحسين استخدام وحدات GPU وكفاءة التكلفة أمورًا في غاية الأهمية. وهذا يعني استخدام أجهزة أقل، وتوليد المزيد من الرموز، وتشغيل المزيد من النماذج دون انتظار السعة أو نقل البيانات". وأكملت قائلة: "لقد مكّننا دمج نظام NeuralMesh Axon من WEKA في خوادم وحدات GPU الخاصة بنا من تحقيق أقصى استفادة وتسريع كل خطوة في مسارات عمل الذكاء الاصطناعي AI لدينا. فكانت مكاسب الأداء بمثابة نقلة نوعية: عمليات نشر الاستدلال التي كانت تستغرق خمس دقائق يمكن أن تتم الآن في 15 ثانية، مع تسريع نقاط الحفظ بعشرة أضعاف. هذا ويمكن لفريقنا الآن تكرار وتقديم نماذج ذكاء اصطناعي AI ثورية جديدة، مثل North، إلى السوق بسرعة غير مسبوقة".

لتحسين التدريب والمساعدة في تطوير North، منصة وكلاء الذكاء الاصطناعي AI الآمنة من شركة Cohere، تقوم الشركة بنشر نظام NeuralMesh Axon من WEKA على سحابة CoreWeave Cloud، مما يخلق أساسًا متينًا لدعم الاستدلال في الوقت الفعلي وتقديم تجارب استثنائية لعملاء شركة Cohere النهائيين.

من جهته، قال Peter Salanki، كبير مسؤولي قسم التكنولوجيا والشريك المؤسس في CoreWeave: "نحن ندخل حقبة يتجاوز فيها تقدم الذكاء الاصطناعي AI مجرد القدرة الحاسوبية، ليعتمد على البنية التحتية الذكية في إطلاق العنان لقدراته. تعيد CoreWeave تعريف ما هو ممكن لرواد الذكاء الاصطناعي AI من خلال إزالة التعقيدات التي تقيد الذكاء الاصطناعي AI على نطاق واسع". وأضاف قائلًا: "مع دمج نظام NeuralMesh Axon من WEKA بسلاسة في البنية التحتية السحابية للذكاء الاصطناعي AI في CoreWeave، نحن نقرّب قوة المعالجة مباشرة إلى البيانات، محققين زمن استجابة بالميكروثانية يقلل من وقت انتظار عمليات الإدخال والإخراج I/O ويوفر أكثر من 30 جيجابايت/ثانية للقراءة، و12 جيجابايت/ثانية للكتابة، ومليون عملية إدخال/إخراج في الثانية IOPS لخادم وحدة GPU واحد. هذا النهج الثوري يزيد من استخدام وحدات GPU ويمكّن شركة Cohere من الحصول على أساس الأداء الذي يحتاجونه لتحطيم حواجز سرعة الاستدلال وتقديم حلول ذكاء اصطناعي AI متقدمة لعملائهم".

وقال Marc Hamilton، نائب رئيس قسم هندسة وبنية الحلول في NVIDIA: "تُشكل مصانع الذكاء الاصطناعي AI مستقبل البنية التحتية لتقنيات الذكاء الاصطناعي AI، بالاعتماد على الحوسبة المسرّعة من NVIDIA ونظام شبكة NVIDIA Cloud Partners". وأضاف: "من خلال تحسين الاستدلال على نطاق واسع ودمج تخزين NVMe فائق الانخفاض في زمن الاستجابة بالقرب من وحدات معالجة الرسومات GPUs، يمكن للمؤسسات إطلاق المزيد من عرض النطاق الترددي وتوسيع الذاكرة المتاحة على وحدات GPU لأي سعة. إن حلول الشركاء مثل NeuralMesh Axon من WEKA المنشور مع CoreWeave تُوفر أساسًا حاسمًا للاستدلال المسرّع مع تمكين خدمات الذكاء الاصطناعي AI من الجيل التالي بأداء استثنائي وكفاءة في التكلفة".

فوائد دمج التخزين والحوسبة لابتكارات الذكاء الاصطناعي AI
يُقدم نظام NeuralMesh Axon تحسينات فورية وقابلة للقياس لمطوري الذكاء الاصطناعي AI ومقدمي الخدمات السحابية الذين يعملون على نطاق فائق، بما في ذلك: 

  • توسيع الذاكرة مع تسريع إنتاجية الرموز: يُوفر هذا الأمر تكاملاً وثيقًا مع تقنية شبكة الذاكرة المعززة من WEKA، مما يوسع ذاكرة وحدة GPU من خلال استخدامها كمستودع للرموز. وقد أدى ذلك إلى تحسين أداء زمن الاستجابة للرمز الأول بمقدار 20 ضعفًا عبر العديد من عمليات نشر العملاء، مما يُتيح نطاقات سياقية أوسع وكفاءة معالجة رموز محسنة بشكلٍ كبير لأعباء العمل كثيفة الاستدلال. علاوة على ذلك، يمكّن نظام NeuralMesh Axon العملاء من تعديل موارد الحوسبة والتخزين ديناميكيًا ويدعم بسلاسة التدريب والاستدلال في الوقت المناسب.
  • مكاسب هائلة في أداء وكفاءة وحدات GPU: يُحقق العملاء تحسينات هائلة في الأداء وفي استخدام وحدات GPU مع نظام NeuralMesh Axon، حيث تتجاوز أعباء عمل تدريب نماذج الذكاء الاصطناعي AI نسبة 90%—وهو تحسن بثلاثة أضعاف عن متوسط الصناعة. يقلل نظام NeuralMesh Axon أيضًا من حجم الرفوف المطلوبة في مراكز البيانات ومتطلبات الطاقة والتبريد في مراكز البيانات المحلية، مما يساعد على خفض تكاليف وتعقيد البنية التحتية من خلال الاستفادة من موارد الخادم الحالية.
  • توسع فوري لأعباء العمل الضخمة للذكاء الاصطناعي AI: مُصمم لمبتكري الذكاء الاصطناعي AI الذين يحتاجون إلى نطاق فائق فوري، بدلاً من النمو بمرور الوقت. تُتيح بنية نظام NeuralMesh Axon القائمة على الخدمات المصغرة المعبأة في حاويات وتصميمه السحابي الأصلي للمؤسسات توسيع أداء التخزين وسعته بشكلٍ مستقل مع الحفاظ على خصائص أداء متسقة عبر البيئات الهجينة ومتعددة السحابات.
  • يمكّن الفِرق من التركيز على بناء الذكاء الاصطناعي AI، وليس البنية التحتية: يَعمل بانسيابية ضمن البيئات السحابية والهجينة، ويتكامل بسهولة مع بيئات Kubernetes والحاويات الحالية، مما يُلغي الحاجة إلى أنظمة تخزين خارجية ويقلّل من التعقيد التشغيلي.

وقال Ajay Singh، كبير مسؤولي المنتجات في WEKA: "إن تحديات البنية التحتية للذكاء الاصطناعي AI فائق النطاق لا تشبه أي شيء واجهته الصناعة من قبل. فنحن في WEKA، نرى المؤسسات تكافح مع انخفاض استخدام وحدات GPU أثناء التدريب والحمل الزائد على وحدات GPU أثناء الاستدلال، بينما تتصاعد تكاليف الذكاء الاصطناعي AI إلى ملايين الدولارات لكل نموذج ووكيل". وأضاف: "لهذا السبب قمنا بهندسة نظام NeuralMesh Axon، الذي وُلد من تركيزنا العميق على تحسين كل طبقة من طبقات البنية التحتية للذكاء الاصطناعي AI بدءًا من وحدات GPU. الآن، يمكن للمؤسسات التي تضع الذكاء الاصطناعي AI أولاً تحقيق الأداء وكفاءة التكلفة اللازمين للابتكار التنافسي في مجال الذكاء الاصطناعي AI عند العمل على نطاق فائق وما هو أبعد من ذلك".

التوافر
يتوفر نظام NeuralMesh Axon حاليًا في إصدار محدود لعملاء الذكاء الاصطناعي AI من المؤسسات الكبيرة والمزودين الناشئين لخدمات الحوسبة السحابية المصممة خصيصًا لتطبيقات الذكاء الاصطناعي، ومن المقرر إتاحته بشكلٍ عام في خريف عام 2025. للحصول على مزيد من المعلومات، يُرجى زيارة:

  • صفحة المنتج: https://www.weka.io/product/neuralmesh-axon/
  • موجز الحل: https://www.weka.io/resources/solution-brief/weka-neuralmesh-axon-solution-brief
  • منشور المدونة: https://www.weka.io/blog/ai-ml/neuralmesh-axon-reinvents-ai-infrastructure-economics-for-the-largest-workloads/

نبذة عن شركة WEKA
تعيد شركة WEKA مفهوم تعريف الطريقة التي تبني بها المؤسسات وتُشغل وتوسع سير عمل الذكاء الاصطناعي AI من خلال NeuralMesh™، نظام التخزين الشبكي الذكي والتكيفي الخاص بها. على عكس البنية التحتية للبيانات التقليدية، التي تصبح أكثر هشاشة مع توسع بيئات الذكاء الاصطناعي AI، يصبح نظام NeuralMesh أسرع وأقوى وأكثر كفاءة مع التوسع، وينمو مع بيئة الذكاء الاصطناعي AI الخاصة بك لتوفير أساس مرن لابتكارات الذكاء الاصطناعي AI للمؤسسات والوكلاء. هذا ويحظى نظام NeuralMesh بثقة 30% من الشركات المدرجة في قائمة Fortune 50 وأبرز الشركات السحابية الناشئة ومبتكري الذكاء الاصطناعي AI في العالم، وهو يزيد من استخدام وحدات GPU، ويسرّع زمن الاستجابة للرمز الأول، ويخفض تكلفة ابتكار الذكاء الاصطناعي AI. أعرف المزيد من خلال www.weka.io، أو تواصل معنا على LinkedIn وX.

WEKA وشعار W هما علامتان تجاريتان مسجلتان لشركة .WekaIO, Inc وقد تكون الأسماء التجارية الأخرى المستخدمة هنا علامات تجارية لأصحابها.

الصورة- https://mma.prnewswire.com/media/2726225/WEKA_og_pr_wire_neuralmesh_axon.jpg
الشعار - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo_new.jpg

 

Modal title

من نفس المصدر

شركة WEKA تُطلق NeuralMesh: أساس ذكي وتكيفي للابتكار في مجال الذكاء الاصطناعي، مُصمم خصيصًا لعصر الاستدلال

شركة WEKA تُطلق NeuralMesh: أساس ذكي وتكيفي للابتكار في مجال الذكاء الاصطناعي، مُصمم خصيصًا لعصر الاستدلال

كَشفت شركة WEKA اليوم عن تقدُّم ثوري في بنية البيانات الخاصة بالذكاء الاصطناعي من خلال إطلاق ™NeuralMesh، وهو نظام تخزين قوي جديد مُوجَّه بالبرمجيات...

WEKA توسع نطاق تكامل واعتمادات NVIDIA، وتكشف النقاب عن شبكة الذاكرة المعززة في معرض GTC 2025

WEKA توسع نطاق تكامل واعتمادات NVIDIA، وتكشف النقاب عن شبكة الذاكرة المعززة في معرض GTC 2025

من معرض GTC 2025: أعلنت WEKA، شركة منصة البيانات الأصلية للذكاء الاصطناعي، عن تكاملها مع التصميم المرجعي لمنصة بيانات الذكاء الاصطناعي من NVIDIA وقد...

المزيد من الإصدارات من هذا المصدر

استكشف

الحاسوب / الإلكترونيات

الحاسوب / الإلكترونيات

أجزاء الحاسوب

أجزاء الحاسوب

أجزاء الحاسوب

أجزاء الحاسوب

برامج الحاسوب

برامج الحاسوب

المزيد من البيانات الصحفية في مواضيع ذات صلة

PR Newswire تواصل مع

  • +971 (0) 4 368 1644
    من الساعة 8 صباحًا حتى 5:30 مساءً بتوقيت غرينتش

المواقع العالمية

  • APAC
  • APAC - Traditional Chinese
  • آسيا
  • البرازيل
  • كندا
  • الجمهورية التشيكية
  • الدنمارك
  • فنلندا
  • فرنسا
  • ألمانيا

 

  • الهند
  • Indonesia
  • إسرائيل
  • إيطاليا
  • المكسيك
  • الشرق الأوسط
  • Middle East - Arabic
  • هولندا
  • النرويج
  • بولندا

 

  • البرتغال
  • روسيا
  • سلوفاكيا
  • إسبانيا
  • السويد
  • المملكة المتحدة
  • الولايات المتحدة
المواقع العالمية
  • آسيا
  • البرازيل
  • كندا
  • الجمهورية التشيكية
  • الدنمارك
  • فنلندا
  • فرنسا
  • ألمانيا
  • الهند
  • إسرائيل
  • إيطاليا
  • المكسيك
  • الشرق الأوسط
  • هولندا
  • النرويج
  • بولندا
  • البرتغال
  • روسيا
  • سلوفاكيا
  • إسبانيا
  • السويد
  • المملكة المتحدة
  • الولايات المتحدة
+971 (0) 4 368 1644
من الساعة 8 صباحًا حتى 5:30 مساءً بتوقيت غرينتش
  • شروط الاستخدام
  • بيان الخصوصية
  • بيان سياسة أمن المعلومات
  • خريطة الموقع
  • إعدادات ملفات تعريف الارتباط
© 2025 Cision US Inc حقوق النشر