🧠 نماذج لغوية1 دقائق للقراءة👁 0 مشاهدة

موبي: ثورة في تحسين أداء نماذج الخبراء الثنائية بفضل تقنيات التقدير منخفض التكلفة

عام 2023 شهد إطلاق إطار موبي (MoBiE) لتحسين أداء نماذج الخبراء الثنائية، مما يخفض التكاليف الحسابية ويساهم في زيادة السرعة. تتفوق هذه التقنية الجديدة على الأساليب التقليدية، مما يعد بإنجازات رائدة في مجال الذكاء الاصطناعي.

تشهد الساحة التقنية ثورة جديدة عند الحديث عن نماذج اللغات الضخمة (Large Language Models) التي تعتمد على مفهوم مختلط من الخبراء (Mixture of Experts). بينما تتمتع هذه النماذج بأداء عالٍ، تعاني من تكاليف الذاكرة العالية والحوسبة المعقدة. هنا يتدخل موبي (MoBiE) كحل مبتكر لمعالجة هذه التحديات.

موبي هو أول إطار عمل مصمم خصيصًا لنماذج MoE، مقدماً ثلاثة ابتكارات أساسية: 1. الاستفادة من تحلل SVD المشترك لتقليل التكرار بين الخبراء؛ 2. دمج تدرجات الخسارة العالمية مع مقاييس Hessian المحلية لتحسين تقدير أهمية الأوزان؛ 3. تقديم قيد خطأ يعتمد على الفضاء الصفري للإدخال للتخفيف من تشويه التوجيه.

تظهر التجارب أن موبي يتفوق على الأساليب الحالية بينما لا يضيف أي تكاليف تخزينية إضافية، مما يحقق توازنًا مثاليًا بين الكفاءة وأداء النموذج.

على سبيل المثال، يحقق موبي على نموذج Qwen3-30B-A3B تحسنًا ملحوظًا بتقليل الارتباك بنسبة 52.2% وزيادة الأداء في مهام عدم المعرفة بنسبة 43.4%، مع مضاعفة سرعة التقدير. يمكن للمطورين والحكومات والشركات الاستفادة من هذا التطور لتحقيق أداء أفضل في تطبيقات الذكاء الاصطناعي.

لمزيد من المعلومات، يمكنك زيارة [GitHub](https://github.com/Kishon-zzx/MoBiE). ما هي أفكاركم حول هذا الابتكار؟ دعونا نعرف في التعليقات.
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة