🧠 نماذج لغوية2 دقائق للقراءة👁 0 مشاهدة

بايزين-لورا: تحسين دقة نماذج اللغات الضخمة بأسلوب منخفض الرتبة

يقدم بحث جديد مفهوم بايزين-لورا الذي يعيد صياغة تحديثات لوارا بأسلوب احتمالي لتمثيل منخفض الرتبة، محسنًا دقة نماذج اللغات الضخمة. بتطبيق هذا النهج، نجح الباحثون في تقليل عدم اليقين وتحقيق دقة أعلى مع تكاليف تدريب منخفضة.

شهدت نماذج اللغات الضخمة (Large Language Models) تطوراً كبيراً في دقة الأداء، إلا أنها غالباً ما تعاني من مشكلة عدم اليقين عند إجراء التوقعات، خصوصًا عندما تتعرض لمجموعات بيانات صغيرة. في بحث جديد تم تقديم تقنية بايزين-لورا (Bayesian-LoRA) التي تهدف إلى معالجة هذه القضية من خلال إعادة صياغة التحديثات التقليدية بأسلوب محتمل يعتمد على تمثيلات منخفضة الرتبة، مستلهمة من العمليات الجاوسية المتناثرة (Sparse Gaussian Processes).

يأتي الطرح الجديد من خلال تحديد تطابق هيكلي بين عوامل لوارا (LoRA) وما يتم تمثيله في النماذج المعتمدة على العمليات الجاوسية. وقد أظهر البحث كيف تتكشف تقنية لورا كحالة حدية حينما ينهار عدم اليقين في التوزيعات البعدية.

أجريت تجارب متنوعة على البنية المعمارية للعديد من نماذج اللغات الضخمة، حيث أثبتت بايزين-لورا فعاليتها في تحسين دقة التوقعات بشكل ملحوظ. إذ أظهرت النتائج تقليلاً بنسبة تصل إلى 84% في خطأ التقدير التقني (ECE) و76% في فقدان اللوغاريتم السلبي (NLL) مع الحفاظ على دقة تنافسية في التقييمات من داخل وخارج التوزيع، باستخدام حوالي 0.42 مليون معامل إضافي وتكلفة تدريب تقارب 1.2 مرة مقارنة بتقنية لوارا القياسية.

بمقدور هذه النتائج إعادة تشكيل قواعد اللعبة في مجال الذكاء الاصطناعي، مما يمهد الطريق لمستقبل أكثر دقة في نماذج اللغات الضخمة. هل تعتقد أن بايزين-لورا ستحدث ثورة في دقة الذكاء الاصطناعي؟ شاركونا أرائكم في التعليقات!
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة