🔬 أبحاث2 دقائق للقراءة👁 0 مشاهدة

تجاوز خسارة المعرفة المدمرة: كيف يمكن نماذج اللغات الضخمة التكيف مع اللغات المستهدفة بكفاءة

في ظل قيود الموارد، تظهر استراتيجيات تحديث جديدة كحل فعّال لتجاوز خسارة المعرفة المدمرة في نماذج اللغات الضخمة. من خلال طرق مبتكرة، يمكن لهذه النماذج التكيف مع اللغات المتنوعة دون الحاجة إلى بيانات محددة مكلفة.

في عالم الذكاء الاصطناعي، تعتبر نماذج اللغات الضخمة (LLMs) من أبرز الابتكارات التي تفتح آفاقاً جديدة للتواصل العالمي. ومع ذلك، فإن نشر هذه النماذج في مختلف اللغات غالباً ما يواجه عقبات جمة، خصوصاً عندما يتعلق الأمر بتوافر بيانات معلمة (labeled data) للغات المستهدفة. المشاكل التي تواجهها هذه النماذج تتضمن خسارة المعرفة المدمرة (catastrophic forgetting) أثناء التكيف مع لغات جديدة.

لذا، تسعى الأبحاث الحالية إلى إيجاد حلول فعالة للتغلب على هذه التحديات. من بين هذه الحلول، تأتي استراتيجية "التحديثات المحمية من المصدر" (Source-Shielded Updates - SSU) كخيار واعد. تعتمد هذه الاستراتيجية على الحفاظ على المعرفة الموجودة في النماذج الأصلية باستخدام مجموعة مختارة من البيانات المصدرية وأسلوب تقييم أهمية المعلمات.

تكمن الفكرة الرئيسية لأسلوب SSU في تحديد المعلمات الحيوية التي تحتفظ بالقدرات الأساسية للنموذج، ومن ثم تطبيق استراتيجية تجميد عمودي لحماية هذه المعلمات خلال عملية التكييف. وقد أثبتت التجارب عبر خمس لغات متنوعة من حيث النمط، مع نماذج بحجم 7 مليار و13 مليار، أن SSU استطاعت تقليل تأثير خسارة المعرفة المدمرة بشكل ملحوظ. حيث انخفضت نسبة تدهور الأداء في المهام الأحادية اللغة إلى 3.4% (لنموذج 7B) و2.8% (لنموذج 13B) في المتوسط، وهو ما يمثل فارقاً واضحاً مقارنة بنسبة 20.3% و22.3% عند الإعداد الكامل.

علاوة على ذلك، قدّم SSU أداءً تنافسياً في اللغات المستهدفة مقارناً بالتكيف الكامل، متفوقاً على الأغراض المرجعية لجميع نماذج 7B ومعظم نماذج 13B. تعتبر هذه الإنجازات خطوة هامة نحو تعزيز التنوع اللغوي في نماذج الذكاء الاصطناعي، مما يمهد الطريق لتطبيقات جديدة في مجالات متعددة.

ما هي الخطوات التالية في رحلة تحسين نماذج اللغات الضخمة؟ شاركونا آراءكم في التعليقات.
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة