اكتشاف OjaKV: الحل الثوري لضغط ذاكرة الكاش في نماذج الذكاء الاصطناعي
🔬 أبحاث1 دقائق للقراءة👁 0 مشاهدة

اكتشاف OjaKV: الحل الثوري لضغط ذاكرة الكاش في نماذج الذكاء الاصطناعي

تقدم OjaKV إطارًا جديدًا لضغط ذاكرة الكاش اللازمة للنماذج اللغوية، مما يعزز قدرتها على معالجة السياقات الطويلة بكفاءة. يجمع هذا النظام بين التخزين الهجين وتكييف الفضاء الفرعي ليحقق أداءً متفوقًا.

في عالم الذكاء الاصطناعي، تعتبر القدرة على معالجة السياقات الطويلة أحد أكبر التحديات أمام النماذج اللغوية الضخمة (Large Language Models). في هذا السياق، أدى ارتفاع متطلبات الذاكرة الخاصة بخزان الكاش (KV Cache) إلى ظهور عائق رئيسي في الأداء. على سبيل المثال، نموذج Llama-3.1-8B بحاجة إلى حوالي 16GB من الذاكرة ليدير إدخالًا يحتوي على 32,000 رمز، وهو ما يتجاوز بشكل كبير حجم وزن النموذج نفسه.

لحل هذه المشكلة، تم تطوير OjaKV، وهو إطار عمل جديد يدمج بين سياسة التخزين الهجين وتكييف الفضاء الفرعي عبر الإنترنت. يعتمد هذا النظام على مبدأ أن بعض الرموز أهم من غيرها، حيث يحافظ على الرموز الأولى والأخيرة بشكل كامل بينما يطبق ضغطًا منخفض الرتبة على الرموز المتوسطة. يستخدم OjaKV خوارزمية أوجا (Oja's Algorithm) لتحليل المكونات الرئيسية، مما يسمح بتحديثات فورية للتكيف مع تزايد السياقات.

تمتاز هذه التقنية بتوافقها الكامل مع وحدات الانتباه الحديثة مثل FlashAttention، حيث أظهرت التجارب أن OjaKV يحافظ على دقة الأداء حتى مع معدلات ضغط عالية. هذا وبرزت فاعليتها بشكل خاص في البيئات التي تتطلب عمليات استدلال معقدة، مما يشير إلى أهمية التكيف الديناميكي مع تغيير الظروف.

باختصار، يعد OjaKV بمثابة حل عملي وذكي يمكن دمجه بسهولة لتحسين كفاءة الذاكرة عند التعامل مع السياقات الطويلة دون الحاجة إلى ضبط النموذجات بشكل دقيق.
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة