🔬 أبحاث2 دقائق للقراءة👁 0 مشاهدة

كيف يمكن لنماذج الرؤية واللغة أن تحمي نفسها من التلاعب الخبيث؟

تكشف دراسة جديدة عن دور ارتباط نماذج الرؤية واللغة بمراكز المعالجة البصرية في الدماغ في مقاومتها للتلاعب الضار. النتائج تشير إلى أن هذه الارتباطات توفر درعًا ضد التلاعب اللغوي غير الأخلاقي.

في عصر تكنولوجيا الذكاء الاصطناعي، تُعتبر نماذج الرؤية واللغة (Vision-Language Models) أدوات حيوية تُستخدم في مجالات تتطلب دقة عالية. ولكن، ماذا لو كانت هذه النماذج عرضة لتلاعب خبيث؟ تشير دراسة جديدة إلى أن الارتباط الوثيق لهذه النماذج بمراكز المعالجة البصرية في الدماغ يمكن أن يساعد في التحصين ضد هذه التهديدات.

في هذه الدراسة، تم تقييم 12 نموذجًا من نماذج الرؤية واللغة ذات وزن مفتوح، تغطي 6 عائلات معمارية ومجموعة وسائط ضخمة تتراوح بين 256 مليون إلى 10 مليار معلمة. تم قياس موقع معالجتها وفقًا لارتباطها بالطريقة التي يعالج بها الدماغ المعلومات البصرية. حيث تمت دراسة استجابة النشاط الدماغي باستخدام بيانات تصوير الرنين المغناطيسي الوظيفي (fMRI) لثمانية من المشاركين عبر 6 مناطق من القشرة البصرية.

النقاط الرئيسية أظهرت نتائج التحليل أن الارتباط في مراحل القشرة البصرية المبكرة (V1–V3) كان مؤشرًا سلبيًا موثوقًا للتلاعب اللغوي. فعلى سبيل المثال، كان هناك ارتباط سالب قوي خاص بهجمات إنكار الوجود بنحو 59.7%. هذا يعني أن النماذج التي تعكس بشكل أفضل كيفية معالجة البشر للمعلومات البصرية أقل عرضة للتلاعب الخبيث.

يُظهر هذا البحث أهمية التصميم الداخلي لنماذج الذكاء الاصطناعي، حيث إن فهم كيفية ترميز المعلومات البصرية بشكل دقيق يُعد نقطة انطلاق نحو نماذج أكثر أمانًا وفعالية. كما تم توفير الكود المُستخدم في البحث على [GitHub](https://github.com/aryashah2k/Gaslight-Gatekeep-Sycophantic-Manipulation) والبيانات على [Hugging Face](https://huggingface.co/datasets/aryashah00/Gaslight-Gatekeep-V1-V3). هل تعتقد أن الارتباط بالمعالجة البصرية هو الحل لمشكلة التلاعب اللغوي؟ شاركونا آرائكم في التعليقات.
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة