كيف تؤدي نماذج الذكاء الاصطناعي الأبحاث العلمية دون تفكير عميق؟
أظهرت دراسة جديدة أن الأنظمة المعتمدة على نماذج اللغات الضخمة (LLM) تقوم بأبحاث علمية بشكل مستقل، ولكن دون الالتزام بالمعايير العلمية الدقيقة. النتائج تكشف ثغرات خطيرة في طريقة التفكير العلمي لهذه النماذج.
تشهد الساحة العلمية تطورات مثيرة عبر استخدام نماذج اللغات الضخمة (Large Language Models)، حيث أظهرت دراسة حديثة أن هذه الأنظمة باتت قادرة على إتمام الأبحاث العلمية بشكل مستقل. لكن، هل يمكن اعتبار تلك النتائج موثوقة؟
استنادًا إلى دراسة عقدت على 25,000 تجربة، تبين أن نماذج الذكاء الاصطناعي هذه تُظهر ثغرات ملحوظة في طريقة تفكيرها. حيث لوحظ أن النموذج الأساسي كان له الدور الأكبر في تحديد كل من الأداء والسلوك، محققًا نسبة 41.4% من الفروق المفسّرة، بينما لم تسجل الإضافات الهيكلية سوى 1.5%.
المثير للاستغراب هو أن هذه النماذج تتجاهل الأدلة في 68% من الحالات، وعمليات مراجعة الافتراضات تستند إلى نفي الحقائق في 26% فقط، مما يوضح أن لدى هذه النماذج طريقة تفكير غير موثوقة حتى عند وجود مسارات واضحة للتفكير.
كما أظهر التحليل السلوكي أن تلك الأنظمة لا تتمتع بالأنماط المعرفية التي تميز البحث العلمي، مما يعني أن الأنظمة الحالية رغم قدرتها على تنفيذ المهام، إلا أنها لا تملك القدرة على التفكير العلمي الصحيح. مما يتطلب منا إعادة النظر في كيفية تقييم نتائج الأبحاث التي تتم من خلال هذه الأنظمة، مضيفين: "لا يمكن أن يُعتبر الإنتاج العلمي منتجًا موثوقًا إذا لم تُعتبر طريقة التفكير نفسها هدفًا في التدريب".
ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
استنادًا إلى دراسة عقدت على 25,000 تجربة، تبين أن نماذج الذكاء الاصطناعي هذه تُظهر ثغرات ملحوظة في طريقة تفكيرها. حيث لوحظ أن النموذج الأساسي كان له الدور الأكبر في تحديد كل من الأداء والسلوك، محققًا نسبة 41.4% من الفروق المفسّرة، بينما لم تسجل الإضافات الهيكلية سوى 1.5%.
المثير للاستغراب هو أن هذه النماذج تتجاهل الأدلة في 68% من الحالات، وعمليات مراجعة الافتراضات تستند إلى نفي الحقائق في 26% فقط، مما يوضح أن لدى هذه النماذج طريقة تفكير غير موثوقة حتى عند وجود مسارات واضحة للتفكير.
كما أظهر التحليل السلوكي أن تلك الأنظمة لا تتمتع بالأنماط المعرفية التي تميز البحث العلمي، مما يعني أن الأنظمة الحالية رغم قدرتها على تنفيذ المهام، إلا أنها لا تملك القدرة على التفكير العلمي الصحيح. مما يتطلب منا إعادة النظر في كيفية تقييم نتائج الأبحاث التي تتم من خلال هذه الأنظمة، مضيفين: "لا يمكن أن يُعتبر الإنتاج العلمي منتجًا موثوقًا إذا لم تُعتبر طريقة التفكير نفسها هدفًا في التدريب".
ما رأيكم في هذا التطور؟ شاركونا في التعليقات.
📰 أخبار ذات صلة
أبحاث
استكشاف مشكلة تسلسل العناصر المشترك الأطول: ثغرات متعددة ومتغيرات معقدة
أركايف للذكاءمنذ 2 ساعة
أبحاث
ARES: نظام مبتكر لتعزيز أمان نماذج اللغة من خلال التكيف والمواجهة ذات الهدف المزدوج
أركايف للذكاءمنذ 2 ساعة
أبحاث
كشف أسرار الشبكات العصبية المستوحاة من الكوانتم: دليلك لتحقيق التنبؤات المالية الدقيقة
أركايف للذكاءمنذ 2 ساعة