في عصر يتسارع فيه تطور تقنيات الذكاء الاصطناعي، خاصة في مجال توليد النصوص، يظهر على السطح موضوع حيوي يتطلب الانتباه: الانحياز في أنظمة كشف النصوص المولدة باستخدام الذات الاصطناعية. الدراسة الأخيرة التي تم نشرها على منصة arXiv تسلط الضوء على كيفية تأثير الانحيازات في التصنيفات التي تقوم بها هذه الأنظمة.

تم تحليل أداء 16 نظام كشف نصوص في سياق مجموعة متنوعة من التقييمات مثل الجنس، العرق، حالة تعلم اللغة الإنجليزية (English-language learner)، والوضع الاقتصادي. إذاً، كيف يؤثر كل من هذه العوامل على احتمالية تصنيف نص معين على أنه مولد بواسطة الكمبيوتر؟

النتائج كانت مثيرة للدهشة. فقد أظهرت الأنظمة انحيازات غير متسقة، لكن هناك قضايا بارزة تبرز بوضوح. على سبيل المثال، تميل بعض النماذج إلى تصنيف النصوص الخاصة بالفئات المهمشة على أنها نصوص مولدة بالذكاء الاصطناعي، مما قد يؤدي إلى عواقب وخيمة على هذه الفئات. كما تبين أن نصوص طلاب التعلم الإنجليزي غالباً ما يتم تقيمها على أنها مولدة آلياً، بينما قد يحصل الطلاب من فئات اقتصادية متدنية على تصنيفات أقل كمولدات آلية.

من المثير للدهشة أن الدراسة وجدت أن البشر، رغم أدائهم الضعيف عند تنفيذ مهام الكشف، لا يظهرون انحيازًا ملحوظًا في النصوص وفقًا للعوامل المدروسة. هذه النتيجة تسلط الضوء على الحاجة الملحة لتطوير نماذج كشف أكثر عدلاً ودقة.

أصبح من الواضح أن السعي نحو العدالة في الذكاء الاصطناعي لا يزال تحديًا كبيرًا. لقد حان الوقت لمراجعة وتعزيز الطريقة التي نتعامل بها مع تكنولوجيا كشف النصوص لضمان أن يكون تأثيرها إيجابيًا وعادلًا بشكل شامل.