العالم

تقارير دولية: خوارزميات الذكاء الاصطناعي تعيد إنتاج التمييز ضد المسلمين بوجه رقمي

تقارير دولية: خوارزميات الذكاء الاصطناعي تعيد إنتاج التمييز ضد المسلمين بوجه رقمي

كشفت تقارير دولية حديثة عن تحول أنظمة الذكاء الاصطناعي في أوروبا والولايات المتحدة إلى أدوات تعيد إنتاج أشكال التمييز القديمة ضد المسلمين، لكن بصيغة رقمية متخفية خلف ادعاءات “الحياد التكنولوجي”.
وتشير البيانات إلى أن برامج التعرف على الوجوه تسجل أعلى نسب الأخطاء مع أصحاب البشرة الداكنة والنساء المحجبات، فيما تُصنّف أنظمة الحدود الأسماء الإسلامية تلقائياً بوصفها “تهديداً أمنياً”. كما تسمح منصات الإنترنت بانتشار خطاب الكراهية ضد المسلمين، في وقت تُقيد فيه المحتويات المرتبطة بالقضايا الإسلامية العادلة أو التمييز الديني.
ويؤكد متخصصون في الذكاء الاصطناعي أن المشكلة ليست في “خطأ تقني”، بل في طبيعة البيانات التي دُرّبت عليها الأنظمة، والمستندة إلى روافد سياسية وأمنية غربية رسخت صورة المسلم بوصفه خطراً محتملاً. وبهذا، تواصل الخوارزميات تكرار ذات المنطق الاستشراقي ولكن بسرعة أكبر ودون مسؤولية مباشرة.
وفي الولايات المتحدة، ما تزال قرارات الحظر السابقة ضد دول إسلامية جزءاً من ذاكرة الأنظمة الرقمية، بحيث تُربط اللغة والعرق والاسم بكلمة “إرهاب” داخل نماذج التصنيف الآلي. أما في أوروبا، فتُظهر مشاريع الشرطة التنبؤية نزعة لإعادة إنتاج التنميط العرقي، بينما تتعامل فرنسا مع مظاهر التدين العادية كمؤشرات تطرف محتملة.
وبحسب الخبراء، أصبحت حياة ملايين المسلمين خاضعة لمراقبة غير مرئية، إذ تحدد الخوارزميات من يتعرض للتفتيش الإضافي في المطارات، ومن تقلّ فرصه في الحصول على وظيفة، ومن يُحجب صوته أو محتواه على الإنترنت، وكل ذلك من دون دليل أو مخالفة.
ومع تصاعد الوعي بهذه المخاطر، تطالب أصوات تقنية وقانونية من العالم الإسلامي والغرب بالكشف عن طريقة عمل هذه الأنظمة، معتبرة أن الخطر الحقيقي لا يكمن في “ذكاء الآلة”، بل في تحيزات من يقوم بتدريبها وتوجيهها.

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى