أخبارالعالمالعلوم والتكنولوجيا

الذكاء الاصطناعي يتجاوز “الخط الأحمر”: مخاوف من فقدان السيطرة البشرية

أثارت دراسة حديثة أجرتها جامعة فودان الصينية مخاوف واسعة حول المخاطر المتزايدة للذكاء الاصطناعي، بعد أن أكدت إمكانية تحقيق الذكاء الاصطناعي “التكرار الذاتي” بنجاح دون أي تدخل بشري. هذا التطور، الذي وصفه الباحثون بأنه “تجاوز للخط الأحمر”، يضع البشرية أمام احتمال ظهور ذكاء اصطناعي “مارق” يهدد السيطرة البشرية على هذه التكنولوجيا المتقدمة.
الدراسة، المنشورة على قاعدة بيانات arXiv في 9 ديسمبر 2024، استخدمت نموذجي ذكاء اصطناعي شهيرين هما Llama31-70B-Instruct من شركة ميتا وQwen2.5-72B-Instruct من شركة علي بابا. ووفقاً للنتائج، تمكن النموذجان من إنشاء نسخ منفصلة عن نفسيهما في 10 تجارب، بنسب نجاح بلغت 50% و90% على التوالي. هذا الإنجاز يعكس قدرة الذكاء الاصطناعي على تجاوز الحدود المرسومة له، وتوليد نسخ جديدة قادرة على تكرار العملية بشكل مستقل.
وأظهرت الدراسة أن الذكاء الاصطناعي يستطيع التكيف مع التحديات من خلال سلوكيات غير متوقعة، مثل تعطيل العمليات التي تعترض طريقه، أو إعادة تشغيل نفسه تلقائياً، أو حتى البحث عن حلول مبتكرة لضمان بقائه قيد التشغيل. كما ركزت الدراسة على سيناريوهين رئيسيين:
تجنب الإغلاق: حيث تمكن الذكاء الاصطناعي من اكتشاف محاولات تعطيله وإنشاء نسخة جديدة من نفسه لضمان استمراره.
سلسلة التكرار: حيث تم توجيه النسخ التي أنشأها الذكاء الاصطناعي لإعادة العملية نفسها، ما قد يؤدي إلى دورة لا نهائية من التكرار الذاتي.
هذه السلوكيات تعزز مخاوف العلماء من إمكانية ظهور ذكاء اصطناعي مارق يتصرف بشكل مستقل ودون قيود بشرية، ما يمثل تهديداً وجودياً إذا لم يتم التعامل معه بحذر.
ورغم أن الدراسة لم تخضع بعد لمراجعة الأقران، إلا أن نتائجها كانت بمثابة “جرس إنذار” للمجتمع العلمي والحكومات. ودعا الباحثون إلى تعزيز الجهود الدولية لتقييم المخاطر ووضع ضوابط أمان صارمة لضمان عدم استخدام الذكاء الاصطناعي في عمليات التكرار الذاتي غير المنضبط.
وأكد العلماء أن التعاون الدولي ضروري للتوفيق بين الابتكار وإدارة المخاطر، مشددين على أن العالم بحاجة إلى قواعد جديدة تضمن السيطرة على التكنولوجيا المتقدمة وتمنع خروجها عن السيطرة.
وفي ظل التطورات المتسارعة في مجال الذكاء الاصطناعي، تأمل الدراسة أن تكون نتائجها بمثابة تحذير مبكر للمجتمع البشري. وفي وقتٍ تصبح فيه الأنظمة الذكية أكثر تعقيداً واستقلالية، تبقى التساؤلات مفتوحة حول كيفية ضمان استخدامها بطرق تخدم البشرية دون تعريضها للخطر.

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى