تقرير دولي يحذّر من مخاطر متصاعدة للذكاء الاصطناعي وسط تسارع قدراته التقنية

تقرير دولي يحذّر من مخاطر متصاعدة للذكاء الاصطناعي وسط تسارع قدراته التقنية
حذّر التقرير السنوي الدولي لسلامة الذكاء الاصطناعي من جملة مخاطر ناشئة ترافق التوسع المتسارع في استخدام هذه التقنيات، ولا سيما في مجالات الاحتيال الرقمي والتزييف العميق والهجمات الإلكترونية، إضافة إلى التحديات التنظيمية وتأثيراتها المحتملة على سوق العمل.
ويُعدّ التقرير مسحًا سنويًا شاملًا للتطورات التكنولوجية المرتبطة بالذكاء الاصطناعي والمخاطر التي تولدها في قطاعات متعددة، من التزييف العميق والجرائم السيبرانية، إلى الصحة العامة والوظائف. وصدر التقرير بقيادة عالم الحاسوب الكندي يوشوا بنجيو، وشارك في إعداده أكثر من 100 خبير مستقل، ضمن سلسلة أُطلقت عقب قمة السلامة الدولية للذكاء الاصطناعي عام 2023، بحسب صحيفة الغارديان البريطانية.
وأشار التقرير إلى أن أنظمة الذكاء الاصطناعي تشهد تقدمًا ملحوظًا في مجالات الرياضيات والعلوم والبرمجة وإنشاء الصور، إلا أنها لا تزال تعاني من مشكلات جوهرية، أبرزها إصدار معلومات خاطئة أو ما يُعرف بـ«الهلوسات»، وعدم القدرة على تنفيذ مشاريع طويلة الأمد بشكل مستقل وموثوق.
ورغم هذه القيود، استشهد التقرير بدراسات تُظهر تحسنًا متسارعًا في قدرة أنظمة الذكاء الاصطناعي على إنجاز مهام هندسة البرمجيات، حيث يتضاعف زمن المهام التي يمكنها تنفيذها كل سبعة أشهر. ووفق هذا المسار، قد تتمكن هذه الأنظمة بحلول عام 2027 من إنجاز مهام تستغرق عدة ساعات، وبحلول عام 2030 مهام تمتد لأيام، وهو السيناريو الذي قد يشكل تهديدًا حقيقيًا لعدد من الوظائف، رغم تأكيد التقرير أن أتمتة المهام الطويلة والمعقدة لا تزال غير ممكنة في الوقت الراهن.
وسلّط التقرير الضوء على الانتشار المقلق للمواد الإباحية المفبركة باستخدام تقنيات التزييف العميق، واصفًا إياها بأنها «مصدر قلق بالغ»، مشيرًا إلى دراسة تُظهر أن 15% من البالغين في المملكة المتحدة شاهدوا مثل هذا المحتوى. وفي المقابل، أوضح التقرير أن الأدلة لا تزال محدودة بشأن استخدام واسع النطاق للذكاء الاصطناعي من قبل جهات خبيثة للتلاعب بالمستخدمين أو التأثير الجماعي المنظم.
وفي ما يتعلق بالمخاطر البيولوجية والكيميائية، أشار التقرير إلى أن بعض الدراسات تفيد بأن الذكاء الاصطناعي قد يوفر مساعدة أكبر في تطوير الأسلحة البيولوجية مقارنة بالبحث التقليدي عبر الإنترنت، لكنه شدد على الحاجة إلى مزيد من الأبحاث لتأكيد هذه النتائج. واعتبر أن هذه القدرات تضع صناع القرار أمام معضلة حقيقية، إذ يمكن للتقنيات نفسها أن تُستخدم لتسريع اكتشاف الأدوية وتشخيص الأمراض، ما يفرض خيارًا صعبًا بين تقييدها أو دعم تطويرها لأغراض إنسانية مفيدة.
كما حذّر التقرير من تنامي دور الذكاء الاصطناعي في الهجمات الإلكترونية، حيث بات قادرًا على دعم المهاجمين في مراحل متعددة، من تحديد الأهداف إلى إعداد الهجمات وتطوير البرمجيات الخبيثة. وأشار إلى أن الهجمات المؤتمتة بالكامل قد تتيح تنفيذ عمليات أوسع نطاقًا، وإن كانت هذه الإمكانية لا تزال محدودة بسبب عجز الأنظمة الحالية عن تنفيذ عمليات طويلة ومتعددة المراحل بشكل مستقل.
وفي ملف سوق العمل، أكد التقرير أن تأثير الذكاء الاصطناعي لا يزال غير محسوم، رغم كونه من أكثر القضايا إثارة لقلق السياسيين والرأي العام. وأوضح أن تبني هذه التقنيات يتم بوتيرة متفاوتة، حيث بلغ 50% في دول مثل الإمارات وسنغافورة، مقابل أقل من 10% في العديد من الدول منخفضة الدخل. كما تختلف نسب الاستخدام بين القطاعات، إذ وصلت في قطاعات المعلومات بالولايات المتحدة إلى 18%، مقابل 1.4% فقط في قطاعي البناء والزراعة.
وأظهرت دراسات في الدنمارك والولايات المتحدة عدم وجود ارتباط مباشر بين مستوى استخدام الذكاء الاصطناعي والتغيرات في إجمالي التوظيف، غير أن دراسة بريطانية أشارت إلى تباطؤ في التوظيف الجديد داخل الشركات التي تعتمد بكثافة على هذه التقنيات، ولا سيما في الوظائف التقنية والإبداعية. وخلص التقرير إلى أن وكلاء الذكاء الاصطناعي قد يُحدثون تأثيرًا أوسع على التوظيف مستقبلًا في حال تحسنت قدراتهم واستقلاليتهم التشغيلية.




