هشدار درباره تهدید هوش مصنوعی برای حقوق و کرامت انسانی

هشدار درباره تهدید هوش مصنوعی برای حقوق و کرامت انسانی
تحقیقی جدید از دانشگاه چارلز داروین استرالیا نشان میدهد رشد سریع هوش مصنوعی میتواند حقوق و کرامت انسانی را به خطر بیندازد و این مساله، نیاز فوری به مقررات جهانی و انسانمحور دارد.
پژوهشگران دانشگاه چارلز داروین با انتشار تحقیقی جامع درباره پیامدهای توسعه سریع هوش مصنوعی هشدار دادهاند.
این مطالعه نشان میدهد بسیاری از مدلهای الگوریتمی غیرقابل ردیابی هستند و قوانین موجود نمیتوانند از حقوق حیاتی انسان مانند حریم خصوصی، خودمختاری و جلوگیری از تبعیض محافظت کنند. .
مسئله «جعبه سیاه» باعث می شود که کاربران نمیتوانند دلایل تصمیمات هوش مصنوعی را بررسی کنند و همین باعث میشود حقوق انسانی بدون پاسخگویی نقض شود.
«جعبه سیاه» در هوش مصنوعی به حالتی گفته میشود که الگوریتم یا مدل هوش مصنوعی تصمیمات خود را بر اساس فرایندهای پیچیده داخلی میگیرد، اما برای کاربران و حتی توسعهدهندگان، دلیل دقیق این تصمیمات قابل مشاهده یا فهمیدن نیست.
به عبارت سادهتر، ورودی به سیستم داده میشود، خروجی حاصل میشود، اما مسیر منطقی و تصمیمگیری بین این دو مشخص نیست. این مسئله باعث میشود بررسی خطاها، تبعیضها یا نقض حقوق انسانی دشوار شود.
محققان تأکید میکنند که هوش مصنوعی فاقد درک انسانی، همدلی و خرد است و عمل صرف بر اساس الگوریتمها میتواند ارزش انسانی را کاهش دهد و افراد را به دادههای آماری تبدیل کند.
بدون توجه به ویژگیهای انسانی مانند انتخاب، استدلال و شفقت، خطر آسیب جدی به جامعه جهانی افزایش مییابد.
این تحقیق سیاستهای سه قدرت دیجیتال اصلی جهان را نیز بررسی کرده است: ایالات متحده با رویکرد بازارمحور، چین با رویکرد دولتمحور و اتحادیه اروپا با رویکرد انسانمحور.
پژوهشگران بهترین مسیر را رویکرد انسانمحور میدانند، اما هشدار میدهند که بدون تعهد جهانی، حتی این روش ناکافی خواهد بود.
رسانههایی مانند «نشریه استرالیایی حقوق بشر» Australian Journal of Human Rights گزارش دادهاند که این تحقیق بخشی از یک مجموعه سهگانه درباره تأثیر هوش مصنوعی بر کرامت و حقوق انسانی است.
پژوهشگران تأکید دارند حفاظت از کرامت انسان در عصر هوش مصنوعی نیازمند مقررات جهانی، شفافیت کامل و پایبندی به ارزشهای انسانی است تا فناوری به خدمت بهبود زندگی انسانها درآید، نه تهدید آن.