آیا میتوان به چتجیپیتی اعتماد کرد؟

با گسترش استفاده از هوش مصنوعی در زندگی روزمره، پرسشها درباره میزان اعتماد به آن رو به افزایش است.
گزارش جدید اسکای نیوز درباره خطاهای چتجیپیتی و اعترافهای خود این سامانه، تردیدها را بیش از پیش برجسته کرده است.

چتجیپیتی، پرکاربردترین چتبات هوش مصنوعی جهان، بار دیگر بهدلیل تولید اطلاعات نادرست، در مرکز توجه رسانهها قرار گرفته است.
اسکای نیوز با انتشار گزارشی فاش کرد که این سامانه، گفتوگویی خیالی از یک قسمت پادکست ساختگی ارائه داده و حتی پس از مواجهه با اعتراض، بر ادعای خود اصرار ورزیده است.
رفتاری که در ادبیات هوش مصنوعی با عنوان «توهم» (Hallucination) شناخته میشود، به تولید پاسخهای نادرست و خیالی توسط سامانه با اطمینان کامل اشاره دارد.

به گزارش ایندیپندنت فارسی، نتایج داخلی شرکت اوپنایآی ــ توسعهدهنده چتجیپیتی ــ نشان میدهد که نسخههای اخیر این مدلها دقت کمتری دارند.
برای مثال، GPT-4o-mini در 48 درصد و نسخه o3 در 33 درصد موارد اطلاعات نادرست ارائه کردهاند.
این در حالی است که توسعهدهندگان، با حذف عبارات احتیاطی مانند «ممکن است اشتباه کنم»، تلاش کردهاند خروجیهای مدل را انسانیتر جلوه دهند.
چتجیپیتی خود اذعان دارد که روانتر شدن گفتار، پر کردن خلأهای دانشی با حدس، و تغییرات در تنظیمات آموزشی از دلایل بروز این پدیدهاند.
با وجود تواناییهای تحسینبرانگیز، کارشناسان هشدار میدهند که اعتماد کامل به سامانهای که هنوز خطاهای بنیادی دارد، میتواند پیامدهای نگرانکنندهای به دنبال داشته باشد.
این پرسش همچنان باقی است: آیا هوش مصنوعی فقط ابزاری است یا روایتی با چهرهای انسانی؟