هوش مصنوعی

هوش مصنوعی و افشای داده‌های محرمانه؛ تهدید جدی حریم خصوصی کاربران حتی پس از حذف اطلاعات

هوش مصنوعی و افشای داده‌های محرمانه؛ تهدید جدی حریم خصوصی کاربران حتی پس از حذف اطلاعات

پژوهش‌های تازه نشان می‌دهد حتی پس از پاک‌سازی یا ویرایش داده‌ها در مدل‌های هوش مصنوعی، اثر انگشت تغییرات پارامتری می‌تواند محرمانگی اطلاعات کاربران را تهدید کند.

این یافته‌ها هشدار مهمی برای شرکت‌های توسعه‌دهنده هوش مصنوعی و کاربران درباره امنیت داده‌ها به شمار می‌رود.

محققان دانشگاه‌های برجسته چین دریافتند که روش‌های رایج ویرایش و حذف اطلاعات در مدل‌های زبانی بزرگ ممکن است خود به منبعی برای افشای داده‌های محرمانه تبدیل شود.

در این پژوهش نشان داده شد که تغییرات پارامتری ایجادشده برای حذف اطلاعات، مانند یک «کانال جانبی» عمل کرده و مهاجمان می‌توانند داده‌هایی را که قرار بود حذف شوند، بازسازی کنند.

به گزارش نیچر، روش مرجع ویرایش مدل‌ها موسوم به «مکان‌یابی و ویرایش» بخش‌هایی از مدل را که اطلاعات نادرست تولید می‌کنند شناسایی و پارامترهای آن‌ها را تغییر می‌دهد.

پژوهشگران با ارائه چارچوبی به نام KSTER، نشان دادند که ماتریس تغییرات پارامتری اثر انگشتی از موضوع ویرایش شده بر جای می‌گذارد. با تحلیل طیفی و حملات مبتنی بر آنتروپی، می‌توان متن و زمینه معنایی داده‌های حساس را بازیابی کرد.

این حمله روی مدل‌های محبوبی مانند لیما ۳، جی‌پی‌تی-جی و کون-۲.۵ آزمایش شد و نرخ موفقیت بازسازی داده‌ها بسیار بالا گزارش شد.

کارشناسان امنیت سایبری هشدار می‌دهند که تصور سابق درباره «فراموشی امن» داده‌ها در هوش مصنوعی دیگر قابل اتکا نیست.

تیم تحقیقاتی برای مقابله با این تهدید، استراتژی دفاعی «استتار فضای فرعی» را پیشنهاد کرده است.

در این روش، اثر انگشت تغییرات پارامتری با داده‌های جعلی و فریبنده پوشانده می‌شود تا امکان بازیابی داده‌های حساس از بین برود، بدون آنکه دقت یا عملکرد مدل کاهش یابد.

به نقل از زد دی نت، این یافته‌ها اهمیت بازنگری پروتکل‌های امنیتی شرکت‌ها هنگام آپدیت‌های کوچک و سریع هوش مصنوعی را نشان می‌دهد.

همچنین کاربران باید آگاه باشند که حتی داده‌هایی که به ظاهر حذف شده‌اند، ممکن است از طریق مهندسی معکوس لو بروند.

این پژوهش زنگ خطری برای توسعه‌دهندگان و نهادهای قانون‌گذار در حوزه فناوری اطلاعات و امنیت دیجیتال است.

پژوهشگران تأکید می‌کنند که در آینده، با گسترش استفاده از هوش مصنوعی در سیستم‌های بانکی، پزشکی و آموزش، خطر افشای داده‌های حساس بیش از پیش افزایش خواهد یافت.

بنابراین طراحی پروتکل‌های امنیتی پیشرفته و نظارت مستمر بر مدل‌های هوش مصنوعی امری ضروری است تا اطمینان حاصل شود اطلاعات شخصی کاربران در معرض سوءاستفاده قرار نمی‌گیرد و اعتماد عمومی به فناوری‌های نوین حفظ شود.

اخبار مرتبط

دیدگاهتان را بنویسید

دکمه بازگشت به بالا