هوش مصنوعی و افشای دادههای محرمانه؛ تهدید جدی حریم خصوصی کاربران حتی پس از حذف اطلاعات

هوش مصنوعی و افشای دادههای محرمانه؛ تهدید جدی حریم خصوصی کاربران حتی پس از حذف اطلاعات

پژوهشهای تازه نشان میدهد حتی پس از پاکسازی یا ویرایش دادهها در مدلهای هوش مصنوعی، اثر انگشت تغییرات پارامتری میتواند محرمانگی اطلاعات کاربران را تهدید کند.
این یافتهها هشدار مهمی برای شرکتهای توسعهدهنده هوش مصنوعی و کاربران درباره امنیت دادهها به شمار میرود.

محققان دانشگاههای برجسته چین دریافتند که روشهای رایج ویرایش و حذف اطلاعات در مدلهای زبانی بزرگ ممکن است خود به منبعی برای افشای دادههای محرمانه تبدیل شود.
در این پژوهش نشان داده شد که تغییرات پارامتری ایجادشده برای حذف اطلاعات، مانند یک «کانال جانبی» عمل کرده و مهاجمان میتوانند دادههایی را که قرار بود حذف شوند، بازسازی کنند.

به گزارش نیچر، روش مرجع ویرایش مدلها موسوم به «مکانیابی و ویرایش» بخشهایی از مدل را که اطلاعات نادرست تولید میکنند شناسایی و پارامترهای آنها را تغییر میدهد.
پژوهشگران با ارائه چارچوبی به نام KSTER، نشان دادند که ماتریس تغییرات پارامتری اثر انگشتی از موضوع ویرایش شده بر جای میگذارد. با تحلیل طیفی و حملات مبتنی بر آنتروپی، میتوان متن و زمینه معنایی دادههای حساس را بازیابی کرد.

این حمله روی مدلهای محبوبی مانند لیما ۳، جیپیتی-جی و کون-۲.۵ آزمایش شد و نرخ موفقیت بازسازی دادهها بسیار بالا گزارش شد.
کارشناسان امنیت سایبری هشدار میدهند که تصور سابق درباره «فراموشی امن» دادهها در هوش مصنوعی دیگر قابل اتکا نیست.

تیم تحقیقاتی برای مقابله با این تهدید، استراتژی دفاعی «استتار فضای فرعی» را پیشنهاد کرده است.
در این روش، اثر انگشت تغییرات پارامتری با دادههای جعلی و فریبنده پوشانده میشود تا امکان بازیابی دادههای حساس از بین برود، بدون آنکه دقت یا عملکرد مدل کاهش یابد.
به نقل از زد دی نت، این یافتهها اهمیت بازنگری پروتکلهای امنیتی شرکتها هنگام آپدیتهای کوچک و سریع هوش مصنوعی را نشان میدهد.

همچنین کاربران باید آگاه باشند که حتی دادههایی که به ظاهر حذف شدهاند، ممکن است از طریق مهندسی معکوس لو بروند.
این پژوهش زنگ خطری برای توسعهدهندگان و نهادهای قانونگذار در حوزه فناوری اطلاعات و امنیت دیجیتال است.
پژوهشگران تأکید میکنند که در آینده، با گسترش استفاده از هوش مصنوعی در سیستمهای بانکی، پزشکی و آموزش، خطر افشای دادههای حساس بیش از پیش افزایش خواهد یافت.

بنابراین طراحی پروتکلهای امنیتی پیشرفته و نظارت مستمر بر مدلهای هوش مصنوعی امری ضروری است تا اطمینان حاصل شود اطلاعات شخصی کاربران در معرض سوءاستفاده قرار نمیگیرد و اعتماد عمومی به فناوریهای نوین حفظ شود.




