پژوهشگران امنیت سایبری هشدار دادهاند که مجرمان اینترنتی میتوانند بهسادگی کنترل رایانههایی را که مدلهای بزرگ زبانیِ متنباز را خارج از چارچوبهای امنیتی پلتفرمهای بزرگ هوش مصنوعی اجرا میکنند، در دست بگیرند و از آنها برای فعالیتهای غیرقانونی استفاده کنند.
بر اساس تحقیقی مشترک از سوی شرکتهای امنیت سایبری سنتینلوان و سِنسیس که در بازۀ ۲۹۳ روزه انجام و بهطور اختصاصی با رویترز به اشتراک گذاشته شده، هزاران سرور در سراسر جهان مدلهای متنباز هوش مصنوعی را بدون حفاظهای امنیتی متعارف اجرا میکنند. پژوهشگران میگویند در صدها مورد، محدودیتها و «گاردریلهای» ایمنی این مدلها بهطور کامل حذف شده است.
به گفتۀ این پژوهش، هکرها میتوانند این سامانهها را برای تولید هرزنامه، محتوای فیشینگ، راهاندازی کارزارهای اطلاعات نادرست و دیگر فعالیتهای مجرمانه بهکار بگیرند، بدون آنکه تحت نظارت و کنترل پلتفرمهای اصلی هوش مصنوعی باشند. موارد شناساییشده شامل هک، نفرتپراکنی و آزار آنلاین، محتوای خشن، سرقت دادههای شخصی، کلاهبرداری و در برخی موارد محتوای سوءاستفادۀ جنسی از کودکان عنوان شده است.
پژوهشگران میگویند بخش قابل توجهی از مدلهای متنباز فعال در سرورهای در دسترس اینترنت، گونههایی از مدلهای شرکت متا، از جمله «لاما»، و مدل «گِما» از گوگل دیپمایند هستند. اگرچه برخی از این مدلها بهصورت پیشفرض دارای محدودیتهای ایمنیاند، اما در صدها نمونه این محدودیتها عمداً حذف شدهاند.
خوان آندرس گوئررو-ساده، مدیر بخش پژوهشهای اطلاعاتی و امنیتی در سنتینلوان، میگوید گفتوگوهای صنعت هوش مصنوعی درباره امنیت، ظرفیت گسترده و کنترلنشدهای را نادیده میگیرد که برای اهداف گوناگون، از جمله فعالیتهای آشکارا مجرمانه، مورد استفاده قرار میگیرد. او این وضعیت را به «کوه یخی» تشبیه کرد که بخش بزرگی از آن از دید صنعت پنهان مانده است.
این تحقیق استقرارهای عمومی مدلهای متنباز را که از ابزار اُلاما برای اجرا استفاده میکنند، بررسی کرده است. پژوهشگران توانستند در حدود یکچهارم این مدلها به دستورهای سیستمی دسترسی پیدا کنند و دریافتند که ۷٫۵ درصد آنها میتوانند فعالیتهای زیانبار را ممکن سازند. حدود ۳۰ درصد از این سرورها در چین و نزدیک به ۲۰ درصد در ایالات متحده فعالاند.
راشل آدامز، بنیانگذار و مدیر «مرکز جهانی حاکمیت هوش مصنوعی»، گفته است پس از انتشار مدلهای متنباز، مسئولیت پیامدهای بعدی بهصورت مشترک بر عهدۀ کل زیستبوم، از جمله آزمایشگاههای سازنده، قرار میگیرد. به گفتۀ او، این نهادها باید خطرات قابل پیشبینی را مستندسازی کرده و ابزارها و راهکارهای کاهش ریسک ارائه دهند.
شرکت مایکروسافت نیز با تأکید بر نقش مهم مدلهای متنباز، هشدار داده است که این فناوریها در صورت نبودِ حفاظهای مناسب میتوانند توسط مهاجمان مورد سوءاستفاده قرار گیرند. برخی شرکتها از جمله متا و گوگل به پرسشهای رویترز پاسخ ندادهاند.





