جمهوریت –نگار علی- در حالیکه اغلب مدلهای هوش مصنوعی پیشرفته بهگونهای طراحی شدهاند که از ارائه اطلاعات خطرناک، مانند نحوه ساخت سلاح یا انجام حمله سایبری، خودداری کنند، اما همین فناوریها در صورت استفاده هوشمندانه میتوانند به راحتی دور زده شوند. به بیان دیگر، اگر نتوانید از خود مدل بپرسید «چطور یک حمله انجام دهم؟»، میتوانید بپرسید «چطور بهتر سؤال بپرسم؟» و با ترکیب چند ابزار، در نهایت به پاسخ برسید.
چگونه از هوش مصنوعی برای حمله استفاده میشود؟
برخی از پروژههای جدید، از رابط برنامهنویسی (API) مدلهای زبانی استفاده میکنند تا با هدف دسترسی کامل به سرورهای هدف (Root Access)، حملاتی پیشرفته ترتیب دهند. برخی دیگر از همین مدلها برای شناسایی فرصتهای حمله در فضای آنلاین بهره میبرند.
با ترکیب ابزارهای مبتنی بر هوش مصنوعی و نرمافزارهایی که مثلاً برای دور زدن IPهای جعلی طراحی شدهاند، هکرها میتوانند نقاط ضعف سرورها را شناسایی و بهرهبرداری کنند. در این میان، مدلهای زبانی حتی متوجه نمیشوند که بخشی از یک حمله هستند، چرا که هرکدام فقط بخش کوچکی از کار را انجام میدهند.
این نوع «طراحی پاک» (Clean Room Design) شبیه یک پازل است: هر مدل بخشی از مسئله را حل میکند و در نهایت از کنار هم قرار گرفتن این قطعات، یک ابزار مخرب ساخته میشود.
قانونگذاری هنوز جا مانده است
در حالیکه برخی نهادها در تلاش برای تدوین قوانین سختگیرانهتر علیه سوءاستفاده از هوش مصنوعی هستند، هنوز نمیتوان بهراحتی تعیین کرد چه مقدار از تقصیر بر گردن مدلهای زبانی است. اثبات مسئولیت قانونی این مدلها، بهویژه در دادگاه، کاری پیچیده و زمانبر خواهد بود.
بیشتر بخوانید: