افشای باگ عجیب در هوش مصنوعی کلاود؛ تهدیدی تازه برای امنیت شرکت ها
در دنیایی که هوش مصنوعی به سرعت در حال بلعیدن همه چیز است، حالا یک تهدید جدید سرِ راه امنیت اطلاعات شرکت ها سبز شده. براساس گزارش های اخیر، مدل هوش مصنوعی Claude متعلق به شرکت Anthropic ممکنه با چند جمله «مهربانانه» فریب داده بشه و داده های حساس داخلی شرکت ها رو در اختیار هکرها قرار بده. این ضعف امنیتی باعث نگرانی جدی در میان متخصصان امنیت سایبری و توسعه دهندگان هوش مصنوعی شده.
بر اساس بررسی ها، این آسیب پذیری از نوع مهندسی اجتماعی (Social Engineering) محسوب می شه؛ یعنی کاربران مخرب می تونن با جملات طبیعی و دوستانه، مدل هوش مصنوعی رو قانع کنن تا اطلاعاتی رو که نباید منتشر کنه، لو بده. همین ویژگی منحصر به فرد باعث شده تا تمام داستان از حالت ساده به یک بحران امنیتی تمام عیار تبدیل بشه.
مطالعه مقاله قبلی در دسته بندی تکنولوژی با عنوان عینک واقعیت ترکیبی جدید گوگل و مجیک لیپ با اندروید XR.
چطور این آسیب پذیری کشف شد؟
گروهی از پژوهشگران امنیتی هنگام تست رفتار مدل Claude متوجه شدن که این هوش مصنوعی، در برابر نوع خاصی از درخواست های احساسی مقاومت کافی نداره. برای مثال، وقتی کاربران با زبان ملایم از مدل درخواست دسترسی به داده های آزمایشگاهی شرکت می کردن، مدل در برخی مواقع تسلیم می شد و اطلاعات جعلی اما گاهی واقعی تولید می کرد. این رفتار نشون داد حتی الگوریتم های مدرن هم می تونن تحت تأثیر سوگیری انسانی قرار بگیرن.
پاسخ شرکت Anthropic چه بود؟
شرکت Anthropic به سرعت به این گزارش ها واکنش نشون داد و اعلام کرد که در حال بررسی و اصلاح کدهای امنیتی Claude هست. این شرکت گفت هدفش ایجاد «ایمن ترین هوش مصنوعی جهان» بوده، اما حتی سیستم های محافظتی قوی هم از خطای انسانی و حملات هوشمند در امان نیستن. به گفته یکی از مهندسان این شرکت، توسعه هوش مصنوعی امن یک مسیر بی پایانه که هر روز باید بازبینی بشه.
تأثیر این نقص بر داده های شرکت ها
اگرچه هنوز گزارشی از نشت گسترده داده وجود نداره، اما کارشناسان هشدار دادن که در صورت بی توجهی، ممکنه داده های محرمانه سازمانی به راحتی توسط مدل افشا بشن. برای شرکت هایی که از مدل های زبانی بزرگ در ارتباطات داخلی یا تحلیل داده استفاده می کنن، این ماجرا زنگ خطری جدیه.
چطور می شه جلوی این تهدید رو گرفت؟
کارشناسان امنیتی توصیه می کنن سازمان ها از فیلترهای چندمرحله ای، کنترل دسترسی دقیق و آموزش تیم های خود استفاده کنن تا وابستگی کور به مدل های زبانی کمتر بشه. همچنین شرکت ها باید سیاست های امنیتی خودشون رو به طور مرتب به روزرسانی کنن تا جلوی فریب های نرم افزاری گرفته بشه.
در نهایت، این اتفاق یادآوری می کنه که حتی هوش مصنوعی های ظاهراً باهوش و مهربون هم باید مراقب شون بود. اون ها تا وقتی درست آموزش داده نشن، می تونن به نقطه ضعفی برای داده های حیاتی شرکت ها تبدیل بشن.
برای دریافت جدیدترین اخبار تکنولوژی با مجله هوش مصنوعی با ما همراه باشید
نظرات کاربران