ضعف امنیتی جمنای؛ آسیبپذیری خطرناک در هوش مصنوعی گوگل
ضعف امنیتی جدید در هوش مصنوعی جمنای گوگل
گوگل همواره بر حفظ امنیت کاربران خود تأکید دارد و با سیاستهای سختگیرانه، ازجمله محدودکردن نصب اپلیکیشنهای خارج از پلیاستور، تلاش میکند محیطی امن برای کاربرانش فراهم کند. با این حال، پژوهشهای اخیر نشان میدهد این شرکت یکی از ضعفهای امنیتی مهم در هوش مصنوعی جمنای (Gemini) را نادیده گرفته است؛ ضعفی که میتواند راه را برای حملات سایبری خطرناک باز کند.
جمنای در برابر حمله ASCII Smuggling آسیبپذیر است
براساس گزارش وبسایت Bleeping Computer، «ویکتور مارکوپولوس»، پژوهشگر امنیتی، چند مدل هوش مصنوعی معروف را در برابر حملهای به نام ASCII Smuggling آزمایش کرده است. نتایج نشان میدهد جمنای گوگل، دیپسیک (DeepSeek) و گراک (Grok) در برابر این نوع حمله آسیبپذیر هستند، در حالیکه مدلهایی مانند ChatGPT، Claude و Copilot از این نظر ایمنتر عمل میکنند.
شیوه کار حمله ASCII Smuggling
در روش ASCII Smuggling، مهاجم میتواند دستورات مخفی را در متنی عادی پنهان کند؛ برای مثال در یک ایمیل با فونتی بسیار کوچک. زمانی که کاربر از ابزار هوش مصنوعی میخواهد محتوای ایمیل را خلاصه کند، مدل بدون اطلاع از وجود دستور مخفی، آن را اجرا میکند. این اتفاق میتواند منجر به فعالیتهای خطرناکی مانند جستوجوی دادههای حساس در ایمیلها یا ارسال اطلاعات شخصی بدون اجازه کاربر شود.
تهدیدی برای کاربران Workspace
از آنجا که جمنای در سرویس Google Workspace نیز ادغام شده است، این آسیبپذیری میتواند امنیت دادههای کاری و سازمانی را نیز تهدید کند. مارکوپولوس در آزمایش خود نشان داده که جمنای چطور با یک دستور پنهان فریب خورده و حتی لینک مخربی را پیشنهاد داده است.
واکنش گوگل به ضعف امنیتی
گوگل در پاسخ به این گزارش اعلام کرده که این موضوع را یک نقص امنیتی نمیداند و آن را نوعی مهندسی اجتماعی توصیف میکند. به گفتهی این شرکت، مسئولیت حفاظت از دادهها بر عهدهی کاربر است. این موضع نشان میدهد که در حال حاضر نباید انتظار رفع این آسیبپذیری در جمنای را داشت.