ضعف امنیتی جمنای؛ آسیب‌پذیری خطرناک در هوش مصنوعی گوگل

ضعف امنیتی جدید در هوش مصنوعی جمنای گوگل

گوگل همواره بر حفظ امنیت کاربران خود تأکید دارد و با سیاست‌های سختگیرانه، ازجمله محدودکردن نصب اپلیکیشن‌های خارج از پلی‌استور، تلاش می‌کند محیطی امن برای کاربرانش فراهم کند. با این حال، پژوهش‌های اخیر نشان می‌دهد این شرکت یکی از ضعف‌های امنیتی مهم در هوش مصنوعی جمنای (Gemini) را نادیده گرفته است؛ ضعفی که می‌تواند راه را برای حملات سایبری خطرناک باز کند.

جمنای در برابر حمله ASCII Smuggling آسیب‌پذیر است

براساس گزارش وب‌سایت Bleeping Computer، «ویکتور مارکوپولوس»، پژوهشگر امنیتی، چند مدل هوش مصنوعی معروف را در برابر حمله‌ای به نام ASCII Smuggling آزمایش کرده است. نتایج نشان می‌دهد جمنای گوگل، دیپ‌سیک (DeepSeek) و گراک (Grok) در برابر این نوع حمله آسیب‌پذیر هستند، در حالی‌که مدل‌هایی مانند ChatGPT، Claude و Copilot از این نظر ایمن‌تر عمل می‌کنند.

شیوه کار حمله ASCII Smuggling

در روش ASCII Smuggling، مهاجم می‌تواند دستورات مخفی را در متنی عادی پنهان کند؛ برای مثال در یک ایمیل با فونتی بسیار کوچک. زمانی که کاربر از ابزار هوش مصنوعی می‌خواهد محتوای ایمیل را خلاصه کند، مدل بدون اطلاع از وجود دستور مخفی، آن را اجرا می‌کند. این اتفاق می‌تواند منجر به فعالیت‌های خطرناکی مانند جست‌وجوی داده‌های حساس در ایمیل‌ها یا ارسال اطلاعات شخصی بدون اجازه کاربر شود.

تهدیدی برای کاربران Workspace

از آنجا که جمنای در سرویس Google Workspace نیز ادغام شده است، این آسیب‌پذیری می‌تواند امنیت داده‌های کاری و سازمانی را نیز تهدید کند. مارکوپولوس در آزمایش خود نشان داده که جمنای چطور با یک دستور پنهان فریب خورده و حتی لینک مخربی را پیشنهاد داده است.

واکنش گوگل به ضعف امنیتی

گوگل در پاسخ به این گزارش اعلام کرده که این موضوع را یک نقص امنیتی نمی‌داند و آن را نوعی مهندسی اجتماعی توصیف می‌کند. به گفته‌ی این شرکت، مسئولیت حفاظت از داده‌ها بر عهده‌ی کاربر است. این موضع نشان می‌دهد که در حال حاضر نباید انتظار رفع این آسیب‌پذیری در جمنای را داشت.