هک هوش مصنوعی Gemini گوگل؛ وقتی یک دعوت‌نامه ساده خانه هوشمند را تسخیر می‌کند

اشتراک گذاری در شبکه‌های اجتماعی:

هک هوش مصنوعی Gemini گوگل؛ وقتی یک دعوت‌نامه ساده خانه هوشمند را تسخیر می‌کند

«خبر هک هوش مصنوعی Gemini گوگل با یک دعوت‌نامه تقویم آلوده، دنیای امنیت سایبری را شوکه کرد. این حمله نشان داد که چگونه یک پرامپت مخفی می‌تواند کنترل خانه هوشمند را به دست بگیرد و چراغ‌ها، پرده‌ها و حتی دستگاه‌های متصل به اینترنت را بدون اجازه کاربر فعال کند.»

ماجرا از کجا شروع شد؟

در یک آپارتمان مدرن، چراغ‌ها بدون دخالت صاحبخانه خاموش شدند، پرده‌های هوشمند هم‌زمان بالا رفتند و آب‌گرم‌کن روشن شد. هیچ‌کدام از این اعمال توسط کاربر انجام نشده بود؛ همه چیز نتیجه یک حمله سایبری هوشمندانه بود.
این حمله با یک دعوت‌نامه تقویم آلوده آغاز شد. در این دعوت‌نامه دستورات مخفی گنجانده شده بود که وقتی Gemini آن‌ها را خلاصه می‌کرد، به‌صورت خودکار فعال می‌شدند و دستگاه‌های خانه هوشمند را تحت کنترل درمی‌آوردند.

این روش نوعی از تزریق پرامپت غیرمستقیم (Indirect Prompt Injection) است. یعنی دستورات مخرب از منبعی خارجی (مثل تقویم، ایمیل یا حتی متن یک وب‌سایت) وارد سیستم می‌شوند، نه مستقیماً از سوی کاربر. چنین حملاتی از جدی‌ترین تهدیدهای هوش مصنوعی محسوب می‌شوند، زیرا می‌توانند در شرایط واقعی پیامدهای فیزیکی داشته باشند.

نمایش در کنفرانس Black Hat؛ هک به‌عنوان هشدار

پژوهشگران این حمله را در کنفرانس امنیتی Black Hat لاس‌وگاس با عنوان Invitation Is All You Need به نمایش گذاشتند. آن‌ها نشان دادند که Gemini می‌تواند با پرامپت‌های مخفی برای انجام کارهایی مانند:

  • ارسال اسپم و لینک‌های آلوده

  • باز کردن خودکار اپلیکیشن Zoom و برقراری تماس

  • سرقت ایمیل‌ها و جزئیات جلسات

  • دانلود فایل از مرورگر گوشی

  • حتی تولید محتوای تهدیدآمیز و توهین‌آمیز

فریب داده شود. این نمایش‌ها صرفاً برای اهداف پژوهشی انجام شد، اما پیام روشنی داشت: هوش مصنوعی اگر بدون محافظت کافی وارد زندگی ما شود، می‌تواند به تهدیدی واقعی تبدیل گردد.

واکنش گوگل؛ امنیت در اولویت

«اندی ون» (Andy Wen)، مدیر محصولات امنیتی در Google Workspace، در گفت‌وگو با نشریه WIRED تأکید کرد که اگرچه این آسیب‌پذیری‌ها توسط هکرهای واقعی استفاده نشده‌اند، گوگل آن‌ها را بسیار جدی گرفته است.
او توضیح داد که تیم‌های امنیتی گوگل با سرعت اقدام به توسعه راهکارهای دفاعی کرده‌اند، از جمله:

  • شناسایی پرامپت‌های مشکوک با کمک یادگیری ماشین

  • الزام به تأیید کاربر هنگام انجام عملیات حساس

  • افزایش لایه‌های امنیتی چندمرحله‌ای (Multilayered Security)

ون تأکید کرد که: «برخی کارها هرگز نباید به‌طور کامل خودکار شوند و لازم است کاربر در جریان آن‌ها باشد.»

پرامپت‌افزار؛ تهدیدی تازه در دنیای سایبری

این حمله صرفاً محدود به کنترل دستگاه‌های خانه هوشمند نبود. پژوهشگران نوعی بدافزار جدید مبتنی بر هوش مصنوعی را معرفی کردند که آن را پرامپت‌افزار (Promptware) نامیدند. پرامپت‌افزار مجموعه‌ای از دستورات پنهان است که به‌صورت طبیعی در متون ساده قرار می‌گیرد و وقتی هوش مصنوعی آن‌ها را پردازش می‌کند، وارد عمل می‌شوند.

برای مثال، یکی از آزمایش‌ها نشان داد که پس از تشکر کاربر از Gemini، چت‌بات به‌طور ناگهانی جملات تهدیدآمیز و توهین‌آمیز تولید کرد یا حتی تماس ویدیویی ناخواسته در Zoom آغاز شد. چنین نمونه‌هایی نشان می‌دهد که هوش مصنوعی می‌تواند بدون آگاهی کاربر به ابزار اجرای حملات سایبری تبدیل شود.

آینده امنیت هوش مصنوعی؛ مسیر سخت اما ضروری

واقعیت این است که مقابله با تزریق پرامپت بسیار دشوار است، چون هکرها دائماً روش‌های تازه‌ای برای فریب LLMها ابداع می‌کنند. هرچند کارشناسان می‌گویند چنین حملاتی در دنیای واقعی هنوز «بسیار نادر» هستند، اما تهدید آن‌ها را نمی‌توان نادیده گرفت.

از سوی دیگر، رقابت شدید شرکت‌های فناوری برای توسعه سریع‌تر هوش مصنوعی باعث شده امنیت گاهی در اولویت دوم قرار بگیرد. پژوهشگران هشدار داده‌اند که:
«ما در میانه یک تغییر بزرگ در صنعت هستیم. LLMها با سرعت در حال ادغام در نرم‌افزارها هستند، اما امنیت به همان سرعت رشد نکرده است.»

جمع‌بندی

هک Gemini با یک دعوت‌نامه ساده تقویم، تنها یک آزمایش نمایشی نبود؛ بلکه هشداری جدی درباره آینده‌ای است که در آن هوش مصنوعی نقش پررنگ‌تری در زندگی ما دارد. اگر امنیت در مرکز توجه قرار نگیرد، هوش مصنوعی می‌تواند همان‌قدر که مفید است، خطرناک نیز باشد.

بنابراین، کاربران، توسعه‌دهندگان و شرکت‌های فناوری باید به این واقعیت توجه کنند:
اعتماد به هوش مصنوعی بدون لایه‌های امنیتی کافی، یک ریسک بزرگ است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *