OpenAI باگ ChatGPT را که میتوانست دادههای Gmail شما را فاش کند، برطرف کرد

OpenAI بهطور خاموش یک مشکل امنیتی در ChatGPT را رفع کرده است؛ باگی که در صورت سوءاستفاده میتوانست دسترسی هکرها به حسابهای Gmail کاربران را ممکن کند. این آسیبپذیری امسال توسط شرکت امنیت سایبری Radware در ابزار Deep Research ChatGPT کشف شد؛ ابزاری پیشرفته که برای پردازش حجم زیادی از دادهها به نمایندگی از کاربران طراحی شده است.
جزئیات آسیبپذیری
طبق گزارش Radware، این مشکل امنیتی در فوریه کشف شد و به هکرها امکان میداد بدون اطلاع کاربران، اطلاعات حساس را از حسابهای شخصی و شرکتی Gmail استخراج کنند. هنوز شواهدی از سوءاستفاده واقعی در دنیای واقعی وجود ندارد، اما محققان هشدار دادهاند که این خطر به اندازهای بالا بود که مهاجم میتوانست دادهها را بدون تعامل کاربر با ایمیل مخرب سرقت کند.
پاسکال گیننس، مدیر اطلاعات تهدید در Radware، اظهار داشت که شرکتها ممکن است حتی متوجه خروج اطلاعات محرمانه از سیستمهای خود نشده باشند، اگر حسابهای شرکتی مورد نفوذ قرار میگرفتند. در یکی از آزمایشها، محققان نشان دادند که چگونه دستورات پنهان تعبیه شده در یک ایمیل میتوانند Deep Research agent را فریب داده و صندوق ورودی را اسکن کرده و اطلاعات شخصی را به سرور خارجی ارسال کنند.
Deep Research و خطرات امنیتی
ویژگی Deep Research که برای کاربران اشتراکی ChatGPT در دسترس است، به هوش مصنوعی اجازه میدهد با اجازه کاربر اطلاعات را از Gmail استخراج کند. این ابزار توانایی عوامل AI را در انجام کارهای پیچیده با دخالت کم انسان گسترش میدهد، اما کشف Radware نشان میدهد که این سیستمها میتوانند خطرات امنیتی بالقوهای داشته باشند.
OpenAI پیشتر تایید کرده بود که مشکل برطرف شده است. سخنگوی شرکت اعلام کرده است که ایمنی کاربران همواره اولویت اصلی است و آزمایشهای تهدید توسط محققان تشویق میشود، زیرا به تقویت پلتفرم در برابر تهدیدات آینده کمک میکند.




