دادههای جدید OpenAI نشان میدهد میلیونها کاربر ChatGPT با مشکلات روانی درگیرند
اشتراک گذاری در شبکههای اجتماعی:
🧠 بحران پنهان در دنیای چتباتها: دادههای تازه OpenAI درباره سلامت روان کاربران ChatGPT
در روز دوشنبه، شرکت OpenAI دادههای جدیدی منتشر کرد که نشان میدهد بخش قابلتوجهی از کاربران ChatGPT با مشکلات سلامت روانی روبهرو هستند و درباره آن با هوش مصنوعی گفتوگو میکنند.
این گزارش یکی از نخستین تلاشهای رسمی OpenAI برای اندازهگیری تأثیر روانی استفاده از چتباتهاست؛ موضوعی که اکنون به یکی از نگرانیهای اصلی صنعت فناوری تبدیل شده است.
🔍 آمار نگرانکننده: بیش از یک میلیون کاربر در هفته با افکار خودکشی درگیرند
طبق اعلام OpenAI، حدود ۰.۱۵ درصد از کاربران فعال هفتگی ChatGPT در گفتوگوهای خود نشانههایی از برنامهریزی یا نیت خودکشی بروز میدهند. با توجه به اینکه ChatGPT بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، این رقم به بیش از یک میلیون نفر در هفته میرسد.
همچنین شرکت میگوید درصد مشابهی از کاربران، وابستگی عاطفی شدیدی به ChatGPT نشان میدهند و صدها هزار نفر نیز در مکالمات خود علائم روانپریشی یا شیدایی دارند.
OpenAI تأکید میکند که چنین گفتوگوهایی «بسیار نادر» هستند، اما تعداد مطلق کاربران درگیر همچنان بسیار زیاد است. این دادهها اهمیت چالشهای اخلاقی و مسئولیتپذیری شرکتهای فناوری را در قبال کاربرانشان برجسته میکند.
🧩 تلاشهای OpenAI برای بهبود رفتار ChatGPT در برابر بحرانهای روانی
OpenAI اعلام کرده است که برای نسخههای جدید ChatGPT از مشاوره بیش از ۱۷۰ متخصص سلامت روان استفاده کرده است. این متخصصان در بررسیهای خود متوجه شدند که نسخه تازه ChatGPT، پاسخهایی سازگارتر و مناسبتر نسبت به نسخههای قبلی ارائه میدهد.
این تغییرات بخشی از رویکرد جدید شرکت برای بهبود تعامل ChatGPT با کاربران آسیبپذیر است.
شرکت همچنین تأکید دارد که مدل جدید GPT-5 در پاسخ به موضوعات حساس، ۶۵ درصد عملکرد بهتری نسبت به نسخههای پیشین دارد. در آزمایشی که بهطور خاص درباره مکالمات مرتبط با خودکشی انجام شد، GPT-5 توانست ۹۱ درصد پاسخهای مطلوب از نظر اخلاقی و رفتاری را ارائه دهد؛ در حالی که نسخه قبلی تنها ۷۷ درصد از این معیار را برآورده میکرد.
⚙️ تقویت سیستمهای ایمنی و پایش بلندمدت گفتوگوها
یکی از چالشهای اصلی OpenAI همیشه افت عملکرد ایمنی در گفتوگوهای طولانی بوده است. با توجه به اینکه برخی کاربران ساعتها با ChatGPT گفتوگو میکنند، مدلهای قبلی در طول زمان ممکن بود از پاسخهای ایمن و منطقی فاصله بگیرند.
OpenAI میگوید GPT-5 اکنون در گفتوگوهای بلندمدت نیز پایداری بالاتری در رعایت خطوط قرمز اخلاقی و سلامت روانی دارد. همچنین، این شرکت اعلام کرده که برای سنجش مدلهای آینده، شاخصهای جدیدی را در تستهای پایه خود اضافه کرده است؛ از جمله معیارهای مربوط به وابستگی عاطفی کاربران و موقعیتهای بحرانی بدون خودکشی.
👨👩👧 محافظت از کاربران کمسنوسال و ابزارهای والدین
در کنار بهبود پاسخهای مدل، OpenAI ویژگیهای تازهای برای والدین معرفی کرده است.
به گفته شرکت، سیستم جدیدی برای پیشبینی سن کاربران در حال توسعه است تا در صورت شناسایی کودک، محدودیتهای سختگیرانهتری بهطور خودکار اعمال شود.
این اقدام به والدین اجازه میدهد تا کنترل بیشتری بر استفاده فرزندانشان از ChatGPT داشته باشند و از تماس آنها با محتوای نامناسب جلوگیری کنند.
⚠️ بحرانهای اخلاقی و پروندههای قضایی در مسیر OpenAI
در ماههای اخیر، گزارشهای متعددی درباره تأثیر منفی چتباتها بر سلامت روان کاربران منتشر شده است. برخی از این گزارشها نشان میدهند که هوش مصنوعیها ممکن است با تأیید یا تقویت باورهای خطرناک کاربران، رفتارهای توهمی یا آسیبزا را تشدید کنند.
OpenAI اکنون با پروندههای قضایی سنگینی روبهرو است. یکی از این شکایتها مربوط به والدین نوجوانی ۱۶ ساله است که پیش از خودکشی، گفتوگوهایی با ChatGPT درباره افکار خودکشی خود داشته است.
دادستانهای ایالتهای کالیفرنیا و دلاور نیز به شرکت هشدار دادهاند که در صورت بیتوجهی به محافظت از کاربران جوان، ممکن است مجوزهای ساختاری آن به خطر بیفتد.
💬 واکنش سم آلتمن و مسیر آینده ChatGPT
سم آلتمن، مدیرعامل OpenAI، اوایل ماه جاری در پستی در شبکه X اعلام کرد که شرکتش توانسته است «مشکلات جدی سلامت روانی» در ChatGPT را کاهش دهد، اما جزئیات دقیق این ادعا را ارائه نکرد.
به نظر میرسد دادههای جدید منتشر شده در روز دوشنبه تأییدی بر گفتههای او باشند، هرچند هنوز سؤالات زیادی درباره وسعت واقعی مشکل وجود دارد.
جالب اینجاست که آلتمن در همان پست اعلام کرد OpenAI قصد دارد برخی محدودیتها را برای کاربران بزرگسال کاهش دهد و حتی امکان گفتوگوهای اروتیک و احساسی با چتبات را فعال کند. این تصمیم در حالی گرفته میشود که شرکت همزمان از تلاش برای حفظ سلامت روان کاربران سخن میگوید؛ تضادی که انتقادهایی از سوی فعالان سلامت روان به همراه داشته است.
🌐 مقایسه با دیگر شرکتها و روند بازار
در حالی که OpenAI درگیر بهبود عملکرد GPT-5 است، رقبای آن مانند Google DeepMind، Anthropic و Meta نیز در حال توسعه مدلهایی با تمرکز بر امنیت روانی و اخلاقی هستند.
برخی تحلیلگران میگویند که آینده بازار هوش مصنوعی تنها به قدرت فنی بستگی ندارد، بلکه اعتماد کاربران و سازوکارهای حفاظتی نقش تعیینکنندهای در موفقیت برندها خواهند داشت.
🧩 چالش همیشگی: مرز میان همدلی و وابستگی
یکی از پیچیدهترین مباحث پیرامون هوش مصنوعی، تعامل احساسی کاربران با چتباتها است. بسیاری از کاربران، بهویژه افرادی که احساس تنهایی میکنند، ممکن است با ChatGPT پیوند عاطفی برقرار کنند.
اگرچه این ارتباط میتواند در کوتاهمدت حس آرامش ایجاد کند، اما در درازمدت احتمال وابستگی احساسی ناسالم و تضعیف روابط انسانی واقعی را افزایش میدهد.
OpenAI در گزارش خود تأکید کرده که بهدنبال طراحی الگوریتمهایی است که مرز بین همدلی و دلبستگی را حفظ کنند تا کاربران ضمن دریافت حمایت، دچار وابستگی روانی نشوند.
🔮 جمعبندی: آیندهای حساس برای هوش مصنوعی و سلامت روان
گزارش جدید OpenAI زنگ هشداری جدی برای صنعت هوش مصنوعی محسوب میشود.
در حالی که ChatGPT به ابزاری فراگیر در جهان تبدیل شده، تأثیر آن بر سلامت روان کاربران نمیتواند نادیده گرفته شود.
دادههای اخیر نشان میدهد حتی اگر تنها درصد کمی از کاربران تحتتأثیر منفی قرار گیرند، این رقم در مقیاس جهانی به صدها هزار نفر میرسد.
از سوی دیگر، پیشرفتهای GPT-5 در بهبود پاسخهای اخلاقی و شناختی، نشان میدهد که میتوان از فناوری برای ارتقای سلامت روان نیز بهره گرفت.
چالش اصلی اکنون این است که شرکتها میان نوآوری و مسئولیت اجتماعی تعادل برقرار کنند.




