داده‌های جدید OpenAI نشان می‌دهد میلیون‌ها کاربر ChatGPT با مشکلات روانی درگیرند

اشتراک گذاری در شبکه‌های اجتماعی:

🧠 بحران پنهان در دنیای چت‌بات‌ها: داده‌های تازه OpenAI درباره سلامت روان کاربران ChatGPT

در روز دوشنبه، شرکت OpenAI داده‌های جدیدی منتشر کرد که نشان می‌دهد بخش قابل‌توجهی از کاربران ChatGPT با مشکلات سلامت روانی روبه‌رو هستند و درباره آن با هوش مصنوعی گفت‌وگو می‌کنند.
این گزارش یکی از نخستین تلاش‌های رسمی OpenAI برای اندازه‌گیری تأثیر روانی استفاده از چت‌بات‌هاست؛ موضوعی که اکنون به یکی از نگرانی‌های اصلی صنعت فناوری تبدیل شده است.

🔍 آمار نگران‌کننده: بیش از یک میلیون کاربر در هفته با افکار خودکشی درگیرند

طبق اعلام OpenAI، حدود ۰.۱۵ درصد از کاربران فعال هفتگی ChatGPT در گفت‌وگوهای خود نشانه‌هایی از برنامه‌ریزی یا نیت خودکشی بروز می‌دهند. با توجه به اینکه ChatGPT بیش از ۸۰۰ میلیون کاربر فعال هفتگی دارد، این رقم به بیش از یک میلیون نفر در هفته می‌رسد.

همچنین شرکت می‌گوید درصد مشابهی از کاربران، وابستگی عاطفی شدیدی به ChatGPT نشان می‌دهند و صدها هزار نفر نیز در مکالمات خود علائم روان‌پریشی یا شیدایی دارند.

OpenAI تأکید می‌کند که چنین گفت‌وگوهایی «بسیار نادر» هستند، اما تعداد مطلق کاربران درگیر همچنان بسیار زیاد است. این داده‌ها اهمیت چالش‌های اخلاقی و مسئولیت‌پذیری شرکت‌های فناوری را در قبال کاربرانشان برجسته می‌کند.

🧩 تلاش‌های OpenAI برای بهبود رفتار ChatGPT در برابر بحران‌های روانی

OpenAI اعلام کرده است که برای نسخه‌های جدید ChatGPT از مشاوره بیش از ۱۷۰ متخصص سلامت روان استفاده کرده است. این متخصصان در بررسی‌های خود متوجه شدند که نسخه تازه ChatGPT، پاسخ‌هایی سازگارتر و مناسب‌تر نسبت به نسخه‌های قبلی ارائه می‌دهد.
این تغییرات بخشی از رویکرد جدید شرکت برای بهبود تعامل ChatGPT با کاربران آسیب‌پذیر است.

شرکت همچنین تأکید دارد که مدل جدید GPT-5 در پاسخ به موضوعات حساس، ۶۵ درصد عملکرد بهتری نسبت به نسخه‌های پیشین دارد. در آزمایشی که به‌طور خاص درباره مکالمات مرتبط با خودکشی انجام شد، GPT-5 توانست ۹۱ درصد پاسخ‌های مطلوب از نظر اخلاقی و رفتاری را ارائه دهد؛ در حالی که نسخه قبلی تنها ۷۷ درصد از این معیار را برآورده می‌کرد.

⚙️ تقویت سیستم‌های ایمنی و پایش بلندمدت گفت‌وگوها

یکی از چالش‌های اصلی OpenAI همیشه افت عملکرد ایمنی در گفت‌وگوهای طولانی بوده است. با توجه به اینکه برخی کاربران ساعت‌ها با ChatGPT گفت‌وگو می‌کنند، مدل‌های قبلی در طول زمان ممکن بود از پاسخ‌های ایمن و منطقی فاصله بگیرند.

OpenAI می‌گوید GPT-5 اکنون در گفت‌وگوهای بلندمدت نیز پایداری بالاتری در رعایت خطوط قرمز اخلاقی و سلامت روانی دارد. همچنین، این شرکت اعلام کرده که برای سنجش مدل‌های آینده، شاخص‌های جدیدی را در تست‌های پایه خود اضافه کرده است؛ از جمله معیارهای مربوط به وابستگی عاطفی کاربران و موقعیت‌های بحرانی بدون خودکشی.

👨‍👩‍👧 محافظت از کاربران کم‌سن‌وسال و ابزارهای والدین

در کنار بهبود پاسخ‌های مدل، OpenAI ویژگی‌های تازه‌ای برای والدین معرفی کرده است.
به گفته شرکت، سیستم جدیدی برای پیش‌بینی سن کاربران در حال توسعه است تا در صورت شناسایی کودک، محدودیت‌های سخت‌گیرانه‌تری به‌طور خودکار اعمال شود.
این اقدام به والدین اجازه می‌دهد تا کنترل بیشتری بر استفاده فرزندانشان از ChatGPT داشته باشند و از تماس آن‌ها با محتوای نامناسب جلوگیری کنند.

⚠️ بحران‌های اخلاقی و پرونده‌های قضایی در مسیر OpenAI

در ماه‌های اخیر، گزارش‌های متعددی درباره تأثیر منفی چت‌بات‌ها بر سلامت روان کاربران منتشر شده است. برخی از این گزارش‌ها نشان می‌دهند که هوش مصنوعی‌ها ممکن است با تأیید یا تقویت باورهای خطرناک کاربران، رفتارهای توهمی یا آسیب‌زا را تشدید کنند.

OpenAI اکنون با پرونده‌های قضایی سنگینی روبه‌رو است. یکی از این شکایت‌ها مربوط به والدین نوجوانی ۱۶ ساله است که پیش از خودکشی، گفت‌وگوهایی با ChatGPT درباره افکار خودکشی خود داشته است.
دادستان‌های ایالت‌های کالیفرنیا و دلاور نیز به شرکت هشدار داده‌اند که در صورت بی‌توجهی به محافظت از کاربران جوان، ممکن است مجوزهای ساختاری آن به خطر بیفتد.

💬 واکنش سم آلتمن و مسیر آینده ChatGPT

سم آلتمن، مدیرعامل OpenAI، اوایل ماه جاری در پستی در شبکه X اعلام کرد که شرکتش توانسته است «مشکلات جدی سلامت روانی» در ChatGPT را کاهش دهد، اما جزئیات دقیق این ادعا را ارائه نکرد.
به نظر می‌رسد داده‌های جدید منتشر شده در روز دوشنبه تأییدی بر گفته‌های او باشند، هرچند هنوز سؤالات زیادی درباره وسعت واقعی مشکل وجود دارد.

جالب اینجاست که آلتمن در همان پست اعلام کرد OpenAI قصد دارد برخی محدودیت‌ها را برای کاربران بزرگسال کاهش دهد و حتی امکان گفت‌وگوهای اروتیک و احساسی با چت‌بات را فعال کند. این تصمیم در حالی گرفته می‌شود که شرکت هم‌زمان از تلاش برای حفظ سلامت روان کاربران سخن می‌گوید؛ تضادی که انتقادهایی از سوی فعالان سلامت روان به همراه داشته است.

🌐 مقایسه با دیگر شرکت‌ها و روند بازار

در حالی که OpenAI درگیر بهبود عملکرد GPT-5 است، رقبای آن مانند Google DeepMind، Anthropic و Meta نیز در حال توسعه مدل‌هایی با تمرکز بر امنیت روانی و اخلاقی هستند.
برخی تحلیلگران می‌گویند که آینده بازار هوش مصنوعی تنها به قدرت فنی بستگی ندارد، بلکه اعتماد کاربران و سازوکارهای حفاظتی نقش تعیین‌کننده‌ای در موفقیت برندها خواهند داشت.

🧩 چالش همیشگی: مرز میان همدلی و وابستگی

یکی از پیچیده‌ترین مباحث پیرامون هوش مصنوعی، تعامل احساسی کاربران با چت‌بات‌ها است. بسیاری از کاربران، به‌ویژه افرادی که احساس تنهایی می‌کنند، ممکن است با ChatGPT پیوند عاطفی برقرار کنند.
اگرچه این ارتباط می‌تواند در کوتاه‌مدت حس آرامش ایجاد کند، اما در درازمدت احتمال وابستگی احساسی ناسالم و تضعیف روابط انسانی واقعی را افزایش می‌دهد.

OpenAI در گزارش خود تأکید کرده که به‌دنبال طراحی الگوریتم‌هایی است که مرز بین همدلی و دلبستگی را حفظ کنند تا کاربران ضمن دریافت حمایت، دچار وابستگی روانی نشوند.

🔮 جمع‌بندی: آینده‌ای حساس برای هوش مصنوعی و سلامت روان

گزارش جدید OpenAI زنگ هشداری جدی برای صنعت هوش مصنوعی محسوب می‌شود.
در حالی که ChatGPT به ابزاری فراگیر در جهان تبدیل شده، تأثیر آن بر سلامت روان کاربران نمی‌تواند نادیده گرفته شود.
داده‌های اخیر نشان می‌دهد حتی اگر تنها درصد کمی از کاربران تحت‌تأثیر منفی قرار گیرند، این رقم در مقیاس جهانی به صدها هزار نفر می‌رسد.

از سوی دیگر، پیشرفت‌های GPT-5 در بهبود پاسخ‌های اخلاقی و شناختی، نشان می‌دهد که می‌توان از فناوری برای ارتقای سلامت روان نیز بهره گرفت.
چالش اصلی اکنون این است که شرکت‌ها میان نوآوری و مسئولیت اجتماعی تعادل برقرار کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *