بذارید با یه واقعیت عجیب شروع کنیم: الان نوجوونهایی رو داریم که ترجیح میدن وقتی حالشون بده، به جای پدر و مادر یا روانشناس، با یک ربات (مثل ChatGPT یا اپلیکیشنهای سلامت روان) درد دل کنن. دسترسی راحت، ۲۴ ساعته بودن و قضاوت نکردن، باعث شده این ابزارها خیلی جذاب بشن.
سرفصلهای این مطلب
Toggleچرا هوش مصنوعی برای نوجوانها خطرناکه؟!

انجمن روانشناسی آمریکا (APA) همین امسال یه بیانیه و هشدار رسمی (Health Advisory) در مورد استفاده از این هوش مصنوعیها برای سلامت روان بچهها صادر کرده.
حرف حسابشون چیه؟ میگن این تکنولوژی سرعتش از علم ما جلو زده و این میتونه خطرناک باشه.
بیایید ببینیم پشت پردهی این “روانشناسهای دیجیتالی” چی میگذره.
۱. هوش مصنوعی “درک” نمیکنه، فقط “حدس” میزنه
اولین و مهمترین نکتهای که APA روش دست گذاشته، اینه که هوش مصنوعی فاقد “همدلی انسانی” و قضاوت اخلاقیه. ببینید، وقتی نوجوون شما به یه چتبات میگه “دلم گرفته”، اون ربات واقعاً ناراحت نمیشه؛ اون فقط بر اساس میلیونها کلمهای که یاد گرفته، حدس میزنه که کلمه بعدی چی باید باشه. خطرش کجاست؟ ممکنه نوجوون تو یه وضعیت بحرانی باشه (مثلاً افکار خودکشی داشته باشه) و هوش مصنوعی چون درک واقعی از “خطر” نداره، یه جواب بیربط یا حتی تشویقکننده بهش بده! تحقیقات نشون داده بعضی از این مدلها در شرایط حاد، راهکارهای خطرناکی جلوی پای بچه گذاشتن.
۲. جعبه سیاه و تعصبات پنهان
یه اصطلاحی داریم به اسم “الگوریتمهای متعصب”. هوش مصنوعی از اینترنت یاد گرفته و اینترنت هم پر از حرفهای درست و غلطه. گزارش APA هشدار میده که این چتباتها ممکنه کلیشههای نژادی، جنسیتی یا فرهنگی رو بازتولید کنن. مثلاً ممکنه به یه دختر نوجوون که نگران ظاهرشه، ناخواسته توصیههایی بکنه که اختلال خوردن یا وسواسش رو بدتر کنه. چون اون ربات نمیفهمه “سلامت روان” یعنی چی، فقط داره الگوها رو تکرار میکنه.
۳. حریم خصوصی؟ تقریباً هیچی!
این بخشش واقعاً ترسناکه. وقتی نوجوون داره خصوصیترین رازهاش رو به یه اپلیکیشن میگه، این اطلاعات کجا میره؟ بسیاری از این برنامهها شفاف نیستن. APA تاکید میکنه که اطلاعات سلامت روان بچهها ممکنه برای تبلیغات استفاده بشه یا حتی فروخته بشه. فکر کنید بچهای که درباره افسردگیش حرف زده، فردا تبلیغ قرصهای آرامبخش فیک رو توی اینستاگرامش ببینه! این یعنی سوءاستفاده تجاری از رنجِ یک نوجوان.
۴. “توهم” هوش مصنوعی (AI Hallucinations)
توی دنیای تکنولوژی یه اصطلاح داریم به اسم “توهم زدن هوش مصنوعی”. یعنی چی؟ یعنی هوش مصنوعی میتونه با اعتماد به نفسِ کامل، یه دروغ محض یا یه فکت پزشکیِ غلط رو تحویل بده. حالا تصور کنید یه نوجوون که اطلاعات کافی نداره، بر اساس همین حرفِ غلط، تصمیم بگیره دارو مصرف کنه یا یه رفتار خاصی رو انجام بده. توصیهی اکید روانشناسان اینه: هیچکدوم از توصیههای پزشکی و درمانیِ هوش مصنوعی رو بدون چک کردن با متخصص، باور نکنید.
پس کلاً ممنوعش کنیم؟ (راهکار چیه؟)
نه، هدف ممنوع کردن نیست. هوش مصنوعی میتونه برای یادگیری مهارتهای ساده (مثل تمرین تنفس یا مدیتیشن) مفید باشه. اما توصیهی APA برای والدین و ما متخصصان اینه:
- نظارت روی ابزار: هر اپلیکیشنی که ادعای “تراپی” یا “درمان” داره، باید بررسی بشه. آیا پشتش تیم علمی هست یا فقط چند تا برنامهنویس نوشتنش؟
- جایگزین، نه درمانگر: به بچهها یاد بدیم این ابزارها مثل “جعبه کمکهای اولیه” هستن، نه “دکتر جراح”. برای درد دلهای دمدستی خوبن، اما برای مشکلات عمیق، هیچی جای نگاه و درک انسان رو نمیگیره.
- سواد دیجیتال: به نوجوون یاد بدید که “هر چی این ربات میگه وحی منزل نیست”. باید یاد بگیرن که با شک و تردید به جوابها نگاه کنن.
خلاصه اینکه، تکنولوژی دوست خوبیه، اما روانشناس خوبی نیست. مراقب باشیم روح و روان بچهها رو دستِ الگوریتمهای بیاحساس نسپاریم.
- منبع: انجمن روانشناسی آمریکا
- منتشر شده در سری مقالات آگاهی پلاس از سایت سلام آگاهی