وبینار پُل با درنا شریفی

زمان باقی مانده تا شروع وبینار:

روز
ساعت
دقیقه
ثانیه

هشدار انجمن روانشناسی آمریکا درباره هوش مصنوعی و سلامت روان برای نوجوانان

بذارید با یه واقعیت عجیب شروع کنیم: الان نوجوون‌هایی رو داریم که ترجیح میدن وقتی حالشون بده، به جای پدر و مادر یا روانشناس، با یک ربات (مثل ChatGPT یا اپلیکیشن‌های سلامت روان) درد دل کنن. دسترسی راحت، ۲۴ ساعته بودن و قضاوت نکردن، باعث شده این ابزارها خیلی جذاب بشن.

چرا هوش مصنوعی برای نوجوان‌ها خطرناکه؟!

اینفوگرافیک چرا هوش مصنوعی برای نوجوان‌ها خطرناکه؟!

انجمن روانشناسی آمریکا (APA) همین امسال یه بیانیه و هشدار رسمی (Health Advisory) در مورد استفاده از این هوش مصنوعی‌ها برای سلامت روان بچه‌ها صادر کرده.

حرف حسابشون چیه؟ میگن این تکنولوژی سرعتش از علم ما جلو زده و این می‌تونه خطرناک باشه.

بیایید ببینیم پشت پرده‌ی این “روانشناس‌های دیجیتالی” چی می‌گذره.

۱. هوش مصنوعی “درک” نمی‌کنه، فقط “حدس” می‌زنه

اولین و مهم‌ترین نکته‌ای که APA روش دست گذاشته، اینه که هوش مصنوعی فاقد “همدلی انسانی” و قضاوت اخلاقیه. ببینید، وقتی نوجوون شما به یه چت‌بات میگه “دلم گرفته”، اون ربات واقعاً ناراحت نمیشه؛ اون فقط بر اساس میلیون‌ها کلمه‌ای که یاد گرفته، حدس می‌زنه که کلمه بعدی چی باید باشه. خطرش کجاست؟ ممکنه نوجوون تو یه وضعیت بحرانی باشه (مثلاً افکار خودکشی داشته باشه) و هوش مصنوعی چون درک واقعی از “خطر” نداره، یه جواب بی‌ربط یا حتی تشویق‌کننده بهش بده! تحقیقات نشون داده بعضی از این مدل‌ها در شرایط حاد، راهکارهای خطرناکی جلوی پای بچه گذاشتن.

۲. جعبه سیاه و تعصبات پنهان

یه اصطلاحی داریم به اسم “الگوریتم‌های متعصب”. هوش مصنوعی از اینترنت یاد گرفته و اینترنت هم پر از حرف‌های درست و غلطه. گزارش APA هشدار میده که این چت‌بات‌ها ممکنه کلیشه‌های نژادی، جنسیتی یا فرهنگی رو بازتولید کنن. مثلاً ممکنه به یه دختر نوجوون که نگران ظاهرشه، ناخواسته توصیه‌هایی بکنه که اختلال خوردن یا وسواسش رو بدتر کنه. چون اون ربات نمی‌فهمه “سلامت روان” یعنی چی، فقط داره الگوها رو تکرار می‌کنه.

۳. حریم خصوصی؟ تقریباً هیچی!

این بخشش واقعاً ترسناکه. وقتی نوجوون داره خصوصی‌ترین رازهاش رو به یه اپلیکیشن میگه، این اطلاعات کجا میره؟ بسیاری از این برنامه‌ها شفاف نیستن. APA تاکید می‌کنه که اطلاعات سلامت روان بچه‌ها ممکنه برای تبلیغات استفاده بشه یا حتی فروخته بشه. فکر کنید بچه‌ای که درباره افسردگیش حرف زده، فردا تبلیغ قرص‌های آرام‌بخش فیک رو توی اینستاگرامش ببینه! این یعنی سوءاستفاده تجاری از رنجِ یک نوجوان.

۴. “توهم” هوش مصنوعی (AI Hallucinations)

توی دنیای تکنولوژی یه اصطلاح داریم به اسم “توهم زدن هوش مصنوعی”. یعنی چی؟ یعنی هوش مصنوعی می‌تونه با اعتماد به نفسِ کامل، یه دروغ محض یا یه فکت پزشکیِ غلط رو تحویل بده. حالا تصور کنید یه نوجوون که اطلاعات کافی نداره، بر اساس همین حرفِ غلط، تصمیم بگیره دارو مصرف کنه یا یه رفتار خاصی رو انجام بده. توصیه‌ی اکید روانشناسان اینه: هیچ‌کدوم از توصیه‌های پزشکی و درمانیِ هوش مصنوعی رو بدون چک کردن با متخصص، باور نکنید.

پس کلاً ممنوعش کنیم؟ (راهکار چیه؟)

نه، هدف ممنوع کردن نیست. هوش مصنوعی می‌تونه برای یادگیری مهارت‌های ساده (مثل تمرین تنفس یا مدیتیشن) مفید باشه. اما توصیه‌ی APA برای والدین و ما متخصصان اینه:

  • نظارت روی ابزار: هر اپلیکیشنی که ادعای “تراپی” یا “درمان” داره، باید بررسی بشه. آیا پشتش تیم علمی هست یا فقط چند تا برنامه‌نویس نوشتنش؟
  • جایگزین، نه درمانگر: به بچه‌ها یاد بدیم این ابزارها مثل “جعبه کمک‌های اولیه” هستن، نه “دکتر جراح”. برای درد دل‌های دم‌دستی خوبن، اما برای مشکلات عمیق، هیچی جای نگاه و درک انسان رو نمی‌گیره.
  • سواد دیجیتال: به نوجوون یاد بدید که “هر چی این ربات میگه وحی منزل نیست”. باید یاد بگیرن که با شک و تردید به جواب‌ها نگاه کنن.

خلاصه اینکه، تکنولوژی دوست خوبیه، اما روانشناس خوبی نیست. مراقب باشیم روح و روان بچه‌ها رو دستِ الگوریتم‌های بی‌احساس نسپاریم.

Hidden
نظرات شما

دیدگاه‌ خود را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

Array