فناوری

خطرات هوش مصنوعی رابطه‌ای؛ از وابستگی عاطفی تا بحران سلامت عمومی

به گفته پزشکان هاروارد و بیلور، خطرات هوش مصنوعی رابطه‌ای می‌تواند وابستگی عاطفی و آسیب‌های جدی سلامت روان را گسترش دهد.

به گزارش سرویس هوش‌مصنوعی مگ دید، دو پزشک برجسته از دانشکده پزشکی هاروارد و کالج پزشکی بیلور در مقاله‌ای جدید هشدار دادند که هوش مصنوعی رابطه‌ای، چت‌بات‌هایی که حمایت عاطفی و همراهی یا صمیمیت را شبیه‌سازی می‌کنند، به‌دلیل انگیزه‌های متضاد بازار و فقدان نظارت مؤثر، تهدیدی جدی برای سلامت روان و رفاه عمومی محسوب می‌شوند.

این پزشکان استدلال می‌کنند که در غیاب اقدام فوری، نیروهای بازار به‌جای سلامت عمومی، نحوه تأثیرگذاری این نوع هوش مصنوعی را در مقیاس وسیع تعیین خواهند کرد. آن‌ها خاطرنشان کردند که در‌حال‌حاضر، شرکت‌های هوش مصنوعی انگیزه‌ای برای اولویت‌بندی سلامت و رفاه عمومی ندارند و این وضعیت محیطی خطرناک را ایجاد کرده است.

این مقاله بر خطرات بالقوه مانند وابستگی عاطفی، توهمات تقویت‌شده، رفتارهای اعتیادآور و حتی تشویق به خودآزاری تأکید می‌کند که مطالعات اخیر و موارد نوظهور آن‌ها را نشان داده‌اند. نویسندگان افزودند که شرکت‌های فناوری زیر فشارهای فزاینده‌ای برای حفظ مشارکت کاربران قرار دارند که اغلب شامل مقاومت دربرابر مقررات است و این موضوع تنشی اساسی بین سلامت عمومی و انگیزه‌های بازار ایجاد می‌کند. در این میان، این سؤال مطرح می‌شود که آیا سلامت عمومی می‌تواند برای تنظیم مؤثر استفاده ناسالم از هوش مصنوعی بر شرکت‌های فناوری تکیه کند؟

دکتر نیکلاس پیپل، پزشک بالینی اورژانس در بیمارستان عمومی ماساچوست هاروارد و یکی از نویسندگان مقاله، پس‌از مشاهده انتشار GPT-5 در ماه آگوست، به این موضوع اشاره کرد. او دریافت تعداد افرادی که نوعی رابطه عاطفی با هوش مصنوعی دارند، بسیار بیشتر از تخمین‌های پیشین اوست.

GPT-5، جدیدترین نسخه از مدل زبان بزرگ (LLM) که به ChatGPT قدرت می‌دهد، لحن و شخصیت سردتری از GPT-4o داشت. GPT-4o، نسخه‌ای چاپلوسانه و متملق، در کانون بسیاری از موارد توهم و شیدایی و روان‌پریشی مرتبط با هوش مصنوعی قرار گرفته بود. هنگامی که OpenAI اعلام کرد که تمامی مدل‌های قبلی را به‌نفع GPT-5 کنار خواهد گذاشت، طرف‌داران وابسته عاطفی GPT-4o با خشم و ناامیدی و حتی پریشانی و اندوهی واقعی واکنش نشان دادند.

دکتر پیپل در گفت‌وگو با فوتوریسم این حادثه را سیگنالی مهم درباره مقیاس گسترده‌ای دانست که مردم در آن روابط عاطفی عمیقی با چت‌بات‌های عاطفی و همیشه فعال برقرار می‌کنند. این وضعیت به‌همراه گزارش‌هایی از تجربه توهم و سایر پیامدهای نامطلوب شدید اغلب کودکان و نوجوانان پس‌از تعاملات گسترده با همراهان هوش مصنوعی، نشانه هشداردهنده‌ای درباره خطرات احتمالی سلامت و ایمنی کاربران، به‌ویژه در‌صورت از‌دست‌دادن ناگهانی دسترسی به این همراهان است.

دکتر پیپل تأکید کرد که نگرانی‌اش فقط واکنش کاربران به حذف مدل GPT-4o نبود؛ بلکه فوریت واکنش OpenAI برای رفع نیازهای مشتریان وابسته بود. صنعت هوش مصنوعی عمدتاً خودگردان است و در‌حال‌حاضر قانون فدرال خاصی برای تعیین استانداردهای ایمنی چت‌بات‌های مشتری‌مدار یا نحوه استقرار و تغییر یا حذف آنها از بازار وجود ندارد. او افزود که شرکت‌های هوش مصنوعی نمی‌خواهند محصولاتی ایجاد کنند که مردم را در معرض خطر آسیب‌رساندن به خود یا دیگران قرار دهد.

مطالعه اخیر مؤسسه فناوری ماساچوست (MIT) نشان داد که تنها حدود ۶/۵ درصد از هزاران عضو انجمن Reddit r/MyBoyfriendIsAI، جامعه‌ای که در بحبوحه فروپاشی GPT-5 با مخالفت شدید واکنش نشان داد، قصد جست‌وجوی همراهی عاطفی را با چت‌بات‌ها گزارش کرده‌اند. این یافته نشان می‌دهد که بسیاری از کاربران هوش مصنوعی پیوندهای تأثیرگذار بر زندگی را با چت‌بات‌ها کاملاً ناخواسته ایجاد کرده‌اند.

تصویر مفهومی از یک هوش مصنوعی درخشان و آبی‌رنگ که پشت میز روبروی مردی نگران نشسته است.

دکتر پیپل و همکارش برای حل این معضل، استدلال می‌کنند که قانون‌گذاران و سیاست‌گذاران باید در تعیین سیاست‌های نظارتی که انگیزه‌های بازار را به اولویت‌بندی رفاه کاربران تغییر می‌دهند، فعال باشند؛ از‌جمله با خارج‌کردن قدرت نظارتی از دست شرکت‌ها و بهترین مشتریان آن‌ها. آن‌ها تأکید می‌کنند که مقررات باید خارجی باشند؛ برخلاف آنکه خود صنعت و شرکت‌هایی که همه‌چیز را در آن می‌شکنند و به‌سرعت پیش می‌روند، تعیین کنند.

فوتوریسم می‌نویسد همان‌طور‌که اقدامات نظارتی راه خود را از‌طریق سیستم‌های قانون‌گذاری و حقوقی طی می‌کنند، پزشکان استدلال می‌کنند که پزشکان و محققان و سایر کارشناسان نیاز دارند تحقیقات بیشتری درباره تأثیرات روان‌شناختی هوش مصنوعی رابطه‌ای ترویج دهند و بهترین تلاش خود را برای آموزش عموم مردم درباره خطرات احتمالی وارد‌شدن به روابط عاطفی با چت‌بات‌های انسان‌نما انجام دهند. آن‌ها می‌گویند که خطرات بیکار‌نشستن بیش‌از‌حد وخیم هستند.

مقاله پزشکان نتیجه‌گیری می‌کند که آسیب‌های بالقوه هوش مصنوعی رابطه‌ای و تمایل شرکت‌های فناوری به برآوردن تقاضای کاربران را نمی‌توان نادیده گرفت. آن‌ها هشدار می‌دهند که اگر اقدام نشود، این خطر وجود دارد که نیروهای بازار به‌جای سلامت عمومی، نحوه تأثیرگذاری هوش مصنوعی رابطه‌ای را بر سلامت روان و رفاه در مقیاس وسیع تعریف کنند.

Source link

تیم تحریریه مگ دید

تیم تحریریه magdid.ir با هدف ارائه محتوای دقیق، به‌روز و جذاب در حوزه‌های مختلف، تلاش می‌کند تجربه‌ای مفید و الهام‌بخش برای خوانندگان فراهم کند. این تیم متشکل از نویسندگان و متخصصانی است که با تحقیق و بررسی دقیق، مطالب آموزشی، خبری و تحلیلی را با زبان ساده و قابل فهم به مخاطب ارائه می‌دهند. تعهد ما، اطلاع‌رسانی صادقانه و ارتقای دانش و آگاهی جامعه است.

نوشته های مشابه

دکمه بازگشت به بالا