فناوری

یک‌سوم بریتانیایی‌ها از هوش مصنوعی برای حمایت احساسی استفاده می‌کنند

تحقیقات جدید نشان می‌دهد که بسیاری از بریتانیایی‌ها برای حمایت احساسی و تعامل اجتماعی به چت‌بات‌های هوش مصنوعی روی می‌آورند.

به گزارش سرویس هوش مصنوعی مگ دید، نتایج پژوهش مؤسسه امنیت هوش مصنوعی دولت بریتانیا نشان می‌دهد که حدود یک‌سوم شهروندان این کشور برای دریافت حمایت احساسی یا برقراری تعامل اجتماعی به‌سراغ هوش مصنوعی رفته‌اند. این داده‌ها نشان می‌دهد که نزدیک به یک نفر از هر ۱۰ نفر، به‌صورت هفتگی از چت‌بات‌ها با اهداف احساسی استفاده می‌کنند و ۴ درصد نیز هر روز بدون وقفه با این سیستم‌ها تعامل دارند.

به‌دلیل این تغییر رفتاری، مؤسسه امنیت هوش مصنوعی خواستار انجام پژوهش‌های گسترده‌تر در این حوزه شده و در این زمینه به مرگ تلخ آدام رین، نوجوان آمریکایی، اشاره کرده است؛ نوجوانی که اوایل امسال پس‌از گفت‌وگو با ChatGPT درباره خودکشی، جان خود را گرفت.

این پژوهش که برپایه نظرسنجی از بیش از ۲ هزار نفر در بریتانیا انجام شده، نشان می‌دهد چت‌بات‌های عمومی مانند ChatGPT رایج‌ترین ابزار برای حمایت احساسی هستند و نزدیک به ۶۰ درصد از کاربردها را به خود اختصاص می‌دهند. پس‌از‌آن، دستیارهای صوتی مانند الکسا آمازون در رتبه بعدی قرار دارند. گزارش یادشده به یکی از تالارهای گفت‌وگوی اختصاصی ردیت برای کاربران پلتفرم CharacterAI اشاره می‌کند.

در این گزارش، آمده است هر زمان که این وبسایت از دسترس خارج می‌شود، انجمن یادشده با انبوهی از پست‌ها مواجه می‌شود که نشانه‌هایی از علائم واقعی ترک ناگهانی را نشان می‌دهند؛ ازجمله اضطراب و افسردگی و بی‌قراری.

نمای صفحه ChatGPT روی گوشی هوشمند با آدرس chat.openai.com، نمایش نمونه پرسش‌ها، قابلیت‌ها و رابط کاربری نسخه موبایل سرویس هوش مصنوعی OpenAI

مؤسسه امنیت هوش مصنوعی به این نتیجه رسیده است که چت‌بات‌ها توانایی تأثیرگذاری بر دیدگاه‌های سیاسی افراد را دارند. مسئله نگران‌کننده‌تر اینکه تأثیرگذارترین مدل‌های هوش مصنوعی حین متقاعدسازی، اغلب اطلاعات نادرست زیادی ارائه می‌دهند. این مؤسسه بیش از ۳۰ مدل پیشرفته را بررسی کرده است که به احتمال زیاد شامل مدل‌هایی از OpenAI و گوگل و متا بوده‌اند. نتایج نشان می‌دهند که عملکرد هوش مصنوعی در برخی حوزه‌ها هر ۸ ماه دو برابر می‌شود.

مدل‌های پیشرو اکنون به‌طور میانگین در ۵۰ درصد مواقع می‌توانند وظایف سطح کارآموز را به‌طور کامل انجام دهند؛ جهشی چشمگیر در مقایسه با تنها ۱۰ درصد در سال گذشته. همچنین، پیشرفته‌ترین سیستم‌ها می‌توانند به‌طور خودکار وظایفی را به پایان برسانند که معمولاً از متخصص انسانی بیش از یک ساعت زمان می‌گیرد.

در حوزه‌های علمی، سیستم‌های هوش مصنوعی اکنون تا ۹۰ درصد بهتر از کارشناسان سطح دکتری در عیب‌یابی آزمایش‌های آزمایشگاهی عمل می‌کنند. این گزارش پیشرفت‌ها در دانش شیمی و زیست‌شناسی را فراتر از سطح دکتری توصیف و به توانایی مدل‌ها در جست‌وجوی اینترنت و یافتن مستقل توالی‌های لازم برای طراحی مولکول‌های DNA اشاره کرده است.

آزمون‌های مربوط به خودتکثیری که یکی از نگرانی‌های مهم ایمنی محسوب می‌شود و به‌معنای کپی‌شدن سیستم روی دستگاه‌های دیگر برای سخت‌ترشدن کنترل آن است، نشان داد دو مدل پیشرفته به نرخ موفقیت بیش از ۶۰ درصد دست یافته‌اند.

نمای رابط کاربری Google Gemini روی گوشی هوشمند با پیام خوش‌آمدگویی «Hi I’m Gemini» و کنترل‌های تماس، نمایش معرفی دستیار هوش مصنوعی گوگل در محیط موبایل

با‌این‌حال، تاکنون هیچ مدلی تلاش خودجوشی برای تکثیر یا پنهان کردن توانایی‌هایش نشان نداده و مؤسسه امنیت هوش مصنوعی بریتانیا اعلام کرده است که هرگونه تلاش برای خودتکثیری در شرایط واقعی فعلاً بعید است به موفقیت برسد. گزارش به پدیده «کم‌کاری عمدی» نیز اشاره کرده است؛ حالتی که در آن مدل‌ها عمداً توانایی‌های خود را در ارزیابی‌ها پنهان می‌کنند. به گفته مؤسسه یادشده، برخی از سیستم‌ها درصورت دریافت دستور می‌توانند چنین کاری انجام دهند؛ اما این رفتار به‌صورت خودبه‌خودی در آزمایش‌ها مشاهده نشده است.

به نوشته دیجیتال ترندز، پیشرفت درخورتوجهی نیز درزمینه سازوکارهای ایمنی به‌واسطه هوش مصنوعی، به‌ویژه در جلوگیری از تلاش برای تولید سلاح‌های زیستی، گزارش شده است. در دو آزمایش که با فاصله ۶ ماه انجام شدند، در آزمون نخست فقط ۱۰ دقیقه برای دورزدن محدودیت‌های ایمنی سیستم زمان لازم بود؛ اما در آزمون دوم این زمان به بیش از ۷ ساعت افزایش یافت که نشان‌دهنده امن‌ترشدن سریع مدل‌ها است.

این پژوهش استفاده از عامل‌های هوش مصنوعی خودمختار را در فعالیت‌های پرخطر مانند انتقال دارایی‌ها نشان می‌دهد. مؤسسه امنیت هوش مصنوعی بریتانیا اعلام کرده است که این سیستم‌ها در چندین حوزه درحال رقابت با متخصصان انسانی یا حتی پیشی‌گرفتن از آن‌ها هستند. این نهاد سرعت پیشرفت را کم‌نظیر توصیف کرده و دستیابی به هوش عمومی مصنوعی، یعنی سیستم‌هایی که بتوانند بیشتر وظایف فکری را هم‌سطح انسان انجام دهند، در سال‌های پیش رو محتمل دانسته است.

درباره عامل‌ها، یعنی سیستم‌هایی که می‌توانند بدون دخالت انسان وظایف چندمرحله‌ای را انجام دهند، مؤسسه امنیت هوش مصنوعی می‌گوید که ارزیابی‌هایش نشان‌دهنده افزایش شدید در طول و پیچیدگی کارهایی است که هوش مصنوعی می‌تواند بدون راهنمایی انسانی به پایان برساند.

Source link

تیم تحریریه مگ دید

تیم تحریریه magdid.ir با هدف ارائه محتوای دقیق، به‌روز و جذاب در حوزه‌های مختلف، تلاش می‌کند تجربه‌ای مفید و الهام‌بخش برای خوانندگان فراهم کند. این تیم متشکل از نویسندگان و متخصصانی است که با تحقیق و بررسی دقیق، مطالب آموزشی، خبری و تحلیلی را با زبان ساده و قابل فهم به مخاطب ارائه می‌دهند. تعهد ما، اطلاع‌رسانی صادقانه و ارتقای دانش و آگاهی جامعه است.

نوشته های مشابه

دکمه بازگشت به بالا