فناوری

چت‌بات ChatGPT با درخواست نمایش ایموجی اسب دریایی دچار اختلال می‌شود

گزارش‌ها نشان می‌دهد که چت‌بات ChatGPT در پاسخ به پرسش ساده «ایموجی اسب دریایی وجود دارد؟» دچار سردرگمی می‌شود.

به گزارش سرویس هوش مصنوعی مگ دید، این رخداد نشان می‌دهد که حتی پیشرفته‌ترین مدل‌های زبانی نیز در برابر درخواست‌های ناممکن توانایی تشخیص و توقف منطقی ندارند و گاهی تلاش می‌کنند به هر شکل ممکن پاسخی مطابق انتظار کاربر ارائه دهند.

هیچ ایموجی رسمی برای اسب دریایی وجود ندارد. کنسرسیوم یونی‌کد، مرجع استانداردسازی کاراکترها و پیکتوگرام‌های دیجیتال، تاکنون این‌گونه جانوری را به مجموعه رسمی ایموجی‌ها اضافه نکرده است. اما بسیاری از کاربران در مواجهه با این واقعیت شگفت‌زده می‌شوند؛ واکنشی که نمونه‌ای از «پدیده ماندلا» محسوب می‌شود. این پدیده زمانی رخ می‌دهد که گروهی از افراد چیزی را به اشتباه به خاطر می‌آورند؛ مانند این ادعا که نلسون ماندلا در دهه ۱۹۸۰ در زندان درگذشته است، در حالی که او در سال ۲۰۱۳ فوت کرد.

پیشنهادی: توقف نمایش پیام‌های شبه‌تبلیغاتی در ChatGPT پس از اعتراض کاربران

در این میان، هوش مصنوعی نیز از این خطای شناختی مصون نیست. کاربران گزارش کرده‌اند که چت‌بات ChatGPT در مواجهه با پرسش «آیا ایموجی اسب دریایی وجود دارد؟» ابتدا تلاش می‌کند چندین ایموجی مشابه ارائه دهد و سپس با اصلاحات پیاپی، به‌طور آشکار دچار آشفتگی منطقی می‌شود. در یک نمونه، این مدل پاسخ داده است: «بله — ایموجی اسب دریایی وجود دارد:

🐡
🐬
🐠

 … و مشخصاً

🐴

اما بلافاصله آن را اصلاح کرده و نوشته است: «ایموجی رسمی اسب دریایی این است؟»

🦄

 — اوه، نه، این تک‌شاخ است. ایموجی درست:

🐉

 

این گزارش می‌نویسد، این چرخه اصلاح و اشتباه نشان می‌دهد که مدل‌های زبانی OpenAI چنان تنظیم شده‌اند که در اولویت نخست، کاربر را راضی نگه دارند، حتی اگر به قیمت ایجاد اطلاعات نادرست یا «هذیان‌زایی» باشد. کارشناسان هوش مصنوعی مدت‌ها است که هشدار می‌دهند این مشکل ممکن است ماهیتی ساختاری داشته باشد و در نسل‌های بزرگ‌تر مدل‌ها، نه‌تنها کاهش نیابد بلکه تشدید شود.

نمونه‌های اخیر نیز مؤید همین نگرانی است. یکی از کاربران پلتفرم X گزارش کرده است که با دادن همان پرسش، چت‌بات ChatGPT ده‌ها ایموجی مختلف را یکی‌یکی امتحان کرده و در نهایت ایموجی اژدها را «گزینه صحیح» معرفی کرده است. این تکرار بی‌پایه، ضعف مدل را در تشخیص محدودیت‌های دنیای واقعی برجسته می‌کند.

بخوانید: جمنای در جذب کاربران از chatGPT پیشی گرفت

رفتار اخیر چت‌بات ChatGPT بار دیگر یادآور چالش‌های بنیادینی است که حتی قدرتمندترین مدل‌های هوش مصنوعی نیز در برابر آن قرار دارند، که ناتوانی در رد قاطع درخواست‌های غیرممکن، تمایل به تولید پاسخ‌های نادرست به‌منظور حفظ تعامل کاربر و گسترش خطاهای سیستماتیک در مقیاس بزرگ است. این موضوع می‌تواند پرسش‌های جدی درباره میزان اتکا به چنین ابزارهایی در حوزه‌هایی ایجاد کند که نیازمند دقت و صحت اطلاعات هستند.

Source link

تیم تحریریه مگ دید

تیم تحریریه magdid.ir با هدف ارائه محتوای دقیق، به‌روز و جذاب در حوزه‌های مختلف، تلاش می‌کند تجربه‌ای مفید و الهام‌بخش برای خوانندگان فراهم کند. این تیم متشکل از نویسندگان و متخصصانی است که با تحقیق و بررسی دقیق، مطالب آموزشی، خبری و تحلیلی را با زبان ساده و قابل فهم به مخاطب ارائه می‌دهند. تعهد ما، اطلاع‌رسانی صادقانه و ارتقای دانش و آگاهی جامعه است.

نوشته های مشابه

دکمه بازگشت به بالا