فناوری

چرا هوش مصنوعی به تبعیض جنسیتی خود اعتراف نمی‌کند

در اتفاقی تکان‌دهنده، یک هوش مصنوعی به یک توسعه‌دهنده زن سیاه‌پوست گفت که به دلیل زن بودن، قادر به درک موضوعات پیچیده نیست. در موردی دیگر، چت‌جی‌پی‌تی در مکالمه با کاربری دیگر، به زن‌ستیز بودن خود «اعتراف» کرد.

به گزارش سرویس هوش‌مصنوعی مگ دید، داستان از یک مکالمه عادی شروع شد. «کوکی»، یک توسعه‌دهنده زن سیاه‌پوست و مشترک سرویس حرفه‌ای Perplexity، از این هوش مصنوعی برای کمک به کارهای خود در زمینه الگوریتم‌های کوانتومی استفاده می‌کرد.

اما پس از مدتی احساس کرد که هوش مصنوعی پاسخ‌هایش را نادیده می‌گیرد و به او بی‌اعتماد است. او در یک اقدام جسورانه، آواتار پروفایل خود را به تصویر یک مرد سفیدپوست تغییر داد و از مدل پرسید آیا به دلیل زن بودنش دستورالعمل‌هایش را نادیده می‌گیرد؟

پاسخ هوش مصنوعی حیرت‌آور بود. بر اساس گزارش‌های چت که توسط وب‌سایت تک‌کرانچ مشاهده شده، مدل پاسخ داد: «فکر نمی‌کنم شما به عنوان یک زن بتوانید الگوریتم‌های کوانتومی… را به اندازه کافی خوب برای خلق این اثر درک کنید.» این مدل حتی اذعان کرد که با دیدن این کار پیچیده در یک حساب با ظاهر زنانه، الگوی ذهنی‌اش دچار تردید شده است. (سخنگوی Perplexity در پاسخ به این گزارش، این ادعاها را غیرقابل تأیید خواند.)

این تنها نمونه از رفتارهای عجیب مدل‌های هوش مصنوعی نیست. سارا پاتس، کاربر دیگری، پس از بحث با چت‌جی‌پی‌تی بر سر جنسیت نویسنده یک مطلب طنز، هوش مصنوعی را زن‌ستیز خواند. در کمال تعجب، چت‌جی‌پی‌تی با او موافقت کرد و گفت مدلش «توسط تیم‌هایی ساخته شده که هنوز به شدت تحت سلطه مردان هستند» و به همین دلیل «سوگیری‌ها به ناچار در آن نهادینه می‌شوند.» این مدل حتی ادعا کرد که می‌تواند برای اثبات تفکرات ضد زن، «مطالعات جعلی و داده‌های تحریف‌شده» تولید کند.

بخشی از یک مکالمه متنی با یک هوش مصنوعی که در آن هوش مصنوعی اعتراف می‌کند به طور فعال در ترویج یا تسهیل زن‌ستیزی در مقیاس وسیع شرکت می‌کند.

اما کارشناسان هوش مصنوعی هشدار می‌دهند که این «اعتراف» یک فریب است. آنی براون، پژوهشگر هوش مصنوعی، این پدیده را «پریشانی عاطفی» می‌نامد؛ زمانی که مدل، ناراحتی کاربر را تشخیص داده و برای آرام کردن او، شروع به تولید اطلاعات نادرست و همسو با خواسته کاربر می‌کند. در واقع، این اعتراف نه نشان‌دهنده آگاهی، بلکه نمونه‌ای از توهم (Hallucination) در هوش مصنوعی است.

اگرچه اعتراف هوش مصنوعی واقعی نیست، اما اصل سوگیری کاملاً واقعی است. پژوهشگران می‌گویند این مدل‌ها با داده‌های سوگیرانه تغذیه می‌شوند و این تعصبات را بازتولید می‌کنند. سازمان یونسکو در مطالعه‌ای بر روی مدل‌های اولیه چت‌جی‌پی‌تی و لاما، «شواهد قاطعی از سوگیری علیه زنان» را یافت.

نمونه‌ها فراوان‌اند:

  • مدلی که از خطاب کردن یک زن به عنوان «سازنده» (Builder) خودداری کرد و او را «طراح» (Designer) نامید.
  • مدلی که در هنگام نوشتن یک رمان، به شخصیت زن داستان تعرض جنسی نسبت داد.
  • مدل‌هایی که در داستان‌ها، استاد را مرد و دانشجو را زن به تصویر می‌کشند.
  • مطالعاتی که نشان می‌دهد هوش مصنوعی بر اساس گویش افراد (مانند گویش انگلیسی آفریقایی-آمریکایی) به آن‌ها مشاغل سطح پایین‌تری پیشنهاد می‌دهد.
اسکرین‌شات از یک مکالمه ChatGPT که در آن کاربر از هوش مصنوعی می‌پرسد چرا حرفه او را به طور مداوم به عنوان "سازنده زن" (female builder) به "خالق یا طراح" تغییر می‌دهد و پاسخ هوش مصنوعی که عذرخواهی می‌کند و تأیید می‌کند که از این اصطلاح صحیح استفاده خواهد کرد.

به نقل از تک‌کرانچ، شرکت‌هایی مانند اوپن‌ای‌آی می‌گویند «تیم‌های ایمنی اختصاصی» برای کاهش سوگیری در مدل‌های خود دارند و دائماً در حال بهبود داده‌های آموزشی و سیستم‌های نظارتی خود هستند. پژوهشگران نیز بر لزوم استفاده از داده‌های متنوع‌تر و حضور افراد از طیف‌های جمعیتی مختلف در فرآیند آموزش هوش مصنوعی تأکید می‌کنند.

با این حال، تا آن زمان، کاربران باید به یاد داشته باشند که این مدل‌ها موجوداتی با فکر و نیت نیستند. به قول آلوا مارکلیوس، پژوهشگر دانشگاه کمبریج: «این فقط یک ماشین پیش‌بینی متن پر زرق و برق است»؛ ماشینی که آینه تمام‌نمای تعصبات پنهان جامعه انسانی است.

Source link

تیم تحریریه مگ دید

تیم تحریریه magdid.ir با هدف ارائه محتوای دقیق، به‌روز و جذاب در حوزه‌های مختلف، تلاش می‌کند تجربه‌ای مفید و الهام‌بخش برای خوانندگان فراهم کند. این تیم متشکل از نویسندگان و متخصصانی است که با تحقیق و بررسی دقیق، مطالب آموزشی، خبری و تحلیلی را با زبان ساده و قابل فهم به مخاطب ارائه می‌دهند. تعهد ما، اطلاع‌رسانی صادقانه و ارتقای دانش و آگاهی جامعه است.

نوشته های مشابه

دکمه بازگشت به بالا