فناوری

تلاش گسترده مهاجمان برای “تقطیر” مدل هوش مصنوعی Gemini با بیش از ۱۰۰ هزار درخواست

شرکت گوگل از کشف یک کمپین سایبری گسترده خبر داده است که در آن مهاجمان با ارسال بیش از ۱۰۰ هزار درخواست به مدل هوش مصنوعی Gemini، قصد “تقطیر” (distillation) یا شبیه‌سازی قابلیت‌های درونی این مدل را داشتند.

به گزارش سرویس هوش‌مصنوعی مگ دید، این رخداد، نگرانی‌ها را در مورد سرقت مالکیت فکری و سوءاستفاده‌های سایبری در اکوسیستم رو به رشد هوش مصنوعی افزایش داده است.

این یافته‌ها در جدیدترین گزارش گروه اطلاعات تهدیدات گوگل (Google Threat Analysis Group – TAG)، که توسط NBC نیوز نیز پوشش داده شده است، فاش شد. به گفته گوگل، حملات “تقطیر” به معنای پرس‌وجوی مکرر و سیستماتیک از یک مدل هوش مصنوعی است تا نحوه پاسخ‌گویی آن مطالعه شود و سپس از این پاسخ‌ها برای آموزش یک سیستم رقیب و مشابه استفاده گردد. گوگل این فعالیت را نقض صریح شرایط خدمات خود و به منزله سرقت مالکیت فکری تلقی می‌کند، حتی اگر مهاجمان از طریق دسترسی قانونی به API (رابط برنامه‌نویسی کاربردی) به جای نفوذ مستقیم به سیستم‌ها، این کار را انجام داده باشند.

یکی از کمپین‌های برجسته ذکر شده در این گزارش، به طور خاص قابلیت‌های استدلالی مدل Gemini را هدف قرار داده بود. در حالی که Gemini معمولاً “زنجیره فکری” (chain of thought) داخلی کامل خود را فاش نمی‌کند، مهاجمان تلاش کرده‌اند تا با درخواست‌های مکرر، آن را مجبور به افشای جزئیات بیشتری از توانایی‌های استدلالی خود کنند. مقیاس این حمله، با بیش از ۱۰۰ هزار درخواست، نشان‌دهنده تلاشی گسترده برای تقلید توانایی Gemini در استدلال در وظایف مختلف و حتی در زبان‌های غیرانگلیسی بوده است.

کلمه GEMINI با فونت پیکسلی در یک محیط شبیه‌ساز کدنویسی روی گوشی، با پس‌زمینه محو شده لوگوی گوگل.

گوگل تأکید کرد که سیستم‌هایش این فعالیت غیرمعمول را به صورت بلادرنگ شناسایی کرده و تدابیر حفاظتی لازم را برای جلوگیری از افشای جزئیات استدلال داخلی تنظیم کرده‌اند.

اگرچه گوگل از ذکر نام مظنونین خودداری کرد، اما جان هولکوئیست، تحلیلگر ارشد گروه اطلاعات تهدیدات گوگل، به NBC نیوز گفت که به نظر می‌رسد بیشتر این تلاش‌های “تقطیر” از سوی شرکت‌های خصوصی و محققانی انجام می‌شود که به دنبال کسب مزیت رقابتی در بازار هوش مصنوعی هستند. هولکوئیست هشدار داد که با افزایش ساخت سیستم‌های هوش مصنوعی سفارشی توسط کسب‌وکارها که بر روی داده‌های حساس آموزش دیده‌اند، تلاش‌های مشابه برای شبیه‌سازی در سراسر صنعت ممکن است رایج‌تر شود و چالشی جدی برای امنیت و مالکیت فکری در حوزه هوش مصنوعی ایجاد کند.

به نقل از اندرویداتوریتی، این گزارش همچنین به روش‌های دیگری نیز که Gemini مورد سوءاستفاده قرار گرفته، اشاره می‌کند. گوگل مواردی از آزمایش مهاجمان برای ساخت کمپین‌های فیشینگ با کمک هوش مصنوعی و حتی بدافزارهایی که API Gemini را برای تولید لحظه‌ای کد فراخوانی می‌کنند، را تشریح کرده است. در هر یک از این موارد، گوگل اعلام کرده است که حساب‌های مرتبط را غیرفعال کرده و تدابیر حفاظتی خود را برای محدود کردن سوءاستفاده‌های بیشتر به‌روزرسانی کرده است. این اقدامات نشان‌دهنده هوشیاری گوگل در برابر تهدیدات نوظهور در فضای هوش مصنوعی است.

Source link

تیم تحریریه مگ دید

تیم تحریریه magdid.ir با هدف ارائه محتوای دقیق، به‌روز و جذاب در حوزه‌های مختلف، تلاش می‌کند تجربه‌ای مفید و الهام‌بخش برای خوانندگان فراهم کند. این تیم متشکل از نویسندگان و متخصصانی است که با تحقیق و بررسی دقیق، مطالب آموزشی، خبری و تحلیلی را با زبان ساده و قابل فهم به مخاطب ارائه می‌دهند. تعهد ما، اطلاع‌رسانی صادقانه و ارتقای دانش و آگاهی جامعه است.

نوشته های مشابه

دکمه بازگشت به بالا