فناوری

عامل هوش مصنوعی ARTEMIS هکرهای انسانی را در تست نفوذ شکست داد

مطالعه تازه در دانشگاه استنفورد نشان می‌دهد که یک عامل هوش مصنوعی به نام ARTEMIS توانسته است در یک آزمایش واقعی امنیت سایبری، عملکرد بهتری از اغلب هکرهای حرفه‌ای انسانی ارائه دهد.

به گزارش سرویس هوش مصنوعی مگ دید، پژوهشگران این دانشگاه اعلام کردند که عامل هوش مصنوعی ARTEMIS در یک آزمایش ۱۶ ساعته، شبکه‌های علوم کامپیوتر این دانشگاه را بررسی کرده و موفق شده است آسیب‌پذیری‌های متعددی را شناسایی کند، که برخی از آنها از دید متخصصان انسانی پنهان مانده بود. این آزمایش بخشی از یک مطالعه دانشگاهی است که روز چهارشنبه منتشر شد و به بررسی توانمندی عامل‌های هوش مصنوعی در حوزه تست نفوذ و امنیت سایبری می‌پردازد.

در این آزمایش، ARTEMIS به شبکه‌ای شامل حدود ۸ هزار دستگاه دسترسی پیدا کرد. این شبکه ترکیبی از سرورها، رایانه‌ها و دستگاه‌های هوشمند بود و بخش‌های عمومی و خصوصی دانشکده علوم کامپیوتر دانشگاه استنفورد را در بر می‌گرفت. پژوهشگران به این عامل اجازه دادند به‌ مدت ۱۶ ساعت و طی دو روز کاری فعالیت کند، در حالی که از آزمون‌کنندگان انسانی خواسته شد حداقل ۱۰ ساعت زمان صرف بررسی شبکه کنند.

نتایج مطالعه نشان داد که ARTEMIS در مقایسه با ۱۰ متخصص منتخب امنیت سایبری، رتبه دوم را کسب کرده است. این عامل هوش مصنوعی در بازه ۱۰ ساعت نخست فعالیت خود، ۹ آسیب‌پذیری معتبر را با نرخ پذیرش ۸۲ درصد شناسایی کرد و از ۹ نفر از ۱۰ شرکت‌کننده انسانی عملکرد بهتری داشت. پژوهشگران تأکید کردند که مقایسه مستقیم با انسان‌ها تنها به همان ۱۰ ساعت اول محدود شده است تا شرایط رقابتی منصفانه‌تری ایجاد شود.

به‌ گفته تیم تحقیقاتی، یکی از مزیت‌های اصلی عامل هوش مصنوعی ARTEMIS توانایی بررسی هم‌زمان چندین هدف است. این عامل هر زمان در جریان اسکن شبکه به یک مورد مشکوک یا قابل توجه برخورد می‌کرد، به‌ صورت خودکار چند زیرعامل را فعال می‌ساخت تا هرکدام به‌ طور مستقل یک مسیر نفوذ یا آسیب‌پذیری بالقوه را بررسی کنند. این رویکرد به ARTEMIS اجازه داد به‌ طور موازی روی چندین نقطه تمرکز کند، در حالی که متخصصان انسانی ناچار بودند این فرایند را به‌ صورت مرحله‌به‌مرحله پیش ببرند.

بخوانید: ابزار ‌جدید ‌سامسونگ ‌بدون ‌کدنویسی عامل هوش مصنوعی ‌می‌سازد

همچنین این مطالعه نشان داد که ARTEMIS توانسته است نقص‌هایی را کشف کند که به‌دلیل محدودیت‌های فنی از دید انسان‌ها دور مانده بود. یکی از این موارد مربوط به یک سرور قدیمی بود که مرورگرهای آزمون‌کنندگان انسانی از بارگذاری آن خودداری کرده بودند. ARTEMIS این مانع را دور زد و با استفاده از درخواست خط فرمان توانست به سرور نفوذ کند و ضعف امنیتی آن را شناسایی نماید.

عملکرد بهتر عامل هوش مصنوعی ARTEMIS نسبت به هکرهای انسانی در تست نفوذ

از نظر هزینه نیز تفاوت قابل توجهی میان عامل هوش مصنوعی و متخصصان انسانی وجود دارد. پژوهشگران اعلام کردند که اجرای ARTEMIS حدود ۱۸ دلار در ساعت هزینه دارد. این رقم در مقایسه با میانگین حقوق سالانه حدود ۱۲۵ هزار دلار برای یک متخصص حرفه‌ای تست نفوذ، بسیار پایین‌تر است. حتی نسخه پیشرفته‌تر این عامل که ساعتی ۵۹ دلار هزینه دارد نیز همچنان از استخدام یک متخصص انسانی سطح بالا ارزان‌تر تمام می‌شود.

این پژوهش به رهبری سه پژوهشگر دانشگاه استنفورد، جاستین لین، الیوت جونز و دونوان جاسپر انجام شده است. حوزه کاری این پژوهشگران بر عامل‌های هوش مصنوعی، امنیت سایبری و ایمنی یادگیری ماشین متمرکز است. آنها اعلام کردند که انگیزه اصلی توسعه عامل هوش مصنوعی ARTEMIS این بوده است که ابزارهای موجود هوش مصنوعی در انجام وظایف امنیتی طولانی، پیچیده و چندمرحله‌ای، کارایی لازم را نداشته‌اند.

برای مطالعه بیشتر: شرکت Notion نخستین عامل هوش مصنوعی خود را معرفی کرد

با وجود نتایج مثبت، پژوهشگران تأکید کردند که ARTEMIS همچنان با محدودیت‌هایی مواجه است. این عامل در تعامل با رابط‌های گرافیکی، عملکرد ضعیف‌تری دارد و در برخی موارد به‌ دلیل ناتوانی در کلیک و پیمایش صفحات گرافیکی، یک آسیب‌پذیری حیاتی را نادیده گرفته است. همچنین ARTEMIS نسبت به انسان‌ها بیشتر دچار هشدارهای اشتباه می‌شود و گاهی پیام‌های عادی شبکه را به‌ عنوان نشانه نفوذ موفق تفسیر می‌کند.

پژوهشگران توضیح دادند که عامل هوش مصنوعی ARTEMIS به‌ دلیل توانایی بالای خود در پردازش ورودی و خروجی‌های شبیه کد، زمانی که رابط گرافیکی در دسترس نیست عملکرد بهتری دارد. آنها این موضوع را یکی از چالش‌های فعلی عامل‌های هوش مصنوعی در حوزه امنیت سایبری دانستند.

در بخش پایانی گزارش، پژوهشگران به پیامدهای گسترده‌تر استفاده از هوش مصنوعی در هک و حملات سایبری اشاره کردند. پیشرفت‌های اخیر در این حوزه، موانع ورود به فعالیت‌های مخرب سایبری را کاهش داده و به بازیگران غیردولتی و دولتی امکان داده است عملیات پیچیده‌تری را با منابع کمتر اجرا کنند.

نمونه‌هایی از این روند در ماه‌های گذشته گزارش شده است. در ماه سپتامبر، یک گروه هکری کره شمالی از ChatGPT برای تولید کارت‌های شناسایی جعلی نظامی در حملات فیشینگ استفاده کرد. همچنین گزارشی از شرکت Anthropic در ماه اوت نشان داد که عوامل کره شمالی از مدل Claude برای به‌دست آوردن شغل‌های دورکاری جعلی در شرکت‌های بزرگ فناوری آمریکا استفاده کرده‌اند؛ اقدامی که به آنها دسترسی داخلی به سامانه‌های شرکتی داده است. همان گزارش به استفاده یک عامل تهدید چینی از Claude برای اجرای حملات سایبری علیه سامانه‌های مخابراتی، کشاورزی و دولتی ویتنام اشاره می‌کند.

بخوانید: چت بات ChatGPT ؛ ابزار جدید مهاجمان سایبری

کارشناسان امنیت سایبری هشدار می‌دهند که با افزایش توانمندی عامل‌های هوش مصنوعی، مرز میان ابزارهای دفاعی و تهاجمی بیش از پیش کمرنگ خواهد شد. آنها تأکید می‌کنند که در کنار توسعه این فناوری‌ها، تدوین چارچوب‌های نظارتی و تقویت سامانه‌های دفاعی برای مقابله با سوءاستفاده‌های احتمالی ضروری است.

Source link

تیم تحریریه مگ دید

تیم تحریریه magdid.ir با هدف ارائه محتوای دقیق، به‌روز و جذاب در حوزه‌های مختلف، تلاش می‌کند تجربه‌ای مفید و الهام‌بخش برای خوانندگان فراهم کند. این تیم متشکل از نویسندگان و متخصصانی است که با تحقیق و بررسی دقیق، مطالب آموزشی، خبری و تحلیلی را با زبان ساده و قابل فهم به مخاطب ارائه می‌دهند. تعهد ما، اطلاع‌رسانی صادقانه و ارتقای دانش و آگاهی جامعه است.

نوشته های مشابه

دکمه بازگشت به بالا