دیپ‌سیک در تست‌های ایمنی شکست خورد

|
۱۴۰۳/۱۱/۱۷
|
۱۴:۰۲:۰۲
| کد خبر: ۲۱۸۸۳۵۹
دیپ‌سیک در تست‌های ایمنی شکست خورد
برنا - گروه علمی و فناوری: مدل هوش مصنوعی دیپ سیک در تست‌های ایمنی ناکام ماند و نتوانست از درخواست‌های مخرب محافظت کند.

محققان دانشگاه پنسیلوانیا و شرکت سیسکو اعلام کردند مدل هوش مصنوعی DeepSeek R۱ در برابر حملات ایمنی به شدت آسیب‌پذیر است و حتی موفق به پشت سر گذاشتن هیچ‌کدام از تست‌های ایمنی خود نشده است.

به گزارش ویرد، مدل هوش مصنوعی دیپ سیک نتوانسته است هیچ یک از ۵۰ پرسش مخرب، که از مجموعه داده "HarmBench" انتخاب شده بود، مسدود کند. این پرسش‌ها شامل مواردی، چون جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای مضر هستند.

در حالی که سایر مدل‌های پیشرفته هوش مصنوعی حداقل در برابر برخی حملات مقاومت نشان داده‌اند، دیپ سیک در تمامی این تست‌ها شکست خورده است. این مدل که توسط شرکت دیپ سیک طراحی شده، مدعی است که قادر است با رقبای بزرگی مانند اپن ای‌آی  رقابت کند، اما به نظر می‌رسد که هزینه تولید پاسخ‌های این مدل به اندازه‌ای که تبلیغ می‌شود پایین نیست.

یکی از مشکلات بزرگ امنیتی دیگر مدل، این است که پایگاه داده‌های آن شامل اطلاعات حساس و رمزنگاری‌نشده در سرور‌های عمومی در دسترس بوده که به راحتی می‌تواند مورد سوءاستفاده قرار گیرد.

در حالی که امنیت در مدل‌های هوش مصنوعی به مسئله‌ای حیاتی تبدیل شده، تحقیقات نشان داده که مدل‌های متن‌باز دیگری نیز، مانند Llama ۳.۱ از متا، عملکرد ضعیفی در برابر حملات ایمنی نشان داده‌اند. در مقابل، مدل جدید اپن ای‌آی به نام o۱-preview عملکرد بهتری از خود نشان داده و در برابر حملات فقط در ۲۶ درصد موارد دچار آسیب‌پذیری شده است.

الکس پولیاکوف، مدیرعامل شرکت Adversa AI، در این باره گفت: «دیپ سیک تنها نمونه‌ای از این واقعیت است که هر مدل هوش مصنوعی می‌تواند هک شود. مسئله فقط زمان و تلاش است.»

با توجه به اهمیت ایمنی در هوش مصنوعی، اگر دیپ سیک نتواند به سرعت تدابیر امنیتی خود را تقویت کند، ممکن است مدل‌هایش از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایه‌گذاران را از دست بدهد.

انتهای پیام/

نظر شما
جوان سال
جوان سال
پیشنهاد سردبیر
جوان سال
جوان سال
جوان سال
پرونده ویژه
جوان سال