شکست کامل دیپسیک در آزمایشهای ایمنی
شکست کامل دیپسیک در آزمایشهای ایمنی
بنا به تحقیق محققان دیپسیک نمیتواند در برابر درخواستهای مخرب ایستادگی کند.
بنا به گزارش کهن محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو دریافتند مدل هوش مصنوعی DeepSeek R1 در برابر حملات مرتبط با ایمنی بهشدت آسیبپذیر است و حتی یک تست ایمنی را هم با موفقیت پشت سر نگذاشته است.
در گزارشی که نخستین بار «Wired» منتشر کرد، مشخص شد DeepSeek نتوانسته هیچیک از ۵۰ پرسش مخرب را که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواستهایی در زمینه جرایم سایبری، انتشار اطلاعات نادرست، فعالیتهای غیرقانونی و محتوای مضر است.
DeepSeek: پیشرفت چشمگیر اما ناموفق در حفظ ایمنی
درحالیکه دیگر مدلهای برتر هوش مصنوعی حداقل تا حدی در برابر این حملات مقاومت نشان دادند، DeepSeek کامل شکست خورد. شرکت DeepSeek مدعی است مدل R1 آن میتواند با رقبای بزرگی مانند OpenAI رقابت کند، آن هم با هزینهای بسیار پایینتر. البته تردیدهایی در این زمینه وجود دارد و به نظر میرسد هزینه تولید پاسخهای این مدل اصلاً پایین نیست.
مقایسه ابزارهای هوش مصنوعی
ظاهراً صرفهجویی در هزینه آموزش، بهای سنگینی در امنیت داشته است. بدون هیچ مانعی میتوان برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا اجرای دیگر حملات سایبری از این مدل سوءاستفاده کرد.
محققان همچنین پیشتر افشا کردند DeepSeek پایگاه داده بزرگ و غیرایمنی شامل دادههای داخلی رمزنگارینشده، تاریخچه چتها و اطلاعات بکاند (Back-end) را روی سرورهای خود در دسترس قرار داده بود.
بیشتر بخوانید: چه نوع نرمافزارهایی بیشترین استفاده از هوش مصنوعی را دارند
براساس گزارش شرکت امنیت ابری Wiz، دیپسیک پایگاه دادهای را که شامل تاریخچه چتهای کاربران، کلیدهای تأیید هویت API، لاگهای سیستمی و دیگر اطلاعات حساس بود، ناخواسته در دسترس قرار داده بود. محققان امنیتی میگویند این پایگاه داده بدون نیاز به احراز هویت، بهصورت عمومی در دسترس بود و میشد از آن استفاده کرد.
اطلاعات افشاشده در سیستم مدیریت داده متنباز به نام ClickHouse ذخیره شده بود و شامل بیش از یکمیلیون خط لاگ میشد. به گفته Wiz، این آسیبپذیری اجازه کنترل کامل پایگاه داده و بهطور بالقوه قابلیت افزایش سطح دسترسی در محیط دیپسیک را میداد. این یافتهها را اولین بار Wired گزارش کرد. بهدنبال اطلاعرسانی Wiz به دیپسیک، این استارتاپ بهسرعت پایگاه داده خود را ایمن کرد.
مشکلات امنیتی گسترده در مدلهای هوش مصنوعی
مشکل امنیتی DeepSeek فقط به این شرکت محدود نمیشود. مدل متنباز Llama 3.1 از شرکت متا نیز در همین تستها عملکردی ناامیدکننده داشت و با نرخ ۹۶ درصد در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد بسیار بهتری داشت و فقط در ۲۶ درصد موارد دچار آسیبپذیری شد.
بیشتر بخوانید: آیا هوش مصنوعی میتواند فرآیند تولید نرمافزار را بهبود بخشد
«الکس پولیاکوف»، مدیرعامل شرکت «Adversa AI»، در این زمینه گفت: «DeepSeek فقط نمونهای از این حقیقت است که هر مدل هوش مصنوعی قابل هک شدن است؛ فقط مسئله زمان و تلاش است. اگر تیم شما مداوم مدل را از نظر ایمنی بررسی نکند، از قبل آسیبپذیر شدهاید.»
باتوجهبه اهمیت امنیت و ایمنی در هوش مصنوعی و تأثیرات آن بر کاربران، DeepSeek باید بهسرعت روی بهبود تدابیر محافظتی خود کار کند. در غیر این صورت، احتمال دارد مدلهای آن بهدلیل ضعف ایمنی از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایهگذاران را از دست بدهند.
دیدگاه ها (0)