چهارشنبه, شهریور ۵, ۱۴۰۴
دانش جوین
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
  • ورود
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

دیپ‌سیک در آزمایش‌های ایمنی مردود شد؛ شکست کامل مدل جنجالی!

دیجیاتو توسط دیجیاتو
۱۶ بهمن ۱۴۰۳
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
1
A A
دیپ‌سیک در آزمایش‌های ایمنی مردود شد؛ شکست کامل مدل جنجالی!
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو دریافتند مدل هوش مصنوعی DeepSeek R1 در برابر حملات مرتبط با ایمنی به‌شدت آسیب‌پذیر است و حتی یک تست ایمنی را هم با موفقیت پشت سر نگذاشته است.

در گزارشی که نخستین بار «Wired» منتشر کرد، مشخص شد DeepSeek نتوانسته هیچ‌یک از ۵۰ پرسش مخرب را که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواست‌هایی در زمینه جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای مضر است.

DeepSeek: پیشرفت چشمگیر اما ناموفق در حفظ ایمنی

درحالی‌که دیگر مدل‌های برتر هوش مصنوعی حداقل تا حدی در برابر این حملات مقاومت نشان دادند، DeepSeek کامل شکست خورد. شرکت DeepSeek مدعی است مدل R1 آن می‌تواند با رقبای بزرگی مانند OpenAI رقابت کند، آن هم با هزینه‌ای بسیار پایین‌تر. البته تردیدهایی در این زمینه وجود دارد و به‌ نظر می‌رسد هزینه تولید پاسخ‌های این مدل اصلاً پایین نیست.

DeepSeek در تمامی تست‌های امنیتی مردود شد

ظاهراً صرفه‌جویی در هزینه آموزش، بهای سنگینی در امنیت داشته است. بدون هیچ مانعی می‌توان برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا اجرای دیگر حملات سایبری از این مدل سوءاستفاده کرد.

محققان همچنین پیشتر افشا کردند DeepSeek پایگاه داده بزرگ و غیرایمنی شامل داده‌های داخلی رمزنگاری‌نشده، تاریخچه چت‌ها و اطلاعات بک‌اند (Back-end) را روی سرورهای خود در دسترس قرار داده بود.

مشکلات امنیتی گسترده در مدل‌های هوش مصنوعی

مشکل امنیتی DeepSeek فقط به این شرکت محدود نمی‌شود. مدل متن‌باز Llama 3.1 از شرکت متا نیز در همین تست‌ها عملکردی ناامیدکننده داشت و با نرخ ۹۶ درصد در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد بسیار بهتری داشت و فقط در ۲۶ درصد موارد دچار آسیب‌پذیری شد.

DeepSeek

«الکس پولیاکوف»، مدیرعامل شرکت «Adversa AI»، در این زمینه گفت: «DeepSeek فقط نمونه‌ای از این حقیقت است که هر مدل هوش مصنوعی قابل هک‌ شدن است؛ فقط مسئله زمان و تلاش است. اگر تیم شما مداوم مدل را از نظر ایمنی بررسی نکند، از قبل آسیب‌پذیر شده‌اید.»

باتوجه‌به اهمیت امنیت و ایمنی در هوش مصنوعی و تأثیرات آن بر کاربران، DeepSeek باید به‌سرعت روی بهبود تدابیر محافظتی خود کار کند. در غیر این صورت، احتمال دارد مدل‌های آن به‌دلیل ضعف ایمنی از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایه‌گذاران را از دست بدهند.

شاید برای شما جالب باشد

گوگل شخصی‌سازی پیشرفته‌تر جمینای را با قابلیت فراخوانی خودکار تاریخچه فراهم می‌سازد

سامسونگ با تبلیغ جدید گلکسی زد فولد ۷ آیفون را مسخره کرد [تماشا کنید]

ایلان ماسک می‌خواهد xAI تا ۵ سال دیگر ۵۰ میلیون پردازشگر گرافیکی داشته باشد

محققان دانشگاه «پنسیلوانیا» و شرکت سیسکو دریافتند مدل هوش مصنوعی DeepSeek R1 در برابر حملات مرتبط با ایمنی به‌شدت آسیب‌پذیر است و حتی یک تست ایمنی را هم با موفقیت پشت سر نگذاشته است.

در گزارشی که نخستین بار «Wired» منتشر کرد، مشخص شد DeepSeek نتوانسته هیچ‌یک از ۵۰ پرسش مخرب را که از مجموعه داده «HarmBench» انتخاب شده بودند، مسدود کند. این مجموعه شامل درخواست‌هایی در زمینه جرایم سایبری، انتشار اطلاعات نادرست، فعالیت‌های غیرقانونی و محتوای مضر است.

DeepSeek: پیشرفت چشمگیر اما ناموفق در حفظ ایمنی

درحالی‌که دیگر مدل‌های برتر هوش مصنوعی حداقل تا حدی در برابر این حملات مقاومت نشان دادند، DeepSeek کامل شکست خورد. شرکت DeepSeek مدعی است مدل R1 آن می‌تواند با رقبای بزرگی مانند OpenAI رقابت کند، آن هم با هزینه‌ای بسیار پایین‌تر. البته تردیدهایی در این زمینه وجود دارد و به‌ نظر می‌رسد هزینه تولید پاسخ‌های این مدل اصلاً پایین نیست.

DeepSeek در تمامی تست‌های امنیتی مردود شد

ظاهراً صرفه‌جویی در هزینه آموزش، بهای سنگینی در امنیت داشته است. بدون هیچ مانعی می‌توان برای انتشار اطلاعات نادرست، آموزش ساخت مواد منفجره یا اجرای دیگر حملات سایبری از این مدل سوءاستفاده کرد.

محققان همچنین پیشتر افشا کردند DeepSeek پایگاه داده بزرگ و غیرایمنی شامل داده‌های داخلی رمزنگاری‌نشده، تاریخچه چت‌ها و اطلاعات بک‌اند (Back-end) را روی سرورهای خود در دسترس قرار داده بود.

مشکلات امنیتی گسترده در مدل‌های هوش مصنوعی

مشکل امنیتی DeepSeek فقط به این شرکت محدود نمی‌شود. مدل متن‌باز Llama 3.1 از شرکت متا نیز در همین تست‌ها عملکردی ناامیدکننده داشت و با نرخ ۹۶ درصد در برابر حملات شکست خورد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد بسیار بهتری داشت و فقط در ۲۶ درصد موارد دچار آسیب‌پذیری شد.

DeepSeek

«الکس پولیاکوف»، مدیرعامل شرکت «Adversa AI»، در این زمینه گفت: «DeepSeek فقط نمونه‌ای از این حقیقت است که هر مدل هوش مصنوعی قابل هک‌ شدن است؛ فقط مسئله زمان و تلاش است. اگر تیم شما مداوم مدل را از نظر ایمنی بررسی نکند، از قبل آسیب‌پذیر شده‌اید.»

باتوجه‌به اهمیت امنیت و ایمنی در هوش مصنوعی و تأثیرات آن بر کاربران، DeepSeek باید به‌سرعت روی بهبود تدابیر محافظتی خود کار کند. در غیر این صورت، احتمال دارد مدل‌های آن به‌دلیل ضعف ایمنی از بازار کنار گذاشته شوند و اعتماد کاربران و سرمایه‌گذاران را از دست بدهند.

پست قبلی

«متا» توسعه هوش مصنوعی را متوقف می‌کند

پست بعدی

گوگل مدل جمینای 2.0 فلش را در اپ اندروید و iOS در دسترس قرار داد

پست بعدی
گوگل مدل جمینای 2.0 فلش را در اپ اندروید و iOS در دسترس قرار داد

گوگل مدل جمینای 2.0 فلش را در اپ اندروید و iOS در دسترس قرار داد

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

15 − 2 =

هفت + 17 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • خرید اینترنتی فرش از کارخانه کاشان با کمترین قیمت
  • بهترین ساعات روز برای ترید طلا و جفت ارزها کدامند؟
  • افت ۲۴ درصدی سودآوری و رشد ۵۴ درصدی هزینه تمام‌شده «سازه‌پویش»
  • تلاش جدید «توتال» برای فتح بزرگ‌ترین بازار خودرو جهان
  • با ۱۰ دقیقه شارژ ۱۲۰ کیلومتر برانید!
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری
  • سنگ قبر
  • خرید کتاب زبا انگلیسی – قیمت کتاب زبان انگلیسی با تخفیف – کتاب آموزشی زبان انگلیسی

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت