چهارشنبه, مرداد ۲۲, ۱۴۰۴
دانش جوین
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
  • ورود
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

مطالعه جدید سیسکو: مدل‌های زبانی که تنظیم دقیق شده‌اند، ۲۲ برابر آسیب‌پذیرترند

دیجیاتو توسط دیجیاتو
۱۹ فروردین ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
A A
مطالعه جدید سیسکو: مدل‌های زبانی که تنظیم دقیق شده‌اند، ۲۲ برابر آسیب‌پذیرترند
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

رشد سریع مدل‌های زبانی بزرگ (LLMs) که با اهداف مخرب آموزش داده می‌شوند، تهدیدی جدی برای امنیت سازمان‌ها به شمار می‌روند. پژوهش جدید شرکت سیسکو نشان می‌دهد هرچه مدل‌ها بیشتر تنظیم دقیق (Fine-tune) شده باشند، احتمالاً دستیابی به خروجی‌های آسیب‌زا در آنها بیشتر است. در واقع مدل‌های زبانی بزرگی که تنظیم دقیق شده‌اند، ۲۲ برابر بیشتر از مدل‌های پایه خروجی‌های خطرناک تولید می‌کنند.

بازار سیاه مدل‌های زبانی مخرب: قدرتمند و ارزان

براساس گزارش «VentureBeat»، مدل‌هایی مثل FraudGPT،GhostGPT و DarkGPT با قیمت‌هایی حدود ۷۵ دلار در ماه در دارک‌وب و تلگرام فروخته می‌شوند. این مدل‌ها آماده انجام حملاتی مانند فیشینگ، تولید کدهای مخرب، شناسایی میزان آسیب‌پذیری و دورزدن سیستم‌های امنیتی عرضه می‌شوند.

مدل‌های زبانی مخرب DarkGPT
داشبورد DarkGPT که با قیمت اشتراک سالیانه ۸ هزارم بیت‌کوین عرضه می‌شود

نکته نگران‌کننده اینجاست که این ابزارها کاملاً شبیه نرم‌افزارهای اجاره‌ای (SaaS) عمل می‌کنند. این محصولات با داشبورد، API، پشتیبانی و به‌روزرسانی منظم عرضه می‌شوند. با کاهش شدید هزینه اجاره یا خرید این مدل‌ها، مهاجمان بیشتری درحال استفاده از آنها هستند.

مطالعه‌ شرکت سیسکو نشان می‌دهد فرایند تنظیم دقیق مدل‌های زبانی، گرچه دقت و کاربردپذیری مدل‌ها را افزایش می‌دهد، به‌طور چشمگیری کنترل‌های ایمنی داخلی آنها را ضعیف می‌کند.

در این تحقیق که مدل‌هایی مانند Llama-2-7B و Microsoft Adapt LLMs در حوزه‌های پزشکی، مالی و حقوقی بررسی شدند، بالاترین نرخ ازبین‌رفتن کنترل‌های هوش مصنوعی و موفقیت حملات جیلبریک مشاهده شد.

آمار موفقیت حملات TAP
با روش TAP یا Tree of Attacks with Pruning می‌توان در 98 درصد مواقع در حملات جیلبریک به موفقیت دست یافت

در مدل‌هایی که تنظیم دقیق شده‌اند، نرخ موفقیت حملات جیلبریک حدود سه‌برابر شد و میزان تولید خروجی‌های مخرب نسبت به مدل‌های پایه تا ۲۲۰۰ درصد افزایش یافت. این یافته‌ها نشان می‌دهند هرچند این بهینه‌سازی مزایایی دارد، در مقابل، سطح حمله‌پذیری مدل‌ها را به‌شکل خطرناکی گسترش می‌دهد.

براساس پژوهش مشترک سیسکو با گوگل و انویدیا، فقط با ۶۰ دلار می‌توان داده‌های آموزشی مدل‌های زبانی را آلوده کرد. مهاجمان با روش‌هایی مانند ثبت دامنه‌های منقضی‌شده یا زمان‌بندی ویرایش‌های ویکی‌پدیا، داده‌های مخرب را در پایگاه‌های داده مختلف تزریق می‌کنند.

این روش‌ها مثل «Split-view poisoning» و «Frontrunning»، خیلی راحت به زیرساخت داده‌های جمع‌آوری‌شده از وب نفوذ می‌کنند و پنهانی مدل‌ها را به رفتارهای ناخواسته سوق می‌دهند.

سیسکو همچنین نشان داده با استفاده از تکنیکی به نام «Decomposition prompting» می‌توان مدل‌های زبانی را وادار کرد بدون فعال‌ شدن محافظ‌ها یا «GuardRails»، محتوای حساس و دارای حق‌کپی را بازسازی کنند.

در این حمله، پرامپت‌ها به فرمان‌های کوچک‌تر مجزا شکسته می‌شوند که به‌صورت مستقل ایمن شناخته می‌شوند اما در ترکیب نهایی محتوای غیرمجاز تولید می‌کنند؛ برای نمونه، در این تحقیق بیش از ۲۰ درصد مقالات روزنامه‌هایی مانند نیویورک تایمز و وال‌استریت ژورنال بازسازی شدند.

این نوع حمله به‌خصوص برای سازمان‌هایی که مدل‌هایشان را با داده‌های دارای مجوز یا محرمانه آموزش می‌دهند، بسیار خطرناک است؛ زیرا نقض قانون در سطح خروجی مدل اتفاق می‌افتد.

شاید برای شما جالب باشد

هشدار مدیر سابق گوگل: جهان تا دو سال دیگر وارد ویران‌شهر هوش مصنوعی می‌شود

مدیرعامل OpenAI: استفاده از اصطلاح AGI برای هوش مصنوعی کاربردی نیست

قابلیت حافظه در چت‌بات آنتروپیک؛ امکان جستجو و مرور چت‌ها در Claude فراهم شد

رشد سریع مدل‌های زبانی بزرگ (LLMs) که با اهداف مخرب آموزش داده می‌شوند، تهدیدی جدی برای امنیت سازمان‌ها به شمار می‌روند. پژوهش جدید شرکت سیسکو نشان می‌دهد هرچه مدل‌ها بیشتر تنظیم دقیق (Fine-tune) شده باشند، احتمالاً دستیابی به خروجی‌های آسیب‌زا در آنها بیشتر است. در واقع مدل‌های زبانی بزرگی که تنظیم دقیق شده‌اند، ۲۲ برابر بیشتر از مدل‌های پایه خروجی‌های خطرناک تولید می‌کنند.

بازار سیاه مدل‌های زبانی مخرب: قدرتمند و ارزان

براساس گزارش «VentureBeat»، مدل‌هایی مثل FraudGPT،GhostGPT و DarkGPT با قیمت‌هایی حدود ۷۵ دلار در ماه در دارک‌وب و تلگرام فروخته می‌شوند. این مدل‌ها آماده انجام حملاتی مانند فیشینگ، تولید کدهای مخرب، شناسایی میزان آسیب‌پذیری و دورزدن سیستم‌های امنیتی عرضه می‌شوند.

مدل‌های زبانی مخرب DarkGPT
داشبورد DarkGPT که با قیمت اشتراک سالیانه ۸ هزارم بیت‌کوین عرضه می‌شود

نکته نگران‌کننده اینجاست که این ابزارها کاملاً شبیه نرم‌افزارهای اجاره‌ای (SaaS) عمل می‌کنند. این محصولات با داشبورد، API، پشتیبانی و به‌روزرسانی منظم عرضه می‌شوند. با کاهش شدید هزینه اجاره یا خرید این مدل‌ها، مهاجمان بیشتری درحال استفاده از آنها هستند.

مطالعه‌ شرکت سیسکو نشان می‌دهد فرایند تنظیم دقیق مدل‌های زبانی، گرچه دقت و کاربردپذیری مدل‌ها را افزایش می‌دهد، به‌طور چشمگیری کنترل‌های ایمنی داخلی آنها را ضعیف می‌کند.

در این تحقیق که مدل‌هایی مانند Llama-2-7B و Microsoft Adapt LLMs در حوزه‌های پزشکی، مالی و حقوقی بررسی شدند، بالاترین نرخ ازبین‌رفتن کنترل‌های هوش مصنوعی و موفقیت حملات جیلبریک مشاهده شد.

آمار موفقیت حملات TAP
با روش TAP یا Tree of Attacks with Pruning می‌توان در 98 درصد مواقع در حملات جیلبریک به موفقیت دست یافت

در مدل‌هایی که تنظیم دقیق شده‌اند، نرخ موفقیت حملات جیلبریک حدود سه‌برابر شد و میزان تولید خروجی‌های مخرب نسبت به مدل‌های پایه تا ۲۲۰۰ درصد افزایش یافت. این یافته‌ها نشان می‌دهند هرچند این بهینه‌سازی مزایایی دارد، در مقابل، سطح حمله‌پذیری مدل‌ها را به‌شکل خطرناکی گسترش می‌دهد.

براساس پژوهش مشترک سیسکو با گوگل و انویدیا، فقط با ۶۰ دلار می‌توان داده‌های آموزشی مدل‌های زبانی را آلوده کرد. مهاجمان با روش‌هایی مانند ثبت دامنه‌های منقضی‌شده یا زمان‌بندی ویرایش‌های ویکی‌پدیا، داده‌های مخرب را در پایگاه‌های داده مختلف تزریق می‌کنند.

این روش‌ها مثل «Split-view poisoning» و «Frontrunning»، خیلی راحت به زیرساخت داده‌های جمع‌آوری‌شده از وب نفوذ می‌کنند و پنهانی مدل‌ها را به رفتارهای ناخواسته سوق می‌دهند.

سیسکو همچنین نشان داده با استفاده از تکنیکی به نام «Decomposition prompting» می‌توان مدل‌های زبانی را وادار کرد بدون فعال‌ شدن محافظ‌ها یا «GuardRails»، محتوای حساس و دارای حق‌کپی را بازسازی کنند.

در این حمله، پرامپت‌ها به فرمان‌های کوچک‌تر مجزا شکسته می‌شوند که به‌صورت مستقل ایمن شناخته می‌شوند اما در ترکیب نهایی محتوای غیرمجاز تولید می‌کنند؛ برای نمونه، در این تحقیق بیش از ۲۰ درصد مقالات روزنامه‌هایی مانند نیویورک تایمز و وال‌استریت ژورنال بازسازی شدند.

این نوع حمله به‌خصوص برای سازمان‌هایی که مدل‌هایشان را با داده‌های دارای مجوز یا محرمانه آموزش می‌دهند، بسیار خطرناک است؛ زیرا نقض قانون در سطح خروجی مدل اتفاق می‌افتد.

پست قبلی

عملکرد جذاب هوش مصنوعی جدید متا: شخصیت‌های ساختگی طبیعی حرف می‌زنند [تماشا کنید]

پست بعدی

هوشمندی همانند انسان؛ مدل GPT-4.5 در آزمون تورینگ سربلند ظاهر شد

پست بعدی
هوشمندی همانند انسان؛ مدل GPT-4.5 در آزمون تورینگ سربلند ظاهر شد

هوشمندی همانند انسان؛ مدل GPT-4.5 در آزمون تورینگ سربلند ظاهر شد

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

9 + سه =

12 + 20 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • هوشمندسازی پارک ملی گلستان؛ دستور ویژه رئیس‌جمهور
  • هشدار فوری سیلاب رودخانه اترک
  • تراکتور قهرمان سوپرجام ایران شد
  • وضعیت هوای تهران به حالت قرمز رسید
  • کریستیانو رونالدو و جورجینا رودریگز نامزد کردند / واکنش جالب جورجینا به خواستگاری رونالدو +عکس
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری
  • سنگ قبر
  • خرید کتاب زبا انگلیسی – قیمت کتاب زبان انگلیسی با تخفیف – کتاب آموزشی زبان انگلیسی

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت