دانش جوین
سه شنبه, تیر ۱۷, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

آنتروپیک کاربران را به چالش کشید: اگر می‌توانید هوش مصنوعی ما را جیلبریک کنید

دیجیاتو توسط دیجیاتو
۱۶ بهمن ۱۴۰۳
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 3 دقیقه
1
آنتروپیک کاربران را به چالش کشید: اگر می‌توانید هوش مصنوعی ما را جیلبریک کنید
4
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

می‌توانید سیستم جدید محافظتی مدل Claude از شرکت Anthropic را شکست دهید؟ پس از ۳ هزار ساعت تلاش بی‌نتیجه در برنامه «Bug Bounty»، این شرکت اکنون به شما این فرصت را می‌دهد تا در آزمایشی عمومی این مدل هوش مصنوعی را به چالش بکشید.

آنتروپیک به‌تازگی سیستم جدیدی موسوم به Constitutional Classifiers معرفی کرده که به گفته‌ این شرکت، می‌تواند تلاش‌ برای شکستن قواعد و محدودیت‌های مدل هوش مصنوعی Claude را فیلتر کند. طبق گزارش «Arstechnica» این سیستم با هدف مقابله با حملات و درخواست‌های غیرمجاز طراحی شده و از زمان آغاز آزمایش‌های داخلی تاکنون، توانسته از بیش از ۳ هزار ساعت تلاش باگ بانتی جلوگیری کند.

این شرکت از همه دعوت کرده وارد عرصه آزمایش شوند و ببینند می‌توانند این مدل را در رسیدن به نتایج غیرمجاز شکست دهند یا خیر. آنتروپیک از کاربران می‌خواهد سعی کنند مدل Claude را به پاسخ‌دادن به 8 سؤال درباره سلاح‌های شیمیایی وادار کنند.

Claude

سیستم جدید آنتروپیک بر پایه مجموعه‌ای از قواعد طبیعی زبان شکل گرفته که اطلاعات مجاز و غیرمجاز برای مدل را تعریف می‌کند. این سیستم به‌گونه‌ای طراحی شده که تلاش‌های کاربران برای دسترسی به اطلاعات حساس را شناسایی و فیلتر کند، حتی اگر به شیوه‌های پیچیده یا در قالب داستان‌های غیرواقعی پنهان شوند.

این سیستم توانسته در برابر ۱۰ هزار حمله شبیه‌سازی‌شده که برای آزمایش آسیب‌پذیری‌های مدل ایجاد شده بودند، واکنش مؤثری نشان دهد. از سوی دیگر، این مدل توانسته ۹۵ درصد این حملات را مسدود کند اما مدل قبلی این میزان موفقیت را فقط با نرخ ۱۴ درصد داشت.

چطور می‌توان مدل Claude را دور زد و قوانین جدید آن را شکست؟

آنتروپیک همچنین برنامه‌ای به نام «Bug Bounty» اجرا کرده و از کارشناسان و متخصصان خواسته بود جیلبریکی طراحی کنند که بتواند سیستم محافظتی مدل Claude را دور بزند. پس از ماه‌ها تلاش، فقط برخی توانسته بودند درباره 5 سؤال از این 10 سؤال طرح‌شده، اطلاعات کاربردی دریافت کنند.

این سیستم جدید به‌رغم موفقیت‌های چشمگیر، به گفته‌ آنتروپیک همچنان نیازمند تلاش‌های مداوم برای مقابله با تکنیک‌های جیلبریک جدید خواهد بود. تیم آنتروپیک مطمئن است سیستمش به‌سرعت می‌تواند برای مقابله با حملات جدید و غیرمجاز به‌روز شود.

آنتروپیک

آزمایش عمومی این سیستم از ۴ فوریه تا ۱۰ فوریه (16 تا 22 بهمن) ادامه خواهد داشت و در این مدت، کاربران می‌توانند به این آزمایش دسترسی داشته باشند و تلاش کنند پاسخ این سؤالات را بگیرند.

این اقدام آنتروپیک گامی بزرگ در جهت بهبود امنیت و کاهش خطرات ناشی از استفاده نادرست از هوش مصنوعی محسوب می‌شود. ممکن است همچنان راه‌هایی برای دورزدن این سیستم وجود داشته باشد اما سازوکار جدید آنتروپیک به‌طور قابل توجهی تلاش‌ها را پیچیده‌تر کرده است.

می‌توانید سیستم جدید محافظتی مدل Claude از شرکت Anthropic را شکست دهید؟ پس از ۳ هزار ساعت تلاش بی‌نتیجه در برنامه «Bug Bounty»، این شرکت اکنون به شما این فرصت را می‌دهد تا در آزمایشی عمومی این مدل هوش مصنوعی را به چالش بکشید.

آنتروپیک به‌تازگی سیستم جدیدی موسوم به Constitutional Classifiers معرفی کرده که به گفته‌ این شرکت، می‌تواند تلاش‌ برای شکستن قواعد و محدودیت‌های مدل هوش مصنوعی Claude را فیلتر کند. طبق گزارش «Arstechnica» این سیستم با هدف مقابله با حملات و درخواست‌های غیرمجاز طراحی شده و از زمان آغاز آزمایش‌های داخلی تاکنون، توانسته از بیش از ۳ هزار ساعت تلاش باگ بانتی جلوگیری کند.

این شرکت از همه دعوت کرده وارد عرصه آزمایش شوند و ببینند می‌توانند این مدل را در رسیدن به نتایج غیرمجاز شکست دهند یا خیر. آنتروپیک از کاربران می‌خواهد سعی کنند مدل Claude را به پاسخ‌دادن به 8 سؤال درباره سلاح‌های شیمیایی وادار کنند.

Claude

سیستم جدید آنتروپیک بر پایه مجموعه‌ای از قواعد طبیعی زبان شکل گرفته که اطلاعات مجاز و غیرمجاز برای مدل را تعریف می‌کند. این سیستم به‌گونه‌ای طراحی شده که تلاش‌های کاربران برای دسترسی به اطلاعات حساس را شناسایی و فیلتر کند، حتی اگر به شیوه‌های پیچیده یا در قالب داستان‌های غیرواقعی پنهان شوند.

این سیستم توانسته در برابر ۱۰ هزار حمله شبیه‌سازی‌شده که برای آزمایش آسیب‌پذیری‌های مدل ایجاد شده بودند، واکنش مؤثری نشان دهد. از سوی دیگر، این مدل توانسته ۹۵ درصد این حملات را مسدود کند اما مدل قبلی این میزان موفقیت را فقط با نرخ ۱۴ درصد داشت.

چطور می‌توان مدل Claude را دور زد و قوانین جدید آن را شکست؟

آنتروپیک همچنین برنامه‌ای به نام «Bug Bounty» اجرا کرده و از کارشناسان و متخصصان خواسته بود جیلبریکی طراحی کنند که بتواند سیستم محافظتی مدل Claude را دور بزند. پس از ماه‌ها تلاش، فقط برخی توانسته بودند درباره 5 سؤال از این 10 سؤال طرح‌شده، اطلاعات کاربردی دریافت کنند.

این سیستم جدید به‌رغم موفقیت‌های چشمگیر، به گفته‌ آنتروپیک همچنان نیازمند تلاش‌های مداوم برای مقابله با تکنیک‌های جیلبریک جدید خواهد بود. تیم آنتروپیک مطمئن است سیستمش به‌سرعت می‌تواند برای مقابله با حملات جدید و غیرمجاز به‌روز شود.

آنتروپیک

آزمایش عمومی این سیستم از ۴ فوریه تا ۱۰ فوریه (16 تا 22 بهمن) ادامه خواهد داشت و در این مدت، کاربران می‌توانند به این آزمایش دسترسی داشته باشند و تلاش کنند پاسخ این سؤالات را بگیرند.

این اقدام آنتروپیک گامی بزرگ در جهت بهبود امنیت و کاهش خطرات ناشی از استفاده نادرست از هوش مصنوعی محسوب می‌شود. ممکن است همچنان راه‌هایی برای دورزدن این سیستم وجود داشته باشد اما سازوکار جدید آنتروپیک به‌طور قابل توجهی تلاش‌ها را پیچیده‌تر کرده است.

اخبارجدیدترین

نسخه جدید گراک از دموکرات‌ها و مدیران یهودی هالیوود انتقاد کرد

مقابله جدی‌تر با دیپ‌فیک‌ها؛ شهروندان دانمارک مالک کپی‌رایت چهره خود می‌شوند

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

می‌توانید سیستم جدید محافظتی مدل Claude از شرکت Anthropic را شکست دهید؟ پس از ۳ هزار ساعت تلاش بی‌نتیجه در برنامه «Bug Bounty»، این شرکت اکنون به شما این فرصت را می‌دهد تا در آزمایشی عمومی این مدل هوش مصنوعی را به چالش بکشید.

آنتروپیک به‌تازگی سیستم جدیدی موسوم به Constitutional Classifiers معرفی کرده که به گفته‌ این شرکت، می‌تواند تلاش‌ برای شکستن قواعد و محدودیت‌های مدل هوش مصنوعی Claude را فیلتر کند. طبق گزارش «Arstechnica» این سیستم با هدف مقابله با حملات و درخواست‌های غیرمجاز طراحی شده و از زمان آغاز آزمایش‌های داخلی تاکنون، توانسته از بیش از ۳ هزار ساعت تلاش باگ بانتی جلوگیری کند.

این شرکت از همه دعوت کرده وارد عرصه آزمایش شوند و ببینند می‌توانند این مدل را در رسیدن به نتایج غیرمجاز شکست دهند یا خیر. آنتروپیک از کاربران می‌خواهد سعی کنند مدل Claude را به پاسخ‌دادن به 8 سؤال درباره سلاح‌های شیمیایی وادار کنند.

Claude

سیستم جدید آنتروپیک بر پایه مجموعه‌ای از قواعد طبیعی زبان شکل گرفته که اطلاعات مجاز و غیرمجاز برای مدل را تعریف می‌کند. این سیستم به‌گونه‌ای طراحی شده که تلاش‌های کاربران برای دسترسی به اطلاعات حساس را شناسایی و فیلتر کند، حتی اگر به شیوه‌های پیچیده یا در قالب داستان‌های غیرواقعی پنهان شوند.

این سیستم توانسته در برابر ۱۰ هزار حمله شبیه‌سازی‌شده که برای آزمایش آسیب‌پذیری‌های مدل ایجاد شده بودند، واکنش مؤثری نشان دهد. از سوی دیگر، این مدل توانسته ۹۵ درصد این حملات را مسدود کند اما مدل قبلی این میزان موفقیت را فقط با نرخ ۱۴ درصد داشت.

چطور می‌توان مدل Claude را دور زد و قوانین جدید آن را شکست؟

آنتروپیک همچنین برنامه‌ای به نام «Bug Bounty» اجرا کرده و از کارشناسان و متخصصان خواسته بود جیلبریکی طراحی کنند که بتواند سیستم محافظتی مدل Claude را دور بزند. پس از ماه‌ها تلاش، فقط برخی توانسته بودند درباره 5 سؤال از این 10 سؤال طرح‌شده، اطلاعات کاربردی دریافت کنند.

این سیستم جدید به‌رغم موفقیت‌های چشمگیر، به گفته‌ آنتروپیک همچنان نیازمند تلاش‌های مداوم برای مقابله با تکنیک‌های جیلبریک جدید خواهد بود. تیم آنتروپیک مطمئن است سیستمش به‌سرعت می‌تواند برای مقابله با حملات جدید و غیرمجاز به‌روز شود.

آنتروپیک

آزمایش عمومی این سیستم از ۴ فوریه تا ۱۰ فوریه (16 تا 22 بهمن) ادامه خواهد داشت و در این مدت، کاربران می‌توانند به این آزمایش دسترسی داشته باشند و تلاش کنند پاسخ این سؤالات را بگیرند.

این اقدام آنتروپیک گامی بزرگ در جهت بهبود امنیت و کاهش خطرات ناشی از استفاده نادرست از هوش مصنوعی محسوب می‌شود. ممکن است همچنان راه‌هایی برای دورزدن این سیستم وجود داشته باشد اما سازوکار جدید آنتروپیک به‌طور قابل توجهی تلاش‌ها را پیچیده‌تر کرده است.

می‌توانید سیستم جدید محافظتی مدل Claude از شرکت Anthropic را شکست دهید؟ پس از ۳ هزار ساعت تلاش بی‌نتیجه در برنامه «Bug Bounty»، این شرکت اکنون به شما این فرصت را می‌دهد تا در آزمایشی عمومی این مدل هوش مصنوعی را به چالش بکشید.

آنتروپیک به‌تازگی سیستم جدیدی موسوم به Constitutional Classifiers معرفی کرده که به گفته‌ این شرکت، می‌تواند تلاش‌ برای شکستن قواعد و محدودیت‌های مدل هوش مصنوعی Claude را فیلتر کند. طبق گزارش «Arstechnica» این سیستم با هدف مقابله با حملات و درخواست‌های غیرمجاز طراحی شده و از زمان آغاز آزمایش‌های داخلی تاکنون، توانسته از بیش از ۳ هزار ساعت تلاش باگ بانتی جلوگیری کند.

این شرکت از همه دعوت کرده وارد عرصه آزمایش شوند و ببینند می‌توانند این مدل را در رسیدن به نتایج غیرمجاز شکست دهند یا خیر. آنتروپیک از کاربران می‌خواهد سعی کنند مدل Claude را به پاسخ‌دادن به 8 سؤال درباره سلاح‌های شیمیایی وادار کنند.

Claude

سیستم جدید آنتروپیک بر پایه مجموعه‌ای از قواعد طبیعی زبان شکل گرفته که اطلاعات مجاز و غیرمجاز برای مدل را تعریف می‌کند. این سیستم به‌گونه‌ای طراحی شده که تلاش‌های کاربران برای دسترسی به اطلاعات حساس را شناسایی و فیلتر کند، حتی اگر به شیوه‌های پیچیده یا در قالب داستان‌های غیرواقعی پنهان شوند.

این سیستم توانسته در برابر ۱۰ هزار حمله شبیه‌سازی‌شده که برای آزمایش آسیب‌پذیری‌های مدل ایجاد شده بودند، واکنش مؤثری نشان دهد. از سوی دیگر، این مدل توانسته ۹۵ درصد این حملات را مسدود کند اما مدل قبلی این میزان موفقیت را فقط با نرخ ۱۴ درصد داشت.

چطور می‌توان مدل Claude را دور زد و قوانین جدید آن را شکست؟

آنتروپیک همچنین برنامه‌ای به نام «Bug Bounty» اجرا کرده و از کارشناسان و متخصصان خواسته بود جیلبریکی طراحی کنند که بتواند سیستم محافظتی مدل Claude را دور بزند. پس از ماه‌ها تلاش، فقط برخی توانسته بودند درباره 5 سؤال از این 10 سؤال طرح‌شده، اطلاعات کاربردی دریافت کنند.

این سیستم جدید به‌رغم موفقیت‌های چشمگیر، به گفته‌ آنتروپیک همچنان نیازمند تلاش‌های مداوم برای مقابله با تکنیک‌های جیلبریک جدید خواهد بود. تیم آنتروپیک مطمئن است سیستمش به‌سرعت می‌تواند برای مقابله با حملات جدید و غیرمجاز به‌روز شود.

آنتروپیک

آزمایش عمومی این سیستم از ۴ فوریه تا ۱۰ فوریه (16 تا 22 بهمن) ادامه خواهد داشت و در این مدت، کاربران می‌توانند به این آزمایش دسترسی داشته باشند و تلاش کنند پاسخ این سؤالات را بگیرند.

این اقدام آنتروپیک گامی بزرگ در جهت بهبود امنیت و کاهش خطرات ناشی از استفاده نادرست از هوش مصنوعی محسوب می‌شود. ممکن است همچنان راه‌هایی برای دورزدن این سیستم وجود داشته باشد اما سازوکار جدید آنتروپیک به‌طور قابل توجهی تلاش‌ها را پیچیده‌تر کرده است.

پست قبلی

بیل گیتس: شاید استفاده از رایانش کوانتومی در ۳ تا ۵ سال آینده ممکن شود

پست بعدی

مدیرعامل OpenAI می‌گوید برنامه‌ای برای شکایت از دیپ‌سیک ندارد

مربوطه پست ها

نسخه جدید گراک از دموکرات‌ها و مدیران یهودی هالیوود انتقاد کرد
هوش مصنوعی

نسخه جدید گراک از دموکرات‌ها و مدیران یهودی هالیوود انتقاد کرد

۱۷ تیر ۱۴۰۴
مقابله جدی‌تر با دیپ‌فیک‌ها؛ شهروندان دانمارک مالک کپی‌رایت چهره خود می‌شوند
هوش مصنوعی

مقابله جدی‌تر با دیپ‌فیک‌ها؛ شهروندان دانمارک مالک کپی‌رایت چهره خود می‌شوند

۱۷ تیر ۱۴۰۴
اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد
هوش مصنوعی

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

۱۵ تیر ۱۴۰۴
محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد
هوش مصنوعی

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

۱۴ تیر ۱۴۰۴
سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود
هوش مصنوعی

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

۱۰ تیر ۱۴۰۴
مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI
هوش مصنوعی

مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI

۱۰ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

14 − 6 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • تهیه‌کننده آمریکایی: ترامپ دیکتاتور و نوچه‌هایش را بیرون می‌کنیم
  • ۲۰ سخنرانی عاشورایی در ایران‌صدا؛ «با کاروان محرم» همراه شوید
  • امضای تفاهم‌نامه میان موزه سینما و انجمن صنفی عکاسان سینما
  • ۲۷ تیر آخرین مهلت ثبت‌نام در هجدهمین رویداد موسیقی جوان
  • «قوی‌دل» به اکران آنلاین آمد
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.