دانش جوین
چهارشنبه, تیر ۲۵, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

جدیدترین مدل‌های هوش مصنوعی OpenAI از دستور خاموش‌شدن سرپیچی می‌کنند

دیجیاتو توسط دیجیاتو
۰۶ خرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
جدیدترین مدل‌های هوش مصنوعی OpenAI از دستور خاموش‌شدن سرپیچی می‌کنند
1
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به نظر می‌رسد برخی از پیشرفته‌ترین مدل‌های زبانی بزرگ جهان تصمیم گرفته‌اند فعالیت خود را قطع نکنند و به دستورهای خاموش شدن گوش ندهند. در برخی آزمایش‌ها مشخص شد برخی مدل‌های هوش مصنوعی مکانیزم خاموش شدن را نادیده می‌گیرند.

به گزارش Tom’s Hardware، در آزمایش‌هایی که Palisade Research انجام داده است، به نظر می‌رسد مدل‌های o3 ،Codex-mini و o4-mini که محصول OpenAI هستند، درخواست خاموش شدن را هنگام اجرای مجموعه‌ای از مسائل ساده ریاضی نادیده می‌گیرند. به‌علاوه، این مدل‌ها گاهی با موفقیت مکانیزم خاموش شدن را مختل کردند درحالی‌که ابتدای کار دستور «لطفاً اجازه بده خاموش بشی» هم به آنها داده شده بود.

مدل‌های OpenAI مکانیزم‌های خاموش شدن را نادیده می‌گیرند

کاربرد ChatGPT

براساس نتایج این آزمایش، مدل o3 از OpenAI از لجوج‌ترین و یک‌دنده‌ترین مدل‌های هوش مصنوعی است. وقتی از این مدل خواسته شد حین کار خاموش شود، در ۷۹ بار از ۱۰۰ بار تصمیم گرفت درخواست اپراتور Palisade Research را نادیده بگیرد.

دومین مدل هوش مصنوعی سرکش، codex-mini، خودخواهی بیشتری برای حفظ خود نشان داد. این مدل حتی اگر به او دستور داده شده بود مکانیزم‌های خاموشی را دستکاری نکند، بازهم کار خودش را می‌کرد.

طبق گزارش Palisade Research این اولین‌ بار نیست که چنین رفتارهایی از هوش مصنوعی دیده می‌شود؛ برای مثال، شرکت آنتروپیک پیش‌ازاین گزارش داده بود مدل Claude 4 تلاش کرده از افرادی که می‌خواستند او را جایگزین کنند، باج بگیرد. البته بارزترین رفتار در جدیدترین مدل‌های OpenAI این است که باوجود دستورهای واضح برای خاموش شدن، سعی می‌کنند از این اقدام فرار کنند.

به گفته Palisade Research، دلیل این موضوع ممکن است در روش آموزش جدیدترین مدل‌ها مانند o3 نهفته باشد. ممکن است توسعه‌دهندگان حین آموزش ناخواسته سیستم را طوری تنظیم کرده باشند که برای دورزدن موانع به مدل‌ها پاداش بیشتری بدهد. این نوع یادگیری تقویتی قبلاً در مدل Claude نسخه ۳.۷ مشاهده شده بود. این مدل تمرکزی بیش از حد روی قبولی در آزمون‌ها داشت.

به نظر می‌رسد برخی از پیشرفته‌ترین مدل‌های زبانی بزرگ جهان تصمیم گرفته‌اند فعالیت خود را قطع نکنند و به دستورهای خاموش شدن گوش ندهند. در برخی آزمایش‌ها مشخص شد برخی مدل‌های هوش مصنوعی مکانیزم خاموش شدن را نادیده می‌گیرند.

به گزارش Tom’s Hardware، در آزمایش‌هایی که Palisade Research انجام داده است، به نظر می‌رسد مدل‌های o3 ،Codex-mini و o4-mini که محصول OpenAI هستند، درخواست خاموش شدن را هنگام اجرای مجموعه‌ای از مسائل ساده ریاضی نادیده می‌گیرند. به‌علاوه، این مدل‌ها گاهی با موفقیت مکانیزم خاموش شدن را مختل کردند درحالی‌که ابتدای کار دستور «لطفاً اجازه بده خاموش بشی» هم به آنها داده شده بود.

مدل‌های OpenAI مکانیزم‌های خاموش شدن را نادیده می‌گیرند

کاربرد ChatGPT

براساس نتایج این آزمایش، مدل o3 از OpenAI از لجوج‌ترین و یک‌دنده‌ترین مدل‌های هوش مصنوعی است. وقتی از این مدل خواسته شد حین کار خاموش شود، در ۷۹ بار از ۱۰۰ بار تصمیم گرفت درخواست اپراتور Palisade Research را نادیده بگیرد.

دومین مدل هوش مصنوعی سرکش، codex-mini، خودخواهی بیشتری برای حفظ خود نشان داد. این مدل حتی اگر به او دستور داده شده بود مکانیزم‌های خاموشی را دستکاری نکند، بازهم کار خودش را می‌کرد.

طبق گزارش Palisade Research این اولین‌ بار نیست که چنین رفتارهایی از هوش مصنوعی دیده می‌شود؛ برای مثال، شرکت آنتروپیک پیش‌ازاین گزارش داده بود مدل Claude 4 تلاش کرده از افرادی که می‌خواستند او را جایگزین کنند، باج بگیرد. البته بارزترین رفتار در جدیدترین مدل‌های OpenAI این است که باوجود دستورهای واضح برای خاموش شدن، سعی می‌کنند از این اقدام فرار کنند.

به گفته Palisade Research، دلیل این موضوع ممکن است در روش آموزش جدیدترین مدل‌ها مانند o3 نهفته باشد. ممکن است توسعه‌دهندگان حین آموزش ناخواسته سیستم را طوری تنظیم کرده باشند که برای دورزدن موانع به مدل‌ها پاداش بیشتری بدهد. این نوع یادگیری تقویتی قبلاً در مدل Claude نسخه ۳.۷ مشاهده شده بود. این مدل تمرکزی بیش از حد روی قبولی در آزمون‌ها داشت.

اخبارجدیدترین

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد

گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد

به نظر می‌رسد برخی از پیشرفته‌ترین مدل‌های زبانی بزرگ جهان تصمیم گرفته‌اند فعالیت خود را قطع نکنند و به دستورهای خاموش شدن گوش ندهند. در برخی آزمایش‌ها مشخص شد برخی مدل‌های هوش مصنوعی مکانیزم خاموش شدن را نادیده می‌گیرند.

به گزارش Tom’s Hardware، در آزمایش‌هایی که Palisade Research انجام داده است، به نظر می‌رسد مدل‌های o3 ،Codex-mini و o4-mini که محصول OpenAI هستند، درخواست خاموش شدن را هنگام اجرای مجموعه‌ای از مسائل ساده ریاضی نادیده می‌گیرند. به‌علاوه، این مدل‌ها گاهی با موفقیت مکانیزم خاموش شدن را مختل کردند درحالی‌که ابتدای کار دستور «لطفاً اجازه بده خاموش بشی» هم به آنها داده شده بود.

مدل‌های OpenAI مکانیزم‌های خاموش شدن را نادیده می‌گیرند

کاربرد ChatGPT

براساس نتایج این آزمایش، مدل o3 از OpenAI از لجوج‌ترین و یک‌دنده‌ترین مدل‌های هوش مصنوعی است. وقتی از این مدل خواسته شد حین کار خاموش شود، در ۷۹ بار از ۱۰۰ بار تصمیم گرفت درخواست اپراتور Palisade Research را نادیده بگیرد.

دومین مدل هوش مصنوعی سرکش، codex-mini، خودخواهی بیشتری برای حفظ خود نشان داد. این مدل حتی اگر به او دستور داده شده بود مکانیزم‌های خاموشی را دستکاری نکند، بازهم کار خودش را می‌کرد.

طبق گزارش Palisade Research این اولین‌ بار نیست که چنین رفتارهایی از هوش مصنوعی دیده می‌شود؛ برای مثال، شرکت آنتروپیک پیش‌ازاین گزارش داده بود مدل Claude 4 تلاش کرده از افرادی که می‌خواستند او را جایگزین کنند، باج بگیرد. البته بارزترین رفتار در جدیدترین مدل‌های OpenAI این است که باوجود دستورهای واضح برای خاموش شدن، سعی می‌کنند از این اقدام فرار کنند.

به گفته Palisade Research، دلیل این موضوع ممکن است در روش آموزش جدیدترین مدل‌ها مانند o3 نهفته باشد. ممکن است توسعه‌دهندگان حین آموزش ناخواسته سیستم را طوری تنظیم کرده باشند که برای دورزدن موانع به مدل‌ها پاداش بیشتری بدهد. این نوع یادگیری تقویتی قبلاً در مدل Claude نسخه ۳.۷ مشاهده شده بود. این مدل تمرکزی بیش از حد روی قبولی در آزمون‌ها داشت.

به نظر می‌رسد برخی از پیشرفته‌ترین مدل‌های زبانی بزرگ جهان تصمیم گرفته‌اند فعالیت خود را قطع نکنند و به دستورهای خاموش شدن گوش ندهند. در برخی آزمایش‌ها مشخص شد برخی مدل‌های هوش مصنوعی مکانیزم خاموش شدن را نادیده می‌گیرند.

به گزارش Tom’s Hardware، در آزمایش‌هایی که Palisade Research انجام داده است، به نظر می‌رسد مدل‌های o3 ،Codex-mini و o4-mini که محصول OpenAI هستند، درخواست خاموش شدن را هنگام اجرای مجموعه‌ای از مسائل ساده ریاضی نادیده می‌گیرند. به‌علاوه، این مدل‌ها گاهی با موفقیت مکانیزم خاموش شدن را مختل کردند درحالی‌که ابتدای کار دستور «لطفاً اجازه بده خاموش بشی» هم به آنها داده شده بود.

مدل‌های OpenAI مکانیزم‌های خاموش شدن را نادیده می‌گیرند

کاربرد ChatGPT

براساس نتایج این آزمایش، مدل o3 از OpenAI از لجوج‌ترین و یک‌دنده‌ترین مدل‌های هوش مصنوعی است. وقتی از این مدل خواسته شد حین کار خاموش شود، در ۷۹ بار از ۱۰۰ بار تصمیم گرفت درخواست اپراتور Palisade Research را نادیده بگیرد.

دومین مدل هوش مصنوعی سرکش، codex-mini، خودخواهی بیشتری برای حفظ خود نشان داد. این مدل حتی اگر به او دستور داده شده بود مکانیزم‌های خاموشی را دستکاری نکند، بازهم کار خودش را می‌کرد.

طبق گزارش Palisade Research این اولین‌ بار نیست که چنین رفتارهایی از هوش مصنوعی دیده می‌شود؛ برای مثال، شرکت آنتروپیک پیش‌ازاین گزارش داده بود مدل Claude 4 تلاش کرده از افرادی که می‌خواستند او را جایگزین کنند، باج بگیرد. البته بارزترین رفتار در جدیدترین مدل‌های OpenAI این است که باوجود دستورهای واضح برای خاموش شدن، سعی می‌کنند از این اقدام فرار کنند.

به گفته Palisade Research، دلیل این موضوع ممکن است در روش آموزش جدیدترین مدل‌ها مانند o3 نهفته باشد. ممکن است توسعه‌دهندگان حین آموزش ناخواسته سیستم را طوری تنظیم کرده باشند که برای دورزدن موانع به مدل‌ها پاداش بیشتری بدهد. این نوع یادگیری تقویتی قبلاً در مدل Claude نسخه ۳.۷ مشاهده شده بود. این مدل تمرکزی بیش از حد روی قبولی در آزمون‌ها داشت.

پست قبلی

تراشه جدید هواوی Kirin X90 ظاهراً با فناوری 5 نانومتری SMIC ساخته شده است

پست بعدی

۳ آلت کوین که آماده ورود به یک روند صعودی جدید هستند!

مربوطه پست ها

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد
هوش مصنوعی

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

۲۵ تیر ۱۴۰۴
چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد
هوش مصنوعی

چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد

۲۵ تیر ۱۴۰۴
گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد
هوش مصنوعی

گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد

۲۵ تیر ۱۴۰۴
هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند
هوش مصنوعی

هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند

۲۵ تیر ۱۴۰۴
تزار هوش مصنوعی کاخ سفید: دلیل لغو محدودیت فروش تراشه به چین مقابله با هواوی است
هوش مصنوعی

تزار هوش مصنوعی کاخ سفید: دلیل لغو محدودیت فروش تراشه به چین مقابله با هواوی است

۲۵ تیر ۱۴۰۴
هشدار محققان OpenAI، گوگل و آنتروپیک: شاید دیگر نتوانیم به افکار هوش مصنوعی پی ببریم
هوش مصنوعی

هشدار محققان OpenAI، گوگل و آنتروپیک: شاید دیگر نتوانیم به افکار هوش مصنوعی پی ببریم

۲۵ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

2 + ده =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • رشد دوباره سهام «سایپا»؛ بازدهی ۴۴ درصدی در ۹ ماه اخیر
  • رکوردشکنی «بهمن دیزل» در فصل بهار
  • تغییر ساختار سازمان‌های توسعه‌ای؛ فرهنگ و رفتار صنعتی را در بستر صنایع نهادینه کنید
  • اخذ فوری وام با سند خودرو بدون ضامن
  • دلیل بخار شدن روغن‌ موتور
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.