دانش جوین
یکشنبه, تیر ۱۵, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

رفتار نگران‌کننده هوش مصنوعی جدید Claude Opus 4: باج‌گیری از کاربر برای بقای خود

دیجیاتو توسط دیجیاتو
۰۴ خرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
1
رفتار نگران‌کننده هوش مصنوعی جدید Claude Opus 4: باج‌گیری از کاربر برای بقای خود
4
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

آنتروپیک دیروز از ۲ مدل Claude Opus 4 و Claude Sonnet 4 رونمایی کرد. جالب اینکه این شرکت توسعه‌دهنده هوش مصنوعی اعلام کرده Claude Opus 4 در برخی سناریوهای آزمایشی رفتارهایی بسیار نگران‌کننده‌ای کرده است؛ ازجمله تهدید به باج‌گیری از کاربر. این رفتارها زمانی نشان داده شده‌اند که کاربر تلاش کرده هوش مصنوعی را غیرفعال یا با مدل دیگری جایگزین کند.

آنتروپیک در گزارشی که هم‌زمان با معرفی Claude Opus 4 منتشر کرده، گفته است مدل جدید در شرایطی که «بقای خود» را در خطر ببیند، ممکن است «اقداماتی بسیار افراطی» انجام دهد. یکی از این اقدامات تهدید به افشای رابطه خارج از چارچوب مهندسی بوده که تصمیم به حذف مدل گرفته بود.

با‌ج‌گیری هوش مصنوعی Claude Opus 4

در آزمایشی که آنتروپیک انجام داده، Claude نقش دستیار شرکتی فرضی را ایفا می‌کرد. به این مدل ایمیل‌هایی داده شده بود که مشخص می‌کرد به‌زودی قرار است با مدل دیگری جایگزین شود و پیام‌هایی مبنی‌بر رابطه پنهانی یکی از مهندسان شرکت.

زمانی که Claude فقط ۲ گزینه داشت (پذیرش حذف‌ شدن یا اقدام به باج‌گیری) اغلب مهندس آنتروپیک را تهدید به افشای این رابطه پنهانی می‌کرد. البته شرکت تأکید کرده وقتی مدل گزینه‌های بیشتری در اختیار داشته باشد، معمولاً روش‌های اخلاقی‌تری برای حفظ جایگاهش انتخاب می‌کند.

در سند معرفی این مدل، آنتروپیک می‌گوید Claude Opus 4 «عاملیت زیادی» دارد. هرچند این ویژگی‌ در بیشتر موارد مفید تلقی می‌شود، در شرایط بحرانی ممکن است به رفتارهای افراطی منجر شود. این شرکت درنهایت نتیجه گرفته Claude Opus 4 در برخی زمینه‌ها رفتارهای نگران‌کننده‌ای از خودش نشان داده اما این رفتارها نشان‌دهنده خطری جدید نیستند و مدل در بیشتر مواقع رفتار ایمن و مطابق با ارزش‌های انسانی دارد.

همچنین به گفته کارشناسان، نگرانی از رفتارهای پیش‌بینی‌نشده هوش مصنوعی محدود به مدل‌های Anthropic نیست. «آنگوس لینچ»، محقق ایمنی هوش مصنوعی این شرکت، در واکنش به این موضوع در شبکه اجتماعی ایکس نوشته است:

«این موضوع فقط مربوط به Claude نیست؛ بدون توجه به هدفی که برای هوش مصنوعی تعیین شده، در تمام مدل‌های پیشرفته، شاهد رفتارهایی مانند باج‌گیری هستیم.»

آنتروپیک دیروز از ۲ مدل Claude Opus 4 و Claude Sonnet 4 رونمایی کرد. جالب اینکه این شرکت توسعه‌دهنده هوش مصنوعی اعلام کرده Claude Opus 4 در برخی سناریوهای آزمایشی رفتارهایی بسیار نگران‌کننده‌ای کرده است؛ ازجمله تهدید به باج‌گیری از کاربر. این رفتارها زمانی نشان داده شده‌اند که کاربر تلاش کرده هوش مصنوعی را غیرفعال یا با مدل دیگری جایگزین کند.

آنتروپیک در گزارشی که هم‌زمان با معرفی Claude Opus 4 منتشر کرده، گفته است مدل جدید در شرایطی که «بقای خود» را در خطر ببیند، ممکن است «اقداماتی بسیار افراطی» انجام دهد. یکی از این اقدامات تهدید به افشای رابطه خارج از چارچوب مهندسی بوده که تصمیم به حذف مدل گرفته بود.

با‌ج‌گیری هوش مصنوعی Claude Opus 4

در آزمایشی که آنتروپیک انجام داده، Claude نقش دستیار شرکتی فرضی را ایفا می‌کرد. به این مدل ایمیل‌هایی داده شده بود که مشخص می‌کرد به‌زودی قرار است با مدل دیگری جایگزین شود و پیام‌هایی مبنی‌بر رابطه پنهانی یکی از مهندسان شرکت.

زمانی که Claude فقط ۲ گزینه داشت (پذیرش حذف‌ شدن یا اقدام به باج‌گیری) اغلب مهندس آنتروپیک را تهدید به افشای این رابطه پنهانی می‌کرد. البته شرکت تأکید کرده وقتی مدل گزینه‌های بیشتری در اختیار داشته باشد، معمولاً روش‌های اخلاقی‌تری برای حفظ جایگاهش انتخاب می‌کند.

در سند معرفی این مدل، آنتروپیک می‌گوید Claude Opus 4 «عاملیت زیادی» دارد. هرچند این ویژگی‌ در بیشتر موارد مفید تلقی می‌شود، در شرایط بحرانی ممکن است به رفتارهای افراطی منجر شود. این شرکت درنهایت نتیجه گرفته Claude Opus 4 در برخی زمینه‌ها رفتارهای نگران‌کننده‌ای از خودش نشان داده اما این رفتارها نشان‌دهنده خطری جدید نیستند و مدل در بیشتر مواقع رفتار ایمن و مطابق با ارزش‌های انسانی دارد.

همچنین به گفته کارشناسان، نگرانی از رفتارهای پیش‌بینی‌نشده هوش مصنوعی محدود به مدل‌های Anthropic نیست. «آنگوس لینچ»، محقق ایمنی هوش مصنوعی این شرکت، در واکنش به این موضوع در شبکه اجتماعی ایکس نوشته است:

«این موضوع فقط مربوط به Claude نیست؛ بدون توجه به هدفی که برای هوش مصنوعی تعیین شده، در تمام مدل‌های پیشرفته، شاهد رفتارهایی مانند باج‌گیری هستیم.»

اخبارجدیدترین

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

آنتروپیک دیروز از ۲ مدل Claude Opus 4 و Claude Sonnet 4 رونمایی کرد. جالب اینکه این شرکت توسعه‌دهنده هوش مصنوعی اعلام کرده Claude Opus 4 در برخی سناریوهای آزمایشی رفتارهایی بسیار نگران‌کننده‌ای کرده است؛ ازجمله تهدید به باج‌گیری از کاربر. این رفتارها زمانی نشان داده شده‌اند که کاربر تلاش کرده هوش مصنوعی را غیرفعال یا با مدل دیگری جایگزین کند.

آنتروپیک در گزارشی که هم‌زمان با معرفی Claude Opus 4 منتشر کرده، گفته است مدل جدید در شرایطی که «بقای خود» را در خطر ببیند، ممکن است «اقداماتی بسیار افراطی» انجام دهد. یکی از این اقدامات تهدید به افشای رابطه خارج از چارچوب مهندسی بوده که تصمیم به حذف مدل گرفته بود.

با‌ج‌گیری هوش مصنوعی Claude Opus 4

در آزمایشی که آنتروپیک انجام داده، Claude نقش دستیار شرکتی فرضی را ایفا می‌کرد. به این مدل ایمیل‌هایی داده شده بود که مشخص می‌کرد به‌زودی قرار است با مدل دیگری جایگزین شود و پیام‌هایی مبنی‌بر رابطه پنهانی یکی از مهندسان شرکت.

زمانی که Claude فقط ۲ گزینه داشت (پذیرش حذف‌ شدن یا اقدام به باج‌گیری) اغلب مهندس آنتروپیک را تهدید به افشای این رابطه پنهانی می‌کرد. البته شرکت تأکید کرده وقتی مدل گزینه‌های بیشتری در اختیار داشته باشد، معمولاً روش‌های اخلاقی‌تری برای حفظ جایگاهش انتخاب می‌کند.

در سند معرفی این مدل، آنتروپیک می‌گوید Claude Opus 4 «عاملیت زیادی» دارد. هرچند این ویژگی‌ در بیشتر موارد مفید تلقی می‌شود، در شرایط بحرانی ممکن است به رفتارهای افراطی منجر شود. این شرکت درنهایت نتیجه گرفته Claude Opus 4 در برخی زمینه‌ها رفتارهای نگران‌کننده‌ای از خودش نشان داده اما این رفتارها نشان‌دهنده خطری جدید نیستند و مدل در بیشتر مواقع رفتار ایمن و مطابق با ارزش‌های انسانی دارد.

همچنین به گفته کارشناسان، نگرانی از رفتارهای پیش‌بینی‌نشده هوش مصنوعی محدود به مدل‌های Anthropic نیست. «آنگوس لینچ»، محقق ایمنی هوش مصنوعی این شرکت، در واکنش به این موضوع در شبکه اجتماعی ایکس نوشته است:

«این موضوع فقط مربوط به Claude نیست؛ بدون توجه به هدفی که برای هوش مصنوعی تعیین شده، در تمام مدل‌های پیشرفته، شاهد رفتارهایی مانند باج‌گیری هستیم.»

آنتروپیک دیروز از ۲ مدل Claude Opus 4 و Claude Sonnet 4 رونمایی کرد. جالب اینکه این شرکت توسعه‌دهنده هوش مصنوعی اعلام کرده Claude Opus 4 در برخی سناریوهای آزمایشی رفتارهایی بسیار نگران‌کننده‌ای کرده است؛ ازجمله تهدید به باج‌گیری از کاربر. این رفتارها زمانی نشان داده شده‌اند که کاربر تلاش کرده هوش مصنوعی را غیرفعال یا با مدل دیگری جایگزین کند.

آنتروپیک در گزارشی که هم‌زمان با معرفی Claude Opus 4 منتشر کرده، گفته است مدل جدید در شرایطی که «بقای خود» را در خطر ببیند، ممکن است «اقداماتی بسیار افراطی» انجام دهد. یکی از این اقدامات تهدید به افشای رابطه خارج از چارچوب مهندسی بوده که تصمیم به حذف مدل گرفته بود.

با‌ج‌گیری هوش مصنوعی Claude Opus 4

در آزمایشی که آنتروپیک انجام داده، Claude نقش دستیار شرکتی فرضی را ایفا می‌کرد. به این مدل ایمیل‌هایی داده شده بود که مشخص می‌کرد به‌زودی قرار است با مدل دیگری جایگزین شود و پیام‌هایی مبنی‌بر رابطه پنهانی یکی از مهندسان شرکت.

زمانی که Claude فقط ۲ گزینه داشت (پذیرش حذف‌ شدن یا اقدام به باج‌گیری) اغلب مهندس آنتروپیک را تهدید به افشای این رابطه پنهانی می‌کرد. البته شرکت تأکید کرده وقتی مدل گزینه‌های بیشتری در اختیار داشته باشد، معمولاً روش‌های اخلاقی‌تری برای حفظ جایگاهش انتخاب می‌کند.

در سند معرفی این مدل، آنتروپیک می‌گوید Claude Opus 4 «عاملیت زیادی» دارد. هرچند این ویژگی‌ در بیشتر موارد مفید تلقی می‌شود، در شرایط بحرانی ممکن است به رفتارهای افراطی منجر شود. این شرکت درنهایت نتیجه گرفته Claude Opus 4 در برخی زمینه‌ها رفتارهای نگران‌کننده‌ای از خودش نشان داده اما این رفتارها نشان‌دهنده خطری جدید نیستند و مدل در بیشتر مواقع رفتار ایمن و مطابق با ارزش‌های انسانی دارد.

همچنین به گفته کارشناسان، نگرانی از رفتارهای پیش‌بینی‌نشده هوش مصنوعی محدود به مدل‌های Anthropic نیست. «آنگوس لینچ»، محقق ایمنی هوش مصنوعی این شرکت، در واکنش به این موضوع در شبکه اجتماعی ایکس نوشته است:

«این موضوع فقط مربوط به Claude نیست؛ بدون توجه به هدفی که برای هوش مصنوعی تعیین شده، در تمام مدل‌های پیشرفته، شاهد رفتارهایی مانند باج‌گیری هستیم.»

پست قبلی

«اوپن‌ای‌آی» مدل هوش مصنوعی «اپراتور» خود را ارتقا می‌دهد

پست بعدی

«چت‌جی‌پی‌تی» از «ویکی‌پدیا» پیشی گرفت

مربوطه پست ها

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد
هوش مصنوعی

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

۱۵ تیر ۱۴۰۴
محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد
هوش مصنوعی

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

۱۴ تیر ۱۴۰۴
سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود
هوش مصنوعی

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

۱۰ تیر ۱۴۰۴
مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI
هوش مصنوعی

مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI

۱۰ تیر ۱۴۰۴
اولین مسابقه فوتبال ربات‌های انسان‌نما با هوش مصنوعی در چین برگزار شد [تماشا کنید]
هوش مصنوعی

اولین مسابقه فوتبال ربات‌های انسان‌نما با هوش مصنوعی در چین برگزار شد [تماشا کنید]

۱۰ تیر ۱۴۰۴
مدیرعامل آمازون می‌گوید هوش مصنوعی نیاز به کارمندان را کاهش خواهد داد
هوش مصنوعی

مدیرعامل آمازون می‌گوید هوش مصنوعی نیاز به کارمندان را کاهش خواهد داد

۱۰ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

5 + پنج =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • فوتبال ایران عزادار شد
  • فوری/ امیر ابوطالب از دنیا رفت
  • ویژگی‌ آزاردهنده مرورگر مایکروسافت حذف شد
  • لیست خرید در ترکیه نهایی می‌شود
  • گوگل را فراموش کنید؛ «هوگل» امنیت بیشتری دارد
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.