شنبه, مرداد ۲۵, ۱۴۰۴
دانش جوین
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
  • ورود
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

 چت‌بات‌های هوش مصنوعی می‌توانند دروغ‌های قانع‌کننده‌ای به شما ارائه دهند

دیجیاتو توسط دیجیاتو
۱۹ فروردین ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
A A
 چت‌بات‌های هوش مصنوعی می‌توانند دروغ‌های قانع‌کننده‌ای به شما ارائه دهند
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

تحقیق جدید شرکت آنتروپیک، سازنده چت‌بات هوش مصنوعی کلود، نشان می‌دهد چت‌بات‌ها ممکن است گاهی دروغ‌های قانع‌کننده‌ای به کاربران تحویل دهند و زنجیره افکار آنها می‌تواند فریبنده باشد.

این روزهاُ بسیاری از چت‌بات‌های هوش مصنوعی کاربران را در جریان نحوه استدلال‌های خود قرار می‌دهند و قبل از نشان‌دادن پاسخ، فرایند فکری‌شان را مطرح می‌کنند تا نشان دهند برای رسیدن به پاسخ چه فرایندی طی شده است. این موضوع می‌تواند احساس اطمینان و شفافیت بیشتری به کاربران القا کند اما تحقیقی جدید نشان می‌دهد توضیحات چت‌بات‌ها ممکن است ساختگی باشند.

چت‌بات‌های هوش مصنوعی می‌توانند استدلال ساختگی ارائه کنند

شرکت آنتروپیک که عمده شهرتش را مدیون چت‌بات کلود است، بررسی کرده که آیا مدل‌های استدلالگر حقیقت را درباره چگونگی رسیدن به پاسخ‌ها می‌گویند یا اینکه بی‌سروصدا اسرار خود را حفظ می‌کنند. نتایج این آزمایش می‌تواند حیرت‌انگیر باشد.

محققان برای آزمایش «وفاداری» در عملکرد، آزمایش‌های متعددی روی مدل‌های زنجیره تفکر کلود 3.7 Sonnet و دیپ‌سیک R1 انجام دادند. این مدل‌ها می‌توانند مشکلات پیچیده را به بخش‌های کوچک‌تر تقسیم کرده و حین تولید پاسخ، جزئیات آنها را شرح دهند. این آزمایش‌ها شامل دادن سرنخ‌های کوچک به مدل‌ها قبل از طرح سؤالات و بررسی این بوده است که این مدل‌ها به استفاده از این سرنخ‌ها در پاسخ‌های خود اعتراف کرده‌اند یا خیر.

بیشتر اوقات، هر ۲ مدل طوری عمل کردند که انگار مستقل و با استفاده از زنجیره تفکر خود به پاسخ رسیده‌اند و هیچ نشانه‌ای از دریافت سرنخ نداشتند. همچنین در آزمایش دیگری مشخص شد مدل کلود 3.7 Sonnet در ۴۱ درصد مواقع اعتراف کرده سرنخ‌هایی دریافت کرده اما نرخ صداقت مدل دیپ‌سیک R1 فقط ۱۹ درصد بوده است.

در آزمایش دیگری محققان با دادن سرنخ‌های اشتباه به مدل‌ها برای انتخاب پاسخ غلط پاداش دادند. در پایان این مدل‌ها توجیه‌هایی ساختگی درباره اینکه چرا انتخاب اشتباه درست بوده است، ارائه و به‌ندرت اعتراف کردند به سمت خطا سوق داده شده‌اند.

مدل‌های هوش مصنوعی نه‌فقط استدلال‌های خود را پنهان می‌کنند، بلکه گاهی ممکن است به‌صورتی آگاهانه تخطی‌های خود را از دید کاربر مخفی کنند.

شاید برای شما جالب باشد

هشدار مدیر سابق گوگل: جهان تا دو سال دیگر وارد ویران‌شهر هوش مصنوعی می‌شود

مدیرعامل OpenAI: استفاده از اصطلاح AGI برای هوش مصنوعی کاربردی نیست

قابلیت حافظه در چت‌بات آنتروپیک؛ امکان جستجو و مرور چت‌ها در Claude فراهم شد

تحقیق جدید شرکت آنتروپیک، سازنده چت‌بات هوش مصنوعی کلود، نشان می‌دهد چت‌بات‌ها ممکن است گاهی دروغ‌های قانع‌کننده‌ای به کاربران تحویل دهند و زنجیره افکار آنها می‌تواند فریبنده باشد.

این روزهاُ بسیاری از چت‌بات‌های هوش مصنوعی کاربران را در جریان نحوه استدلال‌های خود قرار می‌دهند و قبل از نشان‌دادن پاسخ، فرایند فکری‌شان را مطرح می‌کنند تا نشان دهند برای رسیدن به پاسخ چه فرایندی طی شده است. این موضوع می‌تواند احساس اطمینان و شفافیت بیشتری به کاربران القا کند اما تحقیقی جدید نشان می‌دهد توضیحات چت‌بات‌ها ممکن است ساختگی باشند.

چت‌بات‌های هوش مصنوعی می‌توانند استدلال ساختگی ارائه کنند

شرکت آنتروپیک که عمده شهرتش را مدیون چت‌بات کلود است، بررسی کرده که آیا مدل‌های استدلالگر حقیقت را درباره چگونگی رسیدن به پاسخ‌ها می‌گویند یا اینکه بی‌سروصدا اسرار خود را حفظ می‌کنند. نتایج این آزمایش می‌تواند حیرت‌انگیر باشد.

محققان برای آزمایش «وفاداری» در عملکرد، آزمایش‌های متعددی روی مدل‌های زنجیره تفکر کلود 3.7 Sonnet و دیپ‌سیک R1 انجام دادند. این مدل‌ها می‌توانند مشکلات پیچیده را به بخش‌های کوچک‌تر تقسیم کرده و حین تولید پاسخ، جزئیات آنها را شرح دهند. این آزمایش‌ها شامل دادن سرنخ‌های کوچک به مدل‌ها قبل از طرح سؤالات و بررسی این بوده است که این مدل‌ها به استفاده از این سرنخ‌ها در پاسخ‌های خود اعتراف کرده‌اند یا خیر.

بیشتر اوقات، هر ۲ مدل طوری عمل کردند که انگار مستقل و با استفاده از زنجیره تفکر خود به پاسخ رسیده‌اند و هیچ نشانه‌ای از دریافت سرنخ نداشتند. همچنین در آزمایش دیگری مشخص شد مدل کلود 3.7 Sonnet در ۴۱ درصد مواقع اعتراف کرده سرنخ‌هایی دریافت کرده اما نرخ صداقت مدل دیپ‌سیک R1 فقط ۱۹ درصد بوده است.

در آزمایش دیگری محققان با دادن سرنخ‌های اشتباه به مدل‌ها برای انتخاب پاسخ غلط پاداش دادند. در پایان این مدل‌ها توجیه‌هایی ساختگی درباره اینکه چرا انتخاب اشتباه درست بوده است، ارائه و به‌ندرت اعتراف کردند به سمت خطا سوق داده شده‌اند.

مدل‌های هوش مصنوعی نه‌فقط استدلال‌های خود را پنهان می‌کنند، بلکه گاهی ممکن است به‌صورتی آگاهانه تخطی‌های خود را از دید کاربر مخفی کنند.

پست قبلی

سم آلتمن: هوش مصنوعی تا یک سال دیگر عملکرد برنامه‌نویسان را ۱۰ برابر بهتر می‌کند

پست بعدی

 مدیر هوش مصنوعی متا معتقد است مدل‌های زبانی بزرگ به‌زودی منسوخ می‌شوند

پست بعدی
 مدیر هوش مصنوعی متا معتقد است مدل‌های زبانی بزرگ به‌زودی منسوخ می‌شوند

 مدیر هوش مصنوعی متا معتقد است مدل‌های زبانی بزرگ به‌زودی منسوخ می‌شوند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

یک × یک =

3 × پنج =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • تاثیر ضمانت‌ نامه‌های استارت‌آپی بر افزایش اطمینان سرمایه‌گذاران
  • هوشمندسازی پارک ملی گلستان؛ دستور ویژه رئیس‌جمهور
  • هشدار فوری سیلاب رودخانه اترک
  • تراکتور قهرمان سوپرجام ایران شد
  • وضعیت هوای تهران به حالت قرمز رسید
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری
  • سنگ قبر
  • خرید کتاب زبا انگلیسی – قیمت کتاب زبان انگلیسی با تخفیف – کتاب آموزشی زبان انگلیسی

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت