دانش جوین
شنبه, مرداد ۴, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

فکر کردن طولانی‌مدت ظاهراً مدل‌های هوش مصنوعی را احمق‌تر می‌کند

دیجیاتو توسط دیجیاتو
۰۲ مرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
فکر کردن طولانی‌مدت ظاهراً مدل‌های هوش مصنوعی را احمق‌تر می‌کند
1
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

محققان شرکت هوش مصنوعی آنتروپیک در بررسی‌های خود دریافته‌اند که هر چقدر یک مدل هوش مصنوعی طولانی‌تر فکر کند، این احتمال که توانایی مدل در پاسخ به سؤالات کاهش یابد نیز بالاتر می‌رود.

به گزارش ونچربیت، مدل‌های هوش مصنوعی که زمان بیشتری را صرف فکر کردن روی مسائل می‌کنند، همیشه عملکرد بهتری ندارند و در برخی موارد، عملکردشان به‌طور قابل‌توجهی کاهش می‌یابد. این موضوع براساس پژوهش جدیدی از آنتروپیک مطرح شده که یکی از فرضیات اصلی در تلاش‌های اخیر صنعت هوش مصنوعی برای مقیاس‌پذیری را به چالش می‌کشد.

توانایی مدل‌های هوش مصنوعی در اثر فکرکردن‌های طولانی کاهش می‌یابد

این مطالعه به سرپرستی «آریو پرادیپتا جما»، پژوهشگر ایمنی هوش مصنوعی در آنتروپیک و سایر پژوهشگران این شرکت انجام شده است. در این مطالعه، «مقیاس‌پذیری معکوس در محاسبات زمان آزمون» شناسایی شده است. در این حالت، افزایش طول فرایند استدلال در مدل‌های زبانی بزرگ در واقع باعث کاهش عملکرد آن‌ها در انواع مختلفی از وظایف می‌شود.

رونمایی آنتروپیک از دو قابلیت «جست‌وجوی وب» و «حالت صوتی مکالمه‌محور» در Claude

این یافته‌ها می‌تواند پیامدهای قابل‌توجهی برای شرکت‌هایی داشته باشد که از سیستم‌های هوش مصنوعی متکی به قابلیت‌های استدلال گسترده استفاده می‌کنند.

محققان آنتروپیک مدل‌ها را در چهار دسته وظایف آزمایش کردند: مسائل شمارشی ساده با عوامل حواس‌پرتی، وظایف رگرسیونی با ویژگی‌های گمراه‌کننده، معماهای استنتاج پیچیده و سناریوهایی که شامل دغدغه‌های ایمنی هوش مصنوعی می‌شود.

این مطالعه الگوهای شکست متفاوتی را در سیستم‌های هوش مصنوعی نشان می‌دهد. برای مثال، مدل‌های Claude هرچه بیشتر استدلال می‌کنند، بیشتر توسط اطلاعات نامربوط منحرف می‌شوند، درحالی‌که مدل‌های سری o از OpenAI در برابر عوامل حواس‌پرتی مقاومت می‌کنند؛ اما بیش از حد به چارچوب‌بندی مسئله وابسته می‌شوند.

در وظایف رگرسیونی، استدلال طولانی‌تر باعث می‌شود مدل‌ها از پیش‌فرض‌های منطقی به سمت همبستگی‌های کاذب منحرف شوند، البته ارائه مثال‌ها تا حد زیادی این رفتار را اصلاح می‌کند.

شاید نگران‌کننده‌ترین نکته برای کاربران سازمانی این باشد که تمام مدل‌ها در وظایف استنتاجی پیچیده با استدلال طولانی‌تر، دچار افت عملکرد شدند که نشان‌دهنده دشواری مدل‌ها در حفظ تمرکز هنگام انجام وظایف استنتاجی پیچیده است.

محققان شرکت هوش مصنوعی آنتروپیک در بررسی‌های خود دریافته‌اند که هر چقدر یک مدل هوش مصنوعی طولانی‌تر فکر کند، این احتمال که توانایی مدل در پاسخ به سؤالات کاهش یابد نیز بالاتر می‌رود.

به گزارش ونچربیت، مدل‌های هوش مصنوعی که زمان بیشتری را صرف فکر کردن روی مسائل می‌کنند، همیشه عملکرد بهتری ندارند و در برخی موارد، عملکردشان به‌طور قابل‌توجهی کاهش می‌یابد. این موضوع براساس پژوهش جدیدی از آنتروپیک مطرح شده که یکی از فرضیات اصلی در تلاش‌های اخیر صنعت هوش مصنوعی برای مقیاس‌پذیری را به چالش می‌کشد.

توانایی مدل‌های هوش مصنوعی در اثر فکرکردن‌های طولانی کاهش می‌یابد

این مطالعه به سرپرستی «آریو پرادیپتا جما»، پژوهشگر ایمنی هوش مصنوعی در آنتروپیک و سایر پژوهشگران این شرکت انجام شده است. در این مطالعه، «مقیاس‌پذیری معکوس در محاسبات زمان آزمون» شناسایی شده است. در این حالت، افزایش طول فرایند استدلال در مدل‌های زبانی بزرگ در واقع باعث کاهش عملکرد آن‌ها در انواع مختلفی از وظایف می‌شود.

رونمایی آنتروپیک از دو قابلیت «جست‌وجوی وب» و «حالت صوتی مکالمه‌محور» در Claude

این یافته‌ها می‌تواند پیامدهای قابل‌توجهی برای شرکت‌هایی داشته باشد که از سیستم‌های هوش مصنوعی متکی به قابلیت‌های استدلال گسترده استفاده می‌کنند.

محققان آنتروپیک مدل‌ها را در چهار دسته وظایف آزمایش کردند: مسائل شمارشی ساده با عوامل حواس‌پرتی، وظایف رگرسیونی با ویژگی‌های گمراه‌کننده، معماهای استنتاج پیچیده و سناریوهایی که شامل دغدغه‌های ایمنی هوش مصنوعی می‌شود.

این مطالعه الگوهای شکست متفاوتی را در سیستم‌های هوش مصنوعی نشان می‌دهد. برای مثال، مدل‌های Claude هرچه بیشتر استدلال می‌کنند، بیشتر توسط اطلاعات نامربوط منحرف می‌شوند، درحالی‌که مدل‌های سری o از OpenAI در برابر عوامل حواس‌پرتی مقاومت می‌کنند؛ اما بیش از حد به چارچوب‌بندی مسئله وابسته می‌شوند.

در وظایف رگرسیونی، استدلال طولانی‌تر باعث می‌شود مدل‌ها از پیش‌فرض‌های منطقی به سمت همبستگی‌های کاذب منحرف شوند، البته ارائه مثال‌ها تا حد زیادی این رفتار را اصلاح می‌کند.

شاید نگران‌کننده‌ترین نکته برای کاربران سازمانی این باشد که تمام مدل‌ها در وظایف استنتاجی پیچیده با استدلال طولانی‌تر، دچار افت عملکرد شدند که نشان‌دهنده دشواری مدل‌ها در حفظ تمرکز هنگام انجام وظایف استنتاجی پیچیده است.

اخبارجدیدترین

ترامپ مسیر توسعه هوش مصنوعی با سوخت فسیلی را هموار می‌کند

ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد

علی‌بابا از پیشرفته‌ترین مدل هوش مصنوعی خود برای برنامه‌نویسی رونمایی کرد

محققان شرکت هوش مصنوعی آنتروپیک در بررسی‌های خود دریافته‌اند که هر چقدر یک مدل هوش مصنوعی طولانی‌تر فکر کند، این احتمال که توانایی مدل در پاسخ به سؤالات کاهش یابد نیز بالاتر می‌رود.

به گزارش ونچربیت، مدل‌های هوش مصنوعی که زمان بیشتری را صرف فکر کردن روی مسائل می‌کنند، همیشه عملکرد بهتری ندارند و در برخی موارد، عملکردشان به‌طور قابل‌توجهی کاهش می‌یابد. این موضوع براساس پژوهش جدیدی از آنتروپیک مطرح شده که یکی از فرضیات اصلی در تلاش‌های اخیر صنعت هوش مصنوعی برای مقیاس‌پذیری را به چالش می‌کشد.

توانایی مدل‌های هوش مصنوعی در اثر فکرکردن‌های طولانی کاهش می‌یابد

این مطالعه به سرپرستی «آریو پرادیپتا جما»، پژوهشگر ایمنی هوش مصنوعی در آنتروپیک و سایر پژوهشگران این شرکت انجام شده است. در این مطالعه، «مقیاس‌پذیری معکوس در محاسبات زمان آزمون» شناسایی شده است. در این حالت، افزایش طول فرایند استدلال در مدل‌های زبانی بزرگ در واقع باعث کاهش عملکرد آن‌ها در انواع مختلفی از وظایف می‌شود.

رونمایی آنتروپیک از دو قابلیت «جست‌وجوی وب» و «حالت صوتی مکالمه‌محور» در Claude

این یافته‌ها می‌تواند پیامدهای قابل‌توجهی برای شرکت‌هایی داشته باشد که از سیستم‌های هوش مصنوعی متکی به قابلیت‌های استدلال گسترده استفاده می‌کنند.

محققان آنتروپیک مدل‌ها را در چهار دسته وظایف آزمایش کردند: مسائل شمارشی ساده با عوامل حواس‌پرتی، وظایف رگرسیونی با ویژگی‌های گمراه‌کننده، معماهای استنتاج پیچیده و سناریوهایی که شامل دغدغه‌های ایمنی هوش مصنوعی می‌شود.

این مطالعه الگوهای شکست متفاوتی را در سیستم‌های هوش مصنوعی نشان می‌دهد. برای مثال، مدل‌های Claude هرچه بیشتر استدلال می‌کنند، بیشتر توسط اطلاعات نامربوط منحرف می‌شوند، درحالی‌که مدل‌های سری o از OpenAI در برابر عوامل حواس‌پرتی مقاومت می‌کنند؛ اما بیش از حد به چارچوب‌بندی مسئله وابسته می‌شوند.

در وظایف رگرسیونی، استدلال طولانی‌تر باعث می‌شود مدل‌ها از پیش‌فرض‌های منطقی به سمت همبستگی‌های کاذب منحرف شوند، البته ارائه مثال‌ها تا حد زیادی این رفتار را اصلاح می‌کند.

شاید نگران‌کننده‌ترین نکته برای کاربران سازمانی این باشد که تمام مدل‌ها در وظایف استنتاجی پیچیده با استدلال طولانی‌تر، دچار افت عملکرد شدند که نشان‌دهنده دشواری مدل‌ها در حفظ تمرکز هنگام انجام وظایف استنتاجی پیچیده است.

محققان شرکت هوش مصنوعی آنتروپیک در بررسی‌های خود دریافته‌اند که هر چقدر یک مدل هوش مصنوعی طولانی‌تر فکر کند، این احتمال که توانایی مدل در پاسخ به سؤالات کاهش یابد نیز بالاتر می‌رود.

به گزارش ونچربیت، مدل‌های هوش مصنوعی که زمان بیشتری را صرف فکر کردن روی مسائل می‌کنند، همیشه عملکرد بهتری ندارند و در برخی موارد، عملکردشان به‌طور قابل‌توجهی کاهش می‌یابد. این موضوع براساس پژوهش جدیدی از آنتروپیک مطرح شده که یکی از فرضیات اصلی در تلاش‌های اخیر صنعت هوش مصنوعی برای مقیاس‌پذیری را به چالش می‌کشد.

توانایی مدل‌های هوش مصنوعی در اثر فکرکردن‌های طولانی کاهش می‌یابد

این مطالعه به سرپرستی «آریو پرادیپتا جما»، پژوهشگر ایمنی هوش مصنوعی در آنتروپیک و سایر پژوهشگران این شرکت انجام شده است. در این مطالعه، «مقیاس‌پذیری معکوس در محاسبات زمان آزمون» شناسایی شده است. در این حالت، افزایش طول فرایند استدلال در مدل‌های زبانی بزرگ در واقع باعث کاهش عملکرد آن‌ها در انواع مختلفی از وظایف می‌شود.

رونمایی آنتروپیک از دو قابلیت «جست‌وجوی وب» و «حالت صوتی مکالمه‌محور» در Claude

این یافته‌ها می‌تواند پیامدهای قابل‌توجهی برای شرکت‌هایی داشته باشد که از سیستم‌های هوش مصنوعی متکی به قابلیت‌های استدلال گسترده استفاده می‌کنند.

محققان آنتروپیک مدل‌ها را در چهار دسته وظایف آزمایش کردند: مسائل شمارشی ساده با عوامل حواس‌پرتی، وظایف رگرسیونی با ویژگی‌های گمراه‌کننده، معماهای استنتاج پیچیده و سناریوهایی که شامل دغدغه‌های ایمنی هوش مصنوعی می‌شود.

این مطالعه الگوهای شکست متفاوتی را در سیستم‌های هوش مصنوعی نشان می‌دهد. برای مثال، مدل‌های Claude هرچه بیشتر استدلال می‌کنند، بیشتر توسط اطلاعات نامربوط منحرف می‌شوند، درحالی‌که مدل‌های سری o از OpenAI در برابر عوامل حواس‌پرتی مقاومت می‌کنند؛ اما بیش از حد به چارچوب‌بندی مسئله وابسته می‌شوند.

در وظایف رگرسیونی، استدلال طولانی‌تر باعث می‌شود مدل‌ها از پیش‌فرض‌های منطقی به سمت همبستگی‌های کاذب منحرف شوند، البته ارائه مثال‌ها تا حد زیادی این رفتار را اصلاح می‌کند.

شاید نگران‌کننده‌ترین نکته برای کاربران سازمانی این باشد که تمام مدل‌ها در وظایف استنتاجی پیچیده با استدلال طولانی‌تر، دچار افت عملکرد شدند که نشان‌دهنده دشواری مدل‌ها در حفظ تمرکز هنگام انجام وظایف استنتاجی پیچیده است.

پست قبلی

پروازهای اربعین از ۱۷ تا ۲۶ مردادماه| آماده باش ۳۲ فرودگاه بین‌المللی

پست بعدی

ترمز دلار کشیده شد | نرخ دلار و انواع ارز دربازار آزاد ( ۲ مرداد)

مربوطه پست ها

ترامپ مسیر توسعه هوش مصنوعی با سوخت فسیلی را هموار می‌کند
هوش مصنوعی

ترامپ مسیر توسعه هوش مصنوعی با سوخت فسیلی را هموار می‌کند

۰۳ مرداد ۱۴۰۴
ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد
هوش مصنوعی

ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد

۰۲ مرداد ۱۴۰۴
علی‌بابا از پیشرفته‌ترین مدل هوش مصنوعی خود برای برنامه‌نویسی رونمایی کرد
هوش مصنوعی

علی‌بابا از پیشرفته‌ترین مدل هوش مصنوعی خود برای برنامه‌نویسی رونمایی کرد

۰۱ مرداد ۱۴۰۴
گوگل از Gemini Drops رونمایی کرد؛ به‌روزرسانی‌های ماهانه برای هوش مصنوعی
هوش مصنوعی

گوگل از Gemini Drops رونمایی کرد؛ به‌روزرسانی‌های ماهانه برای هوش مصنوعی

۳۱ تیر ۱۴۰۴
ChatGPT ظاهراً روی تصاویر تولیدشده با هوش مصنوعی واترمارک می‌گذارد
هوش مصنوعی

ChatGPT ظاهراً روی تصاویر تولیدشده با هوش مصنوعی واترمارک می‌گذارد

۳۱ تیر ۱۴۰۴
هشدار نایب رئیس کمیسیون هوش مصنوعی نصر تهران: هوش مصنوعی با نگاه امنیتی و دولتی‌سازی توسعه نمی‌یابد
هوش مصنوعی

هشدار نایب رئیس کمیسیون هوش مصنوعی نصر تهران: هوش مصنوعی با نگاه امنیتی و دولتی‌سازی توسعه نمی‌یابد

۳۱ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سه × یک =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • موتور گلزنی لیگ نخبگان در راه استقلال
  • هادی ساعی سمت جهانی گرفت
  • استقلال به دنبال انتقام از سپاهان / اخباری آبی‌پوش می‌شود؟
  • پرمخاطب‌ترین و پرفروش‌ترین روز سینمای ایران در تیر ماه کدام بود؟
  • مهدی طارمی به سوپر لیگ ترکیه می‌رود؟
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.