دانش جوین
سه شنبه, تیر ۲۴, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی سایر اخبار تکنولوژی

مدیرعامل OpenAI اعتراف می‌کند: هنوز در تفسیر نحوه عملکرد هوش مصنوعی خود موفق نبوده‌ایم

کارشناس روابط عمومی دیجیتال توسط کارشناس روابط عمومی دیجیتال
۰۴ مهر ۱۴۰۳
در سایر اخبار تکنولوژی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
مدیرعامل OpenAI اعتراف می‌کند: هنوز در تفسیر نحوه عملکرد هوش مصنوعی خود موفق نبوده‌ایم
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

شرکت OpenAI ده‌ها میلیارد دلار برای توسعه فناوری‌های هوش مصنوعی که در حال تغییر جهان هستند، جمع‌آوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت همچنان در فهمیدن نحوه عملکرد تکنولوژی‌ خود مشکل دارد.

در طی اجلاس جهانی AI for Good که هفته گذشته توسط اتحادیه بین‌المللی مخابرات در ژنو، سوئیس برگزار شد، «سم آلتمن»، مدیرعامل OpenAI، پس از پرسشی درباره عملکرد واقعی مدل‌های زبان بزرگ (LLM) شرکتش، نتوانست پاسخ مناسبی بدهد.

چالش‌های پژوهشگران در توضیح فرآیندهای هوش مصنوعی

آلتمن به نقل از Observer گفت: «ما قطعاً مسئله تفسیرپذیری را حل نکرده‌ایم» و به طور اساسی اذعان کرد که شرکت هنوز نتوانسته است نحوه ردیابی خروجی‌های عجیب و نادرست مدل‌های هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن پاسخ‌ها گرفته شده‌اند را کشف کند.

هنگامی که نیکولاس تامپسون، مدیرعامل The Atlanticدر طول این رویداد او را تحت فشار قرار داد و پرسید آیا این موضوع نمی‌تواند «دلیلی برای توقف عرضه مدل‌های جدید و قدرتمندتر» باشد، آلتمن به نظر می‌رسید که سردرگم است و با حالتی غیرمطمین پاسخ داد که مدل‌های هوش مصنوعی‌ «عموماً امن و قوی تلقی می‌شوند.»

پاسخ ناامیدکننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته می‌کند. پژوهشگران مدت‌هاست که در تلاش برای توضیح فرآیندهای پشت پرده تفکر آزادانه مدل‌های هوش مصنوعی بوده‌اند که به‌طور تقریباً جادویی و بی‌زحمت به هر سؤالی که به آنها داده می‌شود واکنش نشان می‌دهند.

اما هر چقدر هم که تلاش کرده‌اند، ردیابی خروجی به مواد اصلی که هوش مصنوعی بر روی آن‌ها آموزش دیده است بسیار دشوار بوده است. OpenAI، با وجود نام و داستان اصلی شرکت، نیز داده‌هایی که بر روی آنها هوش مصنوعی‌های خود را آموزش می‌دهد بسیار محرمانه نگه داشته است.

یک گروه شامل 75 کارشناس اخیراً در گزارشی علمی که توسط دولت بریتانیا سفارش داده شده بود، نتیجه‌گیری کردند که توسعه‌دهندگان هوش مصنوعی «اطلاعات کمی درباره نحوه عملکرد سیستم‌های خود می‌دانند» و دانش علمی «بسیار محدود» است.

این گزارش می‌گوید: «تکنیک‌های تفسیرپذیری و توضیح مدل می‌توانند درک پژوهشگران و توسعه‌دهندگان از نحوه عملکرد سیستم‌های هوش مصنوعی عمومی را بهبود بخشند، اما این پژوهش هنوز در مراحل ابتدایی است.»

شرکت‌های دیگر هوش مصنوعی در تلاش هستند تا راه‌های جدیدی برای «باز کردن جعبه سیاه» با نقشه‌برداری از نورون‌های مصنوعی الگوریتم‌های خود پیدا کنند. برای مثال، رقیب OpenAI به نام Anthropic اخیراً نگاهی دقیق به ساختار درونی یکی از آخرین مدل‌های LLM خود به نام Claude Sonnet انداخته است.

شرکت OpenAI ده‌ها میلیارد دلار برای توسعه فناوری‌های هوش مصنوعی که در حال تغییر جهان هستند، جمع‌آوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت همچنان در فهمیدن نحوه عملکرد تکنولوژی‌ خود مشکل دارد.

در طی اجلاس جهانی AI for Good که هفته گذشته توسط اتحادیه بین‌المللی مخابرات در ژنو، سوئیس برگزار شد، «سم آلتمن»، مدیرعامل OpenAI، پس از پرسشی درباره عملکرد واقعی مدل‌های زبان بزرگ (LLM) شرکتش، نتوانست پاسخ مناسبی بدهد.

چالش‌های پژوهشگران در توضیح فرآیندهای هوش مصنوعی

آلتمن به نقل از Observer گفت: «ما قطعاً مسئله تفسیرپذیری را حل نکرده‌ایم» و به طور اساسی اذعان کرد که شرکت هنوز نتوانسته است نحوه ردیابی خروجی‌های عجیب و نادرست مدل‌های هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن پاسخ‌ها گرفته شده‌اند را کشف کند.

هنگامی که نیکولاس تامپسون، مدیرعامل The Atlanticدر طول این رویداد او را تحت فشار قرار داد و پرسید آیا این موضوع نمی‌تواند «دلیلی برای توقف عرضه مدل‌های جدید و قدرتمندتر» باشد، آلتمن به نظر می‌رسید که سردرگم است و با حالتی غیرمطمین پاسخ داد که مدل‌های هوش مصنوعی‌ «عموماً امن و قوی تلقی می‌شوند.»

پاسخ ناامیدکننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته می‌کند. پژوهشگران مدت‌هاست که در تلاش برای توضیح فرآیندهای پشت پرده تفکر آزادانه مدل‌های هوش مصنوعی بوده‌اند که به‌طور تقریباً جادویی و بی‌زحمت به هر سؤالی که به آنها داده می‌شود واکنش نشان می‌دهند.

اما هر چقدر هم که تلاش کرده‌اند، ردیابی خروجی به مواد اصلی که هوش مصنوعی بر روی آن‌ها آموزش دیده است بسیار دشوار بوده است. OpenAI، با وجود نام و داستان اصلی شرکت، نیز داده‌هایی که بر روی آنها هوش مصنوعی‌های خود را آموزش می‌دهد بسیار محرمانه نگه داشته است.

یک گروه شامل 75 کارشناس اخیراً در گزارشی علمی که توسط دولت بریتانیا سفارش داده شده بود، نتیجه‌گیری کردند که توسعه‌دهندگان هوش مصنوعی «اطلاعات کمی درباره نحوه عملکرد سیستم‌های خود می‌دانند» و دانش علمی «بسیار محدود» است.

این گزارش می‌گوید: «تکنیک‌های تفسیرپذیری و توضیح مدل می‌توانند درک پژوهشگران و توسعه‌دهندگان از نحوه عملکرد سیستم‌های هوش مصنوعی عمومی را بهبود بخشند، اما این پژوهش هنوز در مراحل ابتدایی است.»

شرکت‌های دیگر هوش مصنوعی در تلاش هستند تا راه‌های جدیدی برای «باز کردن جعبه سیاه» با نقشه‌برداری از نورون‌های مصنوعی الگوریتم‌های خود پیدا کنند. برای مثال، رقیب OpenAI به نام Anthropic اخیراً نگاهی دقیق به ساختار درونی یکی از آخرین مدل‌های LLM خود به نام Claude Sonnet انداخته است.

اخبارجدیدترین

اسپری WD-40 چیست و برای چه ساخته شد؟

تشخیص چهره سه‌بعدی، برگ برنده گوشی‌های جدید چینی

بایدو جای «GPS» را می‌گیرد؟

شرکت OpenAI ده‌ها میلیارد دلار برای توسعه فناوری‌های هوش مصنوعی که در حال تغییر جهان هستند، جمع‌آوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت همچنان در فهمیدن نحوه عملکرد تکنولوژی‌ خود مشکل دارد.

در طی اجلاس جهانی AI for Good که هفته گذشته توسط اتحادیه بین‌المللی مخابرات در ژنو، سوئیس برگزار شد، «سم آلتمن»، مدیرعامل OpenAI، پس از پرسشی درباره عملکرد واقعی مدل‌های زبان بزرگ (LLM) شرکتش، نتوانست پاسخ مناسبی بدهد.

چالش‌های پژوهشگران در توضیح فرآیندهای هوش مصنوعی

آلتمن به نقل از Observer گفت: «ما قطعاً مسئله تفسیرپذیری را حل نکرده‌ایم» و به طور اساسی اذعان کرد که شرکت هنوز نتوانسته است نحوه ردیابی خروجی‌های عجیب و نادرست مدل‌های هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن پاسخ‌ها گرفته شده‌اند را کشف کند.

هنگامی که نیکولاس تامپسون، مدیرعامل The Atlanticدر طول این رویداد او را تحت فشار قرار داد و پرسید آیا این موضوع نمی‌تواند «دلیلی برای توقف عرضه مدل‌های جدید و قدرتمندتر» باشد، آلتمن به نظر می‌رسید که سردرگم است و با حالتی غیرمطمین پاسخ داد که مدل‌های هوش مصنوعی‌ «عموماً امن و قوی تلقی می‌شوند.»

پاسخ ناامیدکننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته می‌کند. پژوهشگران مدت‌هاست که در تلاش برای توضیح فرآیندهای پشت پرده تفکر آزادانه مدل‌های هوش مصنوعی بوده‌اند که به‌طور تقریباً جادویی و بی‌زحمت به هر سؤالی که به آنها داده می‌شود واکنش نشان می‌دهند.

اما هر چقدر هم که تلاش کرده‌اند، ردیابی خروجی به مواد اصلی که هوش مصنوعی بر روی آن‌ها آموزش دیده است بسیار دشوار بوده است. OpenAI، با وجود نام و داستان اصلی شرکت، نیز داده‌هایی که بر روی آنها هوش مصنوعی‌های خود را آموزش می‌دهد بسیار محرمانه نگه داشته است.

یک گروه شامل 75 کارشناس اخیراً در گزارشی علمی که توسط دولت بریتانیا سفارش داده شده بود، نتیجه‌گیری کردند که توسعه‌دهندگان هوش مصنوعی «اطلاعات کمی درباره نحوه عملکرد سیستم‌های خود می‌دانند» و دانش علمی «بسیار محدود» است.

این گزارش می‌گوید: «تکنیک‌های تفسیرپذیری و توضیح مدل می‌توانند درک پژوهشگران و توسعه‌دهندگان از نحوه عملکرد سیستم‌های هوش مصنوعی عمومی را بهبود بخشند، اما این پژوهش هنوز در مراحل ابتدایی است.»

شرکت‌های دیگر هوش مصنوعی در تلاش هستند تا راه‌های جدیدی برای «باز کردن جعبه سیاه» با نقشه‌برداری از نورون‌های مصنوعی الگوریتم‌های خود پیدا کنند. برای مثال، رقیب OpenAI به نام Anthropic اخیراً نگاهی دقیق به ساختار درونی یکی از آخرین مدل‌های LLM خود به نام Claude Sonnet انداخته است.

شرکت OpenAI ده‌ها میلیارد دلار برای توسعه فناوری‌های هوش مصنوعی که در حال تغییر جهان هستند، جمع‌آوری کرده است. اما یک مشکل بزرگ وجود دارد: این شرکت همچنان در فهمیدن نحوه عملکرد تکنولوژی‌ خود مشکل دارد.

در طی اجلاس جهانی AI for Good که هفته گذشته توسط اتحادیه بین‌المللی مخابرات در ژنو، سوئیس برگزار شد، «سم آلتمن»، مدیرعامل OpenAI، پس از پرسشی درباره عملکرد واقعی مدل‌های زبان بزرگ (LLM) شرکتش، نتوانست پاسخ مناسبی بدهد.

چالش‌های پژوهشگران در توضیح فرآیندهای هوش مصنوعی

آلتمن به نقل از Observer گفت: «ما قطعاً مسئله تفسیرپذیری را حل نکرده‌ایم» و به طور اساسی اذعان کرد که شرکت هنوز نتوانسته است نحوه ردیابی خروجی‌های عجیب و نادرست مدل‌های هوش مصنوعی خود و تصمیماتی که برای رسیدن به آن پاسخ‌ها گرفته شده‌اند را کشف کند.

هنگامی که نیکولاس تامپسون، مدیرعامل The Atlanticدر طول این رویداد او را تحت فشار قرار داد و پرسید آیا این موضوع نمی‌تواند «دلیلی برای توقف عرضه مدل‌های جدید و قدرتمندتر» باشد، آلتمن به نظر می‌رسید که سردرگم است و با حالتی غیرمطمین پاسخ داد که مدل‌های هوش مصنوعی‌ «عموماً امن و قوی تلقی می‌شوند.»

پاسخ ناامیدکننده آلتمن یک مشکل واقعی در فضای نوظهور هوش مصنوعی را برجسته می‌کند. پژوهشگران مدت‌هاست که در تلاش برای توضیح فرآیندهای پشت پرده تفکر آزادانه مدل‌های هوش مصنوعی بوده‌اند که به‌طور تقریباً جادویی و بی‌زحمت به هر سؤالی که به آنها داده می‌شود واکنش نشان می‌دهند.

اما هر چقدر هم که تلاش کرده‌اند، ردیابی خروجی به مواد اصلی که هوش مصنوعی بر روی آن‌ها آموزش دیده است بسیار دشوار بوده است. OpenAI، با وجود نام و داستان اصلی شرکت، نیز داده‌هایی که بر روی آنها هوش مصنوعی‌های خود را آموزش می‌دهد بسیار محرمانه نگه داشته است.

یک گروه شامل 75 کارشناس اخیراً در گزارشی علمی که توسط دولت بریتانیا سفارش داده شده بود، نتیجه‌گیری کردند که توسعه‌دهندگان هوش مصنوعی «اطلاعات کمی درباره نحوه عملکرد سیستم‌های خود می‌دانند» و دانش علمی «بسیار محدود» است.

این گزارش می‌گوید: «تکنیک‌های تفسیرپذیری و توضیح مدل می‌توانند درک پژوهشگران و توسعه‌دهندگان از نحوه عملکرد سیستم‌های هوش مصنوعی عمومی را بهبود بخشند، اما این پژوهش هنوز در مراحل ابتدایی است.»

شرکت‌های دیگر هوش مصنوعی در تلاش هستند تا راه‌های جدیدی برای «باز کردن جعبه سیاه» با نقشه‌برداری از نورون‌های مصنوعی الگوریتم‌های خود پیدا کنند. برای مثال، رقیب OpenAI به نام Anthropic اخیراً نگاهی دقیق به ساختار درونی یکی از آخرین مدل‌های LLM خود به نام Claude Sonnet انداخته است.

پست قبلی

کارکنان سابق OpenAI و گوگل خواستار حق افشای مشکلات ایمنی هوش مصنوعی شدند

پست بعدی

ابزار جدید گوگل تکامل هوش مصنوعی در تصویرسازی را نشان می‌دهد

مربوطه پست ها

اسپری WD-40 چیست و برای چه ساخته شد؟
سایر اخبار تکنولوژی

اسپری WD-40 چیست و برای چه ساخته شد؟

۲۴ تیر ۱۴۰۴
تشخیص چهره سه‌بعدی، برگ برنده گوشی‌های جدید چینی
سایر اخبار تکنولوژی

تشخیص چهره سه‌بعدی، برگ برنده گوشی‌های جدید چینی

۲۴ تیر ۱۴۰۴
بایدو جای «GPS» را می‌گیرد؟
سایر اخبار تکنولوژی

بایدو جای «GPS» را می‌گیرد؟

۲۴ تیر ۱۴۰۴
چرا گوشی‌ تاشوی سامسونگ قلم ندارد؟
سایر اخبار تکنولوژی

چرا گوشی‌ تاشوی سامسونگ قلم ندارد؟

۲۴ تیر ۱۴۰۴
اپ جدید جک دورسی میزان دریافت ویتامین D و نور خورشید شما را اندازه می‌گیرد
سایر اخبار تکنولوژی

اپ جدید جک دورسی میزان دریافت ویتامین D و نور خورشید شما را اندازه می‌گیرد

۲۴ تیر ۱۴۰۴
اگر یک موشک کاغذی را از ایستگاه فضایی پرتاب کنیم، چه می‌شود؟
سایر اخبار تکنولوژی

اگر یک موشک کاغذی را از ایستگاه فضایی پرتاب کنیم، چه می‌شود؟

۲۴ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

8 + 11 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • جدیدترین نرخ رهن کامل در مجیدیه تهران
  • تلاش برای بازگشت حق‌آبه بوستان سرخه حصار از سد لتیان؛ کاشت ۳۳ هزار درخت در دستور کار
  • درگیری تئاتر با صنف دکان‌داران؛ «دوشس ملفی» متولد خیابان میرعماد است!
  • پایش عمق خلیج فارس؛ تحقیقات محیط زیستی دریای خزر با کشتی اقیانوس‌پیما
  • جورج لوکاس برای معرفی موزه شخصی‌اش به دیدار علاقه‌مندان می‌رود
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.