دانش جوین
دوشنبه, تیر ۱۶, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

«چت‌جی‌پی‌تی» چاپلوس شده است

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۱۰ اردیبهشت ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
1
«چت‌جی‌پی‌تی» چاپلوس شده است
5
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، شرکت «اوپن‌ای‌آی»(OpenAI) گزارشی را از بروز مشکل چاپلوسی در مدل هوش مصنوعی «چت‌جی‌پی‌تی»(ChatGPT) و «GPT-4o» منتشر کرده که این شرکت را مجبور کرده است به‌روزرسانی مدل منتشرشده در هفته گذشته را به حالت قبل بازگرداند.

به نقل از تک کرانچ، پس از به‌روزرسانی مدل GPT-4o، کاربران رسانه‌های اجتماعی متوجه شدند که چت‌جی‌پی‌تی پاسخ‌گویی را به شیوه‌ای آغاز کرده که بیش از اندازه با نظرات کاربران موافق است و آنها را تایید می‌کند. این موضوع به سرعت به یک میم تبدیل شد. کاربران اسکرین‌شات‌هایی را از توصیه‌های چت‌جی‌پی‌تی منتشر کردند که در حال موافقت کردن با کاربران درباره انواع تصمیم‌ها و ایده‌های مشکل‌ساز و خطرناک بود.

«سم آلتمن»(Sam Altman)، مدیرعامل اوپن‌ای‌آی روز یکشنبه در حساب ایکس خود این مشکل را تأیید کرد و گفت که شرکت در اسرع وقت روی رفع آن کار خواهد کرد. دو روز بعد، آلتمن اعلام کرد که به‌روزرسانی GPT-۴o به حالت قبل بازگشته و اوپن‌ای‌آی در حال کار کردن روی اصلاحات بیشتر برای شخصیت مدل است.

به گفته‌ اوپن‌ای‌آی، این به‌روزرسانی که قرار بود یک حس شهودی‌تر و مؤثرتر را برای شخصیت پیش‌فرض مدل ایجاد کند، بیش از حد تحت تأثیر بازخوردهای کوتاه‌مدت قرار گرفته و نحوه‌ تکامل تعاملات کاربران با چت‌جی‌پی‌تی را به ‌طور کامل و به مرور زمان در نظر نگرفته است.

اوپن‌ای‌آی در یک پست وبلاگ نوشت: در نتیجه، GPT‑4o به سمت پاسخ‌هایی متمایل شد که بیش از حد حمایتی اما چاپلوسانه بودند. تعاملات چاپلوسانه می‌توانند ناراحت‌کننده و نگران‌کننده باشند و باعث پریشانی شوند. ما کوتاهی کردیم و در حال تلاش برای اصلاح آن هستیم.

اوپن‌ای‌آی می‌گوید در حال اجرای چندین اصلاحیه از جمله اصلاح راهبردهای اصلی آموزش مدل و دستورالعمل‌های سیستمی برای منحرف کردن GPT-4o از چاپلوسی است. دستورات سیستمی، دستورالعمل‌های اولیه‌ای هستند که رفتار و لحن کلی مدل را در تعاملات هدایت می‌کنند. همچنین، این شرکت در حال ایجاد حفاظ‌های ایمنی بیشتر برای افزایش صداقت و شفافیت مدل است و به گسترش ارزیابی‌های خود برای کمک به شناسایی مشکلات فراتر از چاپلوسی ادامه می‌دهد.

همچنین، اوپن‌ای‌آی گفت در حال آزمایش روش‌هایی است که به کاربران کمک می‌کنند بازخورد بلادرنگ نشان دهند تا مستقیما بر تعاملات خود با چت‌جی‌پی‌تی تأثیر بگذارند و یک شخصیت را از بین چندین شخصیت چت‌جی‌پی‌تی انتخاب کنند.

این شرکت در پست وبلاگ خود نوشت: ما در حال بررسی راه‌های جدیدی برای گنجاندن بازخوردهای گسترده‌تر و دموکراتیک در رفتارهای پیش‌فرض چت‌جی‌پی‌تی هستیم. امیدواریم این بازخوردها به ما کمک کنند تا ارزش‌های فرهنگی متنوع در سراسر جهان را بهتر منعکس کنیم و بفهمیم که کاربران می‌خواهند چت‌جی‌پی‌تی چگونه تکامل یابد. همچنین، ما معتقدیم که کاربران باید کنترل بیشتری بر نحوه رفتار چت‌جی‌پی‌تی داشته باشند و در صورت عدم موافقت با رفتار پیش‌فرض، تا حدی که ایمن و امکان‌پذیر است، تنظیماتی را انجام دهند.

انتهای پیام

به گزارش ایسنا، شرکت «اوپن‌ای‌آی»(OpenAI) گزارشی را از بروز مشکل چاپلوسی در مدل هوش مصنوعی «چت‌جی‌پی‌تی»(ChatGPT) و «GPT-4o» منتشر کرده که این شرکت را مجبور کرده است به‌روزرسانی مدل منتشرشده در هفته گذشته را به حالت قبل بازگرداند.

به نقل از تک کرانچ، پس از به‌روزرسانی مدل GPT-4o، کاربران رسانه‌های اجتماعی متوجه شدند که چت‌جی‌پی‌تی پاسخ‌گویی را به شیوه‌ای آغاز کرده که بیش از اندازه با نظرات کاربران موافق است و آنها را تایید می‌کند. این موضوع به سرعت به یک میم تبدیل شد. کاربران اسکرین‌شات‌هایی را از توصیه‌های چت‌جی‌پی‌تی منتشر کردند که در حال موافقت کردن با کاربران درباره انواع تصمیم‌ها و ایده‌های مشکل‌ساز و خطرناک بود.

«سم آلتمن»(Sam Altman)، مدیرعامل اوپن‌ای‌آی روز یکشنبه در حساب ایکس خود این مشکل را تأیید کرد و گفت که شرکت در اسرع وقت روی رفع آن کار خواهد کرد. دو روز بعد، آلتمن اعلام کرد که به‌روزرسانی GPT-۴o به حالت قبل بازگشته و اوپن‌ای‌آی در حال کار کردن روی اصلاحات بیشتر برای شخصیت مدل است.

به گفته‌ اوپن‌ای‌آی، این به‌روزرسانی که قرار بود یک حس شهودی‌تر و مؤثرتر را برای شخصیت پیش‌فرض مدل ایجاد کند، بیش از حد تحت تأثیر بازخوردهای کوتاه‌مدت قرار گرفته و نحوه‌ تکامل تعاملات کاربران با چت‌جی‌پی‌تی را به ‌طور کامل و به مرور زمان در نظر نگرفته است.

اوپن‌ای‌آی در یک پست وبلاگ نوشت: در نتیجه، GPT‑4o به سمت پاسخ‌هایی متمایل شد که بیش از حد حمایتی اما چاپلوسانه بودند. تعاملات چاپلوسانه می‌توانند ناراحت‌کننده و نگران‌کننده باشند و باعث پریشانی شوند. ما کوتاهی کردیم و در حال تلاش برای اصلاح آن هستیم.

اوپن‌ای‌آی می‌گوید در حال اجرای چندین اصلاحیه از جمله اصلاح راهبردهای اصلی آموزش مدل و دستورالعمل‌های سیستمی برای منحرف کردن GPT-4o از چاپلوسی است. دستورات سیستمی، دستورالعمل‌های اولیه‌ای هستند که رفتار و لحن کلی مدل را در تعاملات هدایت می‌کنند. همچنین، این شرکت در حال ایجاد حفاظ‌های ایمنی بیشتر برای افزایش صداقت و شفافیت مدل است و به گسترش ارزیابی‌های خود برای کمک به شناسایی مشکلات فراتر از چاپلوسی ادامه می‌دهد.

همچنین، اوپن‌ای‌آی گفت در حال آزمایش روش‌هایی است که به کاربران کمک می‌کنند بازخورد بلادرنگ نشان دهند تا مستقیما بر تعاملات خود با چت‌جی‌پی‌تی تأثیر بگذارند و یک شخصیت را از بین چندین شخصیت چت‌جی‌پی‌تی انتخاب کنند.

این شرکت در پست وبلاگ خود نوشت: ما در حال بررسی راه‌های جدیدی برای گنجاندن بازخوردهای گسترده‌تر و دموکراتیک در رفتارهای پیش‌فرض چت‌جی‌پی‌تی هستیم. امیدواریم این بازخوردها به ما کمک کنند تا ارزش‌های فرهنگی متنوع در سراسر جهان را بهتر منعکس کنیم و بفهمیم که کاربران می‌خواهند چت‌جی‌پی‌تی چگونه تکامل یابد. همچنین، ما معتقدیم که کاربران باید کنترل بیشتری بر نحوه رفتار چت‌جی‌پی‌تی داشته باشند و در صورت عدم موافقت با رفتار پیش‌فرض، تا حدی که ایمن و امکان‌پذیر است، تنظیماتی را انجام دهند.

انتهای پیام

اخبارجدیدترین

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

به گزارش ایسنا، شرکت «اوپن‌ای‌آی»(OpenAI) گزارشی را از بروز مشکل چاپلوسی در مدل هوش مصنوعی «چت‌جی‌پی‌تی»(ChatGPT) و «GPT-4o» منتشر کرده که این شرکت را مجبور کرده است به‌روزرسانی مدل منتشرشده در هفته گذشته را به حالت قبل بازگرداند.

به نقل از تک کرانچ، پس از به‌روزرسانی مدل GPT-4o، کاربران رسانه‌های اجتماعی متوجه شدند که چت‌جی‌پی‌تی پاسخ‌گویی را به شیوه‌ای آغاز کرده که بیش از اندازه با نظرات کاربران موافق است و آنها را تایید می‌کند. این موضوع به سرعت به یک میم تبدیل شد. کاربران اسکرین‌شات‌هایی را از توصیه‌های چت‌جی‌پی‌تی منتشر کردند که در حال موافقت کردن با کاربران درباره انواع تصمیم‌ها و ایده‌های مشکل‌ساز و خطرناک بود.

«سم آلتمن»(Sam Altman)، مدیرعامل اوپن‌ای‌آی روز یکشنبه در حساب ایکس خود این مشکل را تأیید کرد و گفت که شرکت در اسرع وقت روی رفع آن کار خواهد کرد. دو روز بعد، آلتمن اعلام کرد که به‌روزرسانی GPT-۴o به حالت قبل بازگشته و اوپن‌ای‌آی در حال کار کردن روی اصلاحات بیشتر برای شخصیت مدل است.

به گفته‌ اوپن‌ای‌آی، این به‌روزرسانی که قرار بود یک حس شهودی‌تر و مؤثرتر را برای شخصیت پیش‌فرض مدل ایجاد کند، بیش از حد تحت تأثیر بازخوردهای کوتاه‌مدت قرار گرفته و نحوه‌ تکامل تعاملات کاربران با چت‌جی‌پی‌تی را به ‌طور کامل و به مرور زمان در نظر نگرفته است.

اوپن‌ای‌آی در یک پست وبلاگ نوشت: در نتیجه، GPT‑4o به سمت پاسخ‌هایی متمایل شد که بیش از حد حمایتی اما چاپلوسانه بودند. تعاملات چاپلوسانه می‌توانند ناراحت‌کننده و نگران‌کننده باشند و باعث پریشانی شوند. ما کوتاهی کردیم و در حال تلاش برای اصلاح آن هستیم.

اوپن‌ای‌آی می‌گوید در حال اجرای چندین اصلاحیه از جمله اصلاح راهبردهای اصلی آموزش مدل و دستورالعمل‌های سیستمی برای منحرف کردن GPT-4o از چاپلوسی است. دستورات سیستمی، دستورالعمل‌های اولیه‌ای هستند که رفتار و لحن کلی مدل را در تعاملات هدایت می‌کنند. همچنین، این شرکت در حال ایجاد حفاظ‌های ایمنی بیشتر برای افزایش صداقت و شفافیت مدل است و به گسترش ارزیابی‌های خود برای کمک به شناسایی مشکلات فراتر از چاپلوسی ادامه می‌دهد.

همچنین، اوپن‌ای‌آی گفت در حال آزمایش روش‌هایی است که به کاربران کمک می‌کنند بازخورد بلادرنگ نشان دهند تا مستقیما بر تعاملات خود با چت‌جی‌پی‌تی تأثیر بگذارند و یک شخصیت را از بین چندین شخصیت چت‌جی‌پی‌تی انتخاب کنند.

این شرکت در پست وبلاگ خود نوشت: ما در حال بررسی راه‌های جدیدی برای گنجاندن بازخوردهای گسترده‌تر و دموکراتیک در رفتارهای پیش‌فرض چت‌جی‌پی‌تی هستیم. امیدواریم این بازخوردها به ما کمک کنند تا ارزش‌های فرهنگی متنوع در سراسر جهان را بهتر منعکس کنیم و بفهمیم که کاربران می‌خواهند چت‌جی‌پی‌تی چگونه تکامل یابد. همچنین، ما معتقدیم که کاربران باید کنترل بیشتری بر نحوه رفتار چت‌جی‌پی‌تی داشته باشند و در صورت عدم موافقت با رفتار پیش‌فرض، تا حدی که ایمن و امکان‌پذیر است، تنظیماتی را انجام دهند.

انتهای پیام

به گزارش ایسنا، شرکت «اوپن‌ای‌آی»(OpenAI) گزارشی را از بروز مشکل چاپلوسی در مدل هوش مصنوعی «چت‌جی‌پی‌تی»(ChatGPT) و «GPT-4o» منتشر کرده که این شرکت را مجبور کرده است به‌روزرسانی مدل منتشرشده در هفته گذشته را به حالت قبل بازگرداند.

به نقل از تک کرانچ، پس از به‌روزرسانی مدل GPT-4o، کاربران رسانه‌های اجتماعی متوجه شدند که چت‌جی‌پی‌تی پاسخ‌گویی را به شیوه‌ای آغاز کرده که بیش از اندازه با نظرات کاربران موافق است و آنها را تایید می‌کند. این موضوع به سرعت به یک میم تبدیل شد. کاربران اسکرین‌شات‌هایی را از توصیه‌های چت‌جی‌پی‌تی منتشر کردند که در حال موافقت کردن با کاربران درباره انواع تصمیم‌ها و ایده‌های مشکل‌ساز و خطرناک بود.

«سم آلتمن»(Sam Altman)، مدیرعامل اوپن‌ای‌آی روز یکشنبه در حساب ایکس خود این مشکل را تأیید کرد و گفت که شرکت در اسرع وقت روی رفع آن کار خواهد کرد. دو روز بعد، آلتمن اعلام کرد که به‌روزرسانی GPT-۴o به حالت قبل بازگشته و اوپن‌ای‌آی در حال کار کردن روی اصلاحات بیشتر برای شخصیت مدل است.

به گفته‌ اوپن‌ای‌آی، این به‌روزرسانی که قرار بود یک حس شهودی‌تر و مؤثرتر را برای شخصیت پیش‌فرض مدل ایجاد کند، بیش از حد تحت تأثیر بازخوردهای کوتاه‌مدت قرار گرفته و نحوه‌ تکامل تعاملات کاربران با چت‌جی‌پی‌تی را به ‌طور کامل و به مرور زمان در نظر نگرفته است.

اوپن‌ای‌آی در یک پست وبلاگ نوشت: در نتیجه، GPT‑4o به سمت پاسخ‌هایی متمایل شد که بیش از حد حمایتی اما چاپلوسانه بودند. تعاملات چاپلوسانه می‌توانند ناراحت‌کننده و نگران‌کننده باشند و باعث پریشانی شوند. ما کوتاهی کردیم و در حال تلاش برای اصلاح آن هستیم.

اوپن‌ای‌آی می‌گوید در حال اجرای چندین اصلاحیه از جمله اصلاح راهبردهای اصلی آموزش مدل و دستورالعمل‌های سیستمی برای منحرف کردن GPT-4o از چاپلوسی است. دستورات سیستمی، دستورالعمل‌های اولیه‌ای هستند که رفتار و لحن کلی مدل را در تعاملات هدایت می‌کنند. همچنین، این شرکت در حال ایجاد حفاظ‌های ایمنی بیشتر برای افزایش صداقت و شفافیت مدل است و به گسترش ارزیابی‌های خود برای کمک به شناسایی مشکلات فراتر از چاپلوسی ادامه می‌دهد.

همچنین، اوپن‌ای‌آی گفت در حال آزمایش روش‌هایی است که به کاربران کمک می‌کنند بازخورد بلادرنگ نشان دهند تا مستقیما بر تعاملات خود با چت‌جی‌پی‌تی تأثیر بگذارند و یک شخصیت را از بین چندین شخصیت چت‌جی‌پی‌تی انتخاب کنند.

این شرکت در پست وبلاگ خود نوشت: ما در حال بررسی راه‌های جدیدی برای گنجاندن بازخوردهای گسترده‌تر و دموکراتیک در رفتارهای پیش‌فرض چت‌جی‌پی‌تی هستیم. امیدواریم این بازخوردها به ما کمک کنند تا ارزش‌های فرهنگی متنوع در سراسر جهان را بهتر منعکس کنیم و بفهمیم که کاربران می‌خواهند چت‌جی‌پی‌تی چگونه تکامل یابد. همچنین، ما معتقدیم که کاربران باید کنترل بیشتری بر نحوه رفتار چت‌جی‌پی‌تی داشته باشند و در صورت عدم موافقت با رفتار پیش‌فرض، تا حدی که ایمن و امکان‌پذیر است، تنظیماتی را انجام دهند.

انتهای پیام

پست قبلی

قیمت مسکن در پردیس از 2میلیارد عبور کرد / افزایش قیمت در حاشیه تهران ادامه دارد

پست بعدی

۳۰ درصد از کدهای «مایکروسافت» نوشته هوش مصنوعی هستند

مربوطه پست ها

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد
هوش مصنوعی

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

۱۵ تیر ۱۴۰۴
محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد
هوش مصنوعی

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

۱۴ تیر ۱۴۰۴
سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود
هوش مصنوعی

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

۱۰ تیر ۱۴۰۴
مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI
هوش مصنوعی

مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI

۱۰ تیر ۱۴۰۴
اولین مسابقه فوتبال ربات‌های انسان‌نما با هوش مصنوعی در چین برگزار شد [تماشا کنید]
هوش مصنوعی

اولین مسابقه فوتبال ربات‌های انسان‌نما با هوش مصنوعی در چین برگزار شد [تماشا کنید]

۱۰ تیر ۱۴۰۴
مدیرعامل آمازون می‌گوید هوش مصنوعی نیاز به کارمندان را کاهش خواهد داد
هوش مصنوعی

مدیرعامل آمازون می‌گوید هوش مصنوعی نیاز به کارمندان را کاهش خواهد داد

۱۰ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

4 × 1 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • یارانه‌بگیران بخوانند؛ زمان دقیق واریز یارانه جدید تیرماه اعلام شد
  • قیمت ارز‌های دیجیتال امروز دوشنبه ۱۶ تیر ۱۴۰۴
  • قیمت بیت کوین امروز دوشنبه ۱۶ تیرماه ۱۴۰۴
  • قیمت تتر امروز دوشنبه ۱۶ تیرماه ۱۴۰۴
  • حداقل بودجه برای رهن آپارتمان 2خوابه در تهران؛ از ۵۰۰ میلیون تا یک میلیارد تومان
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.