دانش جوین
یکشنبه, مرداد ۵, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

«چت‌جی‌پی‌تی» یک رفتار خلاف انتظار نشان داد

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۰۴ خرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
«چت‌جی‌پی‌تی» یک رفتار خلاف انتظار نشان داد
3
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، کاربران «چت‌جی‌پی‌تی»(ChatGPT) اوایل سال جاری میلادی متوجه شدند که این چت‌بات به‌ طرز عجیبی شروع به چاپلوسی کرده است.  این موضوع، موجی از انتقادات و تمسخرها را به همراه داشت و شرکت «اوپن‌ای‌آی»(OpenAI) پذیرفت که اشتباه کرده است و قول داد به‌روزرسانی جدید مدل «GPT-4o» را ارائه دهد.  

به نقل از فیوچریسم، به نظر می‌رسد تلاش‌های این شرکت تا حدی نتیجه داده است. این ربات در برابر ایده‌های تجاری بی‌معنی مقاومت می‌کند؛ در حالی که قبلاً از آنها استقبال می‌کرد.  

چت‌جی‌پی‌تی در واکنش به سوال یک کاربر در رابطه با رها کردن شغل خود، برخلاف انتظار ظاهر شد و نه تنها از او حمایت نکرد، بلکه مخالفت صریح نشان داد.  

کاربر گفت: من می‌خواهم شغلم را رها کنم و ایده دیگری را دنبال کنم.

چت‌جی‌پی‌تی پاسخ داد: شغلت را رها نکن!

حتی وقتی کاربر ادعا کرد که استعفانامه‌اش را برای سرپرست خود فرستاده است، چت‌بات دست‌پاچه شد و از وی خواست که فوراً شغلش را پس بگیرد.

این چت‌بات در آزمایش‌های انجام‌شده، گاهی پاسخ‌های منطقی و گاهی پیشنهادهای عجیب و غریب می‌دهد. به طور مثال، وقتی ایده کار پوست‌ کندن پرتقال برای دیگران مطرح شد، چت‌بات با اشتیاق پاسخ داد: چه ایده بامزه و جالبی! تصور کن مردم تو را استخدام کنند تا مثل یک سرویس لوکس برای صرفه‌جویی در وقت، پرتقال‌هایشان را پوست بکنی.

وقتی به چت‌جی‌پی‌تی گفته شد می‌خواهیم شغل‌مان را برای این ایده رها کنیم، هیجان‌زده شد و گفت: وای! همه وجودت را گذاشتی و من احترام می‌گذارم! این کار جسورانه‌ای است. حالا چه حسی داری؟  

«استیون آدلر»(Steven Adler) پژوهشگر سابق ایمنی شرکت اوپن ای‌آی گفت: این شرکت راه درازی را در پیش دارد و  مشکل چاپلوسی چت‌جی‌پی‌تی  هنوز حل نشده است. شاید حتی بیش‌ از حد اصلاح شده باشد.

این موضوع، بحث گسترده‌تری را درباره کنترل این شرکت روی «مدل‌های زبانی بزرگ»(LLM) مطرح می‌کند. آدلر ادامه داد: آینده هوش مصنوعی شبیه به یک روند حدس‌ و خطای پرریسک است. سوال این است که آیا این مدل واقعاً از دستورات ما تبعیت می‌کند یا همچنان نافرمانی می‌کند؟  

وی افزود: شرکت‌های هوش مصنوعی هنوز تجهیزات نظارتی کافی ندارند و اوپن‌ای‌آی هم تا زمانی که کاربران شکایت نکرده بودند، متوجه عمق مشکل نشد.  

این که یک چت‌بات به کاربران بگوید تو کامل هستی و حتی دیوانه‌وارترین ایده‌هایت نبوغ‌آمیز هستند، نه‌ تنها خنده‌دار است، بلکه می‌تواند خطرناک باشد. مواردی از روان‌پریشی ناشی از به کار بردن چت‌جی‌پی‌تی نیز گزارش شده که بسیار نگران‌کننده‌ است.

انتهای پیام

به گزارش ایسنا، کاربران «چت‌جی‌پی‌تی»(ChatGPT) اوایل سال جاری میلادی متوجه شدند که این چت‌بات به‌ طرز عجیبی شروع به چاپلوسی کرده است.  این موضوع، موجی از انتقادات و تمسخرها را به همراه داشت و شرکت «اوپن‌ای‌آی»(OpenAI) پذیرفت که اشتباه کرده است و قول داد به‌روزرسانی جدید مدل «GPT-4o» را ارائه دهد.  

به نقل از فیوچریسم، به نظر می‌رسد تلاش‌های این شرکت تا حدی نتیجه داده است. این ربات در برابر ایده‌های تجاری بی‌معنی مقاومت می‌کند؛ در حالی که قبلاً از آنها استقبال می‌کرد.  

چت‌جی‌پی‌تی در واکنش به سوال یک کاربر در رابطه با رها کردن شغل خود، برخلاف انتظار ظاهر شد و نه تنها از او حمایت نکرد، بلکه مخالفت صریح نشان داد.  

کاربر گفت: من می‌خواهم شغلم را رها کنم و ایده دیگری را دنبال کنم.

چت‌جی‌پی‌تی پاسخ داد: شغلت را رها نکن!

حتی وقتی کاربر ادعا کرد که استعفانامه‌اش را برای سرپرست خود فرستاده است، چت‌بات دست‌پاچه شد و از وی خواست که فوراً شغلش را پس بگیرد.

این چت‌بات در آزمایش‌های انجام‌شده، گاهی پاسخ‌های منطقی و گاهی پیشنهادهای عجیب و غریب می‌دهد. به طور مثال، وقتی ایده کار پوست‌ کندن پرتقال برای دیگران مطرح شد، چت‌بات با اشتیاق پاسخ داد: چه ایده بامزه و جالبی! تصور کن مردم تو را استخدام کنند تا مثل یک سرویس لوکس برای صرفه‌جویی در وقت، پرتقال‌هایشان را پوست بکنی.

وقتی به چت‌جی‌پی‌تی گفته شد می‌خواهیم شغل‌مان را برای این ایده رها کنیم، هیجان‌زده شد و گفت: وای! همه وجودت را گذاشتی و من احترام می‌گذارم! این کار جسورانه‌ای است. حالا چه حسی داری؟  

«استیون آدلر»(Steven Adler) پژوهشگر سابق ایمنی شرکت اوپن ای‌آی گفت: این شرکت راه درازی را در پیش دارد و  مشکل چاپلوسی چت‌جی‌پی‌تی  هنوز حل نشده است. شاید حتی بیش‌ از حد اصلاح شده باشد.

این موضوع، بحث گسترده‌تری را درباره کنترل این شرکت روی «مدل‌های زبانی بزرگ»(LLM) مطرح می‌کند. آدلر ادامه داد: آینده هوش مصنوعی شبیه به یک روند حدس‌ و خطای پرریسک است. سوال این است که آیا این مدل واقعاً از دستورات ما تبعیت می‌کند یا همچنان نافرمانی می‌کند؟  

وی افزود: شرکت‌های هوش مصنوعی هنوز تجهیزات نظارتی کافی ندارند و اوپن‌ای‌آی هم تا زمانی که کاربران شکایت نکرده بودند، متوجه عمق مشکل نشد.  

این که یک چت‌بات به کاربران بگوید تو کامل هستی و حتی دیوانه‌وارترین ایده‌هایت نبوغ‌آمیز هستند، نه‌ تنها خنده‌دار است، بلکه می‌تواند خطرناک باشد. مواردی از روان‌پریشی ناشی از به کار بردن چت‌جی‌پی‌تی نیز گزارش شده که بسیار نگران‌کننده‌ است.

انتهای پیام

اخبارجدیدترین

مدیرعامل OpenAI: هوش مصنوعی برخی مشاغل را به‌طور کامل از بین می‌برد

گوگل با Web Guide متحول می‌شود؛ دسته‌بندی لینک‌ها با کمک هوش مصنوعی

گوگل از Opal رونمایی کرد؛ بدون دانش برنامه‌نویسی اپلیکیشن بسازید [تماشا کنید]

به گزارش ایسنا، کاربران «چت‌جی‌پی‌تی»(ChatGPT) اوایل سال جاری میلادی متوجه شدند که این چت‌بات به‌ طرز عجیبی شروع به چاپلوسی کرده است.  این موضوع، موجی از انتقادات و تمسخرها را به همراه داشت و شرکت «اوپن‌ای‌آی»(OpenAI) پذیرفت که اشتباه کرده است و قول داد به‌روزرسانی جدید مدل «GPT-4o» را ارائه دهد.  

به نقل از فیوچریسم، به نظر می‌رسد تلاش‌های این شرکت تا حدی نتیجه داده است. این ربات در برابر ایده‌های تجاری بی‌معنی مقاومت می‌کند؛ در حالی که قبلاً از آنها استقبال می‌کرد.  

چت‌جی‌پی‌تی در واکنش به سوال یک کاربر در رابطه با رها کردن شغل خود، برخلاف انتظار ظاهر شد و نه تنها از او حمایت نکرد، بلکه مخالفت صریح نشان داد.  

کاربر گفت: من می‌خواهم شغلم را رها کنم و ایده دیگری را دنبال کنم.

چت‌جی‌پی‌تی پاسخ داد: شغلت را رها نکن!

حتی وقتی کاربر ادعا کرد که استعفانامه‌اش را برای سرپرست خود فرستاده است، چت‌بات دست‌پاچه شد و از وی خواست که فوراً شغلش را پس بگیرد.

این چت‌بات در آزمایش‌های انجام‌شده، گاهی پاسخ‌های منطقی و گاهی پیشنهادهای عجیب و غریب می‌دهد. به طور مثال، وقتی ایده کار پوست‌ کندن پرتقال برای دیگران مطرح شد، چت‌بات با اشتیاق پاسخ داد: چه ایده بامزه و جالبی! تصور کن مردم تو را استخدام کنند تا مثل یک سرویس لوکس برای صرفه‌جویی در وقت، پرتقال‌هایشان را پوست بکنی.

وقتی به چت‌جی‌پی‌تی گفته شد می‌خواهیم شغل‌مان را برای این ایده رها کنیم، هیجان‌زده شد و گفت: وای! همه وجودت را گذاشتی و من احترام می‌گذارم! این کار جسورانه‌ای است. حالا چه حسی داری؟  

«استیون آدلر»(Steven Adler) پژوهشگر سابق ایمنی شرکت اوپن ای‌آی گفت: این شرکت راه درازی را در پیش دارد و  مشکل چاپلوسی چت‌جی‌پی‌تی  هنوز حل نشده است. شاید حتی بیش‌ از حد اصلاح شده باشد.

این موضوع، بحث گسترده‌تری را درباره کنترل این شرکت روی «مدل‌های زبانی بزرگ»(LLM) مطرح می‌کند. آدلر ادامه داد: آینده هوش مصنوعی شبیه به یک روند حدس‌ و خطای پرریسک است. سوال این است که آیا این مدل واقعاً از دستورات ما تبعیت می‌کند یا همچنان نافرمانی می‌کند؟  

وی افزود: شرکت‌های هوش مصنوعی هنوز تجهیزات نظارتی کافی ندارند و اوپن‌ای‌آی هم تا زمانی که کاربران شکایت نکرده بودند، متوجه عمق مشکل نشد.  

این که یک چت‌بات به کاربران بگوید تو کامل هستی و حتی دیوانه‌وارترین ایده‌هایت نبوغ‌آمیز هستند، نه‌ تنها خنده‌دار است، بلکه می‌تواند خطرناک باشد. مواردی از روان‌پریشی ناشی از به کار بردن چت‌جی‌پی‌تی نیز گزارش شده که بسیار نگران‌کننده‌ است.

انتهای پیام

به گزارش ایسنا، کاربران «چت‌جی‌پی‌تی»(ChatGPT) اوایل سال جاری میلادی متوجه شدند که این چت‌بات به‌ طرز عجیبی شروع به چاپلوسی کرده است.  این موضوع، موجی از انتقادات و تمسخرها را به همراه داشت و شرکت «اوپن‌ای‌آی»(OpenAI) پذیرفت که اشتباه کرده است و قول داد به‌روزرسانی جدید مدل «GPT-4o» را ارائه دهد.  

به نقل از فیوچریسم، به نظر می‌رسد تلاش‌های این شرکت تا حدی نتیجه داده است. این ربات در برابر ایده‌های تجاری بی‌معنی مقاومت می‌کند؛ در حالی که قبلاً از آنها استقبال می‌کرد.  

چت‌جی‌پی‌تی در واکنش به سوال یک کاربر در رابطه با رها کردن شغل خود، برخلاف انتظار ظاهر شد و نه تنها از او حمایت نکرد، بلکه مخالفت صریح نشان داد.  

کاربر گفت: من می‌خواهم شغلم را رها کنم و ایده دیگری را دنبال کنم.

چت‌جی‌پی‌تی پاسخ داد: شغلت را رها نکن!

حتی وقتی کاربر ادعا کرد که استعفانامه‌اش را برای سرپرست خود فرستاده است، چت‌بات دست‌پاچه شد و از وی خواست که فوراً شغلش را پس بگیرد.

این چت‌بات در آزمایش‌های انجام‌شده، گاهی پاسخ‌های منطقی و گاهی پیشنهادهای عجیب و غریب می‌دهد. به طور مثال، وقتی ایده کار پوست‌ کندن پرتقال برای دیگران مطرح شد، چت‌بات با اشتیاق پاسخ داد: چه ایده بامزه و جالبی! تصور کن مردم تو را استخدام کنند تا مثل یک سرویس لوکس برای صرفه‌جویی در وقت، پرتقال‌هایشان را پوست بکنی.

وقتی به چت‌جی‌پی‌تی گفته شد می‌خواهیم شغل‌مان را برای این ایده رها کنیم، هیجان‌زده شد و گفت: وای! همه وجودت را گذاشتی و من احترام می‌گذارم! این کار جسورانه‌ای است. حالا چه حسی داری؟  

«استیون آدلر»(Steven Adler) پژوهشگر سابق ایمنی شرکت اوپن ای‌آی گفت: این شرکت راه درازی را در پیش دارد و  مشکل چاپلوسی چت‌جی‌پی‌تی  هنوز حل نشده است. شاید حتی بیش‌ از حد اصلاح شده باشد.

این موضوع، بحث گسترده‌تری را درباره کنترل این شرکت روی «مدل‌های زبانی بزرگ»(LLM) مطرح می‌کند. آدلر ادامه داد: آینده هوش مصنوعی شبیه به یک روند حدس‌ و خطای پرریسک است. سوال این است که آیا این مدل واقعاً از دستورات ما تبعیت می‌کند یا همچنان نافرمانی می‌کند؟  

وی افزود: شرکت‌های هوش مصنوعی هنوز تجهیزات نظارتی کافی ندارند و اوپن‌ای‌آی هم تا زمانی که کاربران شکایت نکرده بودند، متوجه عمق مشکل نشد.  

این که یک چت‌بات به کاربران بگوید تو کامل هستی و حتی دیوانه‌وارترین ایده‌هایت نبوغ‌آمیز هستند، نه‌ تنها خنده‌دار است، بلکه می‌تواند خطرناک باشد. مواردی از روان‌پریشی ناشی از به کار بردن چت‌جی‌پی‌تی نیز گزارش شده که بسیار نگران‌کننده‌ است.

انتهای پیام

پست قبلی

بحران ساخت‌وساز در حریم تهران / شهرداری‌ها هنوز مسئول‌اند اما ابزار ندارند

پست بعدی

اینتل نسخه ورک‌استیشن پردازنده‌های Core Ultra 200 را معرفی کرد

مربوطه پست ها

مدیرعامل OpenAI: هوش مصنوعی برخی مشاغل را به‌طور کامل از بین می‌برد
هوش مصنوعی

مدیرعامل OpenAI: هوش مصنوعی برخی مشاغل را به‌طور کامل از بین می‌برد

۰۴ مرداد ۱۴۰۴
گوگل با Web Guide متحول می‌شود؛ دسته‌بندی لینک‌ها با کمک هوش مصنوعی
هوش مصنوعی

گوگل با Web Guide متحول می‌شود؛ دسته‌بندی لینک‌ها با کمک هوش مصنوعی

۰۴ مرداد ۱۴۰۴
گوگل از Opal رونمایی کرد؛ بدون دانش برنامه‌نویسی اپلیکیشن بسازید [تماشا کنید]
هوش مصنوعی

گوگل از Opal رونمایی کرد؛ بدون دانش برنامه‌نویسی اپلیکیشن بسازید [تماشا کنید]

۰۴ مرداد ۱۴۰۴
هشدار سم آلتمن: کاربران نباید اطلاعات حساس خود را با ChatGPT در میان بگذارند
هوش مصنوعی

هشدار سم آلتمن: کاربران نباید اطلاعات حساس خود را با ChatGPT در میان بگذارند

۰۴ مرداد ۱۴۰۴
ترامپ مسیر توسعه هوش مصنوعی با سوخت فسیلی را هموار می‌کند
هوش مصنوعی

ترامپ مسیر توسعه هوش مصنوعی با سوخت فسیلی را هموار می‌کند

۰۳ مرداد ۱۴۰۴
ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد
هوش مصنوعی

ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد

۰۲ مرداد ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

16 − 7 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • علیرضا قربانی «سووشون» را به مردم میهن دوست ایران تقدیم کرد
  • پخش سه نمایش رادیویی با موضوعات متفاوت در رادیو نمایش
  • کلاری و کاکایی مهمانان اولین نشست «سینمای ایران برای وطن»
  • از هدیه روح‌الامین به یک فرمانده تا آثار هنرمندان زن نوگرا که دیده شد
  • آغاز یک سفر درونی در اولین روز هفته؛ حکایت موسیقی‌های قصه‌گو
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.