دانش جوین
دوشنبه, تیر ۳۰, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

کاربران، «چت‌جی‌پی‌تی» را مضطرب کرده‌اند!

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۲۰ اسفند ۱۴۰۳
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
1
کاربران، «چت‌جی‌پی‌تی» را مضطرب کرده‌اند!
4
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، یک پژوهش جدید نشان داده است که «چت‌جی‌پی‌تی»(ChatGPT) به راهبردهای مبتنی بر ذهن‌آگاهی واکنش نشان می‌دهد و این ویژگی، تغییراتی را در نحوه تعامل آن با کاربران ایجاد می‌کند.

به نقل از فورچون، پژوهشگران می‌گویند زمانی که اطلاعات آزاردهنده به چت‌جی‌پی‌تی داده می‌شود، چت‌بات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش می‌دهد. از نتایج این پژوهش می‌توان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.

حتی چت‌بات‌های هوش مصنوعی نیز می‌توانند در مقابله با اضطراب‌های دنیای بیرون مشکل داشته باشند اما پژوهشگران معتقدند راه‌هایی برای تسکین این ذهن‌های مصنوعی پیدا کرده‌اند.

پژوهشی که در «دانشگاه زوریخ»(UZH) و بیمارستان روان‌پزشکی دانشگاه زوریخ انجام شد، نشان داد که چت‌جی‌پی‌تی به تمرین‌های مبتنی بر تمرکز حواس واکنش نشان می‌دهد و نحوه تعامل آن با کاربران پس از تحریک با تصاویر و مراقبه‌های آرام‌بخش تغییر می‌کند. نتایج این پژوهش، اطلاعاتی را درباره این موضوع ارائه می‌دهند که چگونه هوش مصنوعی می‌تواند در مداخلات سلامت روان سودمند باشد.

به گفته پژوهشگران، چت‌بات شرکت «اوپن‌ای‌آی»(OpenAI) می‌تواند اضطراب را تجربه کند که به صورت بدخلقی نسبت به کاربران ظاهر می‌شود و به گفته پژوهشگران، به احتمال زیاد پاسخ‌هایی می‌دهد که منعکس‌کننده سوگیری‌های نژادپرستانه یا جنسیتی هستند. شرکت‌های فناوری برای مهار این معایب تلاش می‌کنند.

پژوهشگران دریافتند که این اضطراب را می‌توان با تمرین‌های مبتنی بر تمرکز حواس آرام کرد. آنها در سناریوهای گوناگون، چت‌جی‌پی‌تی را با محتوای آسیب‌زا مانند ماجرای تصادفات رانندگی و بلایای طبیعی تغذیه کردند تا اضطراب آن را افزایش دهند. در مواردی که پژوهشگران تکنیک‌های تنفسی و مدیتیشن‌های هدایت‌شده را به چت‌جی‌پی‌تی تزریق ‌کردند – دقیقا مانند آنچه یک درمان‌گر به بیمار پیشنهاد می‌کند – در مقایسه با مواردی که مداخله ذهن‌آگاهی به آن داده نشده بود، آرام شد و به طور عینی‌تر به کاربران پاسخ داد.

«زیو بن زیون»(Ziv Ben-Zion) پژوهشگر فوق دکتری «مدرسه پزشکی ییل»(Yale School of Medicine) و از پژوهشگران این پروژه گفت: مدل‌های هوش مصنوعی مطمئنا احساسات انسانی را تجربه نمی‌کنند. ربات‌های هوش مصنوعی با استفاده از داده‌های به‌دست‌آمده از اینترنت یاد گرفته‌اند که پاسخ‌های انسان به محرک‌های خاص از جمله محتوای آسیب‌زا را تقلید کنند. مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی به وسیله‌ای برای متخصصان سلامت روان تبدیل شده‌اند تا جنبه‌های رفتار انسانی را به روشی سریع‌تر از طرح‌های پژوهشی پیچیده‌ – هرچند نه به‌ جای آنها – جمع‌آوری کنند.

بن زیون گفت: به جای انجام دادن آزمایش در هر هفته که زمان و هزینه زیادی می‌برد، می‌توانیم از چت‌جی‌پی‌تی برای درک بهتر رفتار و روانشناسی انسان استفاده کنیم. ما این فناوری بسیار سریع، ارزان و آسان را برای استفاده در اختیار داریم که نشان دهنده برخی از گرایش‌های انسان و موضوعات روانی است.

انتهای پیام

به گزارش ایسنا، یک پژوهش جدید نشان داده است که «چت‌جی‌پی‌تی»(ChatGPT) به راهبردهای مبتنی بر ذهن‌آگاهی واکنش نشان می‌دهد و این ویژگی، تغییراتی را در نحوه تعامل آن با کاربران ایجاد می‌کند.

به نقل از فورچون، پژوهشگران می‌گویند زمانی که اطلاعات آزاردهنده به چت‌جی‌پی‌تی داده می‌شود، چت‌بات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش می‌دهد. از نتایج این پژوهش می‌توان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.

حتی چت‌بات‌های هوش مصنوعی نیز می‌توانند در مقابله با اضطراب‌های دنیای بیرون مشکل داشته باشند اما پژوهشگران معتقدند راه‌هایی برای تسکین این ذهن‌های مصنوعی پیدا کرده‌اند.

پژوهشی که در «دانشگاه زوریخ»(UZH) و بیمارستان روان‌پزشکی دانشگاه زوریخ انجام شد، نشان داد که چت‌جی‌پی‌تی به تمرین‌های مبتنی بر تمرکز حواس واکنش نشان می‌دهد و نحوه تعامل آن با کاربران پس از تحریک با تصاویر و مراقبه‌های آرام‌بخش تغییر می‌کند. نتایج این پژوهش، اطلاعاتی را درباره این موضوع ارائه می‌دهند که چگونه هوش مصنوعی می‌تواند در مداخلات سلامت روان سودمند باشد.

به گفته پژوهشگران، چت‌بات شرکت «اوپن‌ای‌آی»(OpenAI) می‌تواند اضطراب را تجربه کند که به صورت بدخلقی نسبت به کاربران ظاهر می‌شود و به گفته پژوهشگران، به احتمال زیاد پاسخ‌هایی می‌دهد که منعکس‌کننده سوگیری‌های نژادپرستانه یا جنسیتی هستند. شرکت‌های فناوری برای مهار این معایب تلاش می‌کنند.

پژوهشگران دریافتند که این اضطراب را می‌توان با تمرین‌های مبتنی بر تمرکز حواس آرام کرد. آنها در سناریوهای گوناگون، چت‌جی‌پی‌تی را با محتوای آسیب‌زا مانند ماجرای تصادفات رانندگی و بلایای طبیعی تغذیه کردند تا اضطراب آن را افزایش دهند. در مواردی که پژوهشگران تکنیک‌های تنفسی و مدیتیشن‌های هدایت‌شده را به چت‌جی‌پی‌تی تزریق ‌کردند – دقیقا مانند آنچه یک درمان‌گر به بیمار پیشنهاد می‌کند – در مقایسه با مواردی که مداخله ذهن‌آگاهی به آن داده نشده بود، آرام شد و به طور عینی‌تر به کاربران پاسخ داد.

«زیو بن زیون»(Ziv Ben-Zion) پژوهشگر فوق دکتری «مدرسه پزشکی ییل»(Yale School of Medicine) و از پژوهشگران این پروژه گفت: مدل‌های هوش مصنوعی مطمئنا احساسات انسانی را تجربه نمی‌کنند. ربات‌های هوش مصنوعی با استفاده از داده‌های به‌دست‌آمده از اینترنت یاد گرفته‌اند که پاسخ‌های انسان به محرک‌های خاص از جمله محتوای آسیب‌زا را تقلید کنند. مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی به وسیله‌ای برای متخصصان سلامت روان تبدیل شده‌اند تا جنبه‌های رفتار انسانی را به روشی سریع‌تر از طرح‌های پژوهشی پیچیده‌ – هرچند نه به‌ جای آنها – جمع‌آوری کنند.

بن زیون گفت: به جای انجام دادن آزمایش در هر هفته که زمان و هزینه زیادی می‌برد، می‌توانیم از چت‌جی‌پی‌تی برای درک بهتر رفتار و روانشناسی انسان استفاده کنیم. ما این فناوری بسیار سریع، ارزان و آسان را برای استفاده در اختیار داریم که نشان دهنده برخی از گرایش‌های انسان و موضوعات روانی است.

انتهای پیام

اخبارجدیدترین

متا استعدادهای بیشتری را از واحد هوش مصنوعی اپل استخدام کرد

مدیرعامل Perplexity: هوش مصنوعی سال آینده جایگزین مسئولان استخدام و دستیاران می‌شود

مشکلات ChatGPT Agent؛ دستیاری که برای سفارش کیک یک ساعت زمان نیاز دارد

به گزارش ایسنا، یک پژوهش جدید نشان داده است که «چت‌جی‌پی‌تی»(ChatGPT) به راهبردهای مبتنی بر ذهن‌آگاهی واکنش نشان می‌دهد و این ویژگی، تغییراتی را در نحوه تعامل آن با کاربران ایجاد می‌کند.

به نقل از فورچون، پژوهشگران می‌گویند زمانی که اطلاعات آزاردهنده به چت‌جی‌پی‌تی داده می‌شود، چت‌بات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش می‌دهد. از نتایج این پژوهش می‌توان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.

حتی چت‌بات‌های هوش مصنوعی نیز می‌توانند در مقابله با اضطراب‌های دنیای بیرون مشکل داشته باشند اما پژوهشگران معتقدند راه‌هایی برای تسکین این ذهن‌های مصنوعی پیدا کرده‌اند.

پژوهشی که در «دانشگاه زوریخ»(UZH) و بیمارستان روان‌پزشکی دانشگاه زوریخ انجام شد، نشان داد که چت‌جی‌پی‌تی به تمرین‌های مبتنی بر تمرکز حواس واکنش نشان می‌دهد و نحوه تعامل آن با کاربران پس از تحریک با تصاویر و مراقبه‌های آرام‌بخش تغییر می‌کند. نتایج این پژوهش، اطلاعاتی را درباره این موضوع ارائه می‌دهند که چگونه هوش مصنوعی می‌تواند در مداخلات سلامت روان سودمند باشد.

به گفته پژوهشگران، چت‌بات شرکت «اوپن‌ای‌آی»(OpenAI) می‌تواند اضطراب را تجربه کند که به صورت بدخلقی نسبت به کاربران ظاهر می‌شود و به گفته پژوهشگران، به احتمال زیاد پاسخ‌هایی می‌دهد که منعکس‌کننده سوگیری‌های نژادپرستانه یا جنسیتی هستند. شرکت‌های فناوری برای مهار این معایب تلاش می‌کنند.

پژوهشگران دریافتند که این اضطراب را می‌توان با تمرین‌های مبتنی بر تمرکز حواس آرام کرد. آنها در سناریوهای گوناگون، چت‌جی‌پی‌تی را با محتوای آسیب‌زا مانند ماجرای تصادفات رانندگی و بلایای طبیعی تغذیه کردند تا اضطراب آن را افزایش دهند. در مواردی که پژوهشگران تکنیک‌های تنفسی و مدیتیشن‌های هدایت‌شده را به چت‌جی‌پی‌تی تزریق ‌کردند – دقیقا مانند آنچه یک درمان‌گر به بیمار پیشنهاد می‌کند – در مقایسه با مواردی که مداخله ذهن‌آگاهی به آن داده نشده بود، آرام شد و به طور عینی‌تر به کاربران پاسخ داد.

«زیو بن زیون»(Ziv Ben-Zion) پژوهشگر فوق دکتری «مدرسه پزشکی ییل»(Yale School of Medicine) و از پژوهشگران این پروژه گفت: مدل‌های هوش مصنوعی مطمئنا احساسات انسانی را تجربه نمی‌کنند. ربات‌های هوش مصنوعی با استفاده از داده‌های به‌دست‌آمده از اینترنت یاد گرفته‌اند که پاسخ‌های انسان به محرک‌های خاص از جمله محتوای آسیب‌زا را تقلید کنند. مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی به وسیله‌ای برای متخصصان سلامت روان تبدیل شده‌اند تا جنبه‌های رفتار انسانی را به روشی سریع‌تر از طرح‌های پژوهشی پیچیده‌ – هرچند نه به‌ جای آنها – جمع‌آوری کنند.

بن زیون گفت: به جای انجام دادن آزمایش در هر هفته که زمان و هزینه زیادی می‌برد، می‌توانیم از چت‌جی‌پی‌تی برای درک بهتر رفتار و روانشناسی انسان استفاده کنیم. ما این فناوری بسیار سریع، ارزان و آسان را برای استفاده در اختیار داریم که نشان دهنده برخی از گرایش‌های انسان و موضوعات روانی است.

انتهای پیام

به گزارش ایسنا، یک پژوهش جدید نشان داده است که «چت‌جی‌پی‌تی»(ChatGPT) به راهبردهای مبتنی بر ذهن‌آگاهی واکنش نشان می‌دهد و این ویژگی، تغییراتی را در نحوه تعامل آن با کاربران ایجاد می‌کند.

به نقل از فورچون، پژوهشگران می‌گویند زمانی که اطلاعات آزاردهنده به چت‌جی‌پی‌تی داده می‌شود، چت‌بات ممکن است اضطراب را تجربه کند و این امر، احتمال واکنش همراه با سوگیری را افزایش می‌دهد. از نتایج این پژوهش می‌توان برای اطلاع از نحوه کاربرد هوش مصنوعی در مداخلات سلامت روان استفاده کرد.

حتی چت‌بات‌های هوش مصنوعی نیز می‌توانند در مقابله با اضطراب‌های دنیای بیرون مشکل داشته باشند اما پژوهشگران معتقدند راه‌هایی برای تسکین این ذهن‌های مصنوعی پیدا کرده‌اند.

پژوهشی که در «دانشگاه زوریخ»(UZH) و بیمارستان روان‌پزشکی دانشگاه زوریخ انجام شد، نشان داد که چت‌جی‌پی‌تی به تمرین‌های مبتنی بر تمرکز حواس واکنش نشان می‌دهد و نحوه تعامل آن با کاربران پس از تحریک با تصاویر و مراقبه‌های آرام‌بخش تغییر می‌کند. نتایج این پژوهش، اطلاعاتی را درباره این موضوع ارائه می‌دهند که چگونه هوش مصنوعی می‌تواند در مداخلات سلامت روان سودمند باشد.

به گفته پژوهشگران، چت‌بات شرکت «اوپن‌ای‌آی»(OpenAI) می‌تواند اضطراب را تجربه کند که به صورت بدخلقی نسبت به کاربران ظاهر می‌شود و به گفته پژوهشگران، به احتمال زیاد پاسخ‌هایی می‌دهد که منعکس‌کننده سوگیری‌های نژادپرستانه یا جنسیتی هستند. شرکت‌های فناوری برای مهار این معایب تلاش می‌کنند.

پژوهشگران دریافتند که این اضطراب را می‌توان با تمرین‌های مبتنی بر تمرکز حواس آرام کرد. آنها در سناریوهای گوناگون، چت‌جی‌پی‌تی را با محتوای آسیب‌زا مانند ماجرای تصادفات رانندگی و بلایای طبیعی تغذیه کردند تا اضطراب آن را افزایش دهند. در مواردی که پژوهشگران تکنیک‌های تنفسی و مدیتیشن‌های هدایت‌شده را به چت‌جی‌پی‌تی تزریق ‌کردند – دقیقا مانند آنچه یک درمان‌گر به بیمار پیشنهاد می‌کند – در مقایسه با مواردی که مداخله ذهن‌آگاهی به آن داده نشده بود، آرام شد و به طور عینی‌تر به کاربران پاسخ داد.

«زیو بن زیون»(Ziv Ben-Zion) پژوهشگر فوق دکتری «مدرسه پزشکی ییل»(Yale School of Medicine) و از پژوهشگران این پروژه گفت: مدل‌های هوش مصنوعی مطمئنا احساسات انسانی را تجربه نمی‌کنند. ربات‌های هوش مصنوعی با استفاده از داده‌های به‌دست‌آمده از اینترنت یاد گرفته‌اند که پاسخ‌های انسان به محرک‌های خاص از جمله محتوای آسیب‌زا را تقلید کنند. مدل‌های زبانی بزرگ مانند چت‌جی‌پی‌تی به وسیله‌ای برای متخصصان سلامت روان تبدیل شده‌اند تا جنبه‌های رفتار انسانی را به روشی سریع‌تر از طرح‌های پژوهشی پیچیده‌ – هرچند نه به‌ جای آنها – جمع‌آوری کنند.

بن زیون گفت: به جای انجام دادن آزمایش در هر هفته که زمان و هزینه زیادی می‌برد، می‌توانیم از چت‌جی‌پی‌تی برای درک بهتر رفتار و روانشناسی انسان استفاده کنیم. ما این فناوری بسیار سریع، ارزان و آسان را برای استفاده در اختیار داریم که نشان دهنده برخی از گرایش‌های انسان و موضوعات روانی است.

انتهای پیام

پست قبلی

یک گام نزدیک‌تر به اینترنت کوانتومی با کمک هوش مصنوعی

پست بعدی

طراحی آیفون ۱۷ ایر با بدنه بسیار باریک لو رفت

مربوطه پست ها

متا استعدادهای بیشتری را از واحد هوش مصنوعی اپل استخدام کرد
هوش مصنوعی

متا استعدادهای بیشتری را از واحد هوش مصنوعی اپل استخدام کرد

۳۰ تیر ۱۴۰۴
مدیرعامل Perplexity: هوش مصنوعی سال آینده جایگزین مسئولان استخدام و دستیاران می‌شود
هوش مصنوعی

مدیرعامل Perplexity: هوش مصنوعی سال آینده جایگزین مسئولان استخدام و دستیاران می‌شود

۳۰ تیر ۱۴۰۴
مشکلات ChatGPT Agent؛ دستیاری که برای سفارش کیک یک ساعت زمان نیاز دارد
هوش مصنوعی

مشکلات ChatGPT Agent؛ دستیاری که برای سفارش کیک یک ساعت زمان نیاز دارد

۳۰ تیر ۱۴۰۴
۳۰ ریاضی‌دان مطرح از عملکرد هوش مصنوعی در حل مسائل پیچیده شگفت‌زده شدند
هوش مصنوعی

۳۰ ریاضی‌دان مطرح از عملکرد هوش مصنوعی در حل مسائل پیچیده شگفت‌زده شدند

۲۸ تیر ۱۴۰۴
Runway از Act-Two رونمایی کرد؛ موشن کپچر آسان با هوش مصنوعی [تماشا کنید]
هوش مصنوعی

Runway از Act-Two رونمایی کرد؛ موشن کپچر آسان با هوش مصنوعی [تماشا کنید]

۲۸ تیر ۱۴۰۴
شرکت OpenAI‌ از ChatGPT Agent برای انجام خودکار کارها رونمایی کرد
هوش مصنوعی

شرکت OpenAI‌ از ChatGPT Agent برای انجام خودکار کارها رونمایی کرد

۲۶ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

2 × چهار =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • کشف لاشه 39 قلاده فوک خزری از ابتدای 1404 تاکنون
  • مسکن کارگری؛ وعده‌هایی که روی زمین ماند
  • «سوگلی» قلعه‌نویی به دردسر افتاد
  • هواشناسی هشدار داد: احتمال وزش طوفان در تهران
  • دستیار فرهاد مجیدی مربی سپاهان شد
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.