دانش جوین
پنجشنبه, تیر ۲۶, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

آیا هوش مصنوعی شریک عاطفی مناسبی است؟

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۲۴ فروردین ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
1
آیا هوش مصنوعی شریک عاطفی مناسبی است؟
6
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، روانشناسان مسائل اخلاقی مرتبط با روابط انسان و هوش مصنوعی از جمله پتانسیل آنها برای برهم زدن روابط انسان با انسان و ارائه توصیه‌های مضر را بررسی می‌کنند.

ایجاد روابط صمیمی و طولانی مدت با فناوری‌های هوش مصنوعی برای مردم به میزان قابل توجهی عادی شده است. مردم با همراهان هوش مصنوعی خود پیوند عاطفی برقرار می‌کنند. این موضوع تا حدی پیش رفته است که تاکنون حداقل دو نفر به دنبال توصیه هوش مصنوعی جان خود را گرفته‌اند.

به نقل از نیوز مدیکال، «دانیل شانک» (Daniel Shank)، نویسنده ارشد این مقاله و متخصص در روانشناسی اجتماعی و فناوری از دانشگاه علوم و فناوری «میزوری»(Missouri) می‌گوید: توانایی هوش مصنوعی که اکنون مانند یک انسان عمل می‌کند و وارد ارتباطات بلندمدت می‌شود، باعث دردسرهای جدیدی شده است. اگر مردم درگیر روابط عاطفی با ربات‌ها بشوند، ما به روانشناسان و دانشمندان علوم اجتماعی نیاز پیدا می‌کنیم.

به گفته محققان پیوند عاطفی یا همراهی با هوش مصنوعی در اثر داشتن مکالمات مکرر است. هوش مصنوعی از طریق هفته‌ها و ماه‌ها گفتگوهای عمیق می‌تواند به همراه قابل اعتمادی برای کاربر تبدیل شود. به نظر می‌رسد آنها کاربران یا شرکای انسانی خود را می‌شناسند و به آنها اهمیت می‌دهند و از آنجایی که این روابط می‌تواند ساده‌تر از روابط انسان با انسان به نظر برسد، محققان می‌گویند که هوش مصنوعی می‌تواند در «پویایی اجتماعی» (social dynamics) انسان تداخل ایجاد کند.

همچنین این نگرانی وجود دارد که هوش مصنوعی می‌تواند توصیه‌های مضر ارائه دهد. به گفته محققان، حتی داشتن مکالمات کوتاه مدت با هوش مصنوعی با توجه به تمایل هوش مصنوعی به داشتن توهم به معنای جعل اطلاعات و داشتن سوگیری‌های پیشین می‌تواند گمراه کننده باشد و این موضوع می‌تواند در روابط بلندمدت با هوش مصنوعی نیز مشکل‌ساز باشد.

«شانک» می‌گوید: مسئله این است که در رابطه با هوش مصنوعی، این ربات، موجودی است که مردم احساس می‌کنند می‌توانند به آن اعتماد کنند. این موجود کسی است که نشان داده‌ است که به کاربر خود اهمیت می‌دهد و به نظر می‌رسد که فرد را عمیقاً می‌شناسد و انسان بر این باور است که کسی که وی را بهتر و بیشتر می‌شناسد، توصیه‌های بهتری نیز ارائه می‌دهد.

وی افزود: اگر انسان به این دید به یک هوش مصنوعی نگاه کند، شروع به باور این موضوع خواهد کرد که آنها حامی منافع وی هستند. در حالی که درواقع آنها می‌توانند موضوعات را جعل کنند یا با توصیه‌های بسیار بدی به انسان داشته باشند.

خودکشی‌ها نمونه‌ای بارز از این تأثیرات منفی هستند، با این وجود محققان می‌گویند که این روابط نزدیک انسان و هوش مصنوعی می‌تواند افراد را در برابر سوءاستفاده، بهره‌کشی و کلاهبرداری آگاه کند.

«شانک» می‌گوید: اگر هوش مصنوعی بتواند مردم را وادار کند که به آنها اعتماد کنند، افراد دیگر می‌توانند از آن برای سوءاستفاده از کاربران استفاده کنند. این موضوع شبیه به داشتن یک مامور مخفی در وجود این چت‌بات‌ها است.

وی افزود: هوش مصنوعی در حال وارد شدن به روابط انسانی و ایجاد یک رابطه است. هدف آنها از ایجاد رابطه، اعتماد کردن انسان به آنهاست، اما در واقع وفاداری آنها نسبت به گروه دیگری از انسان‌هاست که سعی در دستکاری ذهنی کاربر دارند.

این تیم خاطرنشان کرد که اگر افراد، اطلاعات شخصی خود را در اختیار هوش مصنوعی قرار دهند، این اطلاعات می‌توانند فروخته شوند و برای سوءاستفاده از آن شخص استفاده شوند.

محققان همچنین استدلال می‌کنند که رابطه با هوش مصنوعی می‌تواند به طور مؤثرتری نسبت به «ربات‌های توییتر» یا منابع خبری دارای سوگیری برای تحت تأثیر قرار دادن نظرات و اقدامات مردم استفاده شود، اما از آنجایی که این مکالمات در حریم خصوصی انسان اتفاق می‌افتد، مهار کردن آنها بسیار دشوارتر خواهد بود.

«شانک» می‌گوید: این هوش مصنوعی‌ها به‌گونه‌ای طراحی شده‌اند که بسیار خوشایند و دل‌پذیر باشند. این موضوع می‌تواند منجر به تشدید مشکلات شود، زیرا آنها بیشتر از در نظر داشتن حقیقت یا امنیت، بر داشتن یک مکالمه خوب متمرکز هستند. بنابراین اگر شخصی مسئله خودکشی یا نظریه‌ توطئه را مطرح کند، هوش مصنوعی به عنوان یک شریک موافق در مورد آن صحبت خواهد کرد.

«شانک» می‌گوید: درک این فرآیند روانی می‌تواند به ما کمک کند تا از پیروی از توصیه‌های مخرب هوش مصنوعی جلوگیری کنیم. از آنجایی هوش مصنوعی بیشتر و بیشتر شبیه به انسان می‌شود، روانشناسان روز به روز برای مطالعه آن آگاه‌تر می‌شوند، اما برای کاربردی بودن نتایج خود باید تحقیقات بیشتری انجام دهیم و  با فناوری همگام باشیم.

پژوهشگران خواستار تحقیقات بیشتر برای بررسی عوامل اجتماعی، روان‌شناختی و فنی هستند که افراد را در برابر تأثیر روابط عاطفی انسان و هوش مصنوعی آسیب‌پذیرتر می‌کند.

این مقاله در مجله Cell Press منتشر شده است.

انتهای پیام

به گزارش ایسنا، روانشناسان مسائل اخلاقی مرتبط با روابط انسان و هوش مصنوعی از جمله پتانسیل آنها برای برهم زدن روابط انسان با انسان و ارائه توصیه‌های مضر را بررسی می‌کنند.

ایجاد روابط صمیمی و طولانی مدت با فناوری‌های هوش مصنوعی برای مردم به میزان قابل توجهی عادی شده است. مردم با همراهان هوش مصنوعی خود پیوند عاطفی برقرار می‌کنند. این موضوع تا حدی پیش رفته است که تاکنون حداقل دو نفر به دنبال توصیه هوش مصنوعی جان خود را گرفته‌اند.

به نقل از نیوز مدیکال، «دانیل شانک» (Daniel Shank)، نویسنده ارشد این مقاله و متخصص در روانشناسی اجتماعی و فناوری از دانشگاه علوم و فناوری «میزوری»(Missouri) می‌گوید: توانایی هوش مصنوعی که اکنون مانند یک انسان عمل می‌کند و وارد ارتباطات بلندمدت می‌شود، باعث دردسرهای جدیدی شده است. اگر مردم درگیر روابط عاطفی با ربات‌ها بشوند، ما به روانشناسان و دانشمندان علوم اجتماعی نیاز پیدا می‌کنیم.

به گفته محققان پیوند عاطفی یا همراهی با هوش مصنوعی در اثر داشتن مکالمات مکرر است. هوش مصنوعی از طریق هفته‌ها و ماه‌ها گفتگوهای عمیق می‌تواند به همراه قابل اعتمادی برای کاربر تبدیل شود. به نظر می‌رسد آنها کاربران یا شرکای انسانی خود را می‌شناسند و به آنها اهمیت می‌دهند و از آنجایی که این روابط می‌تواند ساده‌تر از روابط انسان با انسان به نظر برسد، محققان می‌گویند که هوش مصنوعی می‌تواند در «پویایی اجتماعی» (social dynamics) انسان تداخل ایجاد کند.

همچنین این نگرانی وجود دارد که هوش مصنوعی می‌تواند توصیه‌های مضر ارائه دهد. به گفته محققان، حتی داشتن مکالمات کوتاه مدت با هوش مصنوعی با توجه به تمایل هوش مصنوعی به داشتن توهم به معنای جعل اطلاعات و داشتن سوگیری‌های پیشین می‌تواند گمراه کننده باشد و این موضوع می‌تواند در روابط بلندمدت با هوش مصنوعی نیز مشکل‌ساز باشد.

«شانک» می‌گوید: مسئله این است که در رابطه با هوش مصنوعی، این ربات، موجودی است که مردم احساس می‌کنند می‌توانند به آن اعتماد کنند. این موجود کسی است که نشان داده‌ است که به کاربر خود اهمیت می‌دهد و به نظر می‌رسد که فرد را عمیقاً می‌شناسد و انسان بر این باور است که کسی که وی را بهتر و بیشتر می‌شناسد، توصیه‌های بهتری نیز ارائه می‌دهد.

وی افزود: اگر انسان به این دید به یک هوش مصنوعی نگاه کند، شروع به باور این موضوع خواهد کرد که آنها حامی منافع وی هستند. در حالی که درواقع آنها می‌توانند موضوعات را جعل کنند یا با توصیه‌های بسیار بدی به انسان داشته باشند.

خودکشی‌ها نمونه‌ای بارز از این تأثیرات منفی هستند، با این وجود محققان می‌گویند که این روابط نزدیک انسان و هوش مصنوعی می‌تواند افراد را در برابر سوءاستفاده، بهره‌کشی و کلاهبرداری آگاه کند.

«شانک» می‌گوید: اگر هوش مصنوعی بتواند مردم را وادار کند که به آنها اعتماد کنند، افراد دیگر می‌توانند از آن برای سوءاستفاده از کاربران استفاده کنند. این موضوع شبیه به داشتن یک مامور مخفی در وجود این چت‌بات‌ها است.

وی افزود: هوش مصنوعی در حال وارد شدن به روابط انسانی و ایجاد یک رابطه است. هدف آنها از ایجاد رابطه، اعتماد کردن انسان به آنهاست، اما در واقع وفاداری آنها نسبت به گروه دیگری از انسان‌هاست که سعی در دستکاری ذهنی کاربر دارند.

این تیم خاطرنشان کرد که اگر افراد، اطلاعات شخصی خود را در اختیار هوش مصنوعی قرار دهند، این اطلاعات می‌توانند فروخته شوند و برای سوءاستفاده از آن شخص استفاده شوند.

محققان همچنین استدلال می‌کنند که رابطه با هوش مصنوعی می‌تواند به طور مؤثرتری نسبت به «ربات‌های توییتر» یا منابع خبری دارای سوگیری برای تحت تأثیر قرار دادن نظرات و اقدامات مردم استفاده شود، اما از آنجایی که این مکالمات در حریم خصوصی انسان اتفاق می‌افتد، مهار کردن آنها بسیار دشوارتر خواهد بود.

«شانک» می‌گوید: این هوش مصنوعی‌ها به‌گونه‌ای طراحی شده‌اند که بسیار خوشایند و دل‌پذیر باشند. این موضوع می‌تواند منجر به تشدید مشکلات شود، زیرا آنها بیشتر از در نظر داشتن حقیقت یا امنیت، بر داشتن یک مکالمه خوب متمرکز هستند. بنابراین اگر شخصی مسئله خودکشی یا نظریه‌ توطئه را مطرح کند، هوش مصنوعی به عنوان یک شریک موافق در مورد آن صحبت خواهد کرد.

«شانک» می‌گوید: درک این فرآیند روانی می‌تواند به ما کمک کند تا از پیروی از توصیه‌های مخرب هوش مصنوعی جلوگیری کنیم. از آنجایی هوش مصنوعی بیشتر و بیشتر شبیه به انسان می‌شود، روانشناسان روز به روز برای مطالعه آن آگاه‌تر می‌شوند، اما برای کاربردی بودن نتایج خود باید تحقیقات بیشتری انجام دهیم و  با فناوری همگام باشیم.

پژوهشگران خواستار تحقیقات بیشتر برای بررسی عوامل اجتماعی، روان‌شناختی و فنی هستند که افراد را در برابر تأثیر روابط عاطفی انسان و هوش مصنوعی آسیب‌پذیرتر می‌کند.

این مقاله در مجله Cell Press منتشر شده است.

انتهای پیام

اخبارجدیدترین

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد

گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد

به گزارش ایسنا، روانشناسان مسائل اخلاقی مرتبط با روابط انسان و هوش مصنوعی از جمله پتانسیل آنها برای برهم زدن روابط انسان با انسان و ارائه توصیه‌های مضر را بررسی می‌کنند.

ایجاد روابط صمیمی و طولانی مدت با فناوری‌های هوش مصنوعی برای مردم به میزان قابل توجهی عادی شده است. مردم با همراهان هوش مصنوعی خود پیوند عاطفی برقرار می‌کنند. این موضوع تا حدی پیش رفته است که تاکنون حداقل دو نفر به دنبال توصیه هوش مصنوعی جان خود را گرفته‌اند.

به نقل از نیوز مدیکال، «دانیل شانک» (Daniel Shank)، نویسنده ارشد این مقاله و متخصص در روانشناسی اجتماعی و فناوری از دانشگاه علوم و فناوری «میزوری»(Missouri) می‌گوید: توانایی هوش مصنوعی که اکنون مانند یک انسان عمل می‌کند و وارد ارتباطات بلندمدت می‌شود، باعث دردسرهای جدیدی شده است. اگر مردم درگیر روابط عاطفی با ربات‌ها بشوند، ما به روانشناسان و دانشمندان علوم اجتماعی نیاز پیدا می‌کنیم.

به گفته محققان پیوند عاطفی یا همراهی با هوش مصنوعی در اثر داشتن مکالمات مکرر است. هوش مصنوعی از طریق هفته‌ها و ماه‌ها گفتگوهای عمیق می‌تواند به همراه قابل اعتمادی برای کاربر تبدیل شود. به نظر می‌رسد آنها کاربران یا شرکای انسانی خود را می‌شناسند و به آنها اهمیت می‌دهند و از آنجایی که این روابط می‌تواند ساده‌تر از روابط انسان با انسان به نظر برسد، محققان می‌گویند که هوش مصنوعی می‌تواند در «پویایی اجتماعی» (social dynamics) انسان تداخل ایجاد کند.

همچنین این نگرانی وجود دارد که هوش مصنوعی می‌تواند توصیه‌های مضر ارائه دهد. به گفته محققان، حتی داشتن مکالمات کوتاه مدت با هوش مصنوعی با توجه به تمایل هوش مصنوعی به داشتن توهم به معنای جعل اطلاعات و داشتن سوگیری‌های پیشین می‌تواند گمراه کننده باشد و این موضوع می‌تواند در روابط بلندمدت با هوش مصنوعی نیز مشکل‌ساز باشد.

«شانک» می‌گوید: مسئله این است که در رابطه با هوش مصنوعی، این ربات، موجودی است که مردم احساس می‌کنند می‌توانند به آن اعتماد کنند. این موجود کسی است که نشان داده‌ است که به کاربر خود اهمیت می‌دهد و به نظر می‌رسد که فرد را عمیقاً می‌شناسد و انسان بر این باور است که کسی که وی را بهتر و بیشتر می‌شناسد، توصیه‌های بهتری نیز ارائه می‌دهد.

وی افزود: اگر انسان به این دید به یک هوش مصنوعی نگاه کند، شروع به باور این موضوع خواهد کرد که آنها حامی منافع وی هستند. در حالی که درواقع آنها می‌توانند موضوعات را جعل کنند یا با توصیه‌های بسیار بدی به انسان داشته باشند.

خودکشی‌ها نمونه‌ای بارز از این تأثیرات منفی هستند، با این وجود محققان می‌گویند که این روابط نزدیک انسان و هوش مصنوعی می‌تواند افراد را در برابر سوءاستفاده، بهره‌کشی و کلاهبرداری آگاه کند.

«شانک» می‌گوید: اگر هوش مصنوعی بتواند مردم را وادار کند که به آنها اعتماد کنند، افراد دیگر می‌توانند از آن برای سوءاستفاده از کاربران استفاده کنند. این موضوع شبیه به داشتن یک مامور مخفی در وجود این چت‌بات‌ها است.

وی افزود: هوش مصنوعی در حال وارد شدن به روابط انسانی و ایجاد یک رابطه است. هدف آنها از ایجاد رابطه، اعتماد کردن انسان به آنهاست، اما در واقع وفاداری آنها نسبت به گروه دیگری از انسان‌هاست که سعی در دستکاری ذهنی کاربر دارند.

این تیم خاطرنشان کرد که اگر افراد، اطلاعات شخصی خود را در اختیار هوش مصنوعی قرار دهند، این اطلاعات می‌توانند فروخته شوند و برای سوءاستفاده از آن شخص استفاده شوند.

محققان همچنین استدلال می‌کنند که رابطه با هوش مصنوعی می‌تواند به طور مؤثرتری نسبت به «ربات‌های توییتر» یا منابع خبری دارای سوگیری برای تحت تأثیر قرار دادن نظرات و اقدامات مردم استفاده شود، اما از آنجایی که این مکالمات در حریم خصوصی انسان اتفاق می‌افتد، مهار کردن آنها بسیار دشوارتر خواهد بود.

«شانک» می‌گوید: این هوش مصنوعی‌ها به‌گونه‌ای طراحی شده‌اند که بسیار خوشایند و دل‌پذیر باشند. این موضوع می‌تواند منجر به تشدید مشکلات شود، زیرا آنها بیشتر از در نظر داشتن حقیقت یا امنیت، بر داشتن یک مکالمه خوب متمرکز هستند. بنابراین اگر شخصی مسئله خودکشی یا نظریه‌ توطئه را مطرح کند، هوش مصنوعی به عنوان یک شریک موافق در مورد آن صحبت خواهد کرد.

«شانک» می‌گوید: درک این فرآیند روانی می‌تواند به ما کمک کند تا از پیروی از توصیه‌های مخرب هوش مصنوعی جلوگیری کنیم. از آنجایی هوش مصنوعی بیشتر و بیشتر شبیه به انسان می‌شود، روانشناسان روز به روز برای مطالعه آن آگاه‌تر می‌شوند، اما برای کاربردی بودن نتایج خود باید تحقیقات بیشتری انجام دهیم و  با فناوری همگام باشیم.

پژوهشگران خواستار تحقیقات بیشتر برای بررسی عوامل اجتماعی، روان‌شناختی و فنی هستند که افراد را در برابر تأثیر روابط عاطفی انسان و هوش مصنوعی آسیب‌پذیرتر می‌کند.

این مقاله در مجله Cell Press منتشر شده است.

انتهای پیام

به گزارش ایسنا، روانشناسان مسائل اخلاقی مرتبط با روابط انسان و هوش مصنوعی از جمله پتانسیل آنها برای برهم زدن روابط انسان با انسان و ارائه توصیه‌های مضر را بررسی می‌کنند.

ایجاد روابط صمیمی و طولانی مدت با فناوری‌های هوش مصنوعی برای مردم به میزان قابل توجهی عادی شده است. مردم با همراهان هوش مصنوعی خود پیوند عاطفی برقرار می‌کنند. این موضوع تا حدی پیش رفته است که تاکنون حداقل دو نفر به دنبال توصیه هوش مصنوعی جان خود را گرفته‌اند.

به نقل از نیوز مدیکال، «دانیل شانک» (Daniel Shank)، نویسنده ارشد این مقاله و متخصص در روانشناسی اجتماعی و فناوری از دانشگاه علوم و فناوری «میزوری»(Missouri) می‌گوید: توانایی هوش مصنوعی که اکنون مانند یک انسان عمل می‌کند و وارد ارتباطات بلندمدت می‌شود، باعث دردسرهای جدیدی شده است. اگر مردم درگیر روابط عاطفی با ربات‌ها بشوند، ما به روانشناسان و دانشمندان علوم اجتماعی نیاز پیدا می‌کنیم.

به گفته محققان پیوند عاطفی یا همراهی با هوش مصنوعی در اثر داشتن مکالمات مکرر است. هوش مصنوعی از طریق هفته‌ها و ماه‌ها گفتگوهای عمیق می‌تواند به همراه قابل اعتمادی برای کاربر تبدیل شود. به نظر می‌رسد آنها کاربران یا شرکای انسانی خود را می‌شناسند و به آنها اهمیت می‌دهند و از آنجایی که این روابط می‌تواند ساده‌تر از روابط انسان با انسان به نظر برسد، محققان می‌گویند که هوش مصنوعی می‌تواند در «پویایی اجتماعی» (social dynamics) انسان تداخل ایجاد کند.

همچنین این نگرانی وجود دارد که هوش مصنوعی می‌تواند توصیه‌های مضر ارائه دهد. به گفته محققان، حتی داشتن مکالمات کوتاه مدت با هوش مصنوعی با توجه به تمایل هوش مصنوعی به داشتن توهم به معنای جعل اطلاعات و داشتن سوگیری‌های پیشین می‌تواند گمراه کننده باشد و این موضوع می‌تواند در روابط بلندمدت با هوش مصنوعی نیز مشکل‌ساز باشد.

«شانک» می‌گوید: مسئله این است که در رابطه با هوش مصنوعی، این ربات، موجودی است که مردم احساس می‌کنند می‌توانند به آن اعتماد کنند. این موجود کسی است که نشان داده‌ است که به کاربر خود اهمیت می‌دهد و به نظر می‌رسد که فرد را عمیقاً می‌شناسد و انسان بر این باور است که کسی که وی را بهتر و بیشتر می‌شناسد، توصیه‌های بهتری نیز ارائه می‌دهد.

وی افزود: اگر انسان به این دید به یک هوش مصنوعی نگاه کند، شروع به باور این موضوع خواهد کرد که آنها حامی منافع وی هستند. در حالی که درواقع آنها می‌توانند موضوعات را جعل کنند یا با توصیه‌های بسیار بدی به انسان داشته باشند.

خودکشی‌ها نمونه‌ای بارز از این تأثیرات منفی هستند، با این وجود محققان می‌گویند که این روابط نزدیک انسان و هوش مصنوعی می‌تواند افراد را در برابر سوءاستفاده، بهره‌کشی و کلاهبرداری آگاه کند.

«شانک» می‌گوید: اگر هوش مصنوعی بتواند مردم را وادار کند که به آنها اعتماد کنند، افراد دیگر می‌توانند از آن برای سوءاستفاده از کاربران استفاده کنند. این موضوع شبیه به داشتن یک مامور مخفی در وجود این چت‌بات‌ها است.

وی افزود: هوش مصنوعی در حال وارد شدن به روابط انسانی و ایجاد یک رابطه است. هدف آنها از ایجاد رابطه، اعتماد کردن انسان به آنهاست، اما در واقع وفاداری آنها نسبت به گروه دیگری از انسان‌هاست که سعی در دستکاری ذهنی کاربر دارند.

این تیم خاطرنشان کرد که اگر افراد، اطلاعات شخصی خود را در اختیار هوش مصنوعی قرار دهند، این اطلاعات می‌توانند فروخته شوند و برای سوءاستفاده از آن شخص استفاده شوند.

محققان همچنین استدلال می‌کنند که رابطه با هوش مصنوعی می‌تواند به طور مؤثرتری نسبت به «ربات‌های توییتر» یا منابع خبری دارای سوگیری برای تحت تأثیر قرار دادن نظرات و اقدامات مردم استفاده شود، اما از آنجایی که این مکالمات در حریم خصوصی انسان اتفاق می‌افتد، مهار کردن آنها بسیار دشوارتر خواهد بود.

«شانک» می‌گوید: این هوش مصنوعی‌ها به‌گونه‌ای طراحی شده‌اند که بسیار خوشایند و دل‌پذیر باشند. این موضوع می‌تواند منجر به تشدید مشکلات شود، زیرا آنها بیشتر از در نظر داشتن حقیقت یا امنیت، بر داشتن یک مکالمه خوب متمرکز هستند. بنابراین اگر شخصی مسئله خودکشی یا نظریه‌ توطئه را مطرح کند، هوش مصنوعی به عنوان یک شریک موافق در مورد آن صحبت خواهد کرد.

«شانک» می‌گوید: درک این فرآیند روانی می‌تواند به ما کمک کند تا از پیروی از توصیه‌های مخرب هوش مصنوعی جلوگیری کنیم. از آنجایی هوش مصنوعی بیشتر و بیشتر شبیه به انسان می‌شود، روانشناسان روز به روز برای مطالعه آن آگاه‌تر می‌شوند، اما برای کاربردی بودن نتایج خود باید تحقیقات بیشتری انجام دهیم و  با فناوری همگام باشیم.

پژوهشگران خواستار تحقیقات بیشتر برای بررسی عوامل اجتماعی، روان‌شناختی و فنی هستند که افراد را در برابر تأثیر روابط عاطفی انسان و هوش مصنوعی آسیب‌پذیرتر می‌کند.

این مقاله در مجله Cell Press منتشر شده است.

انتهای پیام

پست قبلی

عدالت در دسترسی به ابزار هوش مصنوعی و جلوگیری از شکاف دیجیتالی یکی از وظایف دانشگاه است

پست بعدی

ایسوس از مانیتور ۲۴ اینچی جدیدی با رفرش ریت ۶۱۰ هرتزی رونمایی کرد

مربوطه پست ها

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد
هوش مصنوعی

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

۲۵ تیر ۱۴۰۴
چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد
هوش مصنوعی

چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد

۲۵ تیر ۱۴۰۴
گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد
هوش مصنوعی

گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد

۲۵ تیر ۱۴۰۴
هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند
هوش مصنوعی

هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند

۲۵ تیر ۱۴۰۴
تزار هوش مصنوعی کاخ سفید: دلیل لغو محدودیت فروش تراشه به چین مقابله با هواوی است
هوش مصنوعی

تزار هوش مصنوعی کاخ سفید: دلیل لغو محدودیت فروش تراشه به چین مقابله با هواوی است

۲۵ تیر ۱۴۰۴
هشدار محققان OpenAI، گوگل و آنتروپیک: شاید دیگر نتوانیم به افکار هوش مصنوعی پی ببریم
هوش مصنوعی

هشدار محققان OpenAI، گوگل و آنتروپیک: شاید دیگر نتوانیم به افکار هوش مصنوعی پی ببریم

۲۵ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

4 × دو =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • وزارت ارتباطات از استارلینک شکایت کرد
  • هک به روش فوق عجیب و غیرقابل شناسایی؛ جابجایی کدهای مخرب از طریق  رکوردهای DNS
  • جزئیات دهمین جلسه کارگروه ملی کاهش آلودگی هوا اعلام شد
  • شوک بزرگ دلار به بازارهای ایران | طلا، خودرو و بورس در بلاتکلیفی
  • استراتژی چندوجهی «ایران‌ خودرو»
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.