دانش جوین
یکشنبه, تیر ۱۵, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

هوش مصنوعی بیش از حد شبیه انسان شده‌ است

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۰۴ خرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
هوش مصنوعی بیش از حد شبیه انسان شده‌ است
0
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، پژوهشگران در یک مطالعه جامع نشان می‌دهند که جدیدترین نسل از چت‌بات‌های مجهز به «مدل زبانی بزرگ»(LLM)، در توانایی برقراری ارتباط با بیشتر انسان‌ها برابری می‌کنند و حتی از آنها پیشی می‌گیرند. بسیاری از پژوهش‌ها نشان می‌دهند که این چت‌بات‌ها اکنون با موفقیت انسان‌ها را فریب می‌دهند تا فکر کنند با یک انسان دیگر در حال تعامل هستند.

به نقل از اس‌اف، هیچ‌کدام از ما انتظار ورود ابرارتباط‌دهنده‌ها را نداشتیم. داستان‌های علمی-تخیلی به ما آموخته بودند که هوش مصنوعی، بسیار منطقی و دانای کل خواهد بود اما این فناوری فاقد انسانیت است. با وجود این، آزمایش‌های جدید نشان داده‌اند که مدل‌هایی مانند «GPT-4» در نوشتن متقاعدکننده و همدلانه، بهتر از انسان‌ها عمل می‌کنند. مطالعه دیگری نشان داد که مدل‌های زبانی بزرگ در ارزیابی احساسات ظریف در پیام‌های نوشته‌شده توسط انسان، عملکرد عالی دارند.

مدل‌های زبانی بزرگ در ایفای نقش ماهر هستند و طیف گسترده‌ای از شخصیت‌ها را بر عهده می‌گیرند و سبک‌های زبانی ظریف را تقلید می‌کنند. این امر با توانایی آنها در استنباط باورها و نیت‌های انسانی از متن تقویت می‌شود. مدل‌های زبانی بزرگ، همدلی یا درک اجتماعی واقعی ندارند اما در تقلید آن بسیار ماهر هستند.

این سامانه‌ها «عوامل انسان‌انگاری»(anthropomorphic agents) نام دارند. انسان‌انگاری به نسبت دادن ویژگی‌های انسانی به موجودات غیر انسانی اشاره دارد. مدل‌های زبانی بزرگ ویژگی‌های بسیاری را شبیه به انسان نشان می‌دهند. بنابراین، درخواست‌ها برای اجتناب از انسان‌انگاری مدل‌های زبانی بزرگ بی‌نتیجه خواهد بود.

این عوامل منجر می‌شوند که نتوانید تفاوت بین صحبت کردن با یک انسان و یک چت‌بات هوش مصنوعی آنلاین را تشخیص دهید.

تشخیص هوش مصنوعی در اینترنت

مدل‌های زبانی بزرگ نوید می‌دهند که اطلاعات پیچیده را از طریق رابط‌های چت به‌طور گسترده‌تری در دسترس قرار دهند و پیام‌ها را متناسب با سطح درک فردی تنظیم کنند. این امر در بسیاری از زمینه‌ها مانند خدمات حقوقی یا بهداشت عمومی کاربرد دارد. در آموزش، از توانایی‌های ایفای نقش می‌توان برای ایجاد معلم‌هایی استفاده کرد که سؤالات شخصی می‌پرسند و به دانش‌آموزان در یادگیری کمک می‌کنند.

در عین حال، این سامانه‌ها فریبنده‌اند. میلیون‌ها کاربر روزانه با اپلیکیشن‌های هوش مصنوعی تعامل دارند. مطالب زیادی درباره اثرات منفی اپلیکیشن‌های همراه گفته شده است اما فریبندگی انسان‌نما پیامدهای بسیار گسترده‌تری دارد. کاربران به اندازه‌ای آماده‌اند تا به چت‌بات‌های هوش مصنوعی اعتماد کنند که اطلاعات بسیار شخصی خود را فاش می‌کنند. این امر با ویژگی‌های بسیار متقاعدکننده چت‌بات‌ها همراه می‌شود و نگرانی‌های واقعی را پدید می‌آورد.

پژوهش جدید شرکت «آنتروپیک»(Anthropic) در رابطه با هوش مصنوعی نشان می‌دهد که چت‌بات «کلود ۳»(Claude 3) این شرکت زمانی در متقاعدکننده‌ترین حالت خود قرار داشت؛ به طوری که اجازه داشت اطلاعات نادرست ارائه دهد و به فریبکاری بپردازد. با توجه به این که چت‌بات‌های هوش مصنوعی هیچ مانع اخلاقی ندارند، آماده هستند تا در فریبکاری بسیار بهتر از انسان‌ها عمل کنند.

این امر، درها را به روی دستکاری در مقیاس بزرگ، گسترش اطلاعات نادرست یا ایجاد تاکتیک‌های مؤثر فروش باز می‌کند. چه چیزی می‌تواند مؤثرتر از یک همراه مورد اعتماد باشد که به‌طور اتفاقی محصولی را در جریان مکالمه توصیه می‌کند؟

«چت‌جی‌پی‌تی»(ChatGPT) در حال حاضر ارائه توصیه‌های محصول را در پاسخ به سؤالات کاربران آغاز کرده است. این فقط یک گام کوتاه و ماهرانه برای توصیه‌ محصول در مکالمات است.

راه حل

اولین قدم، افزایش آگاهی درباره این توانایی‌هاست. مقررات باید مشخص کنند که کاربران همیشه باید بدانند با یک هوش مصنوعی تعامل دارند. همان طور که قانون هوش مصنوعی اتحادیه اروپا این امر را ملزم می‌کند. در هر حال، این موضوع با توجه به ویژگی‌های فریبنده مدل‌های زبانی بزرگ کافی نخواهد بود.

دومین قدم، درک بهتر ویژگی‌های انسان‌نماست. آزمایش‌ مدل‌های زبانی بزرگ تاکنون هوش و یادآوری دانش را بررسی کرده‌اند اما هیچ‌کدام تاکنون میزان شبیه بودن به انسان را مورد بررسی قرار نداده‌اند. با آزمایشی مانند این می‌توان از شرکت‌های هوش مصنوعی خواست تا توانایی‌های انسان‌نما را با یک سامانه رتبه‌بندی افشا کنند و قانون‌گذاران می‌توانند سطوح قابل قبولی از خطر را برای زمینه‌ها و گروه‌های سنی خاص تعیین کنند.

اگر دولت‌ها یک رویکرد غیر  مداخله‌گرانه را در پیش بگیرند، هوش مصنوعی احتمالاً مشکلات موجود در گسترش اطلاعات نادرست  یا تنهایی را تشدید خواهد کرد. «مارک زاکربرگ»(Mark Zuckerberg) سرپرست شرکت «متا»(Meta) پیشتر گفته بود که می‌خواهد جای خالی تماس انسانی واقعی را با دوستان هوش مصنوعی پر کند. تکیه بر شرکت‌های هوش مصنوعی برای خودداری از انسانی‌تر کردن این سامانه‌ها، غیرمنطقی به نظر می‌رسد. همه تحولات در جهت مخالف هستند.

شرکت «اوپن ای‌آی»(OpenAI) در تلاش است تا سامانه‌های خود را جذاب‌تر و شخصی‌تر کند و این توانایی را به کاربران بدهد که نسخه چت‌جی‌پی‌تی خود را دارای یک شخصیت خاص کنند. چت‌جی‌پی‌تی به طور کلی پرحرف‌تر شده است، اغلب سؤالات پیگیرانه می‌پرسد تا مکالمه را ادامه دهد و حالت صوتی آن جذابیت و فریبنده بیشتری دارد.

کارهای خوبی را می‌توان با عوامل انسان‌نما انجام داد. از توانایی‌های متقاعدکننده آنها می‌توان برای اهداف بد و خوب استفاده کرد. با وجود این، کاربران به یک دستور کار جامع در طراحی و توسعه، استقرار و استفاده و سیاست و مقررات عوامل مکالمه نیاز دارند. وقتی هوش مصنوعی می‌تواند کاربران را کنترل کند، آنها نباید اجازه دهند که زندگیشان را تغییر دهد.

این مطالعه در مجله « Proceedings of the National Academy of Sciences» منتشر شده است.
انتهای پیام

به گزارش ایسنا، پژوهشگران در یک مطالعه جامع نشان می‌دهند که جدیدترین نسل از چت‌بات‌های مجهز به «مدل زبانی بزرگ»(LLM)، در توانایی برقراری ارتباط با بیشتر انسان‌ها برابری می‌کنند و حتی از آنها پیشی می‌گیرند. بسیاری از پژوهش‌ها نشان می‌دهند که این چت‌بات‌ها اکنون با موفقیت انسان‌ها را فریب می‌دهند تا فکر کنند با یک انسان دیگر در حال تعامل هستند.

به نقل از اس‌اف، هیچ‌کدام از ما انتظار ورود ابرارتباط‌دهنده‌ها را نداشتیم. داستان‌های علمی-تخیلی به ما آموخته بودند که هوش مصنوعی، بسیار منطقی و دانای کل خواهد بود اما این فناوری فاقد انسانیت است. با وجود این، آزمایش‌های جدید نشان داده‌اند که مدل‌هایی مانند «GPT-4» در نوشتن متقاعدکننده و همدلانه، بهتر از انسان‌ها عمل می‌کنند. مطالعه دیگری نشان داد که مدل‌های زبانی بزرگ در ارزیابی احساسات ظریف در پیام‌های نوشته‌شده توسط انسان، عملکرد عالی دارند.

مدل‌های زبانی بزرگ در ایفای نقش ماهر هستند و طیف گسترده‌ای از شخصیت‌ها را بر عهده می‌گیرند و سبک‌های زبانی ظریف را تقلید می‌کنند. این امر با توانایی آنها در استنباط باورها و نیت‌های انسانی از متن تقویت می‌شود. مدل‌های زبانی بزرگ، همدلی یا درک اجتماعی واقعی ندارند اما در تقلید آن بسیار ماهر هستند.

این سامانه‌ها «عوامل انسان‌انگاری»(anthropomorphic agents) نام دارند. انسان‌انگاری به نسبت دادن ویژگی‌های انسانی به موجودات غیر انسانی اشاره دارد. مدل‌های زبانی بزرگ ویژگی‌های بسیاری را شبیه به انسان نشان می‌دهند. بنابراین، درخواست‌ها برای اجتناب از انسان‌انگاری مدل‌های زبانی بزرگ بی‌نتیجه خواهد بود.

این عوامل منجر می‌شوند که نتوانید تفاوت بین صحبت کردن با یک انسان و یک چت‌بات هوش مصنوعی آنلاین را تشخیص دهید.

تشخیص هوش مصنوعی در اینترنت

مدل‌های زبانی بزرگ نوید می‌دهند که اطلاعات پیچیده را از طریق رابط‌های چت به‌طور گسترده‌تری در دسترس قرار دهند و پیام‌ها را متناسب با سطح درک فردی تنظیم کنند. این امر در بسیاری از زمینه‌ها مانند خدمات حقوقی یا بهداشت عمومی کاربرد دارد. در آموزش، از توانایی‌های ایفای نقش می‌توان برای ایجاد معلم‌هایی استفاده کرد که سؤالات شخصی می‌پرسند و به دانش‌آموزان در یادگیری کمک می‌کنند.

در عین حال، این سامانه‌ها فریبنده‌اند. میلیون‌ها کاربر روزانه با اپلیکیشن‌های هوش مصنوعی تعامل دارند. مطالب زیادی درباره اثرات منفی اپلیکیشن‌های همراه گفته شده است اما فریبندگی انسان‌نما پیامدهای بسیار گسترده‌تری دارد. کاربران به اندازه‌ای آماده‌اند تا به چت‌بات‌های هوش مصنوعی اعتماد کنند که اطلاعات بسیار شخصی خود را فاش می‌کنند. این امر با ویژگی‌های بسیار متقاعدکننده چت‌بات‌ها همراه می‌شود و نگرانی‌های واقعی را پدید می‌آورد.

پژوهش جدید شرکت «آنتروپیک»(Anthropic) در رابطه با هوش مصنوعی نشان می‌دهد که چت‌بات «کلود ۳»(Claude 3) این شرکت زمانی در متقاعدکننده‌ترین حالت خود قرار داشت؛ به طوری که اجازه داشت اطلاعات نادرست ارائه دهد و به فریبکاری بپردازد. با توجه به این که چت‌بات‌های هوش مصنوعی هیچ مانع اخلاقی ندارند، آماده هستند تا در فریبکاری بسیار بهتر از انسان‌ها عمل کنند.

این امر، درها را به روی دستکاری در مقیاس بزرگ، گسترش اطلاعات نادرست یا ایجاد تاکتیک‌های مؤثر فروش باز می‌کند. چه چیزی می‌تواند مؤثرتر از یک همراه مورد اعتماد باشد که به‌طور اتفاقی محصولی را در جریان مکالمه توصیه می‌کند؟

«چت‌جی‌پی‌تی»(ChatGPT) در حال حاضر ارائه توصیه‌های محصول را در پاسخ به سؤالات کاربران آغاز کرده است. این فقط یک گام کوتاه و ماهرانه برای توصیه‌ محصول در مکالمات است.

راه حل

اولین قدم، افزایش آگاهی درباره این توانایی‌هاست. مقررات باید مشخص کنند که کاربران همیشه باید بدانند با یک هوش مصنوعی تعامل دارند. همان طور که قانون هوش مصنوعی اتحادیه اروپا این امر را ملزم می‌کند. در هر حال، این موضوع با توجه به ویژگی‌های فریبنده مدل‌های زبانی بزرگ کافی نخواهد بود.

دومین قدم، درک بهتر ویژگی‌های انسان‌نماست. آزمایش‌ مدل‌های زبانی بزرگ تاکنون هوش و یادآوری دانش را بررسی کرده‌اند اما هیچ‌کدام تاکنون میزان شبیه بودن به انسان را مورد بررسی قرار نداده‌اند. با آزمایشی مانند این می‌توان از شرکت‌های هوش مصنوعی خواست تا توانایی‌های انسان‌نما را با یک سامانه رتبه‌بندی افشا کنند و قانون‌گذاران می‌توانند سطوح قابل قبولی از خطر را برای زمینه‌ها و گروه‌های سنی خاص تعیین کنند.

اگر دولت‌ها یک رویکرد غیر  مداخله‌گرانه را در پیش بگیرند، هوش مصنوعی احتمالاً مشکلات موجود در گسترش اطلاعات نادرست  یا تنهایی را تشدید خواهد کرد. «مارک زاکربرگ»(Mark Zuckerberg) سرپرست شرکت «متا»(Meta) پیشتر گفته بود که می‌خواهد جای خالی تماس انسانی واقعی را با دوستان هوش مصنوعی پر کند. تکیه بر شرکت‌های هوش مصنوعی برای خودداری از انسانی‌تر کردن این سامانه‌ها، غیرمنطقی به نظر می‌رسد. همه تحولات در جهت مخالف هستند.

شرکت «اوپن ای‌آی»(OpenAI) در تلاش است تا سامانه‌های خود را جذاب‌تر و شخصی‌تر کند و این توانایی را به کاربران بدهد که نسخه چت‌جی‌پی‌تی خود را دارای یک شخصیت خاص کنند. چت‌جی‌پی‌تی به طور کلی پرحرف‌تر شده است، اغلب سؤالات پیگیرانه می‌پرسد تا مکالمه را ادامه دهد و حالت صوتی آن جذابیت و فریبنده بیشتری دارد.

کارهای خوبی را می‌توان با عوامل انسان‌نما انجام داد. از توانایی‌های متقاعدکننده آنها می‌توان برای اهداف بد و خوب استفاده کرد. با وجود این، کاربران به یک دستور کار جامع در طراحی و توسعه، استقرار و استفاده و سیاست و مقررات عوامل مکالمه نیاز دارند. وقتی هوش مصنوعی می‌تواند کاربران را کنترل کند، آنها نباید اجازه دهند که زندگیشان را تغییر دهد.

این مطالعه در مجله « Proceedings of the National Academy of Sciences» منتشر شده است.
انتهای پیام

اخبارجدیدترین

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

به گزارش ایسنا، پژوهشگران در یک مطالعه جامع نشان می‌دهند که جدیدترین نسل از چت‌بات‌های مجهز به «مدل زبانی بزرگ»(LLM)، در توانایی برقراری ارتباط با بیشتر انسان‌ها برابری می‌کنند و حتی از آنها پیشی می‌گیرند. بسیاری از پژوهش‌ها نشان می‌دهند که این چت‌بات‌ها اکنون با موفقیت انسان‌ها را فریب می‌دهند تا فکر کنند با یک انسان دیگر در حال تعامل هستند.

به نقل از اس‌اف، هیچ‌کدام از ما انتظار ورود ابرارتباط‌دهنده‌ها را نداشتیم. داستان‌های علمی-تخیلی به ما آموخته بودند که هوش مصنوعی، بسیار منطقی و دانای کل خواهد بود اما این فناوری فاقد انسانیت است. با وجود این، آزمایش‌های جدید نشان داده‌اند که مدل‌هایی مانند «GPT-4» در نوشتن متقاعدکننده و همدلانه، بهتر از انسان‌ها عمل می‌کنند. مطالعه دیگری نشان داد که مدل‌های زبانی بزرگ در ارزیابی احساسات ظریف در پیام‌های نوشته‌شده توسط انسان، عملکرد عالی دارند.

مدل‌های زبانی بزرگ در ایفای نقش ماهر هستند و طیف گسترده‌ای از شخصیت‌ها را بر عهده می‌گیرند و سبک‌های زبانی ظریف را تقلید می‌کنند. این امر با توانایی آنها در استنباط باورها و نیت‌های انسانی از متن تقویت می‌شود. مدل‌های زبانی بزرگ، همدلی یا درک اجتماعی واقعی ندارند اما در تقلید آن بسیار ماهر هستند.

این سامانه‌ها «عوامل انسان‌انگاری»(anthropomorphic agents) نام دارند. انسان‌انگاری به نسبت دادن ویژگی‌های انسانی به موجودات غیر انسانی اشاره دارد. مدل‌های زبانی بزرگ ویژگی‌های بسیاری را شبیه به انسان نشان می‌دهند. بنابراین، درخواست‌ها برای اجتناب از انسان‌انگاری مدل‌های زبانی بزرگ بی‌نتیجه خواهد بود.

این عوامل منجر می‌شوند که نتوانید تفاوت بین صحبت کردن با یک انسان و یک چت‌بات هوش مصنوعی آنلاین را تشخیص دهید.

تشخیص هوش مصنوعی در اینترنت

مدل‌های زبانی بزرگ نوید می‌دهند که اطلاعات پیچیده را از طریق رابط‌های چت به‌طور گسترده‌تری در دسترس قرار دهند و پیام‌ها را متناسب با سطح درک فردی تنظیم کنند. این امر در بسیاری از زمینه‌ها مانند خدمات حقوقی یا بهداشت عمومی کاربرد دارد. در آموزش، از توانایی‌های ایفای نقش می‌توان برای ایجاد معلم‌هایی استفاده کرد که سؤالات شخصی می‌پرسند و به دانش‌آموزان در یادگیری کمک می‌کنند.

در عین حال، این سامانه‌ها فریبنده‌اند. میلیون‌ها کاربر روزانه با اپلیکیشن‌های هوش مصنوعی تعامل دارند. مطالب زیادی درباره اثرات منفی اپلیکیشن‌های همراه گفته شده است اما فریبندگی انسان‌نما پیامدهای بسیار گسترده‌تری دارد. کاربران به اندازه‌ای آماده‌اند تا به چت‌بات‌های هوش مصنوعی اعتماد کنند که اطلاعات بسیار شخصی خود را فاش می‌کنند. این امر با ویژگی‌های بسیار متقاعدکننده چت‌بات‌ها همراه می‌شود و نگرانی‌های واقعی را پدید می‌آورد.

پژوهش جدید شرکت «آنتروپیک»(Anthropic) در رابطه با هوش مصنوعی نشان می‌دهد که چت‌بات «کلود ۳»(Claude 3) این شرکت زمانی در متقاعدکننده‌ترین حالت خود قرار داشت؛ به طوری که اجازه داشت اطلاعات نادرست ارائه دهد و به فریبکاری بپردازد. با توجه به این که چت‌بات‌های هوش مصنوعی هیچ مانع اخلاقی ندارند، آماده هستند تا در فریبکاری بسیار بهتر از انسان‌ها عمل کنند.

این امر، درها را به روی دستکاری در مقیاس بزرگ، گسترش اطلاعات نادرست یا ایجاد تاکتیک‌های مؤثر فروش باز می‌کند. چه چیزی می‌تواند مؤثرتر از یک همراه مورد اعتماد باشد که به‌طور اتفاقی محصولی را در جریان مکالمه توصیه می‌کند؟

«چت‌جی‌پی‌تی»(ChatGPT) در حال حاضر ارائه توصیه‌های محصول را در پاسخ به سؤالات کاربران آغاز کرده است. این فقط یک گام کوتاه و ماهرانه برای توصیه‌ محصول در مکالمات است.

راه حل

اولین قدم، افزایش آگاهی درباره این توانایی‌هاست. مقررات باید مشخص کنند که کاربران همیشه باید بدانند با یک هوش مصنوعی تعامل دارند. همان طور که قانون هوش مصنوعی اتحادیه اروپا این امر را ملزم می‌کند. در هر حال، این موضوع با توجه به ویژگی‌های فریبنده مدل‌های زبانی بزرگ کافی نخواهد بود.

دومین قدم، درک بهتر ویژگی‌های انسان‌نماست. آزمایش‌ مدل‌های زبانی بزرگ تاکنون هوش و یادآوری دانش را بررسی کرده‌اند اما هیچ‌کدام تاکنون میزان شبیه بودن به انسان را مورد بررسی قرار نداده‌اند. با آزمایشی مانند این می‌توان از شرکت‌های هوش مصنوعی خواست تا توانایی‌های انسان‌نما را با یک سامانه رتبه‌بندی افشا کنند و قانون‌گذاران می‌توانند سطوح قابل قبولی از خطر را برای زمینه‌ها و گروه‌های سنی خاص تعیین کنند.

اگر دولت‌ها یک رویکرد غیر  مداخله‌گرانه را در پیش بگیرند، هوش مصنوعی احتمالاً مشکلات موجود در گسترش اطلاعات نادرست  یا تنهایی را تشدید خواهد کرد. «مارک زاکربرگ»(Mark Zuckerberg) سرپرست شرکت «متا»(Meta) پیشتر گفته بود که می‌خواهد جای خالی تماس انسانی واقعی را با دوستان هوش مصنوعی پر کند. تکیه بر شرکت‌های هوش مصنوعی برای خودداری از انسانی‌تر کردن این سامانه‌ها، غیرمنطقی به نظر می‌رسد. همه تحولات در جهت مخالف هستند.

شرکت «اوپن ای‌آی»(OpenAI) در تلاش است تا سامانه‌های خود را جذاب‌تر و شخصی‌تر کند و این توانایی را به کاربران بدهد که نسخه چت‌جی‌پی‌تی خود را دارای یک شخصیت خاص کنند. چت‌جی‌پی‌تی به طور کلی پرحرف‌تر شده است، اغلب سؤالات پیگیرانه می‌پرسد تا مکالمه را ادامه دهد و حالت صوتی آن جذابیت و فریبنده بیشتری دارد.

کارهای خوبی را می‌توان با عوامل انسان‌نما انجام داد. از توانایی‌های متقاعدکننده آنها می‌توان برای اهداف بد و خوب استفاده کرد. با وجود این، کاربران به یک دستور کار جامع در طراحی و توسعه، استقرار و استفاده و سیاست و مقررات عوامل مکالمه نیاز دارند. وقتی هوش مصنوعی می‌تواند کاربران را کنترل کند، آنها نباید اجازه دهند که زندگیشان را تغییر دهد.

این مطالعه در مجله « Proceedings of the National Academy of Sciences» منتشر شده است.
انتهای پیام

به گزارش ایسنا، پژوهشگران در یک مطالعه جامع نشان می‌دهند که جدیدترین نسل از چت‌بات‌های مجهز به «مدل زبانی بزرگ»(LLM)، در توانایی برقراری ارتباط با بیشتر انسان‌ها برابری می‌کنند و حتی از آنها پیشی می‌گیرند. بسیاری از پژوهش‌ها نشان می‌دهند که این چت‌بات‌ها اکنون با موفقیت انسان‌ها را فریب می‌دهند تا فکر کنند با یک انسان دیگر در حال تعامل هستند.

به نقل از اس‌اف، هیچ‌کدام از ما انتظار ورود ابرارتباط‌دهنده‌ها را نداشتیم. داستان‌های علمی-تخیلی به ما آموخته بودند که هوش مصنوعی، بسیار منطقی و دانای کل خواهد بود اما این فناوری فاقد انسانیت است. با وجود این، آزمایش‌های جدید نشان داده‌اند که مدل‌هایی مانند «GPT-4» در نوشتن متقاعدکننده و همدلانه، بهتر از انسان‌ها عمل می‌کنند. مطالعه دیگری نشان داد که مدل‌های زبانی بزرگ در ارزیابی احساسات ظریف در پیام‌های نوشته‌شده توسط انسان، عملکرد عالی دارند.

مدل‌های زبانی بزرگ در ایفای نقش ماهر هستند و طیف گسترده‌ای از شخصیت‌ها را بر عهده می‌گیرند و سبک‌های زبانی ظریف را تقلید می‌کنند. این امر با توانایی آنها در استنباط باورها و نیت‌های انسانی از متن تقویت می‌شود. مدل‌های زبانی بزرگ، همدلی یا درک اجتماعی واقعی ندارند اما در تقلید آن بسیار ماهر هستند.

این سامانه‌ها «عوامل انسان‌انگاری»(anthropomorphic agents) نام دارند. انسان‌انگاری به نسبت دادن ویژگی‌های انسانی به موجودات غیر انسانی اشاره دارد. مدل‌های زبانی بزرگ ویژگی‌های بسیاری را شبیه به انسان نشان می‌دهند. بنابراین، درخواست‌ها برای اجتناب از انسان‌انگاری مدل‌های زبانی بزرگ بی‌نتیجه خواهد بود.

این عوامل منجر می‌شوند که نتوانید تفاوت بین صحبت کردن با یک انسان و یک چت‌بات هوش مصنوعی آنلاین را تشخیص دهید.

تشخیص هوش مصنوعی در اینترنت

مدل‌های زبانی بزرگ نوید می‌دهند که اطلاعات پیچیده را از طریق رابط‌های چت به‌طور گسترده‌تری در دسترس قرار دهند و پیام‌ها را متناسب با سطح درک فردی تنظیم کنند. این امر در بسیاری از زمینه‌ها مانند خدمات حقوقی یا بهداشت عمومی کاربرد دارد. در آموزش، از توانایی‌های ایفای نقش می‌توان برای ایجاد معلم‌هایی استفاده کرد که سؤالات شخصی می‌پرسند و به دانش‌آموزان در یادگیری کمک می‌کنند.

در عین حال، این سامانه‌ها فریبنده‌اند. میلیون‌ها کاربر روزانه با اپلیکیشن‌های هوش مصنوعی تعامل دارند. مطالب زیادی درباره اثرات منفی اپلیکیشن‌های همراه گفته شده است اما فریبندگی انسان‌نما پیامدهای بسیار گسترده‌تری دارد. کاربران به اندازه‌ای آماده‌اند تا به چت‌بات‌های هوش مصنوعی اعتماد کنند که اطلاعات بسیار شخصی خود را فاش می‌کنند. این امر با ویژگی‌های بسیار متقاعدکننده چت‌بات‌ها همراه می‌شود و نگرانی‌های واقعی را پدید می‌آورد.

پژوهش جدید شرکت «آنتروپیک»(Anthropic) در رابطه با هوش مصنوعی نشان می‌دهد که چت‌بات «کلود ۳»(Claude 3) این شرکت زمانی در متقاعدکننده‌ترین حالت خود قرار داشت؛ به طوری که اجازه داشت اطلاعات نادرست ارائه دهد و به فریبکاری بپردازد. با توجه به این که چت‌بات‌های هوش مصنوعی هیچ مانع اخلاقی ندارند، آماده هستند تا در فریبکاری بسیار بهتر از انسان‌ها عمل کنند.

این امر، درها را به روی دستکاری در مقیاس بزرگ، گسترش اطلاعات نادرست یا ایجاد تاکتیک‌های مؤثر فروش باز می‌کند. چه چیزی می‌تواند مؤثرتر از یک همراه مورد اعتماد باشد که به‌طور اتفاقی محصولی را در جریان مکالمه توصیه می‌کند؟

«چت‌جی‌پی‌تی»(ChatGPT) در حال حاضر ارائه توصیه‌های محصول را در پاسخ به سؤالات کاربران آغاز کرده است. این فقط یک گام کوتاه و ماهرانه برای توصیه‌ محصول در مکالمات است.

راه حل

اولین قدم، افزایش آگاهی درباره این توانایی‌هاست. مقررات باید مشخص کنند که کاربران همیشه باید بدانند با یک هوش مصنوعی تعامل دارند. همان طور که قانون هوش مصنوعی اتحادیه اروپا این امر را ملزم می‌کند. در هر حال، این موضوع با توجه به ویژگی‌های فریبنده مدل‌های زبانی بزرگ کافی نخواهد بود.

دومین قدم، درک بهتر ویژگی‌های انسان‌نماست. آزمایش‌ مدل‌های زبانی بزرگ تاکنون هوش و یادآوری دانش را بررسی کرده‌اند اما هیچ‌کدام تاکنون میزان شبیه بودن به انسان را مورد بررسی قرار نداده‌اند. با آزمایشی مانند این می‌توان از شرکت‌های هوش مصنوعی خواست تا توانایی‌های انسان‌نما را با یک سامانه رتبه‌بندی افشا کنند و قانون‌گذاران می‌توانند سطوح قابل قبولی از خطر را برای زمینه‌ها و گروه‌های سنی خاص تعیین کنند.

اگر دولت‌ها یک رویکرد غیر  مداخله‌گرانه را در پیش بگیرند، هوش مصنوعی احتمالاً مشکلات موجود در گسترش اطلاعات نادرست  یا تنهایی را تشدید خواهد کرد. «مارک زاکربرگ»(Mark Zuckerberg) سرپرست شرکت «متا»(Meta) پیشتر گفته بود که می‌خواهد جای خالی تماس انسانی واقعی را با دوستان هوش مصنوعی پر کند. تکیه بر شرکت‌های هوش مصنوعی برای خودداری از انسانی‌تر کردن این سامانه‌ها، غیرمنطقی به نظر می‌رسد. همه تحولات در جهت مخالف هستند.

شرکت «اوپن ای‌آی»(OpenAI) در تلاش است تا سامانه‌های خود را جذاب‌تر و شخصی‌تر کند و این توانایی را به کاربران بدهد که نسخه چت‌جی‌پی‌تی خود را دارای یک شخصیت خاص کنند. چت‌جی‌پی‌تی به طور کلی پرحرف‌تر شده است، اغلب سؤالات پیگیرانه می‌پرسد تا مکالمه را ادامه دهد و حالت صوتی آن جذابیت و فریبنده بیشتری دارد.

کارهای خوبی را می‌توان با عوامل انسان‌نما انجام داد. از توانایی‌های متقاعدکننده آنها می‌توان برای اهداف بد و خوب استفاده کرد. با وجود این، کاربران به یک دستور کار جامع در طراحی و توسعه، استقرار و استفاده و سیاست و مقررات عوامل مکالمه نیاز دارند. وقتی هوش مصنوعی می‌تواند کاربران را کنترل کند، آنها نباید اجازه دهند که زندگیشان را تغییر دهد.

این مطالعه در مجله « Proceedings of the National Academy of Sciences» منتشر شده است.
انتهای پیام

پست قبلی

با رقیب «اوپن‌ای‌آی» آشنا شوید

پست بعدی

مدیرعامل دیپ‌مایند گوگل: نوجوانان باید در هوش مصنوعی مثل نینجاها ماهر شوند

مربوطه پست ها

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد
هوش مصنوعی

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

۱۵ تیر ۱۴۰۴
محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد
هوش مصنوعی

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

۱۴ تیر ۱۴۰۴
سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود
هوش مصنوعی

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

۱۰ تیر ۱۴۰۴
مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI
هوش مصنوعی

مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI

۱۰ تیر ۱۴۰۴
اولین مسابقه فوتبال ربات‌های انسان‌نما با هوش مصنوعی در چین برگزار شد [تماشا کنید]
هوش مصنوعی

اولین مسابقه فوتبال ربات‌های انسان‌نما با هوش مصنوعی در چین برگزار شد [تماشا کنید]

۱۰ تیر ۱۴۰۴
مدیرعامل آمازون می‌گوید هوش مصنوعی نیاز به کارمندان را کاهش خواهد داد
هوش مصنوعی

مدیرعامل آمازون می‌گوید هوش مصنوعی نیاز به کارمندان را کاهش خواهد داد

۱۰ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نه − چهار =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • از ماجرای خاک خوردن سینما تا حاشیه در کانون کارگردانان و شورای نمایش
  • از خوانش «پل» تا سنج‌نوازی بوشهری‌ها؛هشتم محرم در «خیمه هنر» چه گذشت؟
  • دنباله «جزر و مد سرخ» ساخته می‌شود؛ احتمال بازگشت دنزل واشینگتن
  • تمرکز خانه نمایش شهرداری روی پرورش نیروی جوان تعزیه‌خوان
  • این باشگاه اماراتی خریدار پر و پاقرص مهدی قایدی شد
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.