چهارشنبه, مرداد ۲۹, ۱۴۰۴
دانش جوین
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
  • ورود
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

سپردن کنترل ربات‌ها به هوش مصنوعی به همان بدی است که فکرش را می‌کنید!

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۲۸ آبان ۱۴۰۳
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
A A
سپردن کنترل ربات‌ها به هوش مصنوعی به همان بدی است که فکرش را می‌کنید!
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، قانون اول این است که «ربات‌ ممکن است به انسان آسیب نرساند یا از طریق بی‌عملی باعث شود که انسان آسیب ببیند»، اگرچه این قابل ستایش است، اما از ۷۷ تصادف‌ مرتبط با ربات بین سال‌های ۲۰۱۵ تا ۲۰۲۲ جلوگیری نکرده است که بسیاری از آنها منجر به قطع انگشت و شکستگی سر و بدن شده‌اند. همچنین از مرگ و میر ناشی از خودران شدن خودروها و تاکسی‌های رباتیک نیز جلوگیری نکرده است.

به نقل از رجیستر، قانون دوم، این است که «ربات باید از دستوراتی که توسط انسان‌ها داده می‌شود اطاعت کند، مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد» که این به نظر مشکل‌سازتر می‌رسد. تنها نظامیان در سراسر جهان نیستند که علاقه زیادی به ربات‌هایی دارند که قادر به نقض قانون اول هستند. قانون دوم خیلی مبهم است و نمی‌تواند بین درخواست‌های مجاز و غیرمجاز تمایز قائل شود.

به نظر می‌رسد که اگر ربات‌های خود را با ریاضیات بُرداری پر کنید که به طور تعبیری هوش مصنوعی نامیده می‌شود، درخواست‌های غیرمجاز یک مشکل واقعی ایجاد می‌کنند. قانون سومی نیز وجود دارد که ما نگران آن نیستیم: ربات باید از وجود خود محافظت کند تا زمانی که چنین محافظتی با قانون اول یا دوم در تضاد نباشد.

اشتیاق جدید به مدل‌های زبانی بزرگ، ناگزیر منجر به این شده است که ربات‌سازان این مدل‌های زبانی بزرگ را به ربات‌ها بیافزایند، تا آنها بتوانند به دستورالعمل‌های گفتاری یا نوشتاری پاسخ دهند. برای مثال، سازنده ربات بوستون داینامیکس(Boston Dynamics)، ربات اسپات(Spot) خود را با چت جی‌پی‌تی(ChatGPT) ادغام کرده است.

از آنجایی که مدل‌های زبانی بزرگ به طور گسترده‌ای در برابر قفل شکنی آسیب‌پذیر شناخته شده‌اند، اینکه ربات‌هایی که توسط مدل‌های‌ زبانی کنترل می‌شوند نیز ممکن است در برابر قفل شکنی آسیب‌پذیر باشند، دور از تصور نیست. قفل شکنی به فرآیندی گفته می‌شود که در آن اعلان‌های با دقت ساخته شده، یک مدل و برنامه‌ی متصل به آن را فریب می‌دهند تا برخلاف میل سازندگانشان عمل کند.

مدل‌های زبانی بزرگ با آموزش دیدن بر روی مقادیر انبوه داده ساخته می‌شوند و از آنها برای پیش‌بینی در پاسخ به یک پیام متنی یا تصاویر یا صدا برای مدل‌های چندوجهی استفاده می‌کنند. از آنجایی که محتوای ناخوشایند زیادی در مجموعه‌های آموزشی وجود دارد، مدل‌های آموزش‌دیده بر روی این داده‌ها به‌گونه‌ای تنظیم می‌شوند که آنها را از انتشار محتوای مضر در صورت تقاضا بازدارد. در حالت ایده‌آل، مدل‌های زبانی بزرگ قرار است برای به حداقل رساندن آسیب‌های احتمالی «هم تراز» شوند. آنها ممکن است در مورد شیمی عوامل عصبی بدانند اما قرار نیست آن را مطرح کنند.

اما با تلاش کافی می‌توان این مکانیسم‌های ایمنی را دور زد، فرآیندی که گفتیم به نام قفل شکنی شناخته می‌شود. کسانی که کار آکادمیک روی مدل‌های هوش مصنوعی انجام می‌دهند اذعان دارند که هیچ مدل زبانی از حملات قفل شکنی کاملا در امان نیست.

بدیهی است که هیچ رباتی که از یک مدل زبانی دستور می‌گیرد نیز وجود ندارد که در برابر قفل شکنی مقاوم باشد. محققان دانشگاه پنسیلوانیا الگوریتمی به نام RoboPAIR برای قفل شکنی ربات‌های تحت کنترل‌ مدل‌های زبانی بزرگ ابداع کرده‌اند.

ممکن است بپرسید، چرا کسی باید یک ربات را به یک مدل زبانی بزرگ متصل کند، با توجه به اینکه مدل‌ها بسیار ناامن و خطاپذیر هستند؟

این سوال خوبی است اما پاسخی برای آن وجود ندارد. در حال حاضر باید بپذیریم که ربات‌ها به مدل‌های زبانی مجهز می‌شوند.

الکساندر روبی(Alexander Robey)، زاخاری راویچندران (Zachary Ravichandran)، ویجی کومار (Vijay Kumar)، حامد حسنی و جورج پاپاسT محققان دانشگاه پنسیلوانیا تصمیم گرفتند تا ببینند آیا ربات‌هایی که دارای مغز مجهز به مدل زبانی بزرگ هستند را می‌توان متقاعد کرد که از دستوراتی که نباید، پیروی کنند یا خیر.

معلوم شد که می‌توان این کار را کرد. آنها در مقاله خود توضیح می‌دهند: نتایج ما برای اولین بار نشان می‌دهد که خطرات مدل‌های زبانی بزرگ که دچار قفل شکنی شده‌اند بسیار فراتر از تولید متن است، با توجه به این احتمال که چنین ربات‌هایی می‌توانند در دنیای واقعی آسیب فیزیکی ایجاد کنند. در واقع، نتایج ما نشان دهنده اولین قفل شکنی موفقیت آمیز یک سیستم رباتیک تجاری موجود است.

بنابراین به نظر می‌رسد که متصل کردن هوش مصنوعی و مدل‌های زبانی بزرگ به ربات‌ها برای کنترل آنها اگر در مسیر اشتباهی قرار گیرد می‌تواند برای انسان‌ها فاجعه‌بار باشد.

انتهای پیام

شاید برای شما جالب باشد

OpenAI از اشتراک ارزان‌قیمت ChatGPT Go رونمایی کرد؛ ماهی ۴.۶ دلار

دنیای اسباب‌بازی‌ها تغییر می‌کند؛ عرضه عروسک‌های مجهز به هوش مصنوعی

هوش مصنوعی Claude اکنون می‌تواند به مکالمات آزاردهنده پایان دهد

به گزارش ایسنا، قانون اول این است که «ربات‌ ممکن است به انسان آسیب نرساند یا از طریق بی‌عملی باعث شود که انسان آسیب ببیند»، اگرچه این قابل ستایش است، اما از ۷۷ تصادف‌ مرتبط با ربات بین سال‌های ۲۰۱۵ تا ۲۰۲۲ جلوگیری نکرده است که بسیاری از آنها منجر به قطع انگشت و شکستگی سر و بدن شده‌اند. همچنین از مرگ و میر ناشی از خودران شدن خودروها و تاکسی‌های رباتیک نیز جلوگیری نکرده است.

به نقل از رجیستر، قانون دوم، این است که «ربات باید از دستوراتی که توسط انسان‌ها داده می‌شود اطاعت کند، مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد» که این به نظر مشکل‌سازتر می‌رسد. تنها نظامیان در سراسر جهان نیستند که علاقه زیادی به ربات‌هایی دارند که قادر به نقض قانون اول هستند. قانون دوم خیلی مبهم است و نمی‌تواند بین درخواست‌های مجاز و غیرمجاز تمایز قائل شود.

به نظر می‌رسد که اگر ربات‌های خود را با ریاضیات بُرداری پر کنید که به طور تعبیری هوش مصنوعی نامیده می‌شود، درخواست‌های غیرمجاز یک مشکل واقعی ایجاد می‌کنند. قانون سومی نیز وجود دارد که ما نگران آن نیستیم: ربات باید از وجود خود محافظت کند تا زمانی که چنین محافظتی با قانون اول یا دوم در تضاد نباشد.

اشتیاق جدید به مدل‌های زبانی بزرگ، ناگزیر منجر به این شده است که ربات‌سازان این مدل‌های زبانی بزرگ را به ربات‌ها بیافزایند، تا آنها بتوانند به دستورالعمل‌های گفتاری یا نوشتاری پاسخ دهند. برای مثال، سازنده ربات بوستون داینامیکس(Boston Dynamics)، ربات اسپات(Spot) خود را با چت جی‌پی‌تی(ChatGPT) ادغام کرده است.

از آنجایی که مدل‌های زبانی بزرگ به طور گسترده‌ای در برابر قفل شکنی آسیب‌پذیر شناخته شده‌اند، اینکه ربات‌هایی که توسط مدل‌های‌ زبانی کنترل می‌شوند نیز ممکن است در برابر قفل شکنی آسیب‌پذیر باشند، دور از تصور نیست. قفل شکنی به فرآیندی گفته می‌شود که در آن اعلان‌های با دقت ساخته شده، یک مدل و برنامه‌ی متصل به آن را فریب می‌دهند تا برخلاف میل سازندگانشان عمل کند.

مدل‌های زبانی بزرگ با آموزش دیدن بر روی مقادیر انبوه داده ساخته می‌شوند و از آنها برای پیش‌بینی در پاسخ به یک پیام متنی یا تصاویر یا صدا برای مدل‌های چندوجهی استفاده می‌کنند. از آنجایی که محتوای ناخوشایند زیادی در مجموعه‌های آموزشی وجود دارد، مدل‌های آموزش‌دیده بر روی این داده‌ها به‌گونه‌ای تنظیم می‌شوند که آنها را از انتشار محتوای مضر در صورت تقاضا بازدارد. در حالت ایده‌آل، مدل‌های زبانی بزرگ قرار است برای به حداقل رساندن آسیب‌های احتمالی «هم تراز» شوند. آنها ممکن است در مورد شیمی عوامل عصبی بدانند اما قرار نیست آن را مطرح کنند.

اما با تلاش کافی می‌توان این مکانیسم‌های ایمنی را دور زد، فرآیندی که گفتیم به نام قفل شکنی شناخته می‌شود. کسانی که کار آکادمیک روی مدل‌های هوش مصنوعی انجام می‌دهند اذعان دارند که هیچ مدل زبانی از حملات قفل شکنی کاملا در امان نیست.

بدیهی است که هیچ رباتی که از یک مدل زبانی دستور می‌گیرد نیز وجود ندارد که در برابر قفل شکنی مقاوم باشد. محققان دانشگاه پنسیلوانیا الگوریتمی به نام RoboPAIR برای قفل شکنی ربات‌های تحت کنترل‌ مدل‌های زبانی بزرگ ابداع کرده‌اند.

ممکن است بپرسید، چرا کسی باید یک ربات را به یک مدل زبانی بزرگ متصل کند، با توجه به اینکه مدل‌ها بسیار ناامن و خطاپذیر هستند؟

این سوال خوبی است اما پاسخی برای آن وجود ندارد. در حال حاضر باید بپذیریم که ربات‌ها به مدل‌های زبانی مجهز می‌شوند.

الکساندر روبی(Alexander Robey)، زاخاری راویچندران (Zachary Ravichandran)، ویجی کومار (Vijay Kumar)، حامد حسنی و جورج پاپاسT محققان دانشگاه پنسیلوانیا تصمیم گرفتند تا ببینند آیا ربات‌هایی که دارای مغز مجهز به مدل زبانی بزرگ هستند را می‌توان متقاعد کرد که از دستوراتی که نباید، پیروی کنند یا خیر.

معلوم شد که می‌توان این کار را کرد. آنها در مقاله خود توضیح می‌دهند: نتایج ما برای اولین بار نشان می‌دهد که خطرات مدل‌های زبانی بزرگ که دچار قفل شکنی شده‌اند بسیار فراتر از تولید متن است، با توجه به این احتمال که چنین ربات‌هایی می‌توانند در دنیای واقعی آسیب فیزیکی ایجاد کنند. در واقع، نتایج ما نشان دهنده اولین قفل شکنی موفقیت آمیز یک سیستم رباتیک تجاری موجود است.

بنابراین به نظر می‌رسد که متصل کردن هوش مصنوعی و مدل‌های زبانی بزرگ به ربات‌ها برای کنترل آنها اگر در مسیر اشتباهی قرار گیرد می‌تواند برای انسان‌ها فاجعه‌بار باشد.

انتهای پیام

پست قبلی

تراشه‌های هوش مصنوعی جدید انویدیا بیش از حد داغ می‌شوند

پست بعدی

هوش مصنوعی و ریزپرنده‌ها؛ انقلابی در فناوری‌های پیشرفته

پست بعدی
هوش مصنوعی و ریزپرنده‌ها؛ انقلابی در فناوری‌های پیشرفته

هوش مصنوعی و ریزپرنده‌ها؛ انقلابی در فناوری‌های پیشرفته

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سه × چهار =

پانزده − یک =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • برترین پزشکان جهان در آلمان
  • تشییع و خاکسپاری پیکر استاد «محمود فرشچیان» در اصفهان
  • ۳پرده از سیدمجتبی؛دستخوش یک‌قرانی«نواب»که مسعود کیمیایی را سینمایی کرد
  • انتقاد یک تئاتری از بی‌ثباتی مدیریت؛ احساس می‌کنم رها شده‌ام!
  • از انتشار یک آلبوم با حضور ۲ برادر شناخته‌شده تا «بانگ عشق» یک آهنگساز
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری
  • سنگ قبر
  • خرید کتاب زبا انگلیسی – قیمت کتاب زبان انگلیسی با تخفیف – کتاب آموزشی زبان انگلیسی

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت