دوشنبه, فروردین ۲۴, ۱۴۰۵
دانش جوین
  • تازه‌های تکنولوژی
  • بازی‌های رایانه‌ای
  • فناوری اطلاعات
    • سخت افزار
    • موبایل
    • اینترنت
      • هک و امنیت سایبری
  • هوش مصنوعی
  • دانش اقتصادی
    • صنعت و تجارت
    • دانش معماری
    • حمل و نقل
      • خودرو
    • ارزدیجیتال
  • دانش سیاسی
    • بین المللی
      • گردشگری و مهاجرت
  • دانش اجتماعی
    • دانشگاه
    • دانش حقوقی
    • دانش پزشکی
      • ورزش
      • محیط زیست
  • وب‌جوین
    • همیار آی تی
    • وب کده
    • دستکش لاتکس
بدون نتیجه
مشاهده تمام نتایج
  • تازه‌های تکنولوژی
  • بازی‌های رایانه‌ای
  • فناوری اطلاعات
    • سخت افزار
    • موبایل
    • اینترنت
      • هک و امنیت سایبری
  • هوش مصنوعی
  • دانش اقتصادی
    • صنعت و تجارت
    • دانش معماری
    • حمل و نقل
      • خودرو
    • ارزدیجیتال
  • دانش سیاسی
    • بین المللی
      • گردشگری و مهاجرت
  • دانش اجتماعی
    • دانشگاه
    • دانش حقوقی
    • دانش پزشکی
      • ورزش
      • محیط زیست
  • وب‌جوین
    • همیار آی تی
    • وب کده
    • دستکش لاتکس
بدون نتیجه
مشاهده تمام نتایج
دانش جوین
بدون نتیجه
مشاهده تمام نتایج
صفحه اصلی هوش مصنوعی

سپردن کنترل ربات‌ها به هوش مصنوعی به همان بدی است که فکرش را می‌کنید!

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۲۸ آبان ۱۴۰۳
در هوش مصنوعی
مدت زمان مطالعه: 1 دقیقه
1
سپردن کنترل ربات‌ها به هوش مصنوعی به همان بدی است که فکرش را می‌کنید!

به گزارش ایسنا، قانون اول این است که «ربات‌ ممکن است به انسان آسیب نرساند یا از طریق بی‌عملی باعث شود که انسان آسیب ببیند»، اگرچه این قابل ستایش است، اما از ۷۷ تصادف‌ مرتبط با ربات بین سال‌های ۲۰۱۵ تا ۲۰۲۲ جلوگیری نکرده است که بسیاری از آنها منجر به قطع انگشت و شکستگی سر و بدن شده‌اند. همچنین از مرگ و میر ناشی از خودران شدن خودروها و تاکسی‌های رباتیک نیز جلوگیری نکرده است.

به نقل از رجیستر، قانون دوم، این است که «ربات باید از دستوراتی که توسط انسان‌ها داده می‌شود اطاعت کند، مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد» که این به نظر مشکل‌سازتر می‌رسد. تنها نظامیان در سراسر جهان نیستند که علاقه زیادی به ربات‌هایی دارند که قادر به نقض قانون اول هستند. قانون دوم خیلی مبهم است و نمی‌تواند بین درخواست‌های مجاز و غیرمجاز تمایز قائل شود.

به نظر می‌رسد که اگر ربات‌های خود را با ریاضیات بُرداری پر کنید که به طور تعبیری هوش مصنوعی نامیده می‌شود، درخواست‌های غیرمجاز یک مشکل واقعی ایجاد می‌کنند. قانون سومی نیز وجود دارد که ما نگران آن نیستیم: ربات باید از وجود خود محافظت کند تا زمانی که چنین محافظتی با قانون اول یا دوم در تضاد نباشد.

اشتیاق جدید به مدل‌های زبانی بزرگ، ناگزیر منجر به این شده است که ربات‌سازان این مدل‌های زبانی بزرگ را به ربات‌ها بیافزایند، تا آنها بتوانند به دستورالعمل‌های گفتاری یا نوشتاری پاسخ دهند. برای مثال، سازنده ربات بوستون داینامیکس(Boston Dynamics)، ربات اسپات(Spot) خود را با چت جی‌پی‌تی(ChatGPT) ادغام کرده است.

از آنجایی که مدل‌های زبانی بزرگ به طور گسترده‌ای در برابر قفل شکنی آسیب‌پذیر شناخته شده‌اند، اینکه ربات‌هایی که توسط مدل‌های‌ زبانی کنترل می‌شوند نیز ممکن است در برابر قفل شکنی آسیب‌پذیر باشند، دور از تصور نیست. قفل شکنی به فرآیندی گفته می‌شود که در آن اعلان‌های با دقت ساخته شده، یک مدل و برنامه‌ی متصل به آن را فریب می‌دهند تا برخلاف میل سازندگانشان عمل کند.

مدل‌های زبانی بزرگ با آموزش دیدن بر روی مقادیر انبوه داده ساخته می‌شوند و از آنها برای پیش‌بینی در پاسخ به یک پیام متنی یا تصاویر یا صدا برای مدل‌های چندوجهی استفاده می‌کنند. از آنجایی که محتوای ناخوشایند زیادی در مجموعه‌های آموزشی وجود دارد، مدل‌های آموزش‌دیده بر روی این داده‌ها به‌گونه‌ای تنظیم می‌شوند که آنها را از انتشار محتوای مضر در صورت تقاضا بازدارد. در حالت ایده‌آل، مدل‌های زبانی بزرگ قرار است برای به حداقل رساندن آسیب‌های احتمالی «هم تراز» شوند. آنها ممکن است در مورد شیمی عوامل عصبی بدانند اما قرار نیست آن را مطرح کنند.

اما با تلاش کافی می‌توان این مکانیسم‌های ایمنی را دور زد، فرآیندی که گفتیم به نام قفل شکنی شناخته می‌شود. کسانی که کار آکادمیک روی مدل‌های هوش مصنوعی انجام می‌دهند اذعان دارند که هیچ مدل زبانی از حملات قفل شکنی کاملا در امان نیست.

بدیهی است که هیچ رباتی که از یک مدل زبانی دستور می‌گیرد نیز وجود ندارد که در برابر قفل شکنی مقاوم باشد. محققان دانشگاه پنسیلوانیا الگوریتمی به نام RoboPAIR برای قفل شکنی ربات‌های تحت کنترل‌ مدل‌های زبانی بزرگ ابداع کرده‌اند.

ممکن است بپرسید، چرا کسی باید یک ربات را به یک مدل زبانی بزرگ متصل کند، با توجه به اینکه مدل‌ها بسیار ناامن و خطاپذیر هستند؟

این سوال خوبی است اما پاسخی برای آن وجود ندارد. در حال حاضر باید بپذیریم که ربات‌ها به مدل‌های زبانی مجهز می‌شوند.

الکساندر روبی(Alexander Robey)، زاخاری راویچندران (Zachary Ravichandran)، ویجی کومار (Vijay Kumar)، حامد حسنی و جورج پاپاسT محققان دانشگاه پنسیلوانیا تصمیم گرفتند تا ببینند آیا ربات‌هایی که دارای مغز مجهز به مدل زبانی بزرگ هستند را می‌توان متقاعد کرد که از دستوراتی که نباید، پیروی کنند یا خیر.

معلوم شد که می‌توان این کار را کرد. آنها در مقاله خود توضیح می‌دهند: نتایج ما برای اولین بار نشان می‌دهد که خطرات مدل‌های زبانی بزرگ که دچار قفل شکنی شده‌اند بسیار فراتر از تولید متن است، با توجه به این احتمال که چنین ربات‌هایی می‌توانند در دنیای واقعی آسیب فیزیکی ایجاد کنند. در واقع، نتایج ما نشان دهنده اولین قفل شکنی موفقیت آمیز یک سیستم رباتیک تجاری موجود است.

بنابراین به نظر می‌رسد که متصل کردن هوش مصنوعی و مدل‌های زبانی بزرگ به ربات‌ها برای کنترل آنها اگر در مسیر اشتباهی قرار گیرد می‌تواند برای انسان‌ها فاجعه‌بار باشد.

انتهای پیام

مرتبط پست ها

هوش مصنوعی

جمینای وارد دنیای موسیقی شد؛ تولید آهنگ‌های ۳۰ ثانیه‌ای با مدل جدید Lyria 3 [تماشا کنید]

۲۷ اسفند ۱۴۰۴
هوش مصنوعی

هوش مصنوعی کوپایلت ایمیل مشتریان را بدون اجازه خلاصه می‌کند؛ مایکروسافت باگ را تایید کرد

۲۷ اسفند ۱۴۰۴
هوش مصنوعی

نتایج یک تحقیق جدید: چرا هرگز نباید از هوش مصنوعی برای ساخت رمز عبور استفاده کنیم؟

۲۷ اسفند ۱۴۰۴
هوش مصنوعی

هشدار محققان MIT: اکثر ایجنت‌های هوش مصنوعی امن نیستند

۲۶ اسفند ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

چهارده + 3 =

جدیدترین اخبار دانش جوین

  • ورود بخش خصوصی به بازسازی اقتصادی پس از جنگ
  • تسهیلات ویژه گمرکی در شرایط اضطرار همچنان برقرار است
  • جزئیات بخشنامه جدید گمرک برای واردات خودرو سواری از مناطق آزاد
  • ۱۰۱ روز از سال ۲۰۲۶ گذشت، ۶۳ روز اینترنت ایران قطع بود
  • بخشنامه جدید گمرک درباره واردات خودرو سواری از مناطق آزاد+ جزئیات
  • تراکتور راهی ترکیه شد
  • شرط استقلال برای تمدید قرارداد سهراب بختیاری زاده چیست؟
  • رکورد تاریخی در بازار رمز ارزها/ قیمت بیت‌کوین امروز به چند دلار رسید؟
  • تکذیب مذاکره گلر ملی‌پوش با استقلال

جدیدترین نظرات مخاطبان

  • کارشناس روابط عمومی در بهترین ساعات روز برای ترید طلا و جفت ارزها کدامند؟
  • کارشناس روابط عمومی در چطور از میکروسکوپ خود بهتر استفاده کنیم؟ راهنمای افزایش سرعت و دقت در کار و آموزش
  • امیر زارع در چطور از میکروسکوپ خود بهتر استفاده کنیم؟ راهنمای افزایش سرعت و دقت در کار و آموزش
  • سوسن در بهترین ساعات روز برای ترید طلا و جفت ارزها کدامند؟
  • کارشناس روابط عمومی در هاست ووکامرس چیست و چرا برای فروشگاه‌های اینترنتی اهمیت حیاتی دارد؟

دانش‌جوین یک مجله فارسیِ علم و فناوری است که از سال ۱۳۹۹ فعالیت می‌کند و به‌صورت تخصصی خبرها، تحلیل‌ها و مقالات به‌روز در حوزه‌هایی مثل تکنولوژی، گیمینگ، آی‌تی، هوش مصنوعی و حتی اقتصاد، سیاست و جامعه را گردآوری و منتشر می‌کند.

  • تماس و ارتباط
  • درباره دانش جوین
  • شرایط بازنشر
  • حریم شخصی کاربران
  • تبلیغات

تازه‌های دانش جوین

  • ورود بخش خصوصی به بازسازی اقتصادی پس از جنگ
  • تسهیلات ویژه گمرکی در شرایط اضطرار همچنان برقرار است
  • جزئیات بخشنامه جدید گمرک برای واردات خودرو سواری از مناطق آزاد
  • پاسینیک
  • ویرایش مقاله
  • تابلو لایت باکس
  • خرید سرور hp
  • خرید کتاب زبان انگلیسی – قیمت کتاب زبان انگلیسی با تخفیف – کتاب آموزشی زبان انگلیسی
  • کاغذ A4
  • تعمیر یخچال وایت هاوس

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت.

خوش آمدید!

به حساب خود در زیر وارد شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • تازه‌های تکنولوژی
  • بازی‌های رایانه‌ای
  • فناوری اطلاعات
    • سخت افزار
    • موبایل
    • اینترنت
      • هک و امنیت سایبری
  • هوش مصنوعی
  • دانش اقتصادی
    • صنعت و تجارت
    • دانش معماری
    • حمل و نقل
      • خودرو
    • ارزدیجیتال
  • دانش سیاسی
    • بین المللی
      • گردشگری و مهاجرت
  • دانش اجتماعی
    • دانشگاه
    • دانش حقوقی
    • دانش پزشکی
      • ورزش
      • محیط زیست
  • وب‌جوین
    • همیار آی تی
    • وب کده
    • دستکش لاتکس

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت.