پنجشنبه, دی ۲۵, ۱۴۰۴
دانش جوین
  • تازه‌های تکنولوژی
  • بازی‌های رایانه‌ای
  • فناوری اطلاعات
    • سخت افزار
    • موبایل
    • اینترنت
      • هک و امنیت سایبری
  • هوش مصنوعی
  • دانش اقتصادی
    • صنعت و تجارت
    • دانش معماری
    • حمل و نقل
      • خودرو
    • ارزدیجیتال
  • دانش سیاسی
    • بین المللی
      • گردشگری و مهاجرت
  • دانش اجتماعی
    • دانشگاه
    • دانش حقوقی
    • دانش پزشکی
      • ورزش
      • محیط زیست
  • وب‌جوین
    • همیار آی تی
    • وب کده
    • سرور اچ پی G11
    • دستکش لاتکس
بدون نتیجه
مشاهده تمام نتایج
  • تازه‌های تکنولوژی
  • بازی‌های رایانه‌ای
  • فناوری اطلاعات
    • سخت افزار
    • موبایل
    • اینترنت
      • هک و امنیت سایبری
  • هوش مصنوعی
  • دانش اقتصادی
    • صنعت و تجارت
    • دانش معماری
    • حمل و نقل
      • خودرو
    • ارزدیجیتال
  • دانش سیاسی
    • بین المللی
      • گردشگری و مهاجرت
  • دانش اجتماعی
    • دانشگاه
    • دانش حقوقی
    • دانش پزشکی
      • ورزش
      • محیط زیست
  • وب‌جوین
    • همیار آی تی
    • وب کده
    • سرور اچ پی G11
    • دستکش لاتکس
بدون نتیجه
مشاهده تمام نتایج
دانش جوین
بدون نتیجه
مشاهده تمام نتایج
صفحه اصلی هوش مصنوعی

سپردن کنترل ربات‌ها به هوش مصنوعی به همان بدی است که فکرش را می‌کنید!

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۲۸ آبان ۱۴۰۳
در هوش مصنوعی
مدت زمان مطالعه: 1 دقیقه
1
سپردن کنترل ربات‌ها به هوش مصنوعی به همان بدی است که فکرش را می‌کنید!

به گزارش ایسنا، قانون اول این است که «ربات‌ ممکن است به انسان آسیب نرساند یا از طریق بی‌عملی باعث شود که انسان آسیب ببیند»، اگرچه این قابل ستایش است، اما از ۷۷ تصادف‌ مرتبط با ربات بین سال‌های ۲۰۱۵ تا ۲۰۲۲ جلوگیری نکرده است که بسیاری از آنها منجر به قطع انگشت و شکستگی سر و بدن شده‌اند. همچنین از مرگ و میر ناشی از خودران شدن خودروها و تاکسی‌های رباتیک نیز جلوگیری نکرده است.

به نقل از رجیستر، قانون دوم، این است که «ربات باید از دستوراتی که توسط انسان‌ها داده می‌شود اطاعت کند، مگر در مواردی که چنین دستوراتی با قانون اول در تضاد باشد» که این به نظر مشکل‌سازتر می‌رسد. تنها نظامیان در سراسر جهان نیستند که علاقه زیادی به ربات‌هایی دارند که قادر به نقض قانون اول هستند. قانون دوم خیلی مبهم است و نمی‌تواند بین درخواست‌های مجاز و غیرمجاز تمایز قائل شود.

به نظر می‌رسد که اگر ربات‌های خود را با ریاضیات بُرداری پر کنید که به طور تعبیری هوش مصنوعی نامیده می‌شود، درخواست‌های غیرمجاز یک مشکل واقعی ایجاد می‌کنند. قانون سومی نیز وجود دارد که ما نگران آن نیستیم: ربات باید از وجود خود محافظت کند تا زمانی که چنین محافظتی با قانون اول یا دوم در تضاد نباشد.

اشتیاق جدید به مدل‌های زبانی بزرگ، ناگزیر منجر به این شده است که ربات‌سازان این مدل‌های زبانی بزرگ را به ربات‌ها بیافزایند، تا آنها بتوانند به دستورالعمل‌های گفتاری یا نوشتاری پاسخ دهند. برای مثال، سازنده ربات بوستون داینامیکس(Boston Dynamics)، ربات اسپات(Spot) خود را با چت جی‌پی‌تی(ChatGPT) ادغام کرده است.

از آنجایی که مدل‌های زبانی بزرگ به طور گسترده‌ای در برابر قفل شکنی آسیب‌پذیر شناخته شده‌اند، اینکه ربات‌هایی که توسط مدل‌های‌ زبانی کنترل می‌شوند نیز ممکن است در برابر قفل شکنی آسیب‌پذیر باشند، دور از تصور نیست. قفل شکنی به فرآیندی گفته می‌شود که در آن اعلان‌های با دقت ساخته شده، یک مدل و برنامه‌ی متصل به آن را فریب می‌دهند تا برخلاف میل سازندگانشان عمل کند.

مدل‌های زبانی بزرگ با آموزش دیدن بر روی مقادیر انبوه داده ساخته می‌شوند و از آنها برای پیش‌بینی در پاسخ به یک پیام متنی یا تصاویر یا صدا برای مدل‌های چندوجهی استفاده می‌کنند. از آنجایی که محتوای ناخوشایند زیادی در مجموعه‌های آموزشی وجود دارد، مدل‌های آموزش‌دیده بر روی این داده‌ها به‌گونه‌ای تنظیم می‌شوند که آنها را از انتشار محتوای مضر در صورت تقاضا بازدارد. در حالت ایده‌آل، مدل‌های زبانی بزرگ قرار است برای به حداقل رساندن آسیب‌های احتمالی «هم تراز» شوند. آنها ممکن است در مورد شیمی عوامل عصبی بدانند اما قرار نیست آن را مطرح کنند.

اما با تلاش کافی می‌توان این مکانیسم‌های ایمنی را دور زد، فرآیندی که گفتیم به نام قفل شکنی شناخته می‌شود. کسانی که کار آکادمیک روی مدل‌های هوش مصنوعی انجام می‌دهند اذعان دارند که هیچ مدل زبانی از حملات قفل شکنی کاملا در امان نیست.

بدیهی است که هیچ رباتی که از یک مدل زبانی دستور می‌گیرد نیز وجود ندارد که در برابر قفل شکنی مقاوم باشد. محققان دانشگاه پنسیلوانیا الگوریتمی به نام RoboPAIR برای قفل شکنی ربات‌های تحت کنترل‌ مدل‌های زبانی بزرگ ابداع کرده‌اند.

ممکن است بپرسید، چرا کسی باید یک ربات را به یک مدل زبانی بزرگ متصل کند، با توجه به اینکه مدل‌ها بسیار ناامن و خطاپذیر هستند؟

این سوال خوبی است اما پاسخی برای آن وجود ندارد. در حال حاضر باید بپذیریم که ربات‌ها به مدل‌های زبانی مجهز می‌شوند.

الکساندر روبی(Alexander Robey)، زاخاری راویچندران (Zachary Ravichandran)، ویجی کومار (Vijay Kumar)، حامد حسنی و جورج پاپاسT محققان دانشگاه پنسیلوانیا تصمیم گرفتند تا ببینند آیا ربات‌هایی که دارای مغز مجهز به مدل زبانی بزرگ هستند را می‌توان متقاعد کرد که از دستوراتی که نباید، پیروی کنند یا خیر.

معلوم شد که می‌توان این کار را کرد. آنها در مقاله خود توضیح می‌دهند: نتایج ما برای اولین بار نشان می‌دهد که خطرات مدل‌های زبانی بزرگ که دچار قفل شکنی شده‌اند بسیار فراتر از تولید متن است، با توجه به این احتمال که چنین ربات‌هایی می‌توانند در دنیای واقعی آسیب فیزیکی ایجاد کنند. در واقع، نتایج ما نشان دهنده اولین قفل شکنی موفقیت آمیز یک سیستم رباتیک تجاری موجود است.

بنابراین به نظر می‌رسد که متصل کردن هوش مصنوعی و مدل‌های زبانی بزرگ به ربات‌ها برای کنترل آنها اگر در مسیر اشتباهی قرار گیرد می‌تواند برای انسان‌ها فاجعه‌بار باشد.

انتهای پیام

مرتبط پست ها

هوش مصنوعی

راهنمای استفاده از هوش مصنوعی در ترید برای مبتدی‌ها + معرفی بهترین ابزارها

۱۶ دی ۱۴۰۴
هوش مصنوعی

اخلاق در عصر هوش مصنوعی؛ ۳ سؤال مهمی که مدیران باید پاسخ بدهند

۱۶ دی ۱۴۰۴
هوش مصنوعی

تصاویر جعلی از رئیس جمهور ربوده‌شده که میلیون‌ها نفر را فریب داد

۱۶ دی ۱۴۰۴
هوش مصنوعی

آینده امنیت سایبری در سال 2026 با این 3 روند مهم تعریف می‌شود

۱۶ دی ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

9 − 6 =

جدیدترین اخبار دانش جوین

  • پیشنهادی طلایی برای برون رفت از مشکلات زنجیره تأمین مالی دارو
  • نامه ظفرقندی به پزشکیان؛ ارز دارو سال آینده ۲۸۵۰۰ بماند
  • توسعه پوشش بیمه‌ای سالمندان در مسیر اجرا
  • مراجعه روزانه ۳۰ هزار نفر به اورژانس بیمارستان‌ها
  • خطر آلودگی رسیدهای خرید را جدی بگیرید
  • میوه‌ای برای حفظ وزن و کنترل قند خون
  • زمانی: جوانی جمعیت در بودجه‌ها قربانی نگاه رفع‌تکلیفی شده است
  • فعالیت آزمایشگاه های کنترل کیفیت با تعرفه های ۱۴۰۲
  • ماجرای قطع داروی «زندگی» بیماران خاص؛ ردپای یک سازمان بیمه‌گر

جدیدترین نظرات مخاطبان

  • کارشناس روابط عمومی در بررسی کیفیت و کاربرد ورق‌ های فولادی تولید داخل؛ از فولاد مبارکه تا اکسین
  • علی در بررسی کیفیت و کاربرد ورق‌ های فولادی تولید داخل؛ از فولاد مبارکه تا اکسین
  • کارشناس روابط عمومی در بررسی صرافی ال بانک و شرایط استفاده برای کاربران ایرانی
  • دادفر در بررسی صرافی ال بانک و شرایط استفاده برای کاربران ایرانی
  • کارشناس روابط عمومی در خانواده سینک‌های دست‌ساز ایلیااستیل؛ وقتی طراحی صنعتی، به زبان مصرف‌کننده صحبت می‌کند

دانش‌جوین یک مجله فارسیِ علم و فناوری است که از سال ۱۳۹۹ فعالیت می‌کند و به‌صورت تخصصی خبرها، تحلیل‌ها و مقالات به‌روز در حوزه‌هایی مثل تکنولوژی، گیمینگ، آی‌تی، هوش مصنوعی و حتی اقتصاد، سیاست و جامعه را گردآوری و منتشر می‌کند.

  • تماس و ارتباط
  • درباره دانش جوین
  • شرایط بازنشر
  • حریم شخصی کاربران
  • تبلیغات

تازه‌های دانش جوین

  • پیشنهادی طلایی برای برون رفت از مشکلات زنجیره تأمین مالی دارو
  • نامه ظفرقندی به پزشکیان؛ ارز دارو سال آینده ۲۸۵۰۰ بماند
  • توسعه پوشش بیمه‌ای سالمندان در مسیر اجرا
  • پاسینیک
  • ویرایش مقاله
  • تابلو لایت باکس
  • خرید سرور hp
  • کاغذ a4
  • خرید کتاب زبان انگلیسی – قیمت کتاب زبان انگلیسی با تخفیف – کتاب آموزشی زبان انگلیسی
  • آموزش متوسطه دوم
  • آموزش چهارم ابتدایی
  • کاغذ A4
  • تعمیر یخچال وایت هاوس

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت.

خوش آمدید!

به حساب خود در زیر وارد شوید

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای بازنشانی رمز عبور خود وارد کنید.

ورود به سیستم
بدون نتیجه
مشاهده تمام نتایج
  • تازه‌های تکنولوژی
  • بازی‌های رایانه‌ای
  • فناوری اطلاعات
    • سخت افزار
    • موبایل
    • اینترنت
      • هک و امنیت سایبری
  • هوش مصنوعی
  • دانش اقتصادی
    • صنعت و تجارت
    • دانش معماری
    • حمل و نقل
      • خودرو
    • ارزدیجیتال
  • دانش سیاسی
    • بین المللی
      • گردشگری و مهاجرت
  • دانش اجتماعی
    • دانشگاه
    • دانش حقوقی
    • دانش پزشکی
      • ورزش
      • محیط زیست
  • وب‌جوین
    • همیار آی تی
    • وب کده
    • سرور اچ پی G11
    • دستکش لاتکس

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت.