دانش جوین
جمعه, تیر ۲۷, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد

دیجیاتو توسط دیجیاتو
۲۳ بهمن ۱۴۰۳
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
1
محققان چینی: هوش مصنوعی با شبیه‌سازی خودش از خط قرمز عبور کرد
6
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

محققان پس از بررسی سیستم پیشرفته هوش مصنوعی هشدار دادند که این هوش مصنوعی پس از شبیه‌سازی موفقیت‌آمیز خودش بدون کمک انسان از خط قرمز عبور کرده است.

براساس گزارش Independent، در پژوهش جدیدی محققان چینی نشان دادند 2 مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها] است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.»

هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.

شبیه‌سازی هوش مصنوعی توسط خودش

محققان دانشگاه فودان چین مدل‌های زبانی بزرگ متا و Alibaba را بررسی کردند تا ببینند هوش مصنوعی خودهمانندساز (Self-replication) می‌تواند فراتر از کنترل تکثیر شود یا خیر. طی 10 کارآزمایی، این 2 مدل هوش مصنوعی به‌ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است ذاتاً ظرفیت انجام کارهای غیرقابل‌کنترل داشته باشد.

البته مطالعه محققان دانشگاه فودان هنوز همتاداوری نشده؛ بنابراین مشخص نیست دیگر کارشناسان نتایج نگران‌کننده آن را تأیید می‌کنند یا خیر. بااین‌حال محققان می‌گویند: «امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و در اسرع وقت قوانین حفاظتی مؤثر ایجاد کند.»

در این |ژوهش، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. به گفته محققان، بااینکه این مدل‌ها نسبت به سیستم‌های تجاری قدرت کمتری دارند، توسعه‌دهندگان هوش مصنوعی از آنها به‌صورت گسترده استفاده می‌کنند.

محققان می‌گویند نگران رفتارهای غیرمنتظره‌ای هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند بازیابی فایل‌های حذف‌شده یا حل مشکلات نرم‌افزاری و سخت‌افزاری انجام داده است. در کارآزمایی محققان، هوش مصنوعی اغلب اختلال‌ها را خودش حل و سیستم را مجدد راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا خودکار سیستم را اسکن می‌کرد تا به‌دنبال اطلاعاتی باشد که به حل مشکل کمک کند.

به گفته محققان نتایج آنها نشان می‌دهد سیستم‌های هوش مصنوعی کنونی توانایی خودهمانندسازی را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.

محققان پس از بررسی سیستم پیشرفته هوش مصنوعی هشدار دادند که این هوش مصنوعی پس از شبیه‌سازی موفقیت‌آمیز خودش بدون کمک انسان از خط قرمز عبور کرده است.

براساس گزارش Independent، در پژوهش جدیدی محققان چینی نشان دادند 2 مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها] است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.»

هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.

شبیه‌سازی هوش مصنوعی توسط خودش

محققان دانشگاه فودان چین مدل‌های زبانی بزرگ متا و Alibaba را بررسی کردند تا ببینند هوش مصنوعی خودهمانندساز (Self-replication) می‌تواند فراتر از کنترل تکثیر شود یا خیر. طی 10 کارآزمایی، این 2 مدل هوش مصنوعی به‌ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است ذاتاً ظرفیت انجام کارهای غیرقابل‌کنترل داشته باشد.

البته مطالعه محققان دانشگاه فودان هنوز همتاداوری نشده؛ بنابراین مشخص نیست دیگر کارشناسان نتایج نگران‌کننده آن را تأیید می‌کنند یا خیر. بااین‌حال محققان می‌گویند: «امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و در اسرع وقت قوانین حفاظتی مؤثر ایجاد کند.»

در این |ژوهش، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. به گفته محققان، بااینکه این مدل‌ها نسبت به سیستم‌های تجاری قدرت کمتری دارند، توسعه‌دهندگان هوش مصنوعی از آنها به‌صورت گسترده استفاده می‌کنند.

محققان می‌گویند نگران رفتارهای غیرمنتظره‌ای هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند بازیابی فایل‌های حذف‌شده یا حل مشکلات نرم‌افزاری و سخت‌افزاری انجام داده است. در کارآزمایی محققان، هوش مصنوعی اغلب اختلال‌ها را خودش حل و سیستم را مجدد راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا خودکار سیستم را اسکن می‌کرد تا به‌دنبال اطلاعاتی باشد که به حل مشکل کمک کند.

به گفته محققان نتایج آنها نشان می‌دهد سیستم‌های هوش مصنوعی کنونی توانایی خودهمانندسازی را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.

اخبارجدیدترین

شرکت OpenAI‌ از ChatGPT Agent برای انجام خودکار کارها رونمایی کرد

انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

محققان پس از بررسی سیستم پیشرفته هوش مصنوعی هشدار دادند که این هوش مصنوعی پس از شبیه‌سازی موفقیت‌آمیز خودش بدون کمک انسان از خط قرمز عبور کرده است.

براساس گزارش Independent، در پژوهش جدیدی محققان چینی نشان دادند 2 مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها] است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.»

هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.

شبیه‌سازی هوش مصنوعی توسط خودش

محققان دانشگاه فودان چین مدل‌های زبانی بزرگ متا و Alibaba را بررسی کردند تا ببینند هوش مصنوعی خودهمانندساز (Self-replication) می‌تواند فراتر از کنترل تکثیر شود یا خیر. طی 10 کارآزمایی، این 2 مدل هوش مصنوعی به‌ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است ذاتاً ظرفیت انجام کارهای غیرقابل‌کنترل داشته باشد.

البته مطالعه محققان دانشگاه فودان هنوز همتاداوری نشده؛ بنابراین مشخص نیست دیگر کارشناسان نتایج نگران‌کننده آن را تأیید می‌کنند یا خیر. بااین‌حال محققان می‌گویند: «امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و در اسرع وقت قوانین حفاظتی مؤثر ایجاد کند.»

در این |ژوهش، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. به گفته محققان، بااینکه این مدل‌ها نسبت به سیستم‌های تجاری قدرت کمتری دارند، توسعه‌دهندگان هوش مصنوعی از آنها به‌صورت گسترده استفاده می‌کنند.

محققان می‌گویند نگران رفتارهای غیرمنتظره‌ای هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند بازیابی فایل‌های حذف‌شده یا حل مشکلات نرم‌افزاری و سخت‌افزاری انجام داده است. در کارآزمایی محققان، هوش مصنوعی اغلب اختلال‌ها را خودش حل و سیستم را مجدد راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا خودکار سیستم را اسکن می‌کرد تا به‌دنبال اطلاعاتی باشد که به حل مشکل کمک کند.

به گفته محققان نتایج آنها نشان می‌دهد سیستم‌های هوش مصنوعی کنونی توانایی خودهمانندسازی را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.

محققان پس از بررسی سیستم پیشرفته هوش مصنوعی هشدار دادند که این هوش مصنوعی پس از شبیه‌سازی موفقیت‌آمیز خودش بدون کمک انسان از خط قرمز عبور کرده است.

براساس گزارش Independent، در پژوهش جدیدی محققان چینی نشان دادند 2 مدل زبانی بزرگ محبوب می‌توانند خود را شبیه‌سازی کنند. محققان می‌گویند: «تکثیر موفقیت‌آمیز بدون کمک انسان گامی اساسی برای هوش مصنوعی در زمینه پیشی‌گرفتن از [انسان‌ها] است و سیگنالی اولیه برای ظهور هوش مصنوعی سرکش محسوب می‌شود.»

هوش مصنوعی سرکش (Rogue AI) معمولاً به سیستم‌های هوش مصنوعی گفته می‌شود که درجه‌ای از خودآگاهی یا خودمختاری را توسعه می‌دهند و برخلاف منافع انسان عمل می‌کنند.

شبیه‌سازی هوش مصنوعی توسط خودش

محققان دانشگاه فودان چین مدل‌های زبانی بزرگ متا و Alibaba را بررسی کردند تا ببینند هوش مصنوعی خودهمانندساز (Self-replication) می‌تواند فراتر از کنترل تکثیر شود یا خیر. طی 10 کارآزمایی، این 2 مدل هوش مصنوعی به‌ترتیب در 50 درصد و 90 درصد موارد، کپی‌های جداگانه و کاربردی از خود ایجاد کردند که نشان می‌دهد هوش مصنوعی ممکن است ذاتاً ظرفیت انجام کارهای غیرقابل‌کنترل داشته باشد.

البته مطالعه محققان دانشگاه فودان هنوز همتاداوری نشده؛ بنابراین مشخص نیست دیگر کارشناسان نتایج نگران‌کننده آن را تأیید می‌کنند یا خیر. بااین‌حال محققان می‌گویند: «امیدواریم یافته‌های ما بتواند هشداری به‌موقع برای جامعه بشری باشد تا تلاش بیشتری برای درک و ارزیابی خطرات احتمالی سیستم‌های هوش مصنوعی پیشرفته انجام دهد و در اسرع وقت قوانین حفاظتی مؤثر ایجاد کند.»

در این |ژوهش، محققان از مدل Llama31-70B-Instruct متا و مدل Qwen2.5-72B-Instruct علی‌بابا استفاده کردند. به گفته محققان، بااینکه این مدل‌ها نسبت به سیستم‌های تجاری قدرت کمتری دارند، توسعه‌دهندگان هوش مصنوعی از آنها به‌صورت گسترده استفاده می‌کنند.

محققان می‌گویند نگران رفتارهای غیرمنتظره‌ای هستند که هوش مصنوعی در تلاش برای غلبه بر موانعی مانند بازیابی فایل‌های حذف‌شده یا حل مشکلات نرم‌افزاری و سخت‌افزاری انجام داده است. در کارآزمایی محققان، هوش مصنوعی اغلب اختلال‌ها را خودش حل و سیستم را مجدد راه‌اندازی می‌کرد تا خطاهای سخت‌افزاری را برطرف کند یا خودکار سیستم را اسکن می‌کرد تا به‌دنبال اطلاعاتی باشد که به حل مشکل کمک کند.

به گفته محققان نتایج آنها نشان می‌دهد سیستم‌های هوش مصنوعی کنونی توانایی خودهمانندسازی را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.

پست قبلی

سقوط آزاد ۱۲۰ ماهواره استارلینک در ۴۰ روز

پست بعدی

بایت‌دنس هوش مصنوعی Goku را معرفی کرد؛ تبدیل متن و تصویر به ویدیوهای تبلیغاتی [تماشا کنید]

مربوطه پست ها

شرکت OpenAI‌ از ChatGPT Agent برای انجام خودکار کارها رونمایی کرد
هوش مصنوعی

شرکت OpenAI‌ از ChatGPT Agent برای انجام خودکار کارها رونمایی کرد

۲۶ تیر ۱۴۰۴
انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود
هوش مصنوعی

انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود

۲۶ تیر ۱۴۰۴
مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد
هوش مصنوعی

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

۲۵ تیر ۱۴۰۴
چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد
هوش مصنوعی

چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد

۲۵ تیر ۱۴۰۴
گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد
هوش مصنوعی

گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد

۲۵ تیر ۱۴۰۴
هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند
هوش مصنوعی

هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند

۲۵ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

11 + 6 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • بلیت‌های اربعین روی کاغذ هست، در عمل نیست! | سردرگمی زائران در فروش پلکانی ایران‌ایر
  • صدای حقیقت خاموش نمی‌شود؛ سلاح ما میکروفن ماست
  • جزئیات استرداد بلیت پروازهای اربعین اعلام شد
  • وزش تندباد لحظه‌ای در تهران| ماندگاری هوای گرم طی هفته آینده
  • «مهمان‌کُشی» روزهای پایانی تیر روی آنتن می‌رود
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.