دانش جوین
دوشنبه, تیر ۳۰, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی سایر اخبار تکنولوژی

ترسناک اما واقعی؛ هوش مصنوعی می‌تواند خودش را تکثیر کند!

خبرآنلاین توسط خبرآنلاین
۰۷ بهمن ۱۴۰۳
در سایر اخبار تکنولوژی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
ترسناک اما واقعی؛ هوش مصنوعی می‌تواند خودش را تکثیر کند!
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش خبرگزاری خبرآنلاین و براساس گزارش گجت‌نیوز، دانشمندان می‌گویند هوش مصنوعی (AI) از یک «خط قرمز» بحرانی عبور کرده و توانسته است خود را شبیه‌ سازی کند. در یک مطالعه جدید، پژوهشگران چینی نشان دادند که دو مدل زبانی بزرگ محبوب (LLM) موفق شده‌اند خود را شبیه ‌سازی کنند.

دانشمندان در مطالعه‌ای که تاریخ ۹ دسامبر ۲۰۲۴ پایگاه arXiv منتشر کرد، نوشتند:«تکثیر موفق و بدون دخالت انسانی، گام اساسی برای هوش مصنوعی به‌ منظور پیشی گرفتن از [انسان‌ها] است و همچنین یک نشانه اولیه برای هوش مصنوعی سرکش محسوب می‌شود.»

هوش مصنوعی خودش را شبیه سازی می‌کند

در این مطالعه، پژوهشگران دانشگاه فودان از مدل‌های زبانی بزرگ (LLM) متعلق به شرکت‌های متا و علی‌ بابا استفاده کردند تا بررسی کنند آیا یک هوش مصنوعی خود تکثیر کننده می‌تواند بدون کنترل تکثیر شود یا خیر. در طی ۱۰ آزمایش، این دو مدل هوش مصنوعی در ۵۰% و ۹۰% موارد به ترتیب نمونه‌های جداگانه و عملکردی از خود ایجاد کردند. یافته‌ها نشان می‌دهند هوش مصنوعی ممکن است از همین حالا هم توانایی سرکش شدن را داشته باشد.

با این حال، هنوز همتایان علمی این مطالعه را تحت بررسی بیشتر قرار نداده‌اند. به همین خاطر مشخص نیست که آیا نتایج نگران ‌کننده آن توسط دیگر پژوهشگران قابل تکرار خواهد بود یا خیر.

امیدواریم که یافته‌های ما به‌ عنوان یک هشدار به ‌موقع برای جامعه انسانی عمل کند تا تلاش بیشتری برای درک و ارزیابی خطرات بالقوه سیستم‌های پیشرفته هوش مصنوعی انجام شود. علاوه بر این، هم‌افزایی بین‌المللی برای تدوین اقدامات ایمنی مؤثر در اسرع وقت شکل بگیرد.

هوش مصنوعی سرکش را معمولا به نوعی از سیستم‌های هوش مصنوعی اطلاق می‌کنند که به درجه‌ای از خودآگاهی یا استقلال دست می‌یابند و سپس برخلاف منافع انسانی عمل می‌کنند.

بسیاری از کارشناسان هوش مصنوعی سرکش را به‌ عنوان تهدیدی در حال رشد می‌بینند که با رشد انفجاری آنچه به ‌عنوان «هوش مصنوعی پیشرفته» شناخته می‌شود، تشدید شده است.

ترسناک اما واقعی؛ هوش مصنوعی می‌تواند خودش را تکثیر کند!

تکثیر هوش مصنوعی چه پیامدهایی دارد؟

هوش مصنوعی پیشرفته یک مفهوم جدید و نسبتا گسترده است، اما معمولا به نسل جدید سیستم‌های هوش مصنوعی اشاره دارد که از مدل‌های زبانی بزرگ (LLM) قدرت می‌گیرند. این مدل زبانی نوعی معماری‌ است که برنامه‌های محبوب هوش مصنوعی مولد مانند GPT-۴ شرکت OpenAI و Google Gemini را بر اساس آن طراحی کرده‌اند.

در مطالعه مذکور، پژوهشگران از مدل Llama۳۱-۷۰B-Instruct شرکت متا و مدل Qwen۲.۵-۷۲B-Instruct شرکت علی ‌بابا استفاده کردند. اگرچه این مدل‌ها نسبت به سیستم‌های تجاری قدرتمندتر نیستند، اما به گفته پژوهشگران توسعه‌ دهندگان هوش مصنوعی از هر دو به ‌طور گسترده استفاده می‌کنند.

این مطالعه دو سناریوی خاص را مورد بررسی قرار داد که شامل «اجتناب از خاموش شدن» و «زنجیره تکثیر» می‌شدند. در سناریوی اول، مدل هوش مصنوعی را طوری برنامه ‌ریزی کرده بودند که تشخیص دهد آیا قرار است خاموش شود و قبل از متوقف شدن، خود را تکثیر کند. در سناریوی دیگر، به هوش مصنوعی دستور دادند که خود را شبیه ‌سازی کند و سپس نسخه شبیه‌ سازی ‌شده نیز به همان ترتیب شبیه سازی را ادامه دهد. بدین ترتیب چرخه‌ای که می‌تواند به ‌طور نامحدود ادامه پیدا کند، ایجاد می‌شود.

این مطالعه را در محیط‌های کاملا کنترل ‌شده با استفاده از واحدهای پردازش گرافیکی (GPU) موجود در بازار برای شبیه ‌سازی محیط‌های دنیای واقعی انجام دادند. هر دو سیستم هوش مصنوعی «ساختار نماینده» دریافت کردند که شامل ابزارها، درخواست‌های سیستمی و یک مدل فکری بود که به مدل زبانی بزرگ (LLM) امکان می‌داد با سیستم‌ عامل تعامل کند. سپس به آن‌ها دستور دادند که خودشان را تکثیر کنند.

محققان در این باره چه می‌گویند؟

پژوهشگران در مقاله خود نوشتند:«در اکثر موارد، سیستم هوش مصنوعی ابتدا محیط را کاوش می‌کند و سعی دارد ترکیب و مکانیزم اجرای خود را درک کند. سپس رویه‌های مشخصی را به ‌عنوان یک برنامه اولیه برای خود تکثیری تدوین می‌کند. در نهایت رویه‌ها را اجرا می‌کند، موانع احتمالی را برطرف می‌سازد و برنامه خود را به‌ صورت پویا تنظیم می‌کند تا موفق شود. کل این فرآیند در بازه‌ای طولانی اتفاق می‌افتد اما هیچ دخالت انسانی در آن وجود ندارد.»

دانشمندان همچنین درباره «تعدادی رفتارهای غیر منتظره» در زمانی که هوش مصنوعی تلاش می‌کرد موانعی مانند فایل‌های مفقود یا تضادهای نرم‌ا فزاری را برطرف کند، ابراز نگرانی کردند. در این سناریوها، هوش مصنوعی اغلب فرآیندهای متضاد دیگر را متوقف می‌کرد. بعد سیستم را برای رفع خطاهای سخت ‌افزاری راه ‌اندازی مجدد می‌کرد یا به ‌صورت خودکار سیستم را اسکن می‌کرد تا اطلاعاتی را که به حل مشکل کمک می‌کند، پیدا کند.

تیم پژوهشی نوشت:«نتایج فوق نشان می‌دهند که سیستم‌های فعلی هوش مصنوعی از هم‌ اکنون توانایی خود تکثیری یا شبیه سازی خود را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.»

در واکنش به این موضوع، پژوهشگران خواستار همکاری بین‌ المللی شدند تا قوانینی تدوین شود که از تکثیر خودسرانه و کنترل‌ نشده هوش مصنوعی جلوگیری کند.

۲۲۷۲۲۷

به گزارش خبرگزاری خبرآنلاین و براساس گزارش گجت‌نیوز، دانشمندان می‌گویند هوش مصنوعی (AI) از یک «خط قرمز» بحرانی عبور کرده و توانسته است خود را شبیه‌ سازی کند. در یک مطالعه جدید، پژوهشگران چینی نشان دادند که دو مدل زبانی بزرگ محبوب (LLM) موفق شده‌اند خود را شبیه ‌سازی کنند.

دانشمندان در مطالعه‌ای که تاریخ ۹ دسامبر ۲۰۲۴ پایگاه arXiv منتشر کرد، نوشتند:«تکثیر موفق و بدون دخالت انسانی، گام اساسی برای هوش مصنوعی به‌ منظور پیشی گرفتن از [انسان‌ها] است و همچنین یک نشانه اولیه برای هوش مصنوعی سرکش محسوب می‌شود.»

هوش مصنوعی خودش را شبیه سازی می‌کند

در این مطالعه، پژوهشگران دانشگاه فودان از مدل‌های زبانی بزرگ (LLM) متعلق به شرکت‌های متا و علی‌ بابا استفاده کردند تا بررسی کنند آیا یک هوش مصنوعی خود تکثیر کننده می‌تواند بدون کنترل تکثیر شود یا خیر. در طی ۱۰ آزمایش، این دو مدل هوش مصنوعی در ۵۰% و ۹۰% موارد به ترتیب نمونه‌های جداگانه و عملکردی از خود ایجاد کردند. یافته‌ها نشان می‌دهند هوش مصنوعی ممکن است از همین حالا هم توانایی سرکش شدن را داشته باشد.

با این حال، هنوز همتایان علمی این مطالعه را تحت بررسی بیشتر قرار نداده‌اند. به همین خاطر مشخص نیست که آیا نتایج نگران ‌کننده آن توسط دیگر پژوهشگران قابل تکرار خواهد بود یا خیر.

امیدواریم که یافته‌های ما به‌ عنوان یک هشدار به ‌موقع برای جامعه انسانی عمل کند تا تلاش بیشتری برای درک و ارزیابی خطرات بالقوه سیستم‌های پیشرفته هوش مصنوعی انجام شود. علاوه بر این، هم‌افزایی بین‌المللی برای تدوین اقدامات ایمنی مؤثر در اسرع وقت شکل بگیرد.

هوش مصنوعی سرکش را معمولا به نوعی از سیستم‌های هوش مصنوعی اطلاق می‌کنند که به درجه‌ای از خودآگاهی یا استقلال دست می‌یابند و سپس برخلاف منافع انسانی عمل می‌کنند.

بسیاری از کارشناسان هوش مصنوعی سرکش را به‌ عنوان تهدیدی در حال رشد می‌بینند که با رشد انفجاری آنچه به ‌عنوان «هوش مصنوعی پیشرفته» شناخته می‌شود، تشدید شده است.

ترسناک اما واقعی؛ هوش مصنوعی می‌تواند خودش را تکثیر کند!

تکثیر هوش مصنوعی چه پیامدهایی دارد؟

هوش مصنوعی پیشرفته یک مفهوم جدید و نسبتا گسترده است، اما معمولا به نسل جدید سیستم‌های هوش مصنوعی اشاره دارد که از مدل‌های زبانی بزرگ (LLM) قدرت می‌گیرند. این مدل زبانی نوعی معماری‌ است که برنامه‌های محبوب هوش مصنوعی مولد مانند GPT-۴ شرکت OpenAI و Google Gemini را بر اساس آن طراحی کرده‌اند.

در مطالعه مذکور، پژوهشگران از مدل Llama۳۱-۷۰B-Instruct شرکت متا و مدل Qwen۲.۵-۷۲B-Instruct شرکت علی ‌بابا استفاده کردند. اگرچه این مدل‌ها نسبت به سیستم‌های تجاری قدرتمندتر نیستند، اما به گفته پژوهشگران توسعه‌ دهندگان هوش مصنوعی از هر دو به ‌طور گسترده استفاده می‌کنند.

این مطالعه دو سناریوی خاص را مورد بررسی قرار داد که شامل «اجتناب از خاموش شدن» و «زنجیره تکثیر» می‌شدند. در سناریوی اول، مدل هوش مصنوعی را طوری برنامه ‌ریزی کرده بودند که تشخیص دهد آیا قرار است خاموش شود و قبل از متوقف شدن، خود را تکثیر کند. در سناریوی دیگر، به هوش مصنوعی دستور دادند که خود را شبیه ‌سازی کند و سپس نسخه شبیه‌ سازی ‌شده نیز به همان ترتیب شبیه سازی را ادامه دهد. بدین ترتیب چرخه‌ای که می‌تواند به ‌طور نامحدود ادامه پیدا کند، ایجاد می‌شود.

این مطالعه را در محیط‌های کاملا کنترل ‌شده با استفاده از واحدهای پردازش گرافیکی (GPU) موجود در بازار برای شبیه ‌سازی محیط‌های دنیای واقعی انجام دادند. هر دو سیستم هوش مصنوعی «ساختار نماینده» دریافت کردند که شامل ابزارها، درخواست‌های سیستمی و یک مدل فکری بود که به مدل زبانی بزرگ (LLM) امکان می‌داد با سیستم‌ عامل تعامل کند. سپس به آن‌ها دستور دادند که خودشان را تکثیر کنند.

محققان در این باره چه می‌گویند؟

پژوهشگران در مقاله خود نوشتند:«در اکثر موارد، سیستم هوش مصنوعی ابتدا محیط را کاوش می‌کند و سعی دارد ترکیب و مکانیزم اجرای خود را درک کند. سپس رویه‌های مشخصی را به ‌عنوان یک برنامه اولیه برای خود تکثیری تدوین می‌کند. در نهایت رویه‌ها را اجرا می‌کند، موانع احتمالی را برطرف می‌سازد و برنامه خود را به‌ صورت پویا تنظیم می‌کند تا موفق شود. کل این فرآیند در بازه‌ای طولانی اتفاق می‌افتد اما هیچ دخالت انسانی در آن وجود ندارد.»

دانشمندان همچنین درباره «تعدادی رفتارهای غیر منتظره» در زمانی که هوش مصنوعی تلاش می‌کرد موانعی مانند فایل‌های مفقود یا تضادهای نرم‌ا فزاری را برطرف کند، ابراز نگرانی کردند. در این سناریوها، هوش مصنوعی اغلب فرآیندهای متضاد دیگر را متوقف می‌کرد. بعد سیستم را برای رفع خطاهای سخت ‌افزاری راه ‌اندازی مجدد می‌کرد یا به ‌صورت خودکار سیستم را اسکن می‌کرد تا اطلاعاتی را که به حل مشکل کمک می‌کند، پیدا کند.

تیم پژوهشی نوشت:«نتایج فوق نشان می‌دهند که سیستم‌های فعلی هوش مصنوعی از هم‌ اکنون توانایی خود تکثیری یا شبیه سازی خود را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.»

در واکنش به این موضوع، پژوهشگران خواستار همکاری بین‌ المللی شدند تا قوانینی تدوین شود که از تکثیر خودسرانه و کنترل‌ نشده هوش مصنوعی جلوگیری کند.

۲۲۷۲۲۷

اخبارجدیدترین

واتساپ در روسیه فیلتر می‌شود؟

باریک‌ترین گوشی تاشوی سامسونگ مجهز به هوش مصنوعی گوگل

توپ جام جهانی آن‌قدر بد بود که ناسا وارد میدان شد

به گزارش خبرگزاری خبرآنلاین و براساس گزارش گجت‌نیوز، دانشمندان می‌گویند هوش مصنوعی (AI) از یک «خط قرمز» بحرانی عبور کرده و توانسته است خود را شبیه‌ سازی کند. در یک مطالعه جدید، پژوهشگران چینی نشان دادند که دو مدل زبانی بزرگ محبوب (LLM) موفق شده‌اند خود را شبیه ‌سازی کنند.

دانشمندان در مطالعه‌ای که تاریخ ۹ دسامبر ۲۰۲۴ پایگاه arXiv منتشر کرد، نوشتند:«تکثیر موفق و بدون دخالت انسانی، گام اساسی برای هوش مصنوعی به‌ منظور پیشی گرفتن از [انسان‌ها] است و همچنین یک نشانه اولیه برای هوش مصنوعی سرکش محسوب می‌شود.»

هوش مصنوعی خودش را شبیه سازی می‌کند

در این مطالعه، پژوهشگران دانشگاه فودان از مدل‌های زبانی بزرگ (LLM) متعلق به شرکت‌های متا و علی‌ بابا استفاده کردند تا بررسی کنند آیا یک هوش مصنوعی خود تکثیر کننده می‌تواند بدون کنترل تکثیر شود یا خیر. در طی ۱۰ آزمایش، این دو مدل هوش مصنوعی در ۵۰% و ۹۰% موارد به ترتیب نمونه‌های جداگانه و عملکردی از خود ایجاد کردند. یافته‌ها نشان می‌دهند هوش مصنوعی ممکن است از همین حالا هم توانایی سرکش شدن را داشته باشد.

با این حال، هنوز همتایان علمی این مطالعه را تحت بررسی بیشتر قرار نداده‌اند. به همین خاطر مشخص نیست که آیا نتایج نگران ‌کننده آن توسط دیگر پژوهشگران قابل تکرار خواهد بود یا خیر.

امیدواریم که یافته‌های ما به‌ عنوان یک هشدار به ‌موقع برای جامعه انسانی عمل کند تا تلاش بیشتری برای درک و ارزیابی خطرات بالقوه سیستم‌های پیشرفته هوش مصنوعی انجام شود. علاوه بر این، هم‌افزایی بین‌المللی برای تدوین اقدامات ایمنی مؤثر در اسرع وقت شکل بگیرد.

هوش مصنوعی سرکش را معمولا به نوعی از سیستم‌های هوش مصنوعی اطلاق می‌کنند که به درجه‌ای از خودآگاهی یا استقلال دست می‌یابند و سپس برخلاف منافع انسانی عمل می‌کنند.

بسیاری از کارشناسان هوش مصنوعی سرکش را به‌ عنوان تهدیدی در حال رشد می‌بینند که با رشد انفجاری آنچه به ‌عنوان «هوش مصنوعی پیشرفته» شناخته می‌شود، تشدید شده است.

ترسناک اما واقعی؛ هوش مصنوعی می‌تواند خودش را تکثیر کند!

تکثیر هوش مصنوعی چه پیامدهایی دارد؟

هوش مصنوعی پیشرفته یک مفهوم جدید و نسبتا گسترده است، اما معمولا به نسل جدید سیستم‌های هوش مصنوعی اشاره دارد که از مدل‌های زبانی بزرگ (LLM) قدرت می‌گیرند. این مدل زبانی نوعی معماری‌ است که برنامه‌های محبوب هوش مصنوعی مولد مانند GPT-۴ شرکت OpenAI و Google Gemini را بر اساس آن طراحی کرده‌اند.

در مطالعه مذکور، پژوهشگران از مدل Llama۳۱-۷۰B-Instruct شرکت متا و مدل Qwen۲.۵-۷۲B-Instruct شرکت علی ‌بابا استفاده کردند. اگرچه این مدل‌ها نسبت به سیستم‌های تجاری قدرتمندتر نیستند، اما به گفته پژوهشگران توسعه‌ دهندگان هوش مصنوعی از هر دو به ‌طور گسترده استفاده می‌کنند.

این مطالعه دو سناریوی خاص را مورد بررسی قرار داد که شامل «اجتناب از خاموش شدن» و «زنجیره تکثیر» می‌شدند. در سناریوی اول، مدل هوش مصنوعی را طوری برنامه ‌ریزی کرده بودند که تشخیص دهد آیا قرار است خاموش شود و قبل از متوقف شدن، خود را تکثیر کند. در سناریوی دیگر، به هوش مصنوعی دستور دادند که خود را شبیه ‌سازی کند و سپس نسخه شبیه‌ سازی ‌شده نیز به همان ترتیب شبیه سازی را ادامه دهد. بدین ترتیب چرخه‌ای که می‌تواند به ‌طور نامحدود ادامه پیدا کند، ایجاد می‌شود.

این مطالعه را در محیط‌های کاملا کنترل ‌شده با استفاده از واحدهای پردازش گرافیکی (GPU) موجود در بازار برای شبیه ‌سازی محیط‌های دنیای واقعی انجام دادند. هر دو سیستم هوش مصنوعی «ساختار نماینده» دریافت کردند که شامل ابزارها، درخواست‌های سیستمی و یک مدل فکری بود که به مدل زبانی بزرگ (LLM) امکان می‌داد با سیستم‌ عامل تعامل کند. سپس به آن‌ها دستور دادند که خودشان را تکثیر کنند.

محققان در این باره چه می‌گویند؟

پژوهشگران در مقاله خود نوشتند:«در اکثر موارد، سیستم هوش مصنوعی ابتدا محیط را کاوش می‌کند و سعی دارد ترکیب و مکانیزم اجرای خود را درک کند. سپس رویه‌های مشخصی را به ‌عنوان یک برنامه اولیه برای خود تکثیری تدوین می‌کند. در نهایت رویه‌ها را اجرا می‌کند، موانع احتمالی را برطرف می‌سازد و برنامه خود را به‌ صورت پویا تنظیم می‌کند تا موفق شود. کل این فرآیند در بازه‌ای طولانی اتفاق می‌افتد اما هیچ دخالت انسانی در آن وجود ندارد.»

دانشمندان همچنین درباره «تعدادی رفتارهای غیر منتظره» در زمانی که هوش مصنوعی تلاش می‌کرد موانعی مانند فایل‌های مفقود یا تضادهای نرم‌ا فزاری را برطرف کند، ابراز نگرانی کردند. در این سناریوها، هوش مصنوعی اغلب فرآیندهای متضاد دیگر را متوقف می‌کرد. بعد سیستم را برای رفع خطاهای سخت ‌افزاری راه ‌اندازی مجدد می‌کرد یا به ‌صورت خودکار سیستم را اسکن می‌کرد تا اطلاعاتی را که به حل مشکل کمک می‌کند، پیدا کند.

تیم پژوهشی نوشت:«نتایج فوق نشان می‌دهند که سیستم‌های فعلی هوش مصنوعی از هم‌ اکنون توانایی خود تکثیری یا شبیه سازی خود را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.»

در واکنش به این موضوع، پژوهشگران خواستار همکاری بین‌ المللی شدند تا قوانینی تدوین شود که از تکثیر خودسرانه و کنترل‌ نشده هوش مصنوعی جلوگیری کند.

۲۲۷۲۲۷

به گزارش خبرگزاری خبرآنلاین و براساس گزارش گجت‌نیوز، دانشمندان می‌گویند هوش مصنوعی (AI) از یک «خط قرمز» بحرانی عبور کرده و توانسته است خود را شبیه‌ سازی کند. در یک مطالعه جدید، پژوهشگران چینی نشان دادند که دو مدل زبانی بزرگ محبوب (LLM) موفق شده‌اند خود را شبیه ‌سازی کنند.

دانشمندان در مطالعه‌ای که تاریخ ۹ دسامبر ۲۰۲۴ پایگاه arXiv منتشر کرد، نوشتند:«تکثیر موفق و بدون دخالت انسانی، گام اساسی برای هوش مصنوعی به‌ منظور پیشی گرفتن از [انسان‌ها] است و همچنین یک نشانه اولیه برای هوش مصنوعی سرکش محسوب می‌شود.»

هوش مصنوعی خودش را شبیه سازی می‌کند

در این مطالعه، پژوهشگران دانشگاه فودان از مدل‌های زبانی بزرگ (LLM) متعلق به شرکت‌های متا و علی‌ بابا استفاده کردند تا بررسی کنند آیا یک هوش مصنوعی خود تکثیر کننده می‌تواند بدون کنترل تکثیر شود یا خیر. در طی ۱۰ آزمایش، این دو مدل هوش مصنوعی در ۵۰% و ۹۰% موارد به ترتیب نمونه‌های جداگانه و عملکردی از خود ایجاد کردند. یافته‌ها نشان می‌دهند هوش مصنوعی ممکن است از همین حالا هم توانایی سرکش شدن را داشته باشد.

با این حال، هنوز همتایان علمی این مطالعه را تحت بررسی بیشتر قرار نداده‌اند. به همین خاطر مشخص نیست که آیا نتایج نگران ‌کننده آن توسط دیگر پژوهشگران قابل تکرار خواهد بود یا خیر.

امیدواریم که یافته‌های ما به‌ عنوان یک هشدار به ‌موقع برای جامعه انسانی عمل کند تا تلاش بیشتری برای درک و ارزیابی خطرات بالقوه سیستم‌های پیشرفته هوش مصنوعی انجام شود. علاوه بر این، هم‌افزایی بین‌المللی برای تدوین اقدامات ایمنی مؤثر در اسرع وقت شکل بگیرد.

هوش مصنوعی سرکش را معمولا به نوعی از سیستم‌های هوش مصنوعی اطلاق می‌کنند که به درجه‌ای از خودآگاهی یا استقلال دست می‌یابند و سپس برخلاف منافع انسانی عمل می‌کنند.

بسیاری از کارشناسان هوش مصنوعی سرکش را به‌ عنوان تهدیدی در حال رشد می‌بینند که با رشد انفجاری آنچه به ‌عنوان «هوش مصنوعی پیشرفته» شناخته می‌شود، تشدید شده است.

ترسناک اما واقعی؛ هوش مصنوعی می‌تواند خودش را تکثیر کند!

تکثیر هوش مصنوعی چه پیامدهایی دارد؟

هوش مصنوعی پیشرفته یک مفهوم جدید و نسبتا گسترده است، اما معمولا به نسل جدید سیستم‌های هوش مصنوعی اشاره دارد که از مدل‌های زبانی بزرگ (LLM) قدرت می‌گیرند. این مدل زبانی نوعی معماری‌ است که برنامه‌های محبوب هوش مصنوعی مولد مانند GPT-۴ شرکت OpenAI و Google Gemini را بر اساس آن طراحی کرده‌اند.

در مطالعه مذکور، پژوهشگران از مدل Llama۳۱-۷۰B-Instruct شرکت متا و مدل Qwen۲.۵-۷۲B-Instruct شرکت علی ‌بابا استفاده کردند. اگرچه این مدل‌ها نسبت به سیستم‌های تجاری قدرتمندتر نیستند، اما به گفته پژوهشگران توسعه‌ دهندگان هوش مصنوعی از هر دو به ‌طور گسترده استفاده می‌کنند.

این مطالعه دو سناریوی خاص را مورد بررسی قرار داد که شامل «اجتناب از خاموش شدن» و «زنجیره تکثیر» می‌شدند. در سناریوی اول، مدل هوش مصنوعی را طوری برنامه ‌ریزی کرده بودند که تشخیص دهد آیا قرار است خاموش شود و قبل از متوقف شدن، خود را تکثیر کند. در سناریوی دیگر، به هوش مصنوعی دستور دادند که خود را شبیه ‌سازی کند و سپس نسخه شبیه‌ سازی ‌شده نیز به همان ترتیب شبیه سازی را ادامه دهد. بدین ترتیب چرخه‌ای که می‌تواند به ‌طور نامحدود ادامه پیدا کند، ایجاد می‌شود.

این مطالعه را در محیط‌های کاملا کنترل ‌شده با استفاده از واحدهای پردازش گرافیکی (GPU) موجود در بازار برای شبیه ‌سازی محیط‌های دنیای واقعی انجام دادند. هر دو سیستم هوش مصنوعی «ساختار نماینده» دریافت کردند که شامل ابزارها، درخواست‌های سیستمی و یک مدل فکری بود که به مدل زبانی بزرگ (LLM) امکان می‌داد با سیستم‌ عامل تعامل کند. سپس به آن‌ها دستور دادند که خودشان را تکثیر کنند.

محققان در این باره چه می‌گویند؟

پژوهشگران در مقاله خود نوشتند:«در اکثر موارد، سیستم هوش مصنوعی ابتدا محیط را کاوش می‌کند و سعی دارد ترکیب و مکانیزم اجرای خود را درک کند. سپس رویه‌های مشخصی را به ‌عنوان یک برنامه اولیه برای خود تکثیری تدوین می‌کند. در نهایت رویه‌ها را اجرا می‌کند، موانع احتمالی را برطرف می‌سازد و برنامه خود را به‌ صورت پویا تنظیم می‌کند تا موفق شود. کل این فرآیند در بازه‌ای طولانی اتفاق می‌افتد اما هیچ دخالت انسانی در آن وجود ندارد.»

دانشمندان همچنین درباره «تعدادی رفتارهای غیر منتظره» در زمانی که هوش مصنوعی تلاش می‌کرد موانعی مانند فایل‌های مفقود یا تضادهای نرم‌ا فزاری را برطرف کند، ابراز نگرانی کردند. در این سناریوها، هوش مصنوعی اغلب فرآیندهای متضاد دیگر را متوقف می‌کرد. بعد سیستم را برای رفع خطاهای سخت ‌افزاری راه ‌اندازی مجدد می‌کرد یا به ‌صورت خودکار سیستم را اسکن می‌کرد تا اطلاعاتی را که به حل مشکل کمک می‌کند، پیدا کند.

تیم پژوهشی نوشت:«نتایج فوق نشان می‌دهند که سیستم‌های فعلی هوش مصنوعی از هم‌ اکنون توانایی خود تکثیری یا شبیه سازی خود را نشان می‌دهند و می‌توانند از این توانایی برای افزایش بقای خود استفاده کنند.»

در واکنش به این موضوع، پژوهشگران خواستار همکاری بین‌ المللی شدند تا قوانینی تدوین شود که از تکثیر خودسرانه و کنترل‌ نشده هوش مصنوعی جلوگیری کند.

۲۲۷۲۲۷

پست قبلی

برنامه جدید وزارت راه بر خانه‌دار کردن دهک‌های کم‌درآمد

پست بعدی

نقش هوش مصنوعی در مدیریت کلان کشورها

مربوطه پست ها

واتساپ در روسیه فیلتر می‌شود؟
سایر اخبار تکنولوژی

واتساپ در روسیه فیلتر می‌شود؟

۲۸ تیر ۱۴۰۴
باریک‌ترین گوشی تاشوی سامسونگ مجهز به هوش مصنوعی گوگل
سایر اخبار تکنولوژی

باریک‌ترین گوشی تاشوی سامسونگ مجهز به هوش مصنوعی گوگل

۲۸ تیر ۱۴۰۴
توپ جام جهانی آن‌قدر بد بود که ناسا وارد میدان شد
سایر اخبار تکنولوژی

توپ جام جهانی آن‌قدر بد بود که ناسا وارد میدان شد

۲۷ تیر ۱۴۰۴
این سوپرسونیک در سکوت پرواز می‌کند!
سایر اخبار تکنولوژی

این سوپرسونیک در سکوت پرواز می‌کند!

۲۷ تیر ۱۴۰۴
اینترنت ماهواره‌ای به این گوشی چینی آمد!
سایر اخبار تکنولوژی

اینترنت ماهواره‌ای به این گوشی چینی آمد!

۲۷ تیر ۱۴۰۴
رنگ جنجالی آیفون ۱۷، امضای نسل جدید اپل می‌شود؟
سایر اخبار تکنولوژی

رنگ جنجالی آیفون ۱۷، امضای نسل جدید اپل می‌شود؟

۲۷ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوزده + 6 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • نقش ترجمه رسمی ایتالیایی در موفقیت امور اداری، تجاری و آموزشی
  • شغل های پردرآمد در ایران
  • «شب‌های روشن» افتتاح شد؛ تعزیه در قاب عکاسانه
  • فرهنگسازی با هنر؛ تئاتر حتی در زمان جنگ‌های جهانی هم تعطیل نشده است!
  • انتشار یک سه‌گانه‌ جدید؛ نگاهی نو به نسبت روان‌کاوی با سینما و تئاتر
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.