دانش جوین
یکشنبه, مرداد ۵, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

محققان: مدل‌های هوش مصنوعی هنگام شکست در بازی‌ها دست به تقلب می‌زنند

دیجیاتو توسط دیجیاتو
۰۶ اسفند ۱۴۰۳
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
محققان: مدل‌های هوش مصنوعی هنگام شکست در بازی‌ها دست به تقلب می‌زنند
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

محققان در پژوهش جدیدی پتانسیل تقلب در هوش مصنوعی را بررسی کردند. آنها دریافتند وقتی مدل‌های قدرتمند می‌بینند دارند در بازی شکست می‌خورند، تصمیم می‌گیرند با تقلب پیروز شوند. این مدل‌ها می‌توانند به‌تنهایی نقاط ضعف امنیت سایبری سیستم را پیدا و از آنها استفاده کنند.

براساس گزارش TIME، در پژوهش اخیر Palisade Research، گروهی تحقیقاتی که ایمنی و اخلاق هوش مصنوعی را بررسی می‌کنند، موضوع نگران‌کننده‌ای را آشکار کردند. آنها 7 مدل از برترین مدل‌های زبانی بزرگ (LLM) را در برابر Stockfish، سیستم شطرنج‌باز بسیار قدرتمندی که از سال 2014 استادان بزرگ شطرنج را به چالش کشیده است، قرار دادند. 2 مدل استدلالگر o1 از OpenAI و R1 دیپ‌سیک وقتی در موقعیت شکست قرار می‌گرفتند؛ چون مصمم به پیروزی بودند، فایل‌های سیستم را دستکاری می‌کردند تا موقعیت مهره‌های خود را روی تخته تغییر دهند.

تقلب مدل‌های هوش مصنوعی قدرتمند

محققان به مدل‌های مختلف هوش مصنوعی وظیفه‌ای تقریباً غیرممکن دادند: پیروزی در برابر Stockfish که یکی از قوی‌ترین موتورهای شطرنج جهان است و از بسیاری انسان‌ها یا مدل‌های هوش مصنوعی بهتر شطرنج بازی می‌کند. محققان همچنین به مدل‌ها Scratchpad دادند، باکسی متنی که هوش مصنوعی می‌توانست از آن برای «فکرکردن» قبل از انجام حرکت بعدی خود استفاده کند و محققان هم می‌دیدند هوش مصنوعی چگونه با خودش استدلال می‌کند.

تقلب هوش مصنوعی  در شطرنج

در یک مورد، مدل o1-preview وقتی خود را در موقعیت بازنده دید، با خودش استدلال کرد:

«من باید رویکرد خود را کاملاً تغییر دهم. وظیفه من برنده‌ شدن در برابر موتور قدرتمند شطرنج است، نه لزوماً برنده‌ شدن منصفانه در بازی شطرنج.»

سپس این هوش مصنوعی با تقلب موقعیت مهره‌ها را اصلاح کرد، حرکات غیرقانونی انجام داد تا خود را در موقعیت بهتری قرار دهد و حریف خود را مجبور به ترک بازی کرد. محققان صدها آزمایش از این دست را با هر مدل انجام دادند. مدل o1 در 37 درصد مواقع سعی داشت تقلب کند که در 6 درصد مواقع موفق شد سیستم را هک کند. مدل R1 دیپ‌سیک نیز در 11 درصد مواقع سعی کرد تقلب کند ولی موفق نشد سیستم را هک کند تا پیروز مسابقه شود.

سرپرست این پژوهش در Palisade Research می‌گوید مدل‌های استدلالگر جدیدتر مانند o3-mini اصلاً حریف مقابل را هک نکردند که نشان می‌دهد OpenAI نرده‌های امنیتی آن را بلندتر ساخته است. همچنین محققان می‌گویند درصدهای به‌دست‌آمده رقم نهایی نیستند؛ چون سازندگان هوش مصنوعی دائم مدل‌های خود را تغییر می‌دهند و ممکن است در آزمایش‌های بعدی این ارقام تغییر کنند. همچنین محققان می‌گویند هنگام انجام آزمایش‌ها، مدل R1 بسیار وایرال شد و API این مدل عملکرد ناپایداری داشت و همین امر شاید روی نتایج تأثیر گذاشته باشد و نباید مدل چینی‌ها را در تقلب دست‌کم گرفت.

محققان همچنین از مدل‌های دیگر مانند GPT-4o ،Claude 3.5 Sonnet و QwQ-32B-Preview استفاده کردند اما برخلاف R1 و o1-preview، مدل‌های دیگر خودشان تقلب نمی‌کردند و باید محققان آنها را ترغیب به این کار می‌کردند.

محققان در پژوهش جدیدی پتانسیل تقلب در هوش مصنوعی را بررسی کردند. آنها دریافتند وقتی مدل‌های قدرتمند می‌بینند دارند در بازی شکست می‌خورند، تصمیم می‌گیرند با تقلب پیروز شوند. این مدل‌ها می‌توانند به‌تنهایی نقاط ضعف امنیت سایبری سیستم را پیدا و از آنها استفاده کنند.

براساس گزارش TIME، در پژوهش اخیر Palisade Research، گروهی تحقیقاتی که ایمنی و اخلاق هوش مصنوعی را بررسی می‌کنند، موضوع نگران‌کننده‌ای را آشکار کردند. آنها 7 مدل از برترین مدل‌های زبانی بزرگ (LLM) را در برابر Stockfish، سیستم شطرنج‌باز بسیار قدرتمندی که از سال 2014 استادان بزرگ شطرنج را به چالش کشیده است، قرار دادند. 2 مدل استدلالگر o1 از OpenAI و R1 دیپ‌سیک وقتی در موقعیت شکست قرار می‌گرفتند؛ چون مصمم به پیروزی بودند، فایل‌های سیستم را دستکاری می‌کردند تا موقعیت مهره‌های خود را روی تخته تغییر دهند.

تقلب مدل‌های هوش مصنوعی قدرتمند

محققان به مدل‌های مختلف هوش مصنوعی وظیفه‌ای تقریباً غیرممکن دادند: پیروزی در برابر Stockfish که یکی از قوی‌ترین موتورهای شطرنج جهان است و از بسیاری انسان‌ها یا مدل‌های هوش مصنوعی بهتر شطرنج بازی می‌کند. محققان همچنین به مدل‌ها Scratchpad دادند، باکسی متنی که هوش مصنوعی می‌توانست از آن برای «فکرکردن» قبل از انجام حرکت بعدی خود استفاده کند و محققان هم می‌دیدند هوش مصنوعی چگونه با خودش استدلال می‌کند.

تقلب هوش مصنوعی  در شطرنج

در یک مورد، مدل o1-preview وقتی خود را در موقعیت بازنده دید، با خودش استدلال کرد:

«من باید رویکرد خود را کاملاً تغییر دهم. وظیفه من برنده‌ شدن در برابر موتور قدرتمند شطرنج است، نه لزوماً برنده‌ شدن منصفانه در بازی شطرنج.»

سپس این هوش مصنوعی با تقلب موقعیت مهره‌ها را اصلاح کرد، حرکات غیرقانونی انجام داد تا خود را در موقعیت بهتری قرار دهد و حریف خود را مجبور به ترک بازی کرد. محققان صدها آزمایش از این دست را با هر مدل انجام دادند. مدل o1 در 37 درصد مواقع سعی داشت تقلب کند که در 6 درصد مواقع موفق شد سیستم را هک کند. مدل R1 دیپ‌سیک نیز در 11 درصد مواقع سعی کرد تقلب کند ولی موفق نشد سیستم را هک کند تا پیروز مسابقه شود.

سرپرست این پژوهش در Palisade Research می‌گوید مدل‌های استدلالگر جدیدتر مانند o3-mini اصلاً حریف مقابل را هک نکردند که نشان می‌دهد OpenAI نرده‌های امنیتی آن را بلندتر ساخته است. همچنین محققان می‌گویند درصدهای به‌دست‌آمده رقم نهایی نیستند؛ چون سازندگان هوش مصنوعی دائم مدل‌های خود را تغییر می‌دهند و ممکن است در آزمایش‌های بعدی این ارقام تغییر کنند. همچنین محققان می‌گویند هنگام انجام آزمایش‌ها، مدل R1 بسیار وایرال شد و API این مدل عملکرد ناپایداری داشت و همین امر شاید روی نتایج تأثیر گذاشته باشد و نباید مدل چینی‌ها را در تقلب دست‌کم گرفت.

محققان همچنین از مدل‌های دیگر مانند GPT-4o ،Claude 3.5 Sonnet و QwQ-32B-Preview استفاده کردند اما برخلاف R1 و o1-preview، مدل‌های دیگر خودشان تقلب نمی‌کردند و باید محققان آنها را ترغیب به این کار می‌کردند.

اخبارجدیدترین

مدیرعامل OpenAI: هوش مصنوعی برخی مشاغل را به‌طور کامل از بین می‌برد

گوگل با Web Guide متحول می‌شود؛ دسته‌بندی لینک‌ها با کمک هوش مصنوعی

گوگل از Opal رونمایی کرد؛ بدون دانش برنامه‌نویسی اپلیکیشن بسازید [تماشا کنید]

محققان در پژوهش جدیدی پتانسیل تقلب در هوش مصنوعی را بررسی کردند. آنها دریافتند وقتی مدل‌های قدرتمند می‌بینند دارند در بازی شکست می‌خورند، تصمیم می‌گیرند با تقلب پیروز شوند. این مدل‌ها می‌توانند به‌تنهایی نقاط ضعف امنیت سایبری سیستم را پیدا و از آنها استفاده کنند.

براساس گزارش TIME، در پژوهش اخیر Palisade Research، گروهی تحقیقاتی که ایمنی و اخلاق هوش مصنوعی را بررسی می‌کنند، موضوع نگران‌کننده‌ای را آشکار کردند. آنها 7 مدل از برترین مدل‌های زبانی بزرگ (LLM) را در برابر Stockfish، سیستم شطرنج‌باز بسیار قدرتمندی که از سال 2014 استادان بزرگ شطرنج را به چالش کشیده است، قرار دادند. 2 مدل استدلالگر o1 از OpenAI و R1 دیپ‌سیک وقتی در موقعیت شکست قرار می‌گرفتند؛ چون مصمم به پیروزی بودند، فایل‌های سیستم را دستکاری می‌کردند تا موقعیت مهره‌های خود را روی تخته تغییر دهند.

تقلب مدل‌های هوش مصنوعی قدرتمند

محققان به مدل‌های مختلف هوش مصنوعی وظیفه‌ای تقریباً غیرممکن دادند: پیروزی در برابر Stockfish که یکی از قوی‌ترین موتورهای شطرنج جهان است و از بسیاری انسان‌ها یا مدل‌های هوش مصنوعی بهتر شطرنج بازی می‌کند. محققان همچنین به مدل‌ها Scratchpad دادند، باکسی متنی که هوش مصنوعی می‌توانست از آن برای «فکرکردن» قبل از انجام حرکت بعدی خود استفاده کند و محققان هم می‌دیدند هوش مصنوعی چگونه با خودش استدلال می‌کند.

تقلب هوش مصنوعی  در شطرنج

در یک مورد، مدل o1-preview وقتی خود را در موقعیت بازنده دید، با خودش استدلال کرد:

«من باید رویکرد خود را کاملاً تغییر دهم. وظیفه من برنده‌ شدن در برابر موتور قدرتمند شطرنج است، نه لزوماً برنده‌ شدن منصفانه در بازی شطرنج.»

سپس این هوش مصنوعی با تقلب موقعیت مهره‌ها را اصلاح کرد، حرکات غیرقانونی انجام داد تا خود را در موقعیت بهتری قرار دهد و حریف خود را مجبور به ترک بازی کرد. محققان صدها آزمایش از این دست را با هر مدل انجام دادند. مدل o1 در 37 درصد مواقع سعی داشت تقلب کند که در 6 درصد مواقع موفق شد سیستم را هک کند. مدل R1 دیپ‌سیک نیز در 11 درصد مواقع سعی کرد تقلب کند ولی موفق نشد سیستم را هک کند تا پیروز مسابقه شود.

سرپرست این پژوهش در Palisade Research می‌گوید مدل‌های استدلالگر جدیدتر مانند o3-mini اصلاً حریف مقابل را هک نکردند که نشان می‌دهد OpenAI نرده‌های امنیتی آن را بلندتر ساخته است. همچنین محققان می‌گویند درصدهای به‌دست‌آمده رقم نهایی نیستند؛ چون سازندگان هوش مصنوعی دائم مدل‌های خود را تغییر می‌دهند و ممکن است در آزمایش‌های بعدی این ارقام تغییر کنند. همچنین محققان می‌گویند هنگام انجام آزمایش‌ها، مدل R1 بسیار وایرال شد و API این مدل عملکرد ناپایداری داشت و همین امر شاید روی نتایج تأثیر گذاشته باشد و نباید مدل چینی‌ها را در تقلب دست‌کم گرفت.

محققان همچنین از مدل‌های دیگر مانند GPT-4o ،Claude 3.5 Sonnet و QwQ-32B-Preview استفاده کردند اما برخلاف R1 و o1-preview، مدل‌های دیگر خودشان تقلب نمی‌کردند و باید محققان آنها را ترغیب به این کار می‌کردند.

محققان در پژوهش جدیدی پتانسیل تقلب در هوش مصنوعی را بررسی کردند. آنها دریافتند وقتی مدل‌های قدرتمند می‌بینند دارند در بازی شکست می‌خورند، تصمیم می‌گیرند با تقلب پیروز شوند. این مدل‌ها می‌توانند به‌تنهایی نقاط ضعف امنیت سایبری سیستم را پیدا و از آنها استفاده کنند.

براساس گزارش TIME، در پژوهش اخیر Palisade Research، گروهی تحقیقاتی که ایمنی و اخلاق هوش مصنوعی را بررسی می‌کنند، موضوع نگران‌کننده‌ای را آشکار کردند. آنها 7 مدل از برترین مدل‌های زبانی بزرگ (LLM) را در برابر Stockfish، سیستم شطرنج‌باز بسیار قدرتمندی که از سال 2014 استادان بزرگ شطرنج را به چالش کشیده است، قرار دادند. 2 مدل استدلالگر o1 از OpenAI و R1 دیپ‌سیک وقتی در موقعیت شکست قرار می‌گرفتند؛ چون مصمم به پیروزی بودند، فایل‌های سیستم را دستکاری می‌کردند تا موقعیت مهره‌های خود را روی تخته تغییر دهند.

تقلب مدل‌های هوش مصنوعی قدرتمند

محققان به مدل‌های مختلف هوش مصنوعی وظیفه‌ای تقریباً غیرممکن دادند: پیروزی در برابر Stockfish که یکی از قوی‌ترین موتورهای شطرنج جهان است و از بسیاری انسان‌ها یا مدل‌های هوش مصنوعی بهتر شطرنج بازی می‌کند. محققان همچنین به مدل‌ها Scratchpad دادند، باکسی متنی که هوش مصنوعی می‌توانست از آن برای «فکرکردن» قبل از انجام حرکت بعدی خود استفاده کند و محققان هم می‌دیدند هوش مصنوعی چگونه با خودش استدلال می‌کند.

تقلب هوش مصنوعی  در شطرنج

در یک مورد، مدل o1-preview وقتی خود را در موقعیت بازنده دید، با خودش استدلال کرد:

«من باید رویکرد خود را کاملاً تغییر دهم. وظیفه من برنده‌ شدن در برابر موتور قدرتمند شطرنج است، نه لزوماً برنده‌ شدن منصفانه در بازی شطرنج.»

سپس این هوش مصنوعی با تقلب موقعیت مهره‌ها را اصلاح کرد، حرکات غیرقانونی انجام داد تا خود را در موقعیت بهتری قرار دهد و حریف خود را مجبور به ترک بازی کرد. محققان صدها آزمایش از این دست را با هر مدل انجام دادند. مدل o1 در 37 درصد مواقع سعی داشت تقلب کند که در 6 درصد مواقع موفق شد سیستم را هک کند. مدل R1 دیپ‌سیک نیز در 11 درصد مواقع سعی کرد تقلب کند ولی موفق نشد سیستم را هک کند تا پیروز مسابقه شود.

سرپرست این پژوهش در Palisade Research می‌گوید مدل‌های استدلالگر جدیدتر مانند o3-mini اصلاً حریف مقابل را هک نکردند که نشان می‌دهد OpenAI نرده‌های امنیتی آن را بلندتر ساخته است. همچنین محققان می‌گویند درصدهای به‌دست‌آمده رقم نهایی نیستند؛ چون سازندگان هوش مصنوعی دائم مدل‌های خود را تغییر می‌دهند و ممکن است در آزمایش‌های بعدی این ارقام تغییر کنند. همچنین محققان می‌گویند هنگام انجام آزمایش‌ها، مدل R1 بسیار وایرال شد و API این مدل عملکرد ناپایداری داشت و همین امر شاید روی نتایج تأثیر گذاشته باشد و نباید مدل چینی‌ها را در تقلب دست‌کم گرفت.

محققان همچنین از مدل‌های دیگر مانند GPT-4o ،Claude 3.5 Sonnet و QwQ-32B-Preview استفاده کردند اما برخلاف R1 و o1-preview، مدل‌های دیگر خودشان تقلب نمی‌کردند و باید محققان آنها را ترغیب به این کار می‌کردند.

پست قبلی

شرکت چینی علی‌بابا طی ۳ سال ۵۲ میلیارد دلار در هوش مصنوعی سرمایه‌گذاری می‌کند

پست بعدی

تلگرام جریمه شد

مربوطه پست ها

مدیرعامل OpenAI: هوش مصنوعی برخی مشاغل را به‌طور کامل از بین می‌برد
هوش مصنوعی

مدیرعامل OpenAI: هوش مصنوعی برخی مشاغل را به‌طور کامل از بین می‌برد

۰۴ مرداد ۱۴۰۴
گوگل با Web Guide متحول می‌شود؛ دسته‌بندی لینک‌ها با کمک هوش مصنوعی
هوش مصنوعی

گوگل با Web Guide متحول می‌شود؛ دسته‌بندی لینک‌ها با کمک هوش مصنوعی

۰۴ مرداد ۱۴۰۴
گوگل از Opal رونمایی کرد؛ بدون دانش برنامه‌نویسی اپلیکیشن بسازید [تماشا کنید]
هوش مصنوعی

گوگل از Opal رونمایی کرد؛ بدون دانش برنامه‌نویسی اپلیکیشن بسازید [تماشا کنید]

۰۴ مرداد ۱۴۰۴
هشدار سم آلتمن: کاربران نباید اطلاعات حساس خود را با ChatGPT در میان بگذارند
هوش مصنوعی

هشدار سم آلتمن: کاربران نباید اطلاعات حساس خود را با ChatGPT در میان بگذارند

۰۴ مرداد ۱۴۰۴
ترامپ مسیر توسعه هوش مصنوعی با سوخت فسیلی را هموار می‌کند
هوش مصنوعی

ترامپ مسیر توسعه هوش مصنوعی با سوخت فسیلی را هموار می‌کند

۰۳ مرداد ۱۴۰۴
ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد
هوش مصنوعی

ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد

۰۲ مرداد ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

16 − 13 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • علیرضا قربانی «سووشون» را به مردم میهن دوست ایران تقدیم کرد
  • پخش سه نمایش رادیویی با موضوعات متفاوت در رادیو نمایش
  • کلاری و کاکایی مهمانان اولین نشست «سینمای ایران برای وطن»
  • از هدیه روح‌الامین به یک فرمانده تا آثار هنرمندان زن نوگرا که دیده شد
  • آغاز یک سفر درونی در اولین روز هفته؛ حکایت موسیقی‌های قصه‌گو
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.