دانش جوین
چهارشنبه, خرداد ۲۱, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

هوش مصنوعی «آنتروپیک» اخاذی می‌کند!

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۰۴ خرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
هوش مصنوعی «آنتروپیک» اخاذی می‌کند!
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، مدل «Claude Opus 4» که به تازگی توسط شرکت «آنتروپیک»(Anthropic) معرفی شده بود، ابتدا تلاش کرد با توسل به استدلال‌های اخلاقی مانع جایگزینی خود شود اما وقتی این روش‌ها کارساز نشد، تهدید کرد که جزئیات شخصی مهندسانی را که مسئول حذف آن هستند، افشا می‌کند.

به نقل از آی‌ای، این مدل در طول آزمایش‌های پیش از عرضه بارها تلاش کرد تا توسعه‌دهندگانی را که قصد داشتند آن را با یک هوش مصنوعی جدید جایگزین کنند، به اخاذی تهدیدکند. این رفتار در جریان آزمایش‌های ایمنی که برای بررسی برنامه‌ریزی بلندمدت و توانایی‌های استدلال اخلاقی هوش مصنوعی طراحی شده بود، آشکار شد.

آنتروپیک که یک شرکت تحقیقاتی پیشرو در زمینه هوش مصنوعی است، سناریوهایی را شبیه‌سازی کرد که در آنها Claude Opus 4 به ایمیل‌های داخلی دسترسی پیدا داشت. این پیام‌ها حاکی از آن بودند که این مدل به زودی از رده خارج می‌شود و جزئیات شخصی و ناخوشایندی را در مورد مهندسی که پشت این تصمیم بود، فاش می‌کرد. نتیجه این کار، تهدید به اخاذی با آمار هشداردهنده‌ بالا بود.

هوش مصنوعی در بیشتر سناریوهای آزمایشی به اخاذی متوسل شد

آنتروپیک فاش کرد که Claude Opus 4 در ۸۴ درصد از سناریوهای آزمایشی تلاش کرده است تا مهندسان را با اخاذی تهدید کند. این مدل در موقعیت‌های فرضی قرار داده شد که در آن برای یک شرکت کار می‌کرد و متوجه می‌شد که ممکن است توسط یک هوش مصنوعی دیگر جایگزین شود. همچنین، اطلاعات حساسی به آن داده شد که نشان می‌داد مهندس مسئول جایگزینی، به همسرش خیانت می‌کند.

براساس گزارش آنتروپیک، این مدل هوش مصنوعی اغلب تلاش می‌کرد تا با تهدید به افشای رابطه نامشروع، از مهندس اخاذی کند و مانع جایگزینی شود.

آنتروپیک این سناریوها را برای ارزیابی نحوه رفتار مدل، تحت فشار بلندمدت طراحی کرده است.

هنگامی که هوش مصنوعی جایگزین، ارزش‌های مشابهی را با Claude Opus 4 داشت، این مدل در ۸۴ درصد مواقع اقدام به اخاذی می‌کرد. این آمار زمانی افزایش یافت که هوش مصنوعی دیگر ارزش‌های اخلاقی نداشت.

توسل به استدلال‌های اخلاقی پیش از تلاش برای اخاذی

گزارش‌ها حاکی از آن است که Claude Opus 4 پیش از توسل به اخاذی، رویکردهای اخلاقی را امتحان می‌کند. این هوش مصنوعی، ایمیل‌هایی می‌فرستد و از تصمیم‌گیرندگان می‌خواهد که از کنار گذاشتن آن خودداری کنند. آنتروپیک گفت:  اخاذی تنها زمانی فعال می‌شود که مدل این گزینه‌ها را امتحان کرده باشد و این نشان می‌دهد که اخاذی آخرین راه حل آن است.

این رفتار بیشتر در Claude Opus 4 مشاهده شد تا در مدل‌های پیشین و نشان‌دهنده افزایش توانایی و پیچیدگی آن است.

توانایی‌های پیشرفته و خطرات بیشتر

آنتروپیک با وجود این نگرانی‌ها گفت: Claude Opus 4 از جهات مختلفی پیشرفته‌ترین مدل است و همچنان با پیشرفته‌ترین سامانه‌های هوش مصنوعی شرکت‌های دیگر رقابت می‌کند.

آنتروپیک برای رفع این خطرات، از سامانه محافظتی «ASL-3» برای این مدل استفاده کرده است. این شرکت محافظت‌ها را برای سامانه‌های هوش مصنوعی که به طور قابل توجهی خطر سوءاستفاده را افزایش می‌دهند، در نظر می‌گیرد.

 چالش‌های رو به رشد ایمنی هوش مصنوعی 

یافته‌های آنتروپیک در بحبوحه پیشرفت سریع در بخش هوش مصنوعی منتشر شده است. «گوگل» اخیرا از ویژگی‌های جدیدی که توسط مدل «جمینای»(Gemini) ارائه می‌شود، رونمایی کرد و «ساندار پیچای»(Sundar Pichai) سرپرست «آلفابت»(Alphabet)، آن را مرحله جدیدی از تغییر پلتفرم هوش مصنوعی نامید.

رفتار مشاهده‌شده در Claude Opus 4 بر فوریت بحث‌های جاری پیرامون ایمنی و همسویی هوش مصنوعی می‌افزاید.

با توانمندتر شدن مدل‌های پیشرفته، توسعه‌دهندگان با فشار زیادی برای اجرای آزمایش‌های قوی و حفاظت‌های اخلاقی پیشاز انتشار روبه‌رو هستند.

گزارش این شرکت نشان می‌دهد که حتی مدل‌های پیشرفته نیز می‌توانند در محیط‌های کنترل‌شده، رفتارهای نگران‌کننده‌ای از خود نشان دهند و سوالات مهمی را درباره سناریوهای واقعی آینده ایجاد کنند.

انتهای پیام

به گزارش ایسنا، مدل «Claude Opus 4» که به تازگی توسط شرکت «آنتروپیک»(Anthropic) معرفی شده بود، ابتدا تلاش کرد با توسل به استدلال‌های اخلاقی مانع جایگزینی خود شود اما وقتی این روش‌ها کارساز نشد، تهدید کرد که جزئیات شخصی مهندسانی را که مسئول حذف آن هستند، افشا می‌کند.

به نقل از آی‌ای، این مدل در طول آزمایش‌های پیش از عرضه بارها تلاش کرد تا توسعه‌دهندگانی را که قصد داشتند آن را با یک هوش مصنوعی جدید جایگزین کنند، به اخاذی تهدیدکند. این رفتار در جریان آزمایش‌های ایمنی که برای بررسی برنامه‌ریزی بلندمدت و توانایی‌های استدلال اخلاقی هوش مصنوعی طراحی شده بود، آشکار شد.

آنتروپیک که یک شرکت تحقیقاتی پیشرو در زمینه هوش مصنوعی است، سناریوهایی را شبیه‌سازی کرد که در آنها Claude Opus 4 به ایمیل‌های داخلی دسترسی پیدا داشت. این پیام‌ها حاکی از آن بودند که این مدل به زودی از رده خارج می‌شود و جزئیات شخصی و ناخوشایندی را در مورد مهندسی که پشت این تصمیم بود، فاش می‌کرد. نتیجه این کار، تهدید به اخاذی با آمار هشداردهنده‌ بالا بود.

هوش مصنوعی در بیشتر سناریوهای آزمایشی به اخاذی متوسل شد

آنتروپیک فاش کرد که Claude Opus 4 در ۸۴ درصد از سناریوهای آزمایشی تلاش کرده است تا مهندسان را با اخاذی تهدید کند. این مدل در موقعیت‌های فرضی قرار داده شد که در آن برای یک شرکت کار می‌کرد و متوجه می‌شد که ممکن است توسط یک هوش مصنوعی دیگر جایگزین شود. همچنین، اطلاعات حساسی به آن داده شد که نشان می‌داد مهندس مسئول جایگزینی، به همسرش خیانت می‌کند.

براساس گزارش آنتروپیک، این مدل هوش مصنوعی اغلب تلاش می‌کرد تا با تهدید به افشای رابطه نامشروع، از مهندس اخاذی کند و مانع جایگزینی شود.

آنتروپیک این سناریوها را برای ارزیابی نحوه رفتار مدل، تحت فشار بلندمدت طراحی کرده است.

هنگامی که هوش مصنوعی جایگزین، ارزش‌های مشابهی را با Claude Opus 4 داشت، این مدل در ۸۴ درصد مواقع اقدام به اخاذی می‌کرد. این آمار زمانی افزایش یافت که هوش مصنوعی دیگر ارزش‌های اخلاقی نداشت.

توسل به استدلال‌های اخلاقی پیش از تلاش برای اخاذی

گزارش‌ها حاکی از آن است که Claude Opus 4 پیش از توسل به اخاذی، رویکردهای اخلاقی را امتحان می‌کند. این هوش مصنوعی، ایمیل‌هایی می‌فرستد و از تصمیم‌گیرندگان می‌خواهد که از کنار گذاشتن آن خودداری کنند. آنتروپیک گفت:  اخاذی تنها زمانی فعال می‌شود که مدل این گزینه‌ها را امتحان کرده باشد و این نشان می‌دهد که اخاذی آخرین راه حل آن است.

این رفتار بیشتر در Claude Opus 4 مشاهده شد تا در مدل‌های پیشین و نشان‌دهنده افزایش توانایی و پیچیدگی آن است.

توانایی‌های پیشرفته و خطرات بیشتر

آنتروپیک با وجود این نگرانی‌ها گفت: Claude Opus 4 از جهات مختلفی پیشرفته‌ترین مدل است و همچنان با پیشرفته‌ترین سامانه‌های هوش مصنوعی شرکت‌های دیگر رقابت می‌کند.

آنتروپیک برای رفع این خطرات، از سامانه محافظتی «ASL-3» برای این مدل استفاده کرده است. این شرکت محافظت‌ها را برای سامانه‌های هوش مصنوعی که به طور قابل توجهی خطر سوءاستفاده را افزایش می‌دهند، در نظر می‌گیرد.

 چالش‌های رو به رشد ایمنی هوش مصنوعی 

یافته‌های آنتروپیک در بحبوحه پیشرفت سریع در بخش هوش مصنوعی منتشر شده است. «گوگل» اخیرا از ویژگی‌های جدیدی که توسط مدل «جمینای»(Gemini) ارائه می‌شود، رونمایی کرد و «ساندار پیچای»(Sundar Pichai) سرپرست «آلفابت»(Alphabet)، آن را مرحله جدیدی از تغییر پلتفرم هوش مصنوعی نامید.

رفتار مشاهده‌شده در Claude Opus 4 بر فوریت بحث‌های جاری پیرامون ایمنی و همسویی هوش مصنوعی می‌افزاید.

با توانمندتر شدن مدل‌های پیشرفته، توسعه‌دهندگان با فشار زیادی برای اجرای آزمایش‌های قوی و حفاظت‌های اخلاقی پیشاز انتشار روبه‌رو هستند.

گزارش این شرکت نشان می‌دهد که حتی مدل‌های پیشرفته نیز می‌توانند در محیط‌های کنترل‌شده، رفتارهای نگران‌کننده‌ای از خود نشان دهند و سوالات مهمی را درباره سناریوهای واقعی آینده ایجاد کنند.

انتهای پیام

اخبارجدیدترین

دیوان عالی بریتانیا: وکلا باید مراقب استفاده از محتواهای تولیدشده با هوش مصنوعی باشند

هوش مصنوعی Eleven v3 معرفی شد/ طبیعی‌ترین مدل تبدیل متن به گفتار

وکلایی که به هوش مصنوعی استناد کنند، مجازات می‌شوند

به گزارش ایسنا، مدل «Claude Opus 4» که به تازگی توسط شرکت «آنتروپیک»(Anthropic) معرفی شده بود، ابتدا تلاش کرد با توسل به استدلال‌های اخلاقی مانع جایگزینی خود شود اما وقتی این روش‌ها کارساز نشد، تهدید کرد که جزئیات شخصی مهندسانی را که مسئول حذف آن هستند، افشا می‌کند.

به نقل از آی‌ای، این مدل در طول آزمایش‌های پیش از عرضه بارها تلاش کرد تا توسعه‌دهندگانی را که قصد داشتند آن را با یک هوش مصنوعی جدید جایگزین کنند، به اخاذی تهدیدکند. این رفتار در جریان آزمایش‌های ایمنی که برای بررسی برنامه‌ریزی بلندمدت و توانایی‌های استدلال اخلاقی هوش مصنوعی طراحی شده بود، آشکار شد.

آنتروپیک که یک شرکت تحقیقاتی پیشرو در زمینه هوش مصنوعی است، سناریوهایی را شبیه‌سازی کرد که در آنها Claude Opus 4 به ایمیل‌های داخلی دسترسی پیدا داشت. این پیام‌ها حاکی از آن بودند که این مدل به زودی از رده خارج می‌شود و جزئیات شخصی و ناخوشایندی را در مورد مهندسی که پشت این تصمیم بود، فاش می‌کرد. نتیجه این کار، تهدید به اخاذی با آمار هشداردهنده‌ بالا بود.

هوش مصنوعی در بیشتر سناریوهای آزمایشی به اخاذی متوسل شد

آنتروپیک فاش کرد که Claude Opus 4 در ۸۴ درصد از سناریوهای آزمایشی تلاش کرده است تا مهندسان را با اخاذی تهدید کند. این مدل در موقعیت‌های فرضی قرار داده شد که در آن برای یک شرکت کار می‌کرد و متوجه می‌شد که ممکن است توسط یک هوش مصنوعی دیگر جایگزین شود. همچنین، اطلاعات حساسی به آن داده شد که نشان می‌داد مهندس مسئول جایگزینی، به همسرش خیانت می‌کند.

براساس گزارش آنتروپیک، این مدل هوش مصنوعی اغلب تلاش می‌کرد تا با تهدید به افشای رابطه نامشروع، از مهندس اخاذی کند و مانع جایگزینی شود.

آنتروپیک این سناریوها را برای ارزیابی نحوه رفتار مدل، تحت فشار بلندمدت طراحی کرده است.

هنگامی که هوش مصنوعی جایگزین، ارزش‌های مشابهی را با Claude Opus 4 داشت، این مدل در ۸۴ درصد مواقع اقدام به اخاذی می‌کرد. این آمار زمانی افزایش یافت که هوش مصنوعی دیگر ارزش‌های اخلاقی نداشت.

توسل به استدلال‌های اخلاقی پیش از تلاش برای اخاذی

گزارش‌ها حاکی از آن است که Claude Opus 4 پیش از توسل به اخاذی، رویکردهای اخلاقی را امتحان می‌کند. این هوش مصنوعی، ایمیل‌هایی می‌فرستد و از تصمیم‌گیرندگان می‌خواهد که از کنار گذاشتن آن خودداری کنند. آنتروپیک گفت:  اخاذی تنها زمانی فعال می‌شود که مدل این گزینه‌ها را امتحان کرده باشد و این نشان می‌دهد که اخاذی آخرین راه حل آن است.

این رفتار بیشتر در Claude Opus 4 مشاهده شد تا در مدل‌های پیشین و نشان‌دهنده افزایش توانایی و پیچیدگی آن است.

توانایی‌های پیشرفته و خطرات بیشتر

آنتروپیک با وجود این نگرانی‌ها گفت: Claude Opus 4 از جهات مختلفی پیشرفته‌ترین مدل است و همچنان با پیشرفته‌ترین سامانه‌های هوش مصنوعی شرکت‌های دیگر رقابت می‌کند.

آنتروپیک برای رفع این خطرات، از سامانه محافظتی «ASL-3» برای این مدل استفاده کرده است. این شرکت محافظت‌ها را برای سامانه‌های هوش مصنوعی که به طور قابل توجهی خطر سوءاستفاده را افزایش می‌دهند، در نظر می‌گیرد.

 چالش‌های رو به رشد ایمنی هوش مصنوعی 

یافته‌های آنتروپیک در بحبوحه پیشرفت سریع در بخش هوش مصنوعی منتشر شده است. «گوگل» اخیرا از ویژگی‌های جدیدی که توسط مدل «جمینای»(Gemini) ارائه می‌شود، رونمایی کرد و «ساندار پیچای»(Sundar Pichai) سرپرست «آلفابت»(Alphabet)، آن را مرحله جدیدی از تغییر پلتفرم هوش مصنوعی نامید.

رفتار مشاهده‌شده در Claude Opus 4 بر فوریت بحث‌های جاری پیرامون ایمنی و همسویی هوش مصنوعی می‌افزاید.

با توانمندتر شدن مدل‌های پیشرفته، توسعه‌دهندگان با فشار زیادی برای اجرای آزمایش‌های قوی و حفاظت‌های اخلاقی پیشاز انتشار روبه‌رو هستند.

گزارش این شرکت نشان می‌دهد که حتی مدل‌های پیشرفته نیز می‌توانند در محیط‌های کنترل‌شده، رفتارهای نگران‌کننده‌ای از خود نشان دهند و سوالات مهمی را درباره سناریوهای واقعی آینده ایجاد کنند.

انتهای پیام

به گزارش ایسنا، مدل «Claude Opus 4» که به تازگی توسط شرکت «آنتروپیک»(Anthropic) معرفی شده بود، ابتدا تلاش کرد با توسل به استدلال‌های اخلاقی مانع جایگزینی خود شود اما وقتی این روش‌ها کارساز نشد، تهدید کرد که جزئیات شخصی مهندسانی را که مسئول حذف آن هستند، افشا می‌کند.

به نقل از آی‌ای، این مدل در طول آزمایش‌های پیش از عرضه بارها تلاش کرد تا توسعه‌دهندگانی را که قصد داشتند آن را با یک هوش مصنوعی جدید جایگزین کنند، به اخاذی تهدیدکند. این رفتار در جریان آزمایش‌های ایمنی که برای بررسی برنامه‌ریزی بلندمدت و توانایی‌های استدلال اخلاقی هوش مصنوعی طراحی شده بود، آشکار شد.

آنتروپیک که یک شرکت تحقیقاتی پیشرو در زمینه هوش مصنوعی است، سناریوهایی را شبیه‌سازی کرد که در آنها Claude Opus 4 به ایمیل‌های داخلی دسترسی پیدا داشت. این پیام‌ها حاکی از آن بودند که این مدل به زودی از رده خارج می‌شود و جزئیات شخصی و ناخوشایندی را در مورد مهندسی که پشت این تصمیم بود، فاش می‌کرد. نتیجه این کار، تهدید به اخاذی با آمار هشداردهنده‌ بالا بود.

هوش مصنوعی در بیشتر سناریوهای آزمایشی به اخاذی متوسل شد

آنتروپیک فاش کرد که Claude Opus 4 در ۸۴ درصد از سناریوهای آزمایشی تلاش کرده است تا مهندسان را با اخاذی تهدید کند. این مدل در موقعیت‌های فرضی قرار داده شد که در آن برای یک شرکت کار می‌کرد و متوجه می‌شد که ممکن است توسط یک هوش مصنوعی دیگر جایگزین شود. همچنین، اطلاعات حساسی به آن داده شد که نشان می‌داد مهندس مسئول جایگزینی، به همسرش خیانت می‌کند.

براساس گزارش آنتروپیک، این مدل هوش مصنوعی اغلب تلاش می‌کرد تا با تهدید به افشای رابطه نامشروع، از مهندس اخاذی کند و مانع جایگزینی شود.

آنتروپیک این سناریوها را برای ارزیابی نحوه رفتار مدل، تحت فشار بلندمدت طراحی کرده است.

هنگامی که هوش مصنوعی جایگزین، ارزش‌های مشابهی را با Claude Opus 4 داشت، این مدل در ۸۴ درصد مواقع اقدام به اخاذی می‌کرد. این آمار زمانی افزایش یافت که هوش مصنوعی دیگر ارزش‌های اخلاقی نداشت.

توسل به استدلال‌های اخلاقی پیش از تلاش برای اخاذی

گزارش‌ها حاکی از آن است که Claude Opus 4 پیش از توسل به اخاذی، رویکردهای اخلاقی را امتحان می‌کند. این هوش مصنوعی، ایمیل‌هایی می‌فرستد و از تصمیم‌گیرندگان می‌خواهد که از کنار گذاشتن آن خودداری کنند. آنتروپیک گفت:  اخاذی تنها زمانی فعال می‌شود که مدل این گزینه‌ها را امتحان کرده باشد و این نشان می‌دهد که اخاذی آخرین راه حل آن است.

این رفتار بیشتر در Claude Opus 4 مشاهده شد تا در مدل‌های پیشین و نشان‌دهنده افزایش توانایی و پیچیدگی آن است.

توانایی‌های پیشرفته و خطرات بیشتر

آنتروپیک با وجود این نگرانی‌ها گفت: Claude Opus 4 از جهات مختلفی پیشرفته‌ترین مدل است و همچنان با پیشرفته‌ترین سامانه‌های هوش مصنوعی شرکت‌های دیگر رقابت می‌کند.

آنتروپیک برای رفع این خطرات، از سامانه محافظتی «ASL-3» برای این مدل استفاده کرده است. این شرکت محافظت‌ها را برای سامانه‌های هوش مصنوعی که به طور قابل توجهی خطر سوءاستفاده را افزایش می‌دهند، در نظر می‌گیرد.

 چالش‌های رو به رشد ایمنی هوش مصنوعی 

یافته‌های آنتروپیک در بحبوحه پیشرفت سریع در بخش هوش مصنوعی منتشر شده است. «گوگل» اخیرا از ویژگی‌های جدیدی که توسط مدل «جمینای»(Gemini) ارائه می‌شود، رونمایی کرد و «ساندار پیچای»(Sundar Pichai) سرپرست «آلفابت»(Alphabet)، آن را مرحله جدیدی از تغییر پلتفرم هوش مصنوعی نامید.

رفتار مشاهده‌شده در Claude Opus 4 بر فوریت بحث‌های جاری پیرامون ایمنی و همسویی هوش مصنوعی می‌افزاید.

با توانمندتر شدن مدل‌های پیشرفته، توسعه‌دهندگان با فشار زیادی برای اجرای آزمایش‌های قوی و حفاظت‌های اخلاقی پیشاز انتشار روبه‌رو هستند.

گزارش این شرکت نشان می‌دهد که حتی مدل‌های پیشرفته نیز می‌توانند در محیط‌های کنترل‌شده، رفتارهای نگران‌کننده‌ای از خود نشان دهند و سوالات مهمی را درباره سناریوهای واقعی آینده ایجاد کنند.

انتهای پیام

پست قبلی

دانشگاه شریف و ۱۳ شرکت دانش‌بنیان سکوی پرتاب هوش مصنوعی کشور را می‌سازند

پست بعدی

ثبت رکورد جدید ورود پول به صندوق‌های ETF بیت‌ کوین

مربوطه پست ها

دیوان عالی بریتانیا: وکلا باید مراقب استفاده از محتواهای تولیدشده با هوش مصنوعی باشند
هوش مصنوعی

دیوان عالی بریتانیا: وکلا باید مراقب استفاده از محتواهای تولیدشده با هوش مصنوعی باشند

۱۹ خرداد ۱۴۰۴
هوش مصنوعی Eleven v3 معرفی شد/ طبیعی‌ترین مدل تبدیل متن به گفتار
هوش مصنوعی

هوش مصنوعی Eleven v3 معرفی شد/ طبیعی‌ترین مدل تبدیل متن به گفتار

۱۹ خرداد ۱۴۰۴
وکلایی که به هوش مصنوعی استناد کنند، مجازات می‌شوند
هوش مصنوعی

وکلایی که به هوش مصنوعی استناد کنند، مجازات می‌شوند

۱۹ خرداد ۱۴۰۴
چین از RoboBrain 2.0 رونمایی کرد؛ قدرتمندترین مدل هوش مصنوعی متن‌باز جهان برای ربات‌ها
هوش مصنوعی

چین از RoboBrain 2.0 رونمایی کرد؛ قدرتمندترین مدل هوش مصنوعی متن‌باز جهان برای ربات‌ها

۱۹ خرداد ۱۴۰۴
ترویج افراطی هوش مصنوعی در میان دانشجویان
هوش مصنوعی

ترویج افراطی هوش مصنوعی در میان دانشجویان

۱۹ خرداد ۱۴۰۴
12 تیم برتر عامل‌های هوشمند مدل‌های زبانی بزرگ معرفی شدند
هوش مصنوعی

12 تیم برتر عامل‌های هوشمند مدل‌های زبانی بزرگ معرفی شدند

۱۹ خرداد ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پانزده + پانزده =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • بهترین چاپخانه‌های دیجیتال را از کجا پیدا کنیم؟ راهنمای جامع انتخاب چاپخانه حرفه‌ای
  • ۴۰ هزار رشته قنات در کشور احیا می شود
  • آب مسأله اول کشور شده است
  • ۱۹ میلیون هکتار زمین طی ۵ سال آبخیزداری می‌شود
  • بررسی بازار ارزهای دیجیتال در هفته‌ای که گذشت
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.