سه شنبه, شهریور ۴, ۱۴۰۴
دانش جوین
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
  • ورود
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی سایر اخبار تکنولوژی

OpenAI به افزایش خطر تولید سلاح‌های بیولوژیکی با هوش مصنوعی o1 اذعان کرد

کارشناس روابط عمومی دیجیتال توسط کارشناس روابط عمومی دیجیتال
۰۴ مهر ۱۴۰۳
در سایر اخبار تکنولوژی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
A A
OpenAI به افزایش خطر تولید سلاح‌های بیولوژیکی با هوش مصنوعی o1 اذعان کرد
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاح‌های بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسک‌های این فناوری درحال پیشرفت به صدا درآورده‌اند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.

به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیت‌های جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این توانایی‌ها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشین‌هایی با شناخت سطح انسانی دیده می‌شود.

شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود می‌گوید مدل‌های جدید خطر متوسطی برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) دارند.

سطح «متوسط» بالاترین رده‌ای است که شرکت OpenAI تابه‌حال به مدل‌های خود داده؛ یعنی این فناوری «به‌طرز معناداری کمک‌هایی ارائه می‌کند که توانایی متخصصان در زمینه‌های پیشرفته مرتبط با CBRN را افزایش می‌دهد تا بتوانند تهدید CBRN ایجاد کنند.»

مدل هوش مصنوعی جدید OpenAI

به گفته کارشناسان، این نرم‌افزار هوش مصنوعی با قابلیت‌های پیشرفته‌تر، مانند توانایی اجرای استدلال‌های گام‌به‌گام، خطر سوءاستفاده بازیگران بد را افزایش می‌دهد.

این هشدارها درحالی مطرح‌شده که شرکت‌های فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستم‌های هوش مصنوعی پیشرفته رقابت می‌کنند؛ زیرا به‌دنبال ایجاد نرم‌افزاری هستند که بتواند در جایگاه «عامل‌هایی» اقدام کند که به انسان‌ها در تکمیل وظایف و هدایت زندگی‌شان کمک خواهد کرد.

لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن

این موضوع به تلاش‌هایی برای قانون‌گذاری درباره شرکت‌های هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحه‌ای به نام SB 1047 درگرفته است که از سازندگان مدل‌های هوش مصنوعی می‌خواهد اقداماتی را برای به‌حداقل‌رساندن خطر استفاده از مدل‌هایشان برای توسعه سلاح‌های بیولوژیکی انجام دهند.

برخی سرمایه‌گذاران خطرپذیر و گروه‌های فناوری، ازجمله شرکت OpenAI، هشدار داده‌اند این قانون پیشنهادی می‌تواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.

شاید برای شما جالب باشد

ساخت خانه دو طبقه در ۱۸ ساعت

هشدار/ کاربران گوشی‌های سامسونگ مراقب باگ بزرگ آپدیت One UI 8 باشند

مدیرعامل تلگرام: ترجیح می‌دهم بمیرم، اما پیام‌های کاربران را فاش نکنم

آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاح‌های بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسک‌های این فناوری درحال پیشرفت به صدا درآورده‌اند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.

به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیت‌های جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این توانایی‌ها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشین‌هایی با شناخت سطح انسانی دیده می‌شود.

شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود می‌گوید مدل‌های جدید خطر متوسطی برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) دارند.

سطح «متوسط» بالاترین رده‌ای است که شرکت OpenAI تابه‌حال به مدل‌های خود داده؛ یعنی این فناوری «به‌طرز معناداری کمک‌هایی ارائه می‌کند که توانایی متخصصان در زمینه‌های پیشرفته مرتبط با CBRN را افزایش می‌دهد تا بتوانند تهدید CBRN ایجاد کنند.»

مدل هوش مصنوعی جدید OpenAI

به گفته کارشناسان، این نرم‌افزار هوش مصنوعی با قابلیت‌های پیشرفته‌تر، مانند توانایی اجرای استدلال‌های گام‌به‌گام، خطر سوءاستفاده بازیگران بد را افزایش می‌دهد.

این هشدارها درحالی مطرح‌شده که شرکت‌های فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستم‌های هوش مصنوعی پیشرفته رقابت می‌کنند؛ زیرا به‌دنبال ایجاد نرم‌افزاری هستند که بتواند در جایگاه «عامل‌هایی» اقدام کند که به انسان‌ها در تکمیل وظایف و هدایت زندگی‌شان کمک خواهد کرد.

لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن

این موضوع به تلاش‌هایی برای قانون‌گذاری درباره شرکت‌های هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحه‌ای به نام SB 1047 درگرفته است که از سازندگان مدل‌های هوش مصنوعی می‌خواهد اقداماتی را برای به‌حداقل‌رساندن خطر استفاده از مدل‌هایشان برای توسعه سلاح‌های بیولوژیکی انجام دهند.

برخی سرمایه‌گذاران خطرپذیر و گروه‌های فناوری، ازجمله شرکت OpenAI، هشدار داده‌اند این قانون پیشنهادی می‌تواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.

پست قبلی

هشدار محقق هوش مصنوعی: با استفاده بی‌رویه از این فناوری درحال تسریع بحران اقلیم هستیم

پست بعدی

ایلان ماسک و بنیان‌گذار اوراکل برای دریافت تراشه به مدیرعامل انویدیا التماس کرده بودند

پست بعدی
ایلان ماسک و بنیان‌گذار اوراکل برای دریافت تراشه به مدیرعامل انویدیا التماس کرده بودند

ایلان ماسک و بنیان‌گذار اوراکل برای دریافت تراشه به مدیرعامل انویدیا التماس کرده بودند

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

سه × 4 =

15 − 5 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • برپایی کنسرت گروه روایت در خانه هنرمندان
  • فصل سوم مجموعه مستند «آئینه عمر» روی آنتن شبکه چهار
  • گلاب آدینه و علی قمصری با «داستان شهریار» به تالار وحدت می‌آیند
  • «راهبرد» نه هیجان‌زده نه منفعل؛ مجری باید متعهد، منصف و تحلیلگر باشد
  • «عشق در انفرادی» مسعود کیمیایی پروانه ساخت گرفت
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری
  • سنگ قبر
  • خرید کتاب زبا انگلیسی – قیمت کتاب زبان انگلیسی با تخفیف – کتاب آموزشی زبان انگلیسی

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمامی حقوق برای دانش جوین محفوظ بوده و کپی از آن پیگرد قانونی خواهد داشت