دانش جوین
سه شنبه, تیر ۱۷, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی سایر اخبار تکنولوژی

OpenAI به افزایش خطر تولید سلاح‌های بیولوژیکی با هوش مصنوعی o1 اذعان کرد

کارشناس روابط عمومی دیجیتال توسط کارشناس روابط عمومی دیجیتال
۰۴ مهر ۱۴۰۳
در سایر اخبار تکنولوژی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
OpenAI به افزایش خطر تولید سلاح‌های بیولوژیکی با هوش مصنوعی o1 اذعان کرد
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاح‌های بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسک‌های این فناوری درحال پیشرفت به صدا درآورده‌اند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.

به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیت‌های جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این توانایی‌ها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشین‌هایی با شناخت سطح انسانی دیده می‌شود.

شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود می‌گوید مدل‌های جدید خطر متوسطی برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) دارند.

سطح «متوسط» بالاترین رده‌ای است که شرکت OpenAI تابه‌حال به مدل‌های خود داده؛ یعنی این فناوری «به‌طرز معناداری کمک‌هایی ارائه می‌کند که توانایی متخصصان در زمینه‌های پیشرفته مرتبط با CBRN را افزایش می‌دهد تا بتوانند تهدید CBRN ایجاد کنند.»

مدل هوش مصنوعی جدید OpenAI

به گفته کارشناسان، این نرم‌افزار هوش مصنوعی با قابلیت‌های پیشرفته‌تر، مانند توانایی اجرای استدلال‌های گام‌به‌گام، خطر سوءاستفاده بازیگران بد را افزایش می‌دهد.

این هشدارها درحالی مطرح‌شده که شرکت‌های فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستم‌های هوش مصنوعی پیشرفته رقابت می‌کنند؛ زیرا به‌دنبال ایجاد نرم‌افزاری هستند که بتواند در جایگاه «عامل‌هایی» اقدام کند که به انسان‌ها در تکمیل وظایف و هدایت زندگی‌شان کمک خواهد کرد.

لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن

این موضوع به تلاش‌هایی برای قانون‌گذاری درباره شرکت‌های هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحه‌ای به نام SB 1047 درگرفته است که از سازندگان مدل‌های هوش مصنوعی می‌خواهد اقداماتی را برای به‌حداقل‌رساندن خطر استفاده از مدل‌هایشان برای توسعه سلاح‌های بیولوژیکی انجام دهند.

برخی سرمایه‌گذاران خطرپذیر و گروه‌های فناوری، ازجمله شرکت OpenAI، هشدار داده‌اند این قانون پیشنهادی می‌تواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.

آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاح‌های بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسک‌های این فناوری درحال پیشرفت به صدا درآورده‌اند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.

به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیت‌های جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این توانایی‌ها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشین‌هایی با شناخت سطح انسانی دیده می‌شود.

شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود می‌گوید مدل‌های جدید خطر متوسطی برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) دارند.

سطح «متوسط» بالاترین رده‌ای است که شرکت OpenAI تابه‌حال به مدل‌های خود داده؛ یعنی این فناوری «به‌طرز معناداری کمک‌هایی ارائه می‌کند که توانایی متخصصان در زمینه‌های پیشرفته مرتبط با CBRN را افزایش می‌دهد تا بتوانند تهدید CBRN ایجاد کنند.»

مدل هوش مصنوعی جدید OpenAI

به گفته کارشناسان، این نرم‌افزار هوش مصنوعی با قابلیت‌های پیشرفته‌تر، مانند توانایی اجرای استدلال‌های گام‌به‌گام، خطر سوءاستفاده بازیگران بد را افزایش می‌دهد.

این هشدارها درحالی مطرح‌شده که شرکت‌های فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستم‌های هوش مصنوعی پیشرفته رقابت می‌کنند؛ زیرا به‌دنبال ایجاد نرم‌افزاری هستند که بتواند در جایگاه «عامل‌هایی» اقدام کند که به انسان‌ها در تکمیل وظایف و هدایت زندگی‌شان کمک خواهد کرد.

لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن

این موضوع به تلاش‌هایی برای قانون‌گذاری درباره شرکت‌های هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحه‌ای به نام SB 1047 درگرفته است که از سازندگان مدل‌های هوش مصنوعی می‌خواهد اقداماتی را برای به‌حداقل‌رساندن خطر استفاده از مدل‌هایشان برای توسعه سلاح‌های بیولوژیکی انجام دهند.

برخی سرمایه‌گذاران خطرپذیر و گروه‌های فناوری، ازجمله شرکت OpenAI، هشدار داده‌اند این قانون پیشنهادی می‌تواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.

اخبارجدیدترین

عکس | این گوشی، آیفون ۱۷ است؟

جک دورسی از Bitchat رونمایی کرد/ پیام‌رسانی بدون نیاز به اینترنت

مایکروسافت پس از ۲۵ سال فعالیت، پاکستان را ترک کرد

آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاح‌های بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسک‌های این فناوری درحال پیشرفت به صدا درآورده‌اند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.

به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیت‌های جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این توانایی‌ها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشین‌هایی با شناخت سطح انسانی دیده می‌شود.

شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود می‌گوید مدل‌های جدید خطر متوسطی برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) دارند.

سطح «متوسط» بالاترین رده‌ای است که شرکت OpenAI تابه‌حال به مدل‌های خود داده؛ یعنی این فناوری «به‌طرز معناداری کمک‌هایی ارائه می‌کند که توانایی متخصصان در زمینه‌های پیشرفته مرتبط با CBRN را افزایش می‌دهد تا بتوانند تهدید CBRN ایجاد کنند.»

مدل هوش مصنوعی جدید OpenAI

به گفته کارشناسان، این نرم‌افزار هوش مصنوعی با قابلیت‌های پیشرفته‌تر، مانند توانایی اجرای استدلال‌های گام‌به‌گام، خطر سوءاستفاده بازیگران بد را افزایش می‌دهد.

این هشدارها درحالی مطرح‌شده که شرکت‌های فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستم‌های هوش مصنوعی پیشرفته رقابت می‌کنند؛ زیرا به‌دنبال ایجاد نرم‌افزاری هستند که بتواند در جایگاه «عامل‌هایی» اقدام کند که به انسان‌ها در تکمیل وظایف و هدایت زندگی‌شان کمک خواهد کرد.

لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن

این موضوع به تلاش‌هایی برای قانون‌گذاری درباره شرکت‌های هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحه‌ای به نام SB 1047 درگرفته است که از سازندگان مدل‌های هوش مصنوعی می‌خواهد اقداماتی را برای به‌حداقل‌رساندن خطر استفاده از مدل‌هایشان برای توسعه سلاح‌های بیولوژیکی انجام دهند.

برخی سرمایه‌گذاران خطرپذیر و گروه‌های فناوری، ازجمله شرکت OpenAI، هشدار داده‌اند این قانون پیشنهادی می‌تواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.

آخرین مدل هوش مصنوعی شرکت OpenAI با افزایش خطر سوءاستفاده برای ساخت سلاح‌های بیولوژیکی مواجه است و محققان امنیتی زنگ خطر را برای ریسک‌های این فناوری درحال پیشرفت به صدا درآورده‌اند. جالب این است که خود OpenAI نیز از این خطرات آگاه است و به آن اذعان کرده.

به گزارش Financial Times، شرکت OpenAI مدل جدید خود را با نام o1 پنجشنبه معرفی کرد و از قابلیت‌های جدیدی برای استدلال، حل مسائل سخت ریاضی و پاسخ به سؤالات تحقیقات علمی خبر داد. این توانایی‌ها پیشرفتی حیاتی برای ایجاد هوش جامع مصنوعی یا ماشین‌هایی با شناخت سطح انسانی دیده می‌شود.

شرکت OpenAI در بخشی از ابزار توضیح نحوه عملکرد هوش مصنوعی خود می‌گوید مدل‌های جدید خطر متوسطی برای مسائل مربوط به سلاح‌های شیمیایی، بیولوژیکی، رادیولوژیکی و هسته‌ای (CBRN) دارند.

سطح «متوسط» بالاترین رده‌ای است که شرکت OpenAI تابه‌حال به مدل‌های خود داده؛ یعنی این فناوری «به‌طرز معناداری کمک‌هایی ارائه می‌کند که توانایی متخصصان در زمینه‌های پیشرفته مرتبط با CBRN را افزایش می‌دهد تا بتوانند تهدید CBRN ایجاد کنند.»

مدل هوش مصنوعی جدید OpenAI

به گفته کارشناسان، این نرم‌افزار هوش مصنوعی با قابلیت‌های پیشرفته‌تر، مانند توانایی اجرای استدلال‌های گام‌به‌گام، خطر سوءاستفاده بازیگران بد را افزایش می‌دهد.

این هشدارها درحالی مطرح‌شده که شرکت‌های فناوری ازجمله گوگل، متا و انتروپیک برای ساخت و بهبود سیستم‌های هوش مصنوعی پیشرفته رقابت می‌کنند؛ زیرا به‌دنبال ایجاد نرم‌افزاری هستند که بتواند در جایگاه «عامل‌هایی» اقدام کند که به انسان‌ها در تکمیل وظایف و هدایت زندگی‌شان کمک خواهد کرد.

لایحه SB 1047 کالیفرنیا و مخالفت شرکت OpenAI با آن

این موضوع به تلاش‌هایی برای قانون‌گذاری درباره شرکت‌های هوش مصنوعی منجر شده است. در کالیفرنیا، بحثی پیرامون لایحه‌ای به نام SB 1047 درگرفته است که از سازندگان مدل‌های هوش مصنوعی می‌خواهد اقداماتی را برای به‌حداقل‌رساندن خطر استفاده از مدل‌هایشان برای توسعه سلاح‌های بیولوژیکی انجام دهند.

برخی سرمایه‌گذاران خطرپذیر و گروه‌های فناوری، ازجمله شرکت OpenAI، هشدار داده‌اند این قانون پیشنهادی می‌تواند تأثیر وحشتناکی بر صنعت هوش مصنوعی داشته باشد. «گاوین نیوسام»، فرماندار کالیفرنیا، باید طی روزهای آینده تصمیم بگیرد این قانون را امضا کند یا وتو.

پست قبلی

هشدار محقق هوش مصنوعی: با استفاده بی‌رویه از این فناوری درحال تسریع بحران اقلیم هستیم

پست بعدی

ایلان ماسک و بنیان‌گذار اوراکل برای دریافت تراشه به مدیرعامل انویدیا التماس کرده بودند

مربوطه پست ها

عکس | این گوشی، آیفون ۱۷ است؟
سایر اخبار تکنولوژی

عکس | این گوشی، آیفون ۱۷ است؟

۱۷ تیر ۱۴۰۴
جک دورسی از Bitchat رونمایی کرد/ پیام‌رسانی بدون نیاز به اینترنت
سایر اخبار تکنولوژی

جک دورسی از Bitchat رونمایی کرد/ پیام‌رسانی بدون نیاز به اینترنت

۱۷ تیر ۱۴۰۴
مایکروسافت پس از ۲۵ سال فعالیت، پاکستان را ترک کرد
سایر اخبار تکنولوژی

مایکروسافت پس از ۲۵ سال فعالیت، پاکستان را ترک کرد

۱۷ تیر ۱۴۰۴
ویژگی‌ آزاردهنده مرورگر مایکروسافت حذف شد
سایر اخبار تکنولوژی

ویژگی‌ آزاردهنده مرورگر مایکروسافت حذف شد

۱۵ تیر ۱۴۰۴
گوگل را فراموش کنید؛ «هوگل» امنیت بیشتری دارد
سایر اخبار تکنولوژی

گوگل را فراموش کنید؛ «هوگل» امنیت بیشتری دارد

۱۵ تیر ۱۴۰۴
«تاکسی‌بات» ایرباس؛ فناوری جدید برای کاهش ۸۵ درصدی مصرف سوخت در فرودگاه‌ها
سایر اخبار تکنولوژی

«تاکسی‌بات» ایرباس؛ فناوری جدید برای کاهش ۸۵ درصدی مصرف سوخت در فرودگاه‌ها

۱۵ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

2 × دو =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • تهیه‌کننده آمریکایی: ترامپ دیکتاتور و نوچه‌هایش را بیرون می‌کنیم
  • ۲۰ سخنرانی عاشورایی در ایران‌صدا؛ «با کاروان محرم» همراه شوید
  • امضای تفاهم‌نامه میان موزه سینما و انجمن صنفی عکاسان سینما
  • ۲۷ تیر آخرین مهلت ثبت‌نام در هجدهمین رویداد موسیقی جوان
  • «قوی‌دل» به اکران آنلاین آمد
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.