دانش جوین
چهارشنبه, تیر ۱۸, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی سایر اخبار تکنولوژی

سم آلتمن: هوش مصنوعی بعدی OpenAI ابتدا در اختیار دولت آمریکا قرار خواهد گرفت

کارشناس روابط عمومی دیجیتال توسط کارشناس روابط عمومی دیجیتال
۰۴ مهر ۱۴۰۳
در سایر اخبار تکنولوژی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
سم آلتمن: هوش مصنوعی بعدی OpenAI ابتدا در اختیار دولت آمریکا قرار خواهد گرفت
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

«سم آلتمن»، مدیرعامل OpenAI اعلام کرد که این استارتاپ به‌عنوان بخشی از برنامه‌های خود در زمینه ایمنی محصولاتش، مدل هوش مصنوعی بعدی خود را ابتدا در اختیار موسسه ایمنی هوش‌مصنوعی ایالات متحده قرار خواهد داد.

همانطور که تک‌کرانچ در گزارش خود توضیح می‌دهد، درحال‌حاضر نگرانی‌های زیادی از این بابت وجود دارد که OpenAI بیشتر به‌دنبال توسعه مدل‌های هوش‌مصنوعی قدرتمند است و به‌همین ایمنی را چندان در اولویت‌های خود قرار نداده است.

اهمیت ایمنی هوش مصنوعی برای OpenAI

با اشاره به این موضوع، مدیرعامل OpenAI در ایکس درباره اهمیت ایمنی برای این استارتاپ می‌گوید:

«همانطور که در ژوئیه گذشته نیز گفتیم، ما متعهد هستیم که حداقل 20 درصد از منابع محاسباتی خود را به تلاش‌های مربوط به ایمنی کل شرکت اختصاص دهیم.

تیم ما در حال توافق با موسسه ایمنی هوش مصنوعی ایالات متحده در زمینه‌ای است که دسترسی زودهنگام مدل پایه بعدی خود را برای آن فراهم می‌کند تا بتوانیم با همکاری یکدیگر علم ارزیابی‌های هوش مصنوعی را به جلو پیش ببریم. برای این همکاری هیجان‌زده هستیم!»

در ماه‌های گذشته، گفته‌شده بود که OpenAI واحدی را منحل کرده که روی ایمنی سیستم‌های هوش مصنوعی کار می‌کردند. همین موضوع باعث شده بود تا دو رهبر این استارتاپ با نام‌ها «جان لیکه» که اکنون تحقیقات ایمنی استارتاپ هوش‌مصنوعی آنتروپیک را رهبری می‌کند و «ایلیا سوتسکور» که شرکت هوش‌مصنوعی متمرکز بر ایمنی خود با نام Safe Superintelligence را تاسیس کرده است، از OpenAI جدا شوند.

موسسه ایمنی هوش‌مصنوعی در اوایل سال جاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) کار خود را آغاز کرد. در وب‌سایت NIST، هدف آن «توسعه دستورالعمل‌ها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازه‌گیری‌ها و سیاست‌های هوش مصنوعی و ایجاد پایه‌ای برای ایمنی هوش‌مصنوعی در سراسر جهان» یاد شده است.

«سم آلتمن»، مدیرعامل OpenAI اعلام کرد که این استارتاپ به‌عنوان بخشی از برنامه‌های خود در زمینه ایمنی محصولاتش، مدل هوش مصنوعی بعدی خود را ابتدا در اختیار موسسه ایمنی هوش‌مصنوعی ایالات متحده قرار خواهد داد.

همانطور که تک‌کرانچ در گزارش خود توضیح می‌دهد، درحال‌حاضر نگرانی‌های زیادی از این بابت وجود دارد که OpenAI بیشتر به‌دنبال توسعه مدل‌های هوش‌مصنوعی قدرتمند است و به‌همین ایمنی را چندان در اولویت‌های خود قرار نداده است.

اهمیت ایمنی هوش مصنوعی برای OpenAI

با اشاره به این موضوع، مدیرعامل OpenAI در ایکس درباره اهمیت ایمنی برای این استارتاپ می‌گوید:

«همانطور که در ژوئیه گذشته نیز گفتیم، ما متعهد هستیم که حداقل 20 درصد از منابع محاسباتی خود را به تلاش‌های مربوط به ایمنی کل شرکت اختصاص دهیم.

تیم ما در حال توافق با موسسه ایمنی هوش مصنوعی ایالات متحده در زمینه‌ای است که دسترسی زودهنگام مدل پایه بعدی خود را برای آن فراهم می‌کند تا بتوانیم با همکاری یکدیگر علم ارزیابی‌های هوش مصنوعی را به جلو پیش ببریم. برای این همکاری هیجان‌زده هستیم!»

در ماه‌های گذشته، گفته‌شده بود که OpenAI واحدی را منحل کرده که روی ایمنی سیستم‌های هوش مصنوعی کار می‌کردند. همین موضوع باعث شده بود تا دو رهبر این استارتاپ با نام‌ها «جان لیکه» که اکنون تحقیقات ایمنی استارتاپ هوش‌مصنوعی آنتروپیک را رهبری می‌کند و «ایلیا سوتسکور» که شرکت هوش‌مصنوعی متمرکز بر ایمنی خود با نام Safe Superintelligence را تاسیس کرده است، از OpenAI جدا شوند.

موسسه ایمنی هوش‌مصنوعی در اوایل سال جاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) کار خود را آغاز کرد. در وب‌سایت NIST، هدف آن «توسعه دستورالعمل‌ها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازه‌گیری‌ها و سیاست‌های هوش مصنوعی و ایجاد پایه‌ای برای ایمنی هوش‌مصنوعی در سراسر جهان» یاد شده است.

اخبارجدیدترین

عکس | این باریک‌ترین آیفون تاریخ است

کابوسی که محقق شد؛ دسترسی متا به گالری کاربران!

اپل رقبا را جا گذاشت /فروش چشمگیر مک‌ها در ۲۰۲۵

«سم آلتمن»، مدیرعامل OpenAI اعلام کرد که این استارتاپ به‌عنوان بخشی از برنامه‌های خود در زمینه ایمنی محصولاتش، مدل هوش مصنوعی بعدی خود را ابتدا در اختیار موسسه ایمنی هوش‌مصنوعی ایالات متحده قرار خواهد داد.

همانطور که تک‌کرانچ در گزارش خود توضیح می‌دهد، درحال‌حاضر نگرانی‌های زیادی از این بابت وجود دارد که OpenAI بیشتر به‌دنبال توسعه مدل‌های هوش‌مصنوعی قدرتمند است و به‌همین ایمنی را چندان در اولویت‌های خود قرار نداده است.

اهمیت ایمنی هوش مصنوعی برای OpenAI

با اشاره به این موضوع، مدیرعامل OpenAI در ایکس درباره اهمیت ایمنی برای این استارتاپ می‌گوید:

«همانطور که در ژوئیه گذشته نیز گفتیم، ما متعهد هستیم که حداقل 20 درصد از منابع محاسباتی خود را به تلاش‌های مربوط به ایمنی کل شرکت اختصاص دهیم.

تیم ما در حال توافق با موسسه ایمنی هوش مصنوعی ایالات متحده در زمینه‌ای است که دسترسی زودهنگام مدل پایه بعدی خود را برای آن فراهم می‌کند تا بتوانیم با همکاری یکدیگر علم ارزیابی‌های هوش مصنوعی را به جلو پیش ببریم. برای این همکاری هیجان‌زده هستیم!»

در ماه‌های گذشته، گفته‌شده بود که OpenAI واحدی را منحل کرده که روی ایمنی سیستم‌های هوش مصنوعی کار می‌کردند. همین موضوع باعث شده بود تا دو رهبر این استارتاپ با نام‌ها «جان لیکه» که اکنون تحقیقات ایمنی استارتاپ هوش‌مصنوعی آنتروپیک را رهبری می‌کند و «ایلیا سوتسکور» که شرکت هوش‌مصنوعی متمرکز بر ایمنی خود با نام Safe Superintelligence را تاسیس کرده است، از OpenAI جدا شوند.

موسسه ایمنی هوش‌مصنوعی در اوایل سال جاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) کار خود را آغاز کرد. در وب‌سایت NIST، هدف آن «توسعه دستورالعمل‌ها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازه‌گیری‌ها و سیاست‌های هوش مصنوعی و ایجاد پایه‌ای برای ایمنی هوش‌مصنوعی در سراسر جهان» یاد شده است.

«سم آلتمن»، مدیرعامل OpenAI اعلام کرد که این استارتاپ به‌عنوان بخشی از برنامه‌های خود در زمینه ایمنی محصولاتش، مدل هوش مصنوعی بعدی خود را ابتدا در اختیار موسسه ایمنی هوش‌مصنوعی ایالات متحده قرار خواهد داد.

همانطور که تک‌کرانچ در گزارش خود توضیح می‌دهد، درحال‌حاضر نگرانی‌های زیادی از این بابت وجود دارد که OpenAI بیشتر به‌دنبال توسعه مدل‌های هوش‌مصنوعی قدرتمند است و به‌همین ایمنی را چندان در اولویت‌های خود قرار نداده است.

اهمیت ایمنی هوش مصنوعی برای OpenAI

با اشاره به این موضوع، مدیرعامل OpenAI در ایکس درباره اهمیت ایمنی برای این استارتاپ می‌گوید:

«همانطور که در ژوئیه گذشته نیز گفتیم، ما متعهد هستیم که حداقل 20 درصد از منابع محاسباتی خود را به تلاش‌های مربوط به ایمنی کل شرکت اختصاص دهیم.

تیم ما در حال توافق با موسسه ایمنی هوش مصنوعی ایالات متحده در زمینه‌ای است که دسترسی زودهنگام مدل پایه بعدی خود را برای آن فراهم می‌کند تا بتوانیم با همکاری یکدیگر علم ارزیابی‌های هوش مصنوعی را به جلو پیش ببریم. برای این همکاری هیجان‌زده هستیم!»

در ماه‌های گذشته، گفته‌شده بود که OpenAI واحدی را منحل کرده که روی ایمنی سیستم‌های هوش مصنوعی کار می‌کردند. همین موضوع باعث شده بود تا دو رهبر این استارتاپ با نام‌ها «جان لیکه» که اکنون تحقیقات ایمنی استارتاپ هوش‌مصنوعی آنتروپیک را رهبری می‌کند و «ایلیا سوتسکور» که شرکت هوش‌مصنوعی متمرکز بر ایمنی خود با نام Safe Superintelligence را تاسیس کرده است، از OpenAI جدا شوند.

موسسه ایمنی هوش‌مصنوعی در اوایل سال جاری میلادی توسط موسسه ملی استاندارد و فناوری (NIST) کار خود را آغاز کرد. در وب‌سایت NIST، هدف آن «توسعه دستورالعمل‌ها و استانداردهای مبتنی بر علم و پشتوانه تجربی برای اندازه‌گیری‌ها و سیاست‌های هوش مصنوعی و ایجاد پایه‌ای برای ایمنی هوش‌مصنوعی در سراسر جهان» یاد شده است.

پست قبلی

موتور جستجو SearchGPT توسط نشریات بزرگی مانند نیویورک تایمز مسدود شد

پست بعدی

سناتورهای آمریکایی لایحه‌ای را برای مقابله با دیپ‌فیک‌های هوش مصنوعی پیشنهاد کردند

مربوطه پست ها

عکس | این باریک‌ترین آیفون تاریخ است
سایر اخبار تکنولوژی

عکس | این باریک‌ترین آیفون تاریخ است

۱۸ تیر ۱۴۰۴
کابوسی که محقق شد؛ دسترسی متا به گالری کاربران!
سایر اخبار تکنولوژی

کابوسی که محقق شد؛ دسترسی متا به گالری کاربران!

۱۸ تیر ۱۴۰۴
اپل رقبا را جا گذاشت /فروش چشمگیر مک‌ها در ۲۰۲۵
سایر اخبار تکنولوژی

اپل رقبا را جا گذاشت /فروش چشمگیر مک‌ها در ۲۰۲۵

۱۸ تیر ۱۴۰۴
مشخصات گوشی پرچمدار بعدی سامسونگ لو رفت
سایر اخبار تکنولوژی

مشخصات گوشی پرچمدار بعدی سامسونگ لو رفت

۱۷ تیر ۱۴۰۴
انتقاد تند کاخ سفید از تیم کوک، مدیرعامل اپل
سایر اخبار تکنولوژی

انتقاد تند کاخ سفید از تیم کوک، مدیرعامل اپل

۱۷ تیر ۱۴۰۴
جاسوس یا فناوری؟
سایر اخبار تکنولوژی

جاسوس یا فناوری؟

۱۷ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

5 × 3 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • چالش شناخت مخاطب؛ برخی تصور می‌کنند تئاتر عروسکی فقط برای کودکان است!
  • قصه انتشار آلبومی که بدون هیاهو تولید شد؛ این موسیقی را تنها بشنوید
  • مایکل شنون: هرگز ترامپ را رئیس جمهور آمریکا نمی‌دانم
  • بازیگر غایب در کن سرانجام جایزه‌اش را از ژولیت بینوش گرفت
  • تاریخ جدید ورکشاپ «رو در رو» اعلام شد؛ نقاشی در ستایش صلح و هنر
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.