دانش جوین
پنجشنبه, تیر ۲۶, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی سایر اخبار تکنولوژی

بنیان‌گذاران OpenAI به ابهامات درباره ایمنی مدل‌های هوش مصنوعی خود پاسخ دادند

کارشناس روابط عمومی دیجیتال توسط کارشناس روابط عمومی دیجیتال
۰۴ مهر ۱۴۰۳
در سایر اخبار تکنولوژی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
بنیان‌گذاران OpenAI به ابهامات درباره ایمنی مدل‌های هوش مصنوعی خود پاسخ دادند
3
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

در چند روز گذشته ابتدا «ایلیا سوتسکیور»، دانشمند ارشد سابق OpenAI از این شرکت جدا شد و بعد «یان لیکه»، مدیر تیم ایمنی هوش مصنوعی از خروج خود از OpenAI خبر داد و مدعی شد که این شرکت اکنون توجه بیشتری به عرضه محصولات پرزرق‌وبرق دارد. حالا «گرگ براکمن» و «سم آلتمن» به این اتفاقات و صحبت‌ها واکنش نشان داده‌اند.

بیانیه سم آلتمن و گرگ براکمن درباره ایمنی هوش مصنوعی در OpenAI

گرگ براکمن، هم‌بنیان‌گذار OpenAI در پستی در صفحه شخصی خود در ایکس بیانیه‌ای را منتشر کرد که به‌صورت مشترک توسط او سم آلتمن نوشته شده است. این بیانیه ضمن تشکر از تلاش‌های یان لیکه برای این شرکت، به سه نکته برای رفع ابهامات اشاره می‌کند. در ابتدا می‌گوید OpenAI سطح آگاهی عمومی درباره ریسک‌ها و فرصت‌های هوش جامع مصنوعی (AGI) را ارتقا داده است تا جهان برای مواجهه با آن آماده‌تر باشد. آلتمن و براکمن همچنین یادآور شدند که این شرکت تاکنون بارها خواستار قانون‌گذاری و کنترل‌های بین‌المللی برای AGI بوده است.

این بیانیه در ادامه می‌گوید OpenAI زیرساخت‌های لازم برای توسعه سیستم‌های تواناتر را پیاده‌سازی کرده ولی اذعان می‌کند که پی‌بردن به چگونگی ایمن‌سازی فناوری‌های جدید کار آسانی نیست. بنیان‌گذاران OpenAI می‌گویند برای مثال، آن‌ها تلاش زیادی کردند تا مدل هوش مصنوعی GPT-4 را به‌شکلی ایمن منتشر کنند و به تلاش برای بهبود شرایط و جلوگیری از سوءاستفاده‌ها ادامه داده‌اند.

سومین نکته‌ای که براکمن و آلتمن به آن اشاره کرده‌اند، این واقعیت است که آینده از گذشته سخت‌تر خواهد بود. آن‌ها می‌گویند OpenAI باید ایمنی سیستم‌های خود را با هر مدل جدید ارتقا دهد. این دو پیش‌بینی می‌کنند که در آینده مدل‌های هوش مصنوعی بیشتر از قبل با دنیای واقعی درهم‌آمیخته شوند و کارهای مختلف را برای کاربران انجام دهند. به‌همین منظور لازم است که کارهای زیربنایی بسیار زیادی برای حفظ ایمنی آن‌ها صورت بگیرد و این اقدامات باید در زمینه شیوه‌های یادگیری، حل مسئله و دیگر مسائل مرتبط با ایمنی باشد.

گرگ براکمن و سم آلتمن تأکید کردند که این شرکت نمی‌تواند پیش‌بینی دقیقی از آینده داشته باشد، بنابراین به ایمن‌سازی تمامی فرایندهای خود ادامه خواهد داد تا برای ریسک‌های گوناگون آماده باشد. این بیانیه یادآور می‌شود که راه مشخصی برای حرکت به سمت AGI وجود ندارد، اما باید به‌طور همزمان به سمت ارائه قابلیت‌های مفید و در عین حال حفظ ایمنی حرکت کرد و این شرکت مسئولیت‌های خود را جدی می‌گیرد.

در چند روز گذشته ابتدا «ایلیا سوتسکیور»، دانشمند ارشد سابق OpenAI از این شرکت جدا شد و بعد «یان لیکه»، مدیر تیم ایمنی هوش مصنوعی از خروج خود از OpenAI خبر داد و مدعی شد که این شرکت اکنون توجه بیشتری به عرضه محصولات پرزرق‌وبرق دارد. حالا «گرگ براکمن» و «سم آلتمن» به این اتفاقات و صحبت‌ها واکنش نشان داده‌اند.

بیانیه سم آلتمن و گرگ براکمن درباره ایمنی هوش مصنوعی در OpenAI

گرگ براکمن، هم‌بنیان‌گذار OpenAI در پستی در صفحه شخصی خود در ایکس بیانیه‌ای را منتشر کرد که به‌صورت مشترک توسط او سم آلتمن نوشته شده است. این بیانیه ضمن تشکر از تلاش‌های یان لیکه برای این شرکت، به سه نکته برای رفع ابهامات اشاره می‌کند. در ابتدا می‌گوید OpenAI سطح آگاهی عمومی درباره ریسک‌ها و فرصت‌های هوش جامع مصنوعی (AGI) را ارتقا داده است تا جهان برای مواجهه با آن آماده‌تر باشد. آلتمن و براکمن همچنین یادآور شدند که این شرکت تاکنون بارها خواستار قانون‌گذاری و کنترل‌های بین‌المللی برای AGI بوده است.

این بیانیه در ادامه می‌گوید OpenAI زیرساخت‌های لازم برای توسعه سیستم‌های تواناتر را پیاده‌سازی کرده ولی اذعان می‌کند که پی‌بردن به چگونگی ایمن‌سازی فناوری‌های جدید کار آسانی نیست. بنیان‌گذاران OpenAI می‌گویند برای مثال، آن‌ها تلاش زیادی کردند تا مدل هوش مصنوعی GPT-4 را به‌شکلی ایمن منتشر کنند و به تلاش برای بهبود شرایط و جلوگیری از سوءاستفاده‌ها ادامه داده‌اند.

سومین نکته‌ای که براکمن و آلتمن به آن اشاره کرده‌اند، این واقعیت است که آینده از گذشته سخت‌تر خواهد بود. آن‌ها می‌گویند OpenAI باید ایمنی سیستم‌های خود را با هر مدل جدید ارتقا دهد. این دو پیش‌بینی می‌کنند که در آینده مدل‌های هوش مصنوعی بیشتر از قبل با دنیای واقعی درهم‌آمیخته شوند و کارهای مختلف را برای کاربران انجام دهند. به‌همین منظور لازم است که کارهای زیربنایی بسیار زیادی برای حفظ ایمنی آن‌ها صورت بگیرد و این اقدامات باید در زمینه شیوه‌های یادگیری، حل مسئله و دیگر مسائل مرتبط با ایمنی باشد.

گرگ براکمن و سم آلتمن تأکید کردند که این شرکت نمی‌تواند پیش‌بینی دقیقی از آینده داشته باشد، بنابراین به ایمن‌سازی تمامی فرایندهای خود ادامه خواهد داد تا برای ریسک‌های گوناگون آماده باشد. این بیانیه یادآور می‌شود که راه مشخصی برای حرکت به سمت AGI وجود ندارد، اما باید به‌طور همزمان به سمت ارائه قابلیت‌های مفید و در عین حال حفظ ایمنی حرکت کرد و این شرکت مسئولیت‌های خود را جدی می‌گیرد.

اخبارجدیدترین

پشت‌پرده حملات جدید سایبری / بدافزار از راهی وارد می‌شود که هیچ‌کس انتظارش را ندارد

طرح تعویض آیفون با گوشی تاشوی سامسونگ / کدام گوشی‌های اپل شامل این طرح می‌شوند؟

قیمت متفاوت‌ترین آیفون تاریخ / گران‌تر از مک‌بوک پرو

در چند روز گذشته ابتدا «ایلیا سوتسکیور»، دانشمند ارشد سابق OpenAI از این شرکت جدا شد و بعد «یان لیکه»، مدیر تیم ایمنی هوش مصنوعی از خروج خود از OpenAI خبر داد و مدعی شد که این شرکت اکنون توجه بیشتری به عرضه محصولات پرزرق‌وبرق دارد. حالا «گرگ براکمن» و «سم آلتمن» به این اتفاقات و صحبت‌ها واکنش نشان داده‌اند.

بیانیه سم آلتمن و گرگ براکمن درباره ایمنی هوش مصنوعی در OpenAI

گرگ براکمن، هم‌بنیان‌گذار OpenAI در پستی در صفحه شخصی خود در ایکس بیانیه‌ای را منتشر کرد که به‌صورت مشترک توسط او سم آلتمن نوشته شده است. این بیانیه ضمن تشکر از تلاش‌های یان لیکه برای این شرکت، به سه نکته برای رفع ابهامات اشاره می‌کند. در ابتدا می‌گوید OpenAI سطح آگاهی عمومی درباره ریسک‌ها و فرصت‌های هوش جامع مصنوعی (AGI) را ارتقا داده است تا جهان برای مواجهه با آن آماده‌تر باشد. آلتمن و براکمن همچنین یادآور شدند که این شرکت تاکنون بارها خواستار قانون‌گذاری و کنترل‌های بین‌المللی برای AGI بوده است.

این بیانیه در ادامه می‌گوید OpenAI زیرساخت‌های لازم برای توسعه سیستم‌های تواناتر را پیاده‌سازی کرده ولی اذعان می‌کند که پی‌بردن به چگونگی ایمن‌سازی فناوری‌های جدید کار آسانی نیست. بنیان‌گذاران OpenAI می‌گویند برای مثال، آن‌ها تلاش زیادی کردند تا مدل هوش مصنوعی GPT-4 را به‌شکلی ایمن منتشر کنند و به تلاش برای بهبود شرایط و جلوگیری از سوءاستفاده‌ها ادامه داده‌اند.

سومین نکته‌ای که براکمن و آلتمن به آن اشاره کرده‌اند، این واقعیت است که آینده از گذشته سخت‌تر خواهد بود. آن‌ها می‌گویند OpenAI باید ایمنی سیستم‌های خود را با هر مدل جدید ارتقا دهد. این دو پیش‌بینی می‌کنند که در آینده مدل‌های هوش مصنوعی بیشتر از قبل با دنیای واقعی درهم‌آمیخته شوند و کارهای مختلف را برای کاربران انجام دهند. به‌همین منظور لازم است که کارهای زیربنایی بسیار زیادی برای حفظ ایمنی آن‌ها صورت بگیرد و این اقدامات باید در زمینه شیوه‌های یادگیری، حل مسئله و دیگر مسائل مرتبط با ایمنی باشد.

گرگ براکمن و سم آلتمن تأکید کردند که این شرکت نمی‌تواند پیش‌بینی دقیقی از آینده داشته باشد، بنابراین به ایمن‌سازی تمامی فرایندهای خود ادامه خواهد داد تا برای ریسک‌های گوناگون آماده باشد. این بیانیه یادآور می‌شود که راه مشخصی برای حرکت به سمت AGI وجود ندارد، اما باید به‌طور همزمان به سمت ارائه قابلیت‌های مفید و در عین حال حفظ ایمنی حرکت کرد و این شرکت مسئولیت‌های خود را جدی می‌گیرد.

در چند روز گذشته ابتدا «ایلیا سوتسکیور»، دانشمند ارشد سابق OpenAI از این شرکت جدا شد و بعد «یان لیکه»، مدیر تیم ایمنی هوش مصنوعی از خروج خود از OpenAI خبر داد و مدعی شد که این شرکت اکنون توجه بیشتری به عرضه محصولات پرزرق‌وبرق دارد. حالا «گرگ براکمن» و «سم آلتمن» به این اتفاقات و صحبت‌ها واکنش نشان داده‌اند.

بیانیه سم آلتمن و گرگ براکمن درباره ایمنی هوش مصنوعی در OpenAI

گرگ براکمن، هم‌بنیان‌گذار OpenAI در پستی در صفحه شخصی خود در ایکس بیانیه‌ای را منتشر کرد که به‌صورت مشترک توسط او سم آلتمن نوشته شده است. این بیانیه ضمن تشکر از تلاش‌های یان لیکه برای این شرکت، به سه نکته برای رفع ابهامات اشاره می‌کند. در ابتدا می‌گوید OpenAI سطح آگاهی عمومی درباره ریسک‌ها و فرصت‌های هوش جامع مصنوعی (AGI) را ارتقا داده است تا جهان برای مواجهه با آن آماده‌تر باشد. آلتمن و براکمن همچنین یادآور شدند که این شرکت تاکنون بارها خواستار قانون‌گذاری و کنترل‌های بین‌المللی برای AGI بوده است.

این بیانیه در ادامه می‌گوید OpenAI زیرساخت‌های لازم برای توسعه سیستم‌های تواناتر را پیاده‌سازی کرده ولی اذعان می‌کند که پی‌بردن به چگونگی ایمن‌سازی فناوری‌های جدید کار آسانی نیست. بنیان‌گذاران OpenAI می‌گویند برای مثال، آن‌ها تلاش زیادی کردند تا مدل هوش مصنوعی GPT-4 را به‌شکلی ایمن منتشر کنند و به تلاش برای بهبود شرایط و جلوگیری از سوءاستفاده‌ها ادامه داده‌اند.

سومین نکته‌ای که براکمن و آلتمن به آن اشاره کرده‌اند، این واقعیت است که آینده از گذشته سخت‌تر خواهد بود. آن‌ها می‌گویند OpenAI باید ایمنی سیستم‌های خود را با هر مدل جدید ارتقا دهد. این دو پیش‌بینی می‌کنند که در آینده مدل‌های هوش مصنوعی بیشتر از قبل با دنیای واقعی درهم‌آمیخته شوند و کارهای مختلف را برای کاربران انجام دهند. به‌همین منظور لازم است که کارهای زیربنایی بسیار زیادی برای حفظ ایمنی آن‌ها صورت بگیرد و این اقدامات باید در زمینه شیوه‌های یادگیری، حل مسئله و دیگر مسائل مرتبط با ایمنی باشد.

گرگ براکمن و سم آلتمن تأکید کردند که این شرکت نمی‌تواند پیش‌بینی دقیقی از آینده داشته باشد، بنابراین به ایمن‌سازی تمامی فرایندهای خود ادامه خواهد داد تا برای ریسک‌های گوناگون آماده باشد. این بیانیه یادآور می‌شود که راه مشخصی برای حرکت به سمت AGI وجود ندارد، اما باید به‌طور همزمان به سمت ارائه قابلیت‌های مفید و در عین حال حفظ ایمنی حرکت کرد و این شرکت مسئولیت‌های خود را جدی می‌گیرد.

پست قبلی

پدرخوانده هوش مصنوعی درباره حذف مشاغل توسط این فناوری ابراز نگرانی کرد

پست بعدی

سافت‌بانک از هوش مصنوعی برای آرام‌کردن صدای مشتریان عصبانی استفاده خواهد کرد

مربوطه پست ها

پشت‌پرده حملات جدید سایبری / بدافزار از راهی وارد می‌شود که هیچ‌کس انتظارش را ندارد
سایر اخبار تکنولوژی

پشت‌پرده حملات جدید سایبری / بدافزار از راهی وارد می‌شود که هیچ‌کس انتظارش را ندارد

۲۶ تیر ۱۴۰۴
طرح تعویض آیفون با گوشی تاشوی سامسونگ / کدام گوشی‌های اپل شامل این طرح می‌شوند؟
سایر اخبار تکنولوژی

طرح تعویض آیفون با گوشی تاشوی سامسونگ / کدام گوشی‌های اپل شامل این طرح می‌شوند؟

۲۶ تیر ۱۴۰۴
قیمت متفاوت‌ترین آیفون تاریخ / گران‌تر از مک‌بوک پرو
سایر اخبار تکنولوژی

قیمت متفاوت‌ترین آیفون تاریخ / گران‌تر از مک‌بوک پرو

۲۶ تیر ۱۴۰۴
افتضاح بزرگ سونی / جمع‌آوری گوشی‌های پرچمدار معیوب
سایر اخبار تکنولوژی

افتضاح بزرگ سونی / جمع‌آوری گوشی‌های پرچمدار معیوب

۲۵ تیر ۱۴۰۴
از این قابلیت جیمیل استفاده نکنید / خطر هک شدن
سایر اخبار تکنولوژی

از این قابلیت جیمیل استفاده نکنید / خطر هک شدن

۲۵ تیر ۱۴۰۴
واکنش وزارت ارتباطات به اختلال «GPS»
سایر اخبار تکنولوژی

واکنش وزارت ارتباطات به اختلال «GPS»

۲۵ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

هشت − 7 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • بازسازی خانه‌های آسیب دیده در جنگ از شنبه آغاز می‌شود/ تأمین بخشی از مسکن مورد نیاز از واحدهای آماده
  • نتایج کنکور چه زمانی اعلام می‌شود؟/ شناسایی و دستگیری شبکه‌های شایعه‌ساز کنکور
  • آخرین وضعیت ترافیک در آزادراه تهران- شمال
  • سقف قیمت بلیت اتوبوس اربعین مشخص شد/ طرح شکایات در سامانه ۱۴۱
  • جزییات سهمیه شهدا و جانباران جنگ 12 روزه در کنکور سراسری
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.