دانش جوین
پنجشنبه, تیر ۲۶, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود

دیجیاتو توسط دیجیاتو
۲۶ تیر ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 3 دقیقه
0
انتقاد شدید محققان هوش مصنوعی از فرهنگ کاری xAI: توجهی به مسائل ایمنی نمی‌شود
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکت‌هایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چت‌بات Grok به‌شدت انتقاد کرده‌اند و آن را نگران‌کننده و مغایر با استانداردهای رایج صنعت عنوان کرده‌اند.

در هفته‌های اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چت‌بات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پس‌ازآن xAI از نسخه پیشرفته‌تری با نام Grok 4 به‌عنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.

اما در برخی گزارش‌ها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاه‌های شخصی ایلان ماسک مراجعه می‌کند.

در تازه‌ترین حواشی مربوط به این چت‌بات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمه‌ای دختر با ظاهری حساسیت‌برانگیز می‌شود و انتقادات جدی را به‌دنبال داشته است.

انتقادات از وضعیت ایمنی Grok

به‌دنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحال‌حاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:

«نمی‌خواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار می‌کنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی می‌کنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»

باراک در پست خود به‌طور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روش‌های آموزشی و ارزیابی‌های ایمنی این شرکت می‌شود. او می‌گوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شده‌اند.

البته OpenAI و گوگل نیز در انتشار به‌موقع سیستم کارت مدل‌های خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماه‌ها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااین‌حال، این شرکت‌ها پیش از عرضه کامل مدل‌های مرزی هوش مصنوعی خود، گزارش‌های ایمنی آن را منتشر می‌کنند.

«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بی‌پروا» توصیف کرده و گفته است:

«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام می‌دهند. xAI حتی همین کار را هم انجام نمی‌دهد.»

درهمین‌حال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

در پاسخ به این نگرانی‌ها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی توانایی‌های خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااین‌حال، نتایج این ارزیابی‌ها هنوز به‌صورت عمومی منتشر نشده‌اند.

«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیش‌تر مسئول تیم‌های ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch می‌گوید:

«وقتی رویه‌های استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمی‌شود — مانند انتشار نتایج ارزیابی‌های خطرناک — نگران می‌شوم. دولت‌ها و مردم حق دارند بدانند شرکت‌های هوش مصنوعی چطور با خطرات سیستم‌هایی که می‌گویند بسیار قدرتمند هستند، مواجه می‌شوند.»

برای رسیدگی به این مشکلات، تلاش‌هایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحه‌ای است که شرکت‌های پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارش‌های ایمنی می‌کند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.

برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکت‌هایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چت‌بات Grok به‌شدت انتقاد کرده‌اند و آن را نگران‌کننده و مغایر با استانداردهای رایج صنعت عنوان کرده‌اند.

در هفته‌های اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چت‌بات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پس‌ازآن xAI از نسخه پیشرفته‌تری با نام Grok 4 به‌عنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.

اما در برخی گزارش‌ها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاه‌های شخصی ایلان ماسک مراجعه می‌کند.

در تازه‌ترین حواشی مربوط به این چت‌بات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمه‌ای دختر با ظاهری حساسیت‌برانگیز می‌شود و انتقادات جدی را به‌دنبال داشته است.

انتقادات از وضعیت ایمنی Grok

به‌دنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحال‌حاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:

«نمی‌خواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار می‌کنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی می‌کنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»

باراک در پست خود به‌طور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روش‌های آموزشی و ارزیابی‌های ایمنی این شرکت می‌شود. او می‌گوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شده‌اند.

البته OpenAI و گوگل نیز در انتشار به‌موقع سیستم کارت مدل‌های خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماه‌ها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااین‌حال، این شرکت‌ها پیش از عرضه کامل مدل‌های مرزی هوش مصنوعی خود، گزارش‌های ایمنی آن را منتشر می‌کنند.

«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بی‌پروا» توصیف کرده و گفته است:

«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام می‌دهند. xAI حتی همین کار را هم انجام نمی‌دهد.»

درهمین‌حال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

در پاسخ به این نگرانی‌ها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی توانایی‌های خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااین‌حال، نتایج این ارزیابی‌ها هنوز به‌صورت عمومی منتشر نشده‌اند.

«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیش‌تر مسئول تیم‌های ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch می‌گوید:

«وقتی رویه‌های استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمی‌شود — مانند انتشار نتایج ارزیابی‌های خطرناک — نگران می‌شوم. دولت‌ها و مردم حق دارند بدانند شرکت‌های هوش مصنوعی چطور با خطرات سیستم‌هایی که می‌گویند بسیار قدرتمند هستند، مواجه می‌شوند.»

برای رسیدگی به این مشکلات، تلاش‌هایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحه‌ای است که شرکت‌های پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارش‌های ایمنی می‌کند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.

اخبارجدیدترین

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد

گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد

برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکت‌هایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چت‌بات Grok به‌شدت انتقاد کرده‌اند و آن را نگران‌کننده و مغایر با استانداردهای رایج صنعت عنوان کرده‌اند.

در هفته‌های اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چت‌بات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پس‌ازآن xAI از نسخه پیشرفته‌تری با نام Grok 4 به‌عنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.

اما در برخی گزارش‌ها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاه‌های شخصی ایلان ماسک مراجعه می‌کند.

در تازه‌ترین حواشی مربوط به این چت‌بات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمه‌ای دختر با ظاهری حساسیت‌برانگیز می‌شود و انتقادات جدی را به‌دنبال داشته است.

انتقادات از وضعیت ایمنی Grok

به‌دنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحال‌حاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:

«نمی‌خواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار می‌کنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی می‌کنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»

باراک در پست خود به‌طور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روش‌های آموزشی و ارزیابی‌های ایمنی این شرکت می‌شود. او می‌گوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شده‌اند.

البته OpenAI و گوگل نیز در انتشار به‌موقع سیستم کارت مدل‌های خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماه‌ها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااین‌حال، این شرکت‌ها پیش از عرضه کامل مدل‌های مرزی هوش مصنوعی خود، گزارش‌های ایمنی آن را منتشر می‌کنند.

«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بی‌پروا» توصیف کرده و گفته است:

«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام می‌دهند. xAI حتی همین کار را هم انجام نمی‌دهد.»

درهمین‌حال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

در پاسخ به این نگرانی‌ها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی توانایی‌های خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااین‌حال، نتایج این ارزیابی‌ها هنوز به‌صورت عمومی منتشر نشده‌اند.

«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیش‌تر مسئول تیم‌های ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch می‌گوید:

«وقتی رویه‌های استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمی‌شود — مانند انتشار نتایج ارزیابی‌های خطرناک — نگران می‌شوم. دولت‌ها و مردم حق دارند بدانند شرکت‌های هوش مصنوعی چطور با خطرات سیستم‌هایی که می‌گویند بسیار قدرتمند هستند، مواجه می‌شوند.»

برای رسیدگی به این مشکلات، تلاش‌هایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحه‌ای است که شرکت‌های پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارش‌های ایمنی می‌کند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.

برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکت‌هایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چت‌بات Grok به‌شدت انتقاد کرده‌اند و آن را نگران‌کننده و مغایر با استانداردهای رایج صنعت عنوان کرده‌اند.

در هفته‌های اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چت‌بات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پس‌ازآن xAI از نسخه پیشرفته‌تری با نام Grok 4 به‌عنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.

اما در برخی گزارش‌ها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاه‌های شخصی ایلان ماسک مراجعه می‌کند.

در تازه‌ترین حواشی مربوط به این چت‌بات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمه‌ای دختر با ظاهری حساسیت‌برانگیز می‌شود و انتقادات جدی را به‌دنبال داشته است.

انتقادات از وضعیت ایمنی Grok

به‌دنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحال‌حاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:

«نمی‌خواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار می‌کنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی می‌کنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»

باراک در پست خود به‌طور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روش‌های آموزشی و ارزیابی‌های ایمنی این شرکت می‌شود. او می‌گوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شده‌اند.

البته OpenAI و گوگل نیز در انتشار به‌موقع سیستم کارت مدل‌های خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماه‌ها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااین‌حال، این شرکت‌ها پیش از عرضه کامل مدل‌های مرزی هوش مصنوعی خود، گزارش‌های ایمنی آن را منتشر می‌کنند.

«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بی‌پروا» توصیف کرده و گفته است:

«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام می‌دهند. xAI حتی همین کار را هم انجام نمی‌دهد.»

درهمین‌حال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

در پاسخ به این نگرانی‌ها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی توانایی‌های خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااین‌حال، نتایج این ارزیابی‌ها هنوز به‌صورت عمومی منتشر نشده‌اند.

«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیش‌تر مسئول تیم‌های ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch می‌گوید:

«وقتی رویه‌های استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمی‌شود — مانند انتشار نتایج ارزیابی‌های خطرناک — نگران می‌شوم. دولت‌ها و مردم حق دارند بدانند شرکت‌های هوش مصنوعی چطور با خطرات سیستم‌هایی که می‌گویند بسیار قدرتمند هستند، مواجه می‌شوند.»

برای رسیدگی به این مشکلات، تلاش‌هایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحه‌ای است که شرکت‌های پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارش‌های ایمنی می‌کند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.

پست قبلی

همه چیز درباره حکم‌های جدید بازنشستگان در ۱۴۰۴

پست بعدی

طرح تعویض آیفون با گوشی تاشوی سامسونگ / کدام گوشی‌های اپل شامل این طرح می‌شوند؟

مربوطه پست ها

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد
هوش مصنوعی

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

۲۵ تیر ۱۴۰۴
چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد
هوش مصنوعی

چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد

۲۵ تیر ۱۴۰۴
گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد
هوش مصنوعی

گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد

۲۵ تیر ۱۴۰۴
هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند
هوش مصنوعی

هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند

۲۵ تیر ۱۴۰۴
تزار هوش مصنوعی کاخ سفید: دلیل لغو محدودیت فروش تراشه به چین مقابله با هواوی است
هوش مصنوعی

تزار هوش مصنوعی کاخ سفید: دلیل لغو محدودیت فروش تراشه به چین مقابله با هواوی است

۲۵ تیر ۱۴۰۴
هشدار محققان OpenAI، گوگل و آنتروپیک: شاید دیگر نتوانیم به افکار هوش مصنوعی پی ببریم
هوش مصنوعی

هشدار محققان OpenAI، گوگل و آنتروپیک: شاید دیگر نتوانیم به افکار هوش مصنوعی پی ببریم

۲۵ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

16 − 13 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • بازسازی خانه‌های آسیب دیده در جنگ از شنبه آغاز می‌شود/ تأمین بخشی از مسکن مورد نیاز از واحدهای آماده
  • نتایج کنکور چه زمانی اعلام می‌شود؟/ شناسایی و دستگیری شبکه‌های شایعه‌ساز کنکور
  • آخرین وضعیت ترافیک در آزادراه تهران- شمال
  • سقف قیمت بلیت اتوبوس اربعین مشخص شد/ طرح شکایات در سامانه ۱۴۱
  • جزییات سهمیه شهدا و جانباران جنگ 12 روزه در کنکور سراسری
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.