برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکتهایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چتبات Grok بهشدت انتقاد کردهاند و آن را نگرانکننده و مغایر با استانداردهای رایج صنعت عنوان کردهاند.
در هفتههای اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چتبات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پسازآن xAI از نسخه پیشرفتهتری با نام Grok 4 بهعنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.
اما در برخی گزارشها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاههای شخصی ایلان ماسک مراجعه میکند.

در تازهترین حواشی مربوط به این چتبات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمهای دختر با ظاهری حساسیتبرانگیز میشود و انتقادات جدی را بهدنبال داشته است.
انتقادات از وضعیت ایمنی Grok
بهدنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحالحاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:
«نمیخواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار میکنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی میکنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»
باراک در پست خود بهطور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روشهای آموزشی و ارزیابیهای ایمنی این شرکت میشود. او میگوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شدهاند.
البته OpenAI و گوگل نیز در انتشار بهموقع سیستم کارت مدلهای خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماهها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااینحال، این شرکتها پیش از عرضه کامل مدلهای مرزی هوش مصنوعی خود، گزارشهای ایمنی آن را منتشر میکنند.
«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بیپروا» توصیف کرده و گفته است:
«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام میدهند. xAI حتی همین کار را هم انجام نمیدهد.»
درهمینحال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

در پاسخ به این نگرانیها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی تواناییهای خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااینحال، نتایج این ارزیابیها هنوز بهصورت عمومی منتشر نشدهاند.
«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیشتر مسئول تیمهای ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch میگوید:
«وقتی رویههای استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمیشود — مانند انتشار نتایج ارزیابیهای خطرناک — نگران میشوم. دولتها و مردم حق دارند بدانند شرکتهای هوش مصنوعی چطور با خطرات سیستمهایی که میگویند بسیار قدرتمند هستند، مواجه میشوند.»
برای رسیدگی به این مشکلات، تلاشهایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحهای است که شرکتهای پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارشهای ایمنی میکند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.
برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکتهایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چتبات Grok بهشدت انتقاد کردهاند و آن را نگرانکننده و مغایر با استانداردهای رایج صنعت عنوان کردهاند.
در هفتههای اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چتبات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پسازآن xAI از نسخه پیشرفتهتری با نام Grok 4 بهعنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.
اما در برخی گزارشها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاههای شخصی ایلان ماسک مراجعه میکند.

در تازهترین حواشی مربوط به این چتبات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمهای دختر با ظاهری حساسیتبرانگیز میشود و انتقادات جدی را بهدنبال داشته است.
انتقادات از وضعیت ایمنی Grok
بهدنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحالحاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:
«نمیخواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار میکنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی میکنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»
باراک در پست خود بهطور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روشهای آموزشی و ارزیابیهای ایمنی این شرکت میشود. او میگوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شدهاند.
البته OpenAI و گوگل نیز در انتشار بهموقع سیستم کارت مدلهای خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماهها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااینحال، این شرکتها پیش از عرضه کامل مدلهای مرزی هوش مصنوعی خود، گزارشهای ایمنی آن را منتشر میکنند.
«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بیپروا» توصیف کرده و گفته است:
«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام میدهند. xAI حتی همین کار را هم انجام نمیدهد.»
درهمینحال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

در پاسخ به این نگرانیها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی تواناییهای خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااینحال، نتایج این ارزیابیها هنوز بهصورت عمومی منتشر نشدهاند.
«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیشتر مسئول تیمهای ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch میگوید:
«وقتی رویههای استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمیشود — مانند انتشار نتایج ارزیابیهای خطرناک — نگران میشوم. دولتها و مردم حق دارند بدانند شرکتهای هوش مصنوعی چطور با خطرات سیستمهایی که میگویند بسیار قدرتمند هستند، مواجه میشوند.»
برای رسیدگی به این مشکلات، تلاشهایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحهای است که شرکتهای پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارشهای ایمنی میکند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.
برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکتهایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چتبات Grok بهشدت انتقاد کردهاند و آن را نگرانکننده و مغایر با استانداردهای رایج صنعت عنوان کردهاند.
در هفتههای اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چتبات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پسازآن xAI از نسخه پیشرفتهتری با نام Grok 4 بهعنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.
اما در برخی گزارشها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاههای شخصی ایلان ماسک مراجعه میکند.

در تازهترین حواشی مربوط به این چتبات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمهای دختر با ظاهری حساسیتبرانگیز میشود و انتقادات جدی را بهدنبال داشته است.
انتقادات از وضعیت ایمنی Grok
بهدنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحالحاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:
«نمیخواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار میکنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی میکنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»
باراک در پست خود بهطور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روشهای آموزشی و ارزیابیهای ایمنی این شرکت میشود. او میگوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شدهاند.
البته OpenAI و گوگل نیز در انتشار بهموقع سیستم کارت مدلهای خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماهها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااینحال، این شرکتها پیش از عرضه کامل مدلهای مرزی هوش مصنوعی خود، گزارشهای ایمنی آن را منتشر میکنند.
«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بیپروا» توصیف کرده و گفته است:
«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام میدهند. xAI حتی همین کار را هم انجام نمیدهد.»
درهمینحال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

در پاسخ به این نگرانیها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی تواناییهای خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااینحال، نتایج این ارزیابیها هنوز بهصورت عمومی منتشر نشدهاند.
«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیشتر مسئول تیمهای ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch میگوید:
«وقتی رویههای استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمیشود — مانند انتشار نتایج ارزیابیهای خطرناک — نگران میشوم. دولتها و مردم حق دارند بدانند شرکتهای هوش مصنوعی چطور با خطرات سیستمهایی که میگویند بسیار قدرتمند هستند، مواجه میشوند.»
برای رسیدگی به این مشکلات، تلاشهایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحهای است که شرکتهای پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارشهای ایمنی میکند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.
برخی پژوهشگران برجسته حوزه هوش مصنوعی از شرکتهایی مانند OpenAI و آنتروپیک، از فرهنگ ایمنی استارتاپ xAI متعلق به ایلان ماسک برای چتبات Grok بهشدت انتقاد کردهاند و آن را نگرانکننده و مغایر با استانداردهای رایج صنعت عنوان کردهاند.
در هفتههای اخیر، اقدامات جنجالی هوش مصنوعی گراک (Grok) توجهات را به خود جلب کرده است. این چتبات ابتدا اظهاراتی ضدیهود را مطرح کرده بود و حتی خود را یک «مکاهیتلر» معرفی کرد. پسازآن xAI از نسخه پیشرفتهتری با نام Grok 4 بهعنوان هوشمندترین هوش مصنوعی جهان رونمایی کرد.
اما در برخی گزارشها اعلام شده بود که این نسخه جدید نیز در پاسخ به موضوعات حساس به دیدگاههای شخصی ایلان ماسک مراجعه میکند.

در تازهترین حواشی مربوط به این چتبات نیز xAI اخیراً قابلیتی با نام «همراهان هوش مصنوعی» را معرفی کرد که شامل یک شخصیت انیمهای دختر با ظاهری حساسیتبرانگیز میشود و انتقادات جدی را بهدنبال داشته است.
انتقادات از وضعیت ایمنی Grok
بهدنبال تمام این حواشی، «بوآز باراک»، استاد علوم کامپیوتر دانشگاه هاروارد که درحالحاضر در OpenAI به تحقیق در حوزه ایمنی مشغول است، در پستی در شبکه اجتماعی ایکس نوشت:
«نمیخواستم درباره ایمنی گراک نظر بدهم چون در یک شرکت رقیب کار میکنم، اما این موضوع ربطی به رقابت ندارد. از تمام مهندسان و دانشمندان xAI قدردانی میکنم، اما روش کنترل امنیت در آن کاملاً غیرمسئولانه است.»
باراک در پست خود بهطور خاص از تصمیم xAI برای عدم انتشار سیستم کارت Grok انتقاد کرده است؛ گزارشی رسمی که شامل روشهای آموزشی و ارزیابیهای ایمنی این شرکت میشود. او میگوید که دقیقاً مشخص نیست در مدل جدید Grok 4 چه اقدامات ایمنی در نظر گرفته شدهاند.
البته OpenAI و گوگل نیز در انتشار بهموقع سیستم کارت مدلهای خود سابقه درخشانی ندارند. برای مثال، OpenAI تصمیم گرفت برای GPT-4.1 سیستم کارتی منتشر نکند و ادعا کرد این مدل، یک مدل پیشرو (Frontier Model) نیست. گوگل نیز ماهها پس از معرفی Gemini 2.5 Pro گزارش ایمنی مربوط به آن را منتشر کرد. بااینحال، این شرکتها پیش از عرضه کامل مدلهای مرزی هوش مصنوعی خود، گزارشهای ایمنی آن را منتشر میکنند.
«ساموئل مارکس»، پژوهشگر ایمنی هوش مصنوعی در استارتاپ Anthropic نیز تصمیم xAI برای عدم انتشار گزارش ایمنی را «بیپروا» توصیف کرده و گفته است:
«OpenAI ،Anthropic و گوگل نیز ایراداتی در نحوه انتشار دارند، اما حداقل برای ارزیابی ایمنی و مستندسازی آن کاری انجام میدهند. xAI حتی همین کار را هم انجام نمیدهد.»
درهمینحال، در پستی که در فروم LessWrong منتشر شده، یک پژوهشگر ناشناس ادعا کرده که Grok 4 عملاً هیچ دستورالعمل ایمنی معناداری ندارد.

در پاسخ به این نگرانیها، «دن هندریکس»، مشاور ایمنی xAI و مدیر مرکز ایمنی هوش مصنوعی (Center for AI Safety)، در ایکس اعلام کرد که این شرکت «ارزیابی تواناییهای خطرناک» (Dangerous Capability Evaluations) را روی Grok 4 انجام داده است. بااینحال، نتایج این ارزیابیها هنوز بهصورت عمومی منتشر نشدهاند.
«استیون ادلر»، پژوهشگر مستقل حوزه هوش مصنوعی که پیشتر مسئول تیمهای ایمنی در OpenAI بوده نیز در گفتگو با TechCrunch میگوید:
«وقتی رویههای استاندارد ایمنی در صنعت هوش مصنوعی رعایت نمیشود — مانند انتشار نتایج ارزیابیهای خطرناک — نگران میشوم. دولتها و مردم حق دارند بدانند شرکتهای هوش مصنوعی چطور با خطرات سیستمهایی که میگویند بسیار قدرتمند هستند، مواجه میشوند.»
برای رسیدگی به این مشکلات، تلاشهایی در سطح ایالتی نیز درحال انجام است. برای مثال «اسکات وینر»، سناتور ایالت کالیفرنیا، درحال پیگیری لایحهای است که شرکتهای پیشرو هوش مصنوعی (ازجمله احتمالاً xAI) را مجبور به انتشار گزارشهای ایمنی میکند. همچنین «کتی هوچول»، فرماندار ایالت نیویورک، لایحه مشابهی را در دست بررسی دارد.