دانش جوین
شنبه, خرداد ۱۷, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

بومی‌سازی زیرساخت هوش مصنوعی در پروژه سکوی ملی

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۱۷ خرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
بومی‌سازی زیرساخت هوش مصنوعی در پروژه سکوی ملی
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، جمال امیدی امروز در نشست فعالان حوزه هوش مصنوعی به تشریح نحوه طراحی زیرساخت این سکو پرداخت و با اشاره به محدود بودن منابع سخت‌افزاری نظیر GPU، CPU و فضای ذخیره‌سازی، گفت: اگر این منابع محدود به‌صورت عادی و عمومی مورد استفاده قرار می‌گرفتند، کارایی لازم را ایجاد نمی‌کردند. به همین دلیل تصمیم گرفتیم لایه‌ای واسط بین لایه اجرایی سکو و سخت‌افزارهای موجود طراحی کنیم تا بیشترین بهره‌وری ممکن را از این منابع فراهم کنیم.

وی با اشاره به تجربیات پیشین در توسعه سیستم‌های مقیاس‌پذیر، افزود: هدف این بود که منابع محدود داخلی و ظرفیت‌های بیرونی را در یک ساختار منسجم و ترتیبی استفاده کنیم. در صنعت نیز با چالش‌هایی مشابه مواجه بودیم که بررسی و تحلیل آنها در طراحی این ساختار لحاظ شده است.

مدیر تیم پلتفرم سکوی هوش مصنوعی با تاکید بر اینکه منابع پردازشی نظیر GPU، CPU و فضای ذخیره‌سازی را تحت عنوان کلی «کامپیوتر» در نظر گرفتیم، خاطر نشان کرد: تخمین ما این است که بالغ بر ۳۰ میلیارد تومان تجهیزات در این حوزه نیاز است. اما هیچ‌یک از زیرساخت‌های فعلی آمادگی لازم برای پشتیبانی از چنین ساختاری را ندارند. ما باید بتوانیم به‌صورت مستقل، چندصد گیگابایت داده را با سرعت بالا تغذیه و پردازش کنیم. شبکه نیز باید توان این حجم را داشته باشد.

وی یکی از مسائل اساسی را انتخاب سیستم‌عامل مینیمال و بهینه برای استفاده از سخت‌افزارها دانست و یادآور شد: ما سیستم‌عاملی بسیار سبک و کم‌ حجم را انتخاب کردیم که به‌طور گسترده در دنیا شناخته‌شده است و با هدف مدیریت دقیق منابع سخت‌افزاری، تغییرات سیستم از یک مرکز کنترل واحد به آن ارجاع داده می‌شود.

این فعال توسعه‌دهنده زیر ساخت‌های هوش مصنوعی ادامه داد: برای نمونه در یک فرایند یادگیری ماشین توزیع‌شده، ممکن است هزاران پروسه هم‌زمان روی حجم زیادی از داده فعالیت داشته باشند. زمان‌بندی و توزیع این تسک‌ها روی سخت‌افزار، نیازمند یک لایه استاندارد و تخصصی است که در زیرساخت معمولی قابل اجرا نیست. ازاین‌رو از ابزارهایی بهره گرفتیم که کارایی بالا در مدیریت توزیع و هماهنگی وظایف داشته باشند.

وی همچنین به برخی راهکارهای مرسوم مانند SLURM اشاره کرد و گفت: با اینکه ابزارهایی مثل «اسلار» در پروژه‌های بین‌المللی مورد استفاده قرار می‌گیرند، اما با زیرساخت‌های مدرن سازگار نیستند. ما تنها تجربه قبلی در استفاده از اسلار را بررسی کرده و ساختار مشابهی را به سیستم‌عامل خود افزودیم.

این فعال فناور با بیان اینکه این زیرساخت اکنون در سه لایه اصلی طراحی شده و آماده بهره‌برداری است، توضیح داد: شبکه‌ای مبتنی بر RDMA و نسخه دوم RoCE برای ارتباط سریع بین GPUها را در نظر گرفته‌ایم. همچنین یک شبکه ذخیره‌سازی سریع مبتنی بر Ceph برای تغذیه پرسرعت مدل‌های هوش مصنوعی در نظر گرفته شده است.

وی چالش ذخیره‌سازی را یکی از مسائل کلیدی در یادگیری عمیق دانست و گفت: در پروژه‌های یادگیری عمیق، نیاز به دسترسی هم‌زمان به حجم عظیمی از داده وجود دارد. در اغلب سیستم‌های ذخیره‌سازی رایج، اگر یک فرآیند به فایلی دسترسی پیدا کند، سایر فرآیندها نمی‌توانند به‌صورت هم‌زمان از آن استفاده کنند. به همین دلیل، در طراحی این ساختار لازم است امکان پردازش هم‌زمان و انتقال موازی داده‌ها با هزینه‌ای مقرون‌به‌صرفه پیش‌بینی شود.

وی اضافه کرد: ما نمی‌توانیم در این مقیاس از ذخیره‌سازی‌های تجاری گران‌قیمت استفاده کنیم. بنابراین به‌جای خرید تجهیزات گران‌قیمت، از راه‌حل‌های تعریف‌شده و دیفایند استفاده کردیم که هزینه کمتر و بهره‌وری بالاتری دارد.

امیدی با اشاره به دو ویژگی کلیدی در لایه پردازش، گفت: یکی از این ویژگی‌ها، قابلیت کار با مدل‌های بزرگ مبتنی بر دیتابیس است، به‌طوری‌که امکان تقسیم مدل روی چندین GPU فراهم شود. برای مدل‌هایی با پارامترهای بسیار بالا نمی‌توان آن‌ها را روی یک یا دو GPU اجرا کرد و باید بخش‌های مختلف آن روی چندین پردازنده گرافیکی توزیع شوند.

مدیر تیم پلتفرم سکوی ملی هوش مصنوعی با اشاره به زیرساخت‌های مشابه بین‌المللی، گفت: ما این ساختار را با زیرساخت‌های آمریکایی و همچنین پلتفرم‌های شرکت‌هایی چون علی‌بابا و هوآوی مقایسه کردیم. خوشبختانه نسخه تولیدی ما در بیشتر شاخص‌ها قابلیت رقابت با سرویس‌های مشابه را دارد.

امیدی خاطرنشان کرد: اگر دوستانی در کشور تجربه‌های مشابه دارند، با آغوش باز از آن‌ها استقبال می‌کنیم. هدف ما تکرار کارهای قبلی نیست. هرچه سریع‌تر و با هزینه کمتر به نتیجه برسیم، به نفع کشور است. زیرساختی که طراحی کرده‌ایم در حال حاضر قابل پیاده‌سازی است و برای همکاری با مجموعه‌های علاقه‌مند آماده‌ایم.

انتهای پیام 

به گزارش ایسنا، جمال امیدی امروز در نشست فعالان حوزه هوش مصنوعی به تشریح نحوه طراحی زیرساخت این سکو پرداخت و با اشاره به محدود بودن منابع سخت‌افزاری نظیر GPU، CPU و فضای ذخیره‌سازی، گفت: اگر این منابع محدود به‌صورت عادی و عمومی مورد استفاده قرار می‌گرفتند، کارایی لازم را ایجاد نمی‌کردند. به همین دلیل تصمیم گرفتیم لایه‌ای واسط بین لایه اجرایی سکو و سخت‌افزارهای موجود طراحی کنیم تا بیشترین بهره‌وری ممکن را از این منابع فراهم کنیم.

وی با اشاره به تجربیات پیشین در توسعه سیستم‌های مقیاس‌پذیر، افزود: هدف این بود که منابع محدود داخلی و ظرفیت‌های بیرونی را در یک ساختار منسجم و ترتیبی استفاده کنیم. در صنعت نیز با چالش‌هایی مشابه مواجه بودیم که بررسی و تحلیل آنها در طراحی این ساختار لحاظ شده است.

مدیر تیم پلتفرم سکوی هوش مصنوعی با تاکید بر اینکه منابع پردازشی نظیر GPU، CPU و فضای ذخیره‌سازی را تحت عنوان کلی «کامپیوتر» در نظر گرفتیم، خاطر نشان کرد: تخمین ما این است که بالغ بر ۳۰ میلیارد تومان تجهیزات در این حوزه نیاز است. اما هیچ‌یک از زیرساخت‌های فعلی آمادگی لازم برای پشتیبانی از چنین ساختاری را ندارند. ما باید بتوانیم به‌صورت مستقل، چندصد گیگابایت داده را با سرعت بالا تغذیه و پردازش کنیم. شبکه نیز باید توان این حجم را داشته باشد.

وی یکی از مسائل اساسی را انتخاب سیستم‌عامل مینیمال و بهینه برای استفاده از سخت‌افزارها دانست و یادآور شد: ما سیستم‌عاملی بسیار سبک و کم‌ حجم را انتخاب کردیم که به‌طور گسترده در دنیا شناخته‌شده است و با هدف مدیریت دقیق منابع سخت‌افزاری، تغییرات سیستم از یک مرکز کنترل واحد به آن ارجاع داده می‌شود.

این فعال توسعه‌دهنده زیر ساخت‌های هوش مصنوعی ادامه داد: برای نمونه در یک فرایند یادگیری ماشین توزیع‌شده، ممکن است هزاران پروسه هم‌زمان روی حجم زیادی از داده فعالیت داشته باشند. زمان‌بندی و توزیع این تسک‌ها روی سخت‌افزار، نیازمند یک لایه استاندارد و تخصصی است که در زیرساخت معمولی قابل اجرا نیست. ازاین‌رو از ابزارهایی بهره گرفتیم که کارایی بالا در مدیریت توزیع و هماهنگی وظایف داشته باشند.

وی همچنین به برخی راهکارهای مرسوم مانند SLURM اشاره کرد و گفت: با اینکه ابزارهایی مثل «اسلار» در پروژه‌های بین‌المللی مورد استفاده قرار می‌گیرند، اما با زیرساخت‌های مدرن سازگار نیستند. ما تنها تجربه قبلی در استفاده از اسلار را بررسی کرده و ساختار مشابهی را به سیستم‌عامل خود افزودیم.

این فعال فناور با بیان اینکه این زیرساخت اکنون در سه لایه اصلی طراحی شده و آماده بهره‌برداری است، توضیح داد: شبکه‌ای مبتنی بر RDMA و نسخه دوم RoCE برای ارتباط سریع بین GPUها را در نظر گرفته‌ایم. همچنین یک شبکه ذخیره‌سازی سریع مبتنی بر Ceph برای تغذیه پرسرعت مدل‌های هوش مصنوعی در نظر گرفته شده است.

وی چالش ذخیره‌سازی را یکی از مسائل کلیدی در یادگیری عمیق دانست و گفت: در پروژه‌های یادگیری عمیق، نیاز به دسترسی هم‌زمان به حجم عظیمی از داده وجود دارد. در اغلب سیستم‌های ذخیره‌سازی رایج، اگر یک فرآیند به فایلی دسترسی پیدا کند، سایر فرآیندها نمی‌توانند به‌صورت هم‌زمان از آن استفاده کنند. به همین دلیل، در طراحی این ساختار لازم است امکان پردازش هم‌زمان و انتقال موازی داده‌ها با هزینه‌ای مقرون‌به‌صرفه پیش‌بینی شود.

وی اضافه کرد: ما نمی‌توانیم در این مقیاس از ذخیره‌سازی‌های تجاری گران‌قیمت استفاده کنیم. بنابراین به‌جای خرید تجهیزات گران‌قیمت، از راه‌حل‌های تعریف‌شده و دیفایند استفاده کردیم که هزینه کمتر و بهره‌وری بالاتری دارد.

امیدی با اشاره به دو ویژگی کلیدی در لایه پردازش، گفت: یکی از این ویژگی‌ها، قابلیت کار با مدل‌های بزرگ مبتنی بر دیتابیس است، به‌طوری‌که امکان تقسیم مدل روی چندین GPU فراهم شود. برای مدل‌هایی با پارامترهای بسیار بالا نمی‌توان آن‌ها را روی یک یا دو GPU اجرا کرد و باید بخش‌های مختلف آن روی چندین پردازنده گرافیکی توزیع شوند.

مدیر تیم پلتفرم سکوی ملی هوش مصنوعی با اشاره به زیرساخت‌های مشابه بین‌المللی، گفت: ما این ساختار را با زیرساخت‌های آمریکایی و همچنین پلتفرم‌های شرکت‌هایی چون علی‌بابا و هوآوی مقایسه کردیم. خوشبختانه نسخه تولیدی ما در بیشتر شاخص‌ها قابلیت رقابت با سرویس‌های مشابه را دارد.

امیدی خاطرنشان کرد: اگر دوستانی در کشور تجربه‌های مشابه دارند، با آغوش باز از آن‌ها استقبال می‌کنیم. هدف ما تکرار کارهای قبلی نیست. هرچه سریع‌تر و با هزینه کمتر به نتیجه برسیم، به نفع کشور است. زیرساختی که طراحی کرده‌ایم در حال حاضر قابل پیاده‌سازی است و برای همکاری با مجموعه‌های علاقه‌مند آماده‌ایم.

انتهای پیام 

اخبارجدیدترین

رونمایی از قابلیت جدید «جمینای»

اپل در WWDC از قابلیت ترجمه پیام‌ و تماس‌ با هوش مصنوعی رونمایی می‌کند

سکوی ملی هوش مصنوعی با حمایت ۳۰ میلیاردی در راه آزمایش

به گزارش ایسنا، جمال امیدی امروز در نشست فعالان حوزه هوش مصنوعی به تشریح نحوه طراحی زیرساخت این سکو پرداخت و با اشاره به محدود بودن منابع سخت‌افزاری نظیر GPU، CPU و فضای ذخیره‌سازی، گفت: اگر این منابع محدود به‌صورت عادی و عمومی مورد استفاده قرار می‌گرفتند، کارایی لازم را ایجاد نمی‌کردند. به همین دلیل تصمیم گرفتیم لایه‌ای واسط بین لایه اجرایی سکو و سخت‌افزارهای موجود طراحی کنیم تا بیشترین بهره‌وری ممکن را از این منابع فراهم کنیم.

وی با اشاره به تجربیات پیشین در توسعه سیستم‌های مقیاس‌پذیر، افزود: هدف این بود که منابع محدود داخلی و ظرفیت‌های بیرونی را در یک ساختار منسجم و ترتیبی استفاده کنیم. در صنعت نیز با چالش‌هایی مشابه مواجه بودیم که بررسی و تحلیل آنها در طراحی این ساختار لحاظ شده است.

مدیر تیم پلتفرم سکوی هوش مصنوعی با تاکید بر اینکه منابع پردازشی نظیر GPU، CPU و فضای ذخیره‌سازی را تحت عنوان کلی «کامپیوتر» در نظر گرفتیم، خاطر نشان کرد: تخمین ما این است که بالغ بر ۳۰ میلیارد تومان تجهیزات در این حوزه نیاز است. اما هیچ‌یک از زیرساخت‌های فعلی آمادگی لازم برای پشتیبانی از چنین ساختاری را ندارند. ما باید بتوانیم به‌صورت مستقل، چندصد گیگابایت داده را با سرعت بالا تغذیه و پردازش کنیم. شبکه نیز باید توان این حجم را داشته باشد.

وی یکی از مسائل اساسی را انتخاب سیستم‌عامل مینیمال و بهینه برای استفاده از سخت‌افزارها دانست و یادآور شد: ما سیستم‌عاملی بسیار سبک و کم‌ حجم را انتخاب کردیم که به‌طور گسترده در دنیا شناخته‌شده است و با هدف مدیریت دقیق منابع سخت‌افزاری، تغییرات سیستم از یک مرکز کنترل واحد به آن ارجاع داده می‌شود.

این فعال توسعه‌دهنده زیر ساخت‌های هوش مصنوعی ادامه داد: برای نمونه در یک فرایند یادگیری ماشین توزیع‌شده، ممکن است هزاران پروسه هم‌زمان روی حجم زیادی از داده فعالیت داشته باشند. زمان‌بندی و توزیع این تسک‌ها روی سخت‌افزار، نیازمند یک لایه استاندارد و تخصصی است که در زیرساخت معمولی قابل اجرا نیست. ازاین‌رو از ابزارهایی بهره گرفتیم که کارایی بالا در مدیریت توزیع و هماهنگی وظایف داشته باشند.

وی همچنین به برخی راهکارهای مرسوم مانند SLURM اشاره کرد و گفت: با اینکه ابزارهایی مثل «اسلار» در پروژه‌های بین‌المللی مورد استفاده قرار می‌گیرند، اما با زیرساخت‌های مدرن سازگار نیستند. ما تنها تجربه قبلی در استفاده از اسلار را بررسی کرده و ساختار مشابهی را به سیستم‌عامل خود افزودیم.

این فعال فناور با بیان اینکه این زیرساخت اکنون در سه لایه اصلی طراحی شده و آماده بهره‌برداری است، توضیح داد: شبکه‌ای مبتنی بر RDMA و نسخه دوم RoCE برای ارتباط سریع بین GPUها را در نظر گرفته‌ایم. همچنین یک شبکه ذخیره‌سازی سریع مبتنی بر Ceph برای تغذیه پرسرعت مدل‌های هوش مصنوعی در نظر گرفته شده است.

وی چالش ذخیره‌سازی را یکی از مسائل کلیدی در یادگیری عمیق دانست و گفت: در پروژه‌های یادگیری عمیق، نیاز به دسترسی هم‌زمان به حجم عظیمی از داده وجود دارد. در اغلب سیستم‌های ذخیره‌سازی رایج، اگر یک فرآیند به فایلی دسترسی پیدا کند، سایر فرآیندها نمی‌توانند به‌صورت هم‌زمان از آن استفاده کنند. به همین دلیل، در طراحی این ساختار لازم است امکان پردازش هم‌زمان و انتقال موازی داده‌ها با هزینه‌ای مقرون‌به‌صرفه پیش‌بینی شود.

وی اضافه کرد: ما نمی‌توانیم در این مقیاس از ذخیره‌سازی‌های تجاری گران‌قیمت استفاده کنیم. بنابراین به‌جای خرید تجهیزات گران‌قیمت، از راه‌حل‌های تعریف‌شده و دیفایند استفاده کردیم که هزینه کمتر و بهره‌وری بالاتری دارد.

امیدی با اشاره به دو ویژگی کلیدی در لایه پردازش، گفت: یکی از این ویژگی‌ها، قابلیت کار با مدل‌های بزرگ مبتنی بر دیتابیس است، به‌طوری‌که امکان تقسیم مدل روی چندین GPU فراهم شود. برای مدل‌هایی با پارامترهای بسیار بالا نمی‌توان آن‌ها را روی یک یا دو GPU اجرا کرد و باید بخش‌های مختلف آن روی چندین پردازنده گرافیکی توزیع شوند.

مدیر تیم پلتفرم سکوی ملی هوش مصنوعی با اشاره به زیرساخت‌های مشابه بین‌المللی، گفت: ما این ساختار را با زیرساخت‌های آمریکایی و همچنین پلتفرم‌های شرکت‌هایی چون علی‌بابا و هوآوی مقایسه کردیم. خوشبختانه نسخه تولیدی ما در بیشتر شاخص‌ها قابلیت رقابت با سرویس‌های مشابه را دارد.

امیدی خاطرنشان کرد: اگر دوستانی در کشور تجربه‌های مشابه دارند، با آغوش باز از آن‌ها استقبال می‌کنیم. هدف ما تکرار کارهای قبلی نیست. هرچه سریع‌تر و با هزینه کمتر به نتیجه برسیم، به نفع کشور است. زیرساختی که طراحی کرده‌ایم در حال حاضر قابل پیاده‌سازی است و برای همکاری با مجموعه‌های علاقه‌مند آماده‌ایم.

انتهای پیام 

به گزارش ایسنا، جمال امیدی امروز در نشست فعالان حوزه هوش مصنوعی به تشریح نحوه طراحی زیرساخت این سکو پرداخت و با اشاره به محدود بودن منابع سخت‌افزاری نظیر GPU، CPU و فضای ذخیره‌سازی، گفت: اگر این منابع محدود به‌صورت عادی و عمومی مورد استفاده قرار می‌گرفتند، کارایی لازم را ایجاد نمی‌کردند. به همین دلیل تصمیم گرفتیم لایه‌ای واسط بین لایه اجرایی سکو و سخت‌افزارهای موجود طراحی کنیم تا بیشترین بهره‌وری ممکن را از این منابع فراهم کنیم.

وی با اشاره به تجربیات پیشین در توسعه سیستم‌های مقیاس‌پذیر، افزود: هدف این بود که منابع محدود داخلی و ظرفیت‌های بیرونی را در یک ساختار منسجم و ترتیبی استفاده کنیم. در صنعت نیز با چالش‌هایی مشابه مواجه بودیم که بررسی و تحلیل آنها در طراحی این ساختار لحاظ شده است.

مدیر تیم پلتفرم سکوی هوش مصنوعی با تاکید بر اینکه منابع پردازشی نظیر GPU، CPU و فضای ذخیره‌سازی را تحت عنوان کلی «کامپیوتر» در نظر گرفتیم، خاطر نشان کرد: تخمین ما این است که بالغ بر ۳۰ میلیارد تومان تجهیزات در این حوزه نیاز است. اما هیچ‌یک از زیرساخت‌های فعلی آمادگی لازم برای پشتیبانی از چنین ساختاری را ندارند. ما باید بتوانیم به‌صورت مستقل، چندصد گیگابایت داده را با سرعت بالا تغذیه و پردازش کنیم. شبکه نیز باید توان این حجم را داشته باشد.

وی یکی از مسائل اساسی را انتخاب سیستم‌عامل مینیمال و بهینه برای استفاده از سخت‌افزارها دانست و یادآور شد: ما سیستم‌عاملی بسیار سبک و کم‌ حجم را انتخاب کردیم که به‌طور گسترده در دنیا شناخته‌شده است و با هدف مدیریت دقیق منابع سخت‌افزاری، تغییرات سیستم از یک مرکز کنترل واحد به آن ارجاع داده می‌شود.

این فعال توسعه‌دهنده زیر ساخت‌های هوش مصنوعی ادامه داد: برای نمونه در یک فرایند یادگیری ماشین توزیع‌شده، ممکن است هزاران پروسه هم‌زمان روی حجم زیادی از داده فعالیت داشته باشند. زمان‌بندی و توزیع این تسک‌ها روی سخت‌افزار، نیازمند یک لایه استاندارد و تخصصی است که در زیرساخت معمولی قابل اجرا نیست. ازاین‌رو از ابزارهایی بهره گرفتیم که کارایی بالا در مدیریت توزیع و هماهنگی وظایف داشته باشند.

وی همچنین به برخی راهکارهای مرسوم مانند SLURM اشاره کرد و گفت: با اینکه ابزارهایی مثل «اسلار» در پروژه‌های بین‌المللی مورد استفاده قرار می‌گیرند، اما با زیرساخت‌های مدرن سازگار نیستند. ما تنها تجربه قبلی در استفاده از اسلار را بررسی کرده و ساختار مشابهی را به سیستم‌عامل خود افزودیم.

این فعال فناور با بیان اینکه این زیرساخت اکنون در سه لایه اصلی طراحی شده و آماده بهره‌برداری است، توضیح داد: شبکه‌ای مبتنی بر RDMA و نسخه دوم RoCE برای ارتباط سریع بین GPUها را در نظر گرفته‌ایم. همچنین یک شبکه ذخیره‌سازی سریع مبتنی بر Ceph برای تغذیه پرسرعت مدل‌های هوش مصنوعی در نظر گرفته شده است.

وی چالش ذخیره‌سازی را یکی از مسائل کلیدی در یادگیری عمیق دانست و گفت: در پروژه‌های یادگیری عمیق، نیاز به دسترسی هم‌زمان به حجم عظیمی از داده وجود دارد. در اغلب سیستم‌های ذخیره‌سازی رایج، اگر یک فرآیند به فایلی دسترسی پیدا کند، سایر فرآیندها نمی‌توانند به‌صورت هم‌زمان از آن استفاده کنند. به همین دلیل، در طراحی این ساختار لازم است امکان پردازش هم‌زمان و انتقال موازی داده‌ها با هزینه‌ای مقرون‌به‌صرفه پیش‌بینی شود.

وی اضافه کرد: ما نمی‌توانیم در این مقیاس از ذخیره‌سازی‌های تجاری گران‌قیمت استفاده کنیم. بنابراین به‌جای خرید تجهیزات گران‌قیمت، از راه‌حل‌های تعریف‌شده و دیفایند استفاده کردیم که هزینه کمتر و بهره‌وری بالاتری دارد.

امیدی با اشاره به دو ویژگی کلیدی در لایه پردازش، گفت: یکی از این ویژگی‌ها، قابلیت کار با مدل‌های بزرگ مبتنی بر دیتابیس است، به‌طوری‌که امکان تقسیم مدل روی چندین GPU فراهم شود. برای مدل‌هایی با پارامترهای بسیار بالا نمی‌توان آن‌ها را روی یک یا دو GPU اجرا کرد و باید بخش‌های مختلف آن روی چندین پردازنده گرافیکی توزیع شوند.

مدیر تیم پلتفرم سکوی ملی هوش مصنوعی با اشاره به زیرساخت‌های مشابه بین‌المللی، گفت: ما این ساختار را با زیرساخت‌های آمریکایی و همچنین پلتفرم‌های شرکت‌هایی چون علی‌بابا و هوآوی مقایسه کردیم. خوشبختانه نسخه تولیدی ما در بیشتر شاخص‌ها قابلیت رقابت با سرویس‌های مشابه را دارد.

امیدی خاطرنشان کرد: اگر دوستانی در کشور تجربه‌های مشابه دارند، با آغوش باز از آن‌ها استقبال می‌کنیم. هدف ما تکرار کارهای قبلی نیست. هرچه سریع‌تر و با هزینه کمتر به نتیجه برسیم، به نفع کشور است. زیرساختی که طراحی کرده‌ایم در حال حاضر قابل پیاده‌سازی است و برای همکاری با مجموعه‌های علاقه‌مند آماده‌ایم.

انتهای پیام 

پست قبلی

پیش‌بینی رشد بی‌سابقه بیت کوین در سال ۲۰۲۵ / تحلیل‌گران از افزایش قیمت بیت کوین خبر می‌دهند

پست بعدی

دلار دوباره داغ شد | التهاب بازار با تهدید قطعنامه جدید علیه ایران

مربوطه پست ها

رونمایی از قابلیت جدید «جمینای»
هوش مصنوعی

رونمایی از قابلیت جدید «جمینای»

۱۷ خرداد ۱۴۰۴
اپل در WWDC از قابلیت ترجمه پیام‌ و تماس‌ با هوش مصنوعی رونمایی می‌کند
هوش مصنوعی

اپل در WWDC از قابلیت ترجمه پیام‌ و تماس‌ با هوش مصنوعی رونمایی می‌کند

۱۷ خرداد ۱۴۰۴
سکوی ملی هوش مصنوعی با حمایت ۳۰ میلیاردی در راه آزمایش
هوش مصنوعی

سکوی ملی هوش مصنوعی با حمایت ۳۰ میلیاردی در راه آزمایش

۱۷ خرداد ۱۴۰۴
مدل جدید DeepSeek با بهبودهای چشمگیر به‌روز شد؛ چالشی تازه برای OpenAI o3 و جمینای 2.5 پرو
هوش مصنوعی

مدل جدید DeepSeek با بهبودهای چشمگیر به‌روز شد؛ چالشی تازه برای OpenAI o3 و جمینای 2.5 پرو

۱۷ خرداد ۱۴۰۴
«گوگل درایو ایرانی» با الهام از گوگل در سکوی ملی هوش مصنوعی در خدمت همه کاربران
هوش مصنوعی

«گوگل درایو ایرانی» با الهام از گوگل در سکوی ملی هوش مصنوعی در خدمت همه کاربران

۱۷ خرداد ۱۴۰۴
هوش مصنوعی جمینای به قابلیت زمان‌بندی انجام وظایف مجهز شد
هوش مصنوعی

هوش مصنوعی جمینای به قابلیت زمان‌بندی انجام وظایف مجهز شد

۱۷ خرداد ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

یک + نه =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • 5 دلیل برای انتخاب سوتین اسفنجی
  • مسیر تبدیل شدن به برنامه‌نویس پایتون؛ از صفر تا استخدام
  • ایران و عمان؛ دوستان قدیمی با حجم تجارت ضعیف/ پیشنهاد جذاب مسقط برای فعالان اقتصادی ایرانی چیست؟
  • قیمت گوشی‌های سامسونگ، امروز شنبه ۱۷ خرداد ۱۴۰۴
  • قیمت گوشی‌های شیائومی، امروز شنبه ۱۷ خرداد ۱۴۰۴
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.