دانش جوین
شنبه, تیر ۲۱, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی سایر اخبار تکنولوژی

دیپ‌مایند گوگل با معماری جدید PEER عملکرد مدل‌های هوش مصنوعی را بهبود می‌بخشد

کارشناس روابط عمومی دیجیتال توسط کارشناس روابط عمومی دیجیتال
۰۴ مهر ۱۴۰۳
در سایر اخبار تکنولوژی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
دیپ‌مایند گوگل با معماری جدید PEER عملکرد مدل‌های هوش مصنوعی را بهبود می‌بخشد
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

تکنیک «ترکیب متخصصان» (MoE) به رویکردی محبوب برای افزایش مقیاس مدل‌های زبانی بزرگ بدون افزایش هزینه‌های محاسباتی تبدیل شده است. اکنون دیپ‌مایند گوگل با معرفی معماری PEER قصد دارد محدودیت‌های این تکنیک را برطرف کند تا عملکرد هوش مصنوعی را بهبود دهد و هزینه‌های توسعه آن را تعدیل کند.

در تکنیک MoE به‌جای استفاده از کل ظرفیت مدل برای هر ورودی، داده‌ها به ماژول‌های کوچکی موسوم به «متخصص» هدایت می‌شوند. بااین‌حال، تکنیک‌های فعلی MoE محدودیت‌هایی دارند که آن‌ها را منحصر به تعداد نسبتاً کمی از این متخصصان می‌کند. دیپ‌مایند گوگل در مقاله‌ای جدید، معماری PEER را معرفی کرده که می‌تواند مدل‌های MOE را به میلیون‌ها متخصص تقسیم کند و عملکرد محاسباتی مدل‌های زبانی بزرگ را بهبود بخشد.

چندین مدل هوش مصنوعی محبوب ازجمله Mistral ،Grok و GPT-4 از تکنیک MoE بهره می‌برند.

معماری جدید PEER دیپ‌مایند گوگل

براساس گزارش VentureBeat، معماری جدید محققان دیپ‌مایند این باور قدیمی را زیر سؤال می‌برد که مدل‌های MoE با تعداد محدودی از «متخصصان» به اوج بازدهی می‌رسند. PEER نشان می‌دهد با استفاده از مکانیسم‌های بازیابی و مسیریابی مناسب، می‌توان MoE را به میلیون‌ها «متخصص» تقسیم کرد. این رویکرد می‌تواند در کاهش بیشتر هزینه‌ها و پیچیدگی آموزش مؤثر باشد و به ارائه مدل‌های زبانی بسیار بزرگ کمک کند.

معماری PEER دیپ‌مایند

چند سال گذشته، مشخص شد افزایش مقیاس مدل‌های زبانی با افزایش تعداد پارامترهای آن‌ها عملکرد و قابلیت‌های جدید را بهبود می‌دهد. همچنین محققان دریافته‌اند که افزایش «دانه‌بندی» (Granularity) یک مدل MOE که به تعداد متخصصان آن اشاره دارد، می‌تواند منجر به افزایش عملکرد شود، به‌ویژه زمانی که همراه افزایش اندازه مدل و داده‌های آموزشی باشد.

همچنین MoE با دانه‌بندی بالا می‌تواند مدل‌ها را قادر سازد تا دانش جدید را مؤثرتر بیاموزند. بااین‌حال یکی از محدودیت‌های فعلی این است که این مدل‌ها معمولاً مسیریاب‌های ثابتی دارند که برای تعداد خاصی از متخصصان طراحی شده‌اند و با اضافه‌ شدن متخصصان جدید نیاز به تنظیم مجدد دارند.

اکنون معماری PEER به مسائل و محدودیت‌های مقیاس‌بندی MoE می‌پردازد. برای هر ورودی، PEER ابتدا از محاسبات اولیه سریع ایجاد فهرست کوتاهی از گزینه‌های مختلف برای انتخاب و فعال‌کردن متخصصان مناسب استفاده می‌کند. این مکانیسم MoE را قادر می‌سازد تا تعداد بسیار زیادی از متخصصان را بدون کاهش سرعت مدیریت کند.

گوگل احتمالاً از معماری PEER در مدل‌های جمینای 1.5 استفاده خواهد کرد.

تکنیک «ترکیب متخصصان» (MoE) به رویکردی محبوب برای افزایش مقیاس مدل‌های زبانی بزرگ بدون افزایش هزینه‌های محاسباتی تبدیل شده است. اکنون دیپ‌مایند گوگل با معرفی معماری PEER قصد دارد محدودیت‌های این تکنیک را برطرف کند تا عملکرد هوش مصنوعی را بهبود دهد و هزینه‌های توسعه آن را تعدیل کند.

در تکنیک MoE به‌جای استفاده از کل ظرفیت مدل برای هر ورودی، داده‌ها به ماژول‌های کوچکی موسوم به «متخصص» هدایت می‌شوند. بااین‌حال، تکنیک‌های فعلی MoE محدودیت‌هایی دارند که آن‌ها را منحصر به تعداد نسبتاً کمی از این متخصصان می‌کند. دیپ‌مایند گوگل در مقاله‌ای جدید، معماری PEER را معرفی کرده که می‌تواند مدل‌های MOE را به میلیون‌ها متخصص تقسیم کند و عملکرد محاسباتی مدل‌های زبانی بزرگ را بهبود بخشد.

چندین مدل هوش مصنوعی محبوب ازجمله Mistral ،Grok و GPT-4 از تکنیک MoE بهره می‌برند.

معماری جدید PEER دیپ‌مایند گوگل

براساس گزارش VentureBeat، معماری جدید محققان دیپ‌مایند این باور قدیمی را زیر سؤال می‌برد که مدل‌های MoE با تعداد محدودی از «متخصصان» به اوج بازدهی می‌رسند. PEER نشان می‌دهد با استفاده از مکانیسم‌های بازیابی و مسیریابی مناسب، می‌توان MoE را به میلیون‌ها «متخصص» تقسیم کرد. این رویکرد می‌تواند در کاهش بیشتر هزینه‌ها و پیچیدگی آموزش مؤثر باشد و به ارائه مدل‌های زبانی بسیار بزرگ کمک کند.

معماری PEER دیپ‌مایند

چند سال گذشته، مشخص شد افزایش مقیاس مدل‌های زبانی با افزایش تعداد پارامترهای آن‌ها عملکرد و قابلیت‌های جدید را بهبود می‌دهد. همچنین محققان دریافته‌اند که افزایش «دانه‌بندی» (Granularity) یک مدل MOE که به تعداد متخصصان آن اشاره دارد، می‌تواند منجر به افزایش عملکرد شود، به‌ویژه زمانی که همراه افزایش اندازه مدل و داده‌های آموزشی باشد.

همچنین MoE با دانه‌بندی بالا می‌تواند مدل‌ها را قادر سازد تا دانش جدید را مؤثرتر بیاموزند. بااین‌حال یکی از محدودیت‌های فعلی این است که این مدل‌ها معمولاً مسیریاب‌های ثابتی دارند که برای تعداد خاصی از متخصصان طراحی شده‌اند و با اضافه‌ شدن متخصصان جدید نیاز به تنظیم مجدد دارند.

اکنون معماری PEER به مسائل و محدودیت‌های مقیاس‌بندی MoE می‌پردازد. برای هر ورودی، PEER ابتدا از محاسبات اولیه سریع ایجاد فهرست کوتاهی از گزینه‌های مختلف برای انتخاب و فعال‌کردن متخصصان مناسب استفاده می‌کند. این مکانیسم MoE را قادر می‌سازد تا تعداد بسیار زیادی از متخصصان را بدون کاهش سرعت مدیریت کند.

گوگل احتمالاً از معماری PEER در مدل‌های جمینای 1.5 استفاده خواهد کرد.

اخبارجدیدترین

چرا گرایش نوجوانان به استفاده از موبایل در حال کاهش است؟

سامسونگ مرزهای طراحی را جابه‌جا کرد / «گلکسی زدفولد» باریک‌تر از همیشه/ عکس

راز سلامتی از زبان مدیرعامل تلگرام؛ «این ۷ کار را هرگز انجام نمی‌دهم»

تکنیک «ترکیب متخصصان» (MoE) به رویکردی محبوب برای افزایش مقیاس مدل‌های زبانی بزرگ بدون افزایش هزینه‌های محاسباتی تبدیل شده است. اکنون دیپ‌مایند گوگل با معرفی معماری PEER قصد دارد محدودیت‌های این تکنیک را برطرف کند تا عملکرد هوش مصنوعی را بهبود دهد و هزینه‌های توسعه آن را تعدیل کند.

در تکنیک MoE به‌جای استفاده از کل ظرفیت مدل برای هر ورودی، داده‌ها به ماژول‌های کوچکی موسوم به «متخصص» هدایت می‌شوند. بااین‌حال، تکنیک‌های فعلی MoE محدودیت‌هایی دارند که آن‌ها را منحصر به تعداد نسبتاً کمی از این متخصصان می‌کند. دیپ‌مایند گوگل در مقاله‌ای جدید، معماری PEER را معرفی کرده که می‌تواند مدل‌های MOE را به میلیون‌ها متخصص تقسیم کند و عملکرد محاسباتی مدل‌های زبانی بزرگ را بهبود بخشد.

چندین مدل هوش مصنوعی محبوب ازجمله Mistral ،Grok و GPT-4 از تکنیک MoE بهره می‌برند.

معماری جدید PEER دیپ‌مایند گوگل

براساس گزارش VentureBeat، معماری جدید محققان دیپ‌مایند این باور قدیمی را زیر سؤال می‌برد که مدل‌های MoE با تعداد محدودی از «متخصصان» به اوج بازدهی می‌رسند. PEER نشان می‌دهد با استفاده از مکانیسم‌های بازیابی و مسیریابی مناسب، می‌توان MoE را به میلیون‌ها «متخصص» تقسیم کرد. این رویکرد می‌تواند در کاهش بیشتر هزینه‌ها و پیچیدگی آموزش مؤثر باشد و به ارائه مدل‌های زبانی بسیار بزرگ کمک کند.

معماری PEER دیپ‌مایند

چند سال گذشته، مشخص شد افزایش مقیاس مدل‌های زبانی با افزایش تعداد پارامترهای آن‌ها عملکرد و قابلیت‌های جدید را بهبود می‌دهد. همچنین محققان دریافته‌اند که افزایش «دانه‌بندی» (Granularity) یک مدل MOE که به تعداد متخصصان آن اشاره دارد، می‌تواند منجر به افزایش عملکرد شود، به‌ویژه زمانی که همراه افزایش اندازه مدل و داده‌های آموزشی باشد.

همچنین MoE با دانه‌بندی بالا می‌تواند مدل‌ها را قادر سازد تا دانش جدید را مؤثرتر بیاموزند. بااین‌حال یکی از محدودیت‌های فعلی این است که این مدل‌ها معمولاً مسیریاب‌های ثابتی دارند که برای تعداد خاصی از متخصصان طراحی شده‌اند و با اضافه‌ شدن متخصصان جدید نیاز به تنظیم مجدد دارند.

اکنون معماری PEER به مسائل و محدودیت‌های مقیاس‌بندی MoE می‌پردازد. برای هر ورودی، PEER ابتدا از محاسبات اولیه سریع ایجاد فهرست کوتاهی از گزینه‌های مختلف برای انتخاب و فعال‌کردن متخصصان مناسب استفاده می‌کند. این مکانیسم MoE را قادر می‌سازد تا تعداد بسیار زیادی از متخصصان را بدون کاهش سرعت مدیریت کند.

گوگل احتمالاً از معماری PEER در مدل‌های جمینای 1.5 استفاده خواهد کرد.

تکنیک «ترکیب متخصصان» (MoE) به رویکردی محبوب برای افزایش مقیاس مدل‌های زبانی بزرگ بدون افزایش هزینه‌های محاسباتی تبدیل شده است. اکنون دیپ‌مایند گوگل با معرفی معماری PEER قصد دارد محدودیت‌های این تکنیک را برطرف کند تا عملکرد هوش مصنوعی را بهبود دهد و هزینه‌های توسعه آن را تعدیل کند.

در تکنیک MoE به‌جای استفاده از کل ظرفیت مدل برای هر ورودی، داده‌ها به ماژول‌های کوچکی موسوم به «متخصص» هدایت می‌شوند. بااین‌حال، تکنیک‌های فعلی MoE محدودیت‌هایی دارند که آن‌ها را منحصر به تعداد نسبتاً کمی از این متخصصان می‌کند. دیپ‌مایند گوگل در مقاله‌ای جدید، معماری PEER را معرفی کرده که می‌تواند مدل‌های MOE را به میلیون‌ها متخصص تقسیم کند و عملکرد محاسباتی مدل‌های زبانی بزرگ را بهبود بخشد.

چندین مدل هوش مصنوعی محبوب ازجمله Mistral ،Grok و GPT-4 از تکنیک MoE بهره می‌برند.

معماری جدید PEER دیپ‌مایند گوگل

براساس گزارش VentureBeat، معماری جدید محققان دیپ‌مایند این باور قدیمی را زیر سؤال می‌برد که مدل‌های MoE با تعداد محدودی از «متخصصان» به اوج بازدهی می‌رسند. PEER نشان می‌دهد با استفاده از مکانیسم‌های بازیابی و مسیریابی مناسب، می‌توان MoE را به میلیون‌ها «متخصص» تقسیم کرد. این رویکرد می‌تواند در کاهش بیشتر هزینه‌ها و پیچیدگی آموزش مؤثر باشد و به ارائه مدل‌های زبانی بسیار بزرگ کمک کند.

معماری PEER دیپ‌مایند

چند سال گذشته، مشخص شد افزایش مقیاس مدل‌های زبانی با افزایش تعداد پارامترهای آن‌ها عملکرد و قابلیت‌های جدید را بهبود می‌دهد. همچنین محققان دریافته‌اند که افزایش «دانه‌بندی» (Granularity) یک مدل MOE که به تعداد متخصصان آن اشاره دارد، می‌تواند منجر به افزایش عملکرد شود، به‌ویژه زمانی که همراه افزایش اندازه مدل و داده‌های آموزشی باشد.

همچنین MoE با دانه‌بندی بالا می‌تواند مدل‌ها را قادر سازد تا دانش جدید را مؤثرتر بیاموزند. بااین‌حال یکی از محدودیت‌های فعلی این است که این مدل‌ها معمولاً مسیریاب‌های ثابتی دارند که برای تعداد خاصی از متخصصان طراحی شده‌اند و با اضافه‌ شدن متخصصان جدید نیاز به تنظیم مجدد دارند.

اکنون معماری PEER به مسائل و محدودیت‌های مقیاس‌بندی MoE می‌پردازد. برای هر ورودی، PEER ابتدا از محاسبات اولیه سریع ایجاد فهرست کوتاهی از گزینه‌های مختلف برای انتخاب و فعال‌کردن متخصصان مناسب استفاده می‌کند. این مکانیسم MoE را قادر می‌سازد تا تعداد بسیار زیادی از متخصصان را بدون کاهش سرعت مدیریت کند.

گوگل احتمالاً از معماری PEER در مدل‌های جمینای 1.5 استفاده خواهد کرد.

پست قبلی

پژوهش جدید: هوش مصنوعی مولد به خلاقیت کمک می‌کند اما به اصالت آسیب می‌رساند

پست بعدی

OpenAI ظاهراً با کارمندان خود قرارداد عدم‌افشای اطلاعات غیرقانونی بسته است

مربوطه پست ها

چرا گرایش نوجوانان به استفاده از موبایل در حال کاهش است؟
سایر اخبار تکنولوژی

چرا گرایش نوجوانان به استفاده از موبایل در حال کاهش است؟

۲۱ تیر ۱۴۰۴
سامسونگ مرزهای طراحی را جابه‌جا کرد / «گلکسی زدفولد» باریک‌تر از همیشه/ عکس
سایر اخبار تکنولوژی

سامسونگ مرزهای طراحی را جابه‌جا کرد / «گلکسی زدفولد» باریک‌تر از همیشه/ عکس

۲۱ تیر ۱۴۰۴
راز سلامتی از زبان مدیرعامل تلگرام؛ «این ۷ کار را هرگز انجام نمی‌دهم»
سایر اخبار تکنولوژی

راز سلامتی از زبان مدیرعامل تلگرام؛ «این ۷ کار را هرگز انجام نمی‌دهم»

۲۱ تیر ۱۴۰۴
ستار هاشمی: «پیام» باید الگوی ملی شود / «ایران دیجیتال»، ستون‌ تحول دیجیتال در کشور
سایر اخبار تکنولوژی

ستار هاشمی: «پیام» باید الگوی ملی شود / «ایران دیجیتال»، ستون‌ تحول دیجیتال در کشور

۲۰ تیر ۱۴۰۴
باخت خریداران زد فولد ۷/ آیا سامسونگ عمداً باتری فولد ۷ را قربانی طراحی کرده؟
سایر اخبار تکنولوژی

باخت خریداران زد فولد ۷/ آیا سامسونگ عمداً باتری فولد ۷ را قربانی طراحی کرده؟

۲۰ تیر ۱۴۰۴
کدام قابلیت‌های هوش مصنوعی سامسونگ تا ابد رایگان می‌مانند؟
سایر اخبار تکنولوژی

کدام قابلیت‌های هوش مصنوعی سامسونگ تا ابد رایگان می‌مانند؟

۲۰ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

5 × 5 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • قسمت اول مستند زخم جنگ؛ سالن بهشت آندیا
  • ماموریتی غیرممکن برای قلعه نویی اما ممکن برای پرسپولیس!
  • پروفسور خوشحال‌ترین سرمربی پرسپولیس شد!
  • «پلکانی به سوی بهشت» اثری مستقل است؛ عصاره‌ای از مرگ و زندگی!
  • تداوم گردوغبار و وزش باد در تهران تا اواسط هفته پیش رو
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.