دانش جوین
چهارشنبه, خرداد ۲۱, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

داده‌هایی که هوش مصنوعی را «مسموم» می‌کنند

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۰۸ اردیبهشت ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
داده‌هایی که هوش مصنوعی را «مسموم» می‌کنند
3
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، مهاجمان سایبری دوزهای کوچکی از «داده‌های مسموم»، به شکل اطلاعات نادرست یا گمراه‌کننده را به مجموعه‌های آموزشی مهم هوش مصنوعی وارد می‌کنند و ماموریت آنها خرابکاری در مدل‌هایی است که زمانی قابل اعتماد بودند تا آنها را در جهتی کاملا متفاوت منحرف کنند.

به نقل از دیجیتال‌ترندز، اکثر سیستم‌های هوش مصنوعی که امروزه با آنها مواجه می‌شویم از چت جی‌پی‌تی گرفته تا توصیه‌های شخصی‌سازی‌شده نتفلیکس فقط به دلیل حجم گسترده متن، تصویر، گفتار و سایر داده‌هایی که بر اساس آنها آموزش دیده‌اند، به اندازه کافی «هوشمند» هستند که چنین شاهکارهای چشمگیری را انجام دهند. اگر این گنجینه غنی آلوده شود، رفتار مدل می‌تواند دچار مشکل شود.

پیامدهای چنین اتفاقی در دنیای واقعی بسیار فراتر از یک چت‌بات است که بی هدف حرف می‌زند یا مولدهای متن به تصویری که وقتی از آنها خواسته می‌شود پرنده‌ای را نشان دهند، تصویر یک هواپیما را تولید می‌کنند. گروه‌هایی از افراد سودجو می‌توانند به طور بالقوه باعث شوند که یک ماشین خودران چراغ قرمز را نادیده بگیرد، یا در مقیاس بسیار بزرگتر، باعث اختلال و قطعی شبکه برق شوند.

برای دفاع در برابر تهدید حملات مختلف مسمومیت داده‌ها، گروهی از محققان امنیت سایبری دو فناوری نوظهور یعنی یادگیری فدرال و بلاکچین را برای آموزش ایمن‌تر هوش مصنوعی ترکیب کرده‌اند. رویکرد نوآورانه این گروه با موفقیت، داده‌های نادرست را قبل از اینکه بتوانند مجموعه داده‌های آموزشی را به خطر بیندازند، شناسایی و حذف کرد.

هادی امینی، محقق ارشد و استادیار در دانشکده علوم محاسبات و اطلاعات بنیادی موسسه نایت، می‌گوید: ما روشی ایجاد کرده‌ایم که می‌تواند کاربردهای زیادی برای تاب‌آوری زیرساخت‌های حیاتی، امنیت سایبری حمل و نقل، مراقبت‌های بهداشتی و موارد دیگر داشته باشد.

بخش اول این رویکرد جدید شامل یادگیری فدرال است. این روش منحصر به فرد برای آموزش هوش مصنوعی، از یک نسخه کوچک از یک مدل آموزشی استفاده می‌کند که مستقیما روی دستگاه شما آموزش می‌بیند و فقط به‌روزرسانی‌ها و نه داده‌های شخصی کاربر را با مدل جهانی روی سرور یک شرکت به اشتراک می‌گذارد. این روش اگرچه که حریم خصوصی را حفظ می‌کند، اما همچنان در برابر حملات داده‌های مسموم، آسیب‌پذیر است.

اروین مور (Ervin Moore)، کاندیدای دکترا در آزمایشگاه امینی و نویسنده اصلی این مطالعه، توضیح می‌دهد: تأیید اینکه آیا داده‌های کاربر قبل از رسیدن به مدل، صحیح یا نادرست است، چالشی برای یادگیری فدرال است. بنابراین، ما برای کاهش این نقص به فکر بلاکچین افتادیم.

بلاکچین که به دلیل نقشش در ارزهای دیجیتال مانند بیت‌کوین محبوبیت پیدا کرده است، یک پایگاه داده مشترک است که در شبکه‌ای از رایانه‌ها توزیع شده است. داده‌ها در بلوک‌هایی که به ترتیب زمانی روی یک زنجیره به هم متصل شده‌اند، ذخیره می‌شوند. هر کدام اثر انگشت خود و همچنین اثر انگشت بلوک قبلی را دارند که آن را عملا آن را ضد دستکاری می‌کند.

کل زنجیره از یک ساختار خاص پیروی می‌کند. این مانند یک فرآیند بررسی است تا اطمینان حاصل شود که بلوک‌های تصادفی اضافه نمی‌شوند. می‌توان آن را مانند یک چک لیست برای پذیرش داده در نظر گرفت.

محققان هنگام ساخت مدل خود از این قابلیت به نفع خود استفاده کردند. این مدل به‌روزرسانی‌های بلوک را مقایسه می‌کرد و محاسبه می‌کرد که آیا به‌روزرسانی‌ها به طور بالقوه سمی هستند یا خیر. به‌روزرسانی‌های بالقوه سمی ثبت شده و سپس از تجمیع شبکه حذف می‌شدند.

امینی، که همچنین رهبری تیم متخصصان امنیت سایبری و هوش مصنوعی دانشگاه فلوریدا را بر عهده دارد و در حال بررسی هوش مصنوعی امن برای سیستم‌های حمل و نقل متصل و خودران است، می‌گوید: گروه ما اکنون با همکاری مرکز ملی امنیت سایبری و تاب‌آوری حمل و نقل همکاری نزدیکی دارد تا از رمزگذاری کوانتومی پیشرفته برای محافظت از داده‌ها و سیستم‌ها استفاده کند. هدف ما تضمین ایمنی و امنیت زیرساخت‌های حمل و نقل و در عین حال استفاده از قدرت هوش مصنوعی پیشرفته برای بهبود سیستم‌های حمل و نقل است.

انتهای پیام

به گزارش ایسنا، مهاجمان سایبری دوزهای کوچکی از «داده‌های مسموم»، به شکل اطلاعات نادرست یا گمراه‌کننده را به مجموعه‌های آموزشی مهم هوش مصنوعی وارد می‌کنند و ماموریت آنها خرابکاری در مدل‌هایی است که زمانی قابل اعتماد بودند تا آنها را در جهتی کاملا متفاوت منحرف کنند.

به نقل از دیجیتال‌ترندز، اکثر سیستم‌های هوش مصنوعی که امروزه با آنها مواجه می‌شویم از چت جی‌پی‌تی گرفته تا توصیه‌های شخصی‌سازی‌شده نتفلیکس فقط به دلیل حجم گسترده متن، تصویر، گفتار و سایر داده‌هایی که بر اساس آنها آموزش دیده‌اند، به اندازه کافی «هوشمند» هستند که چنین شاهکارهای چشمگیری را انجام دهند. اگر این گنجینه غنی آلوده شود، رفتار مدل می‌تواند دچار مشکل شود.

پیامدهای چنین اتفاقی در دنیای واقعی بسیار فراتر از یک چت‌بات است که بی هدف حرف می‌زند یا مولدهای متن به تصویری که وقتی از آنها خواسته می‌شود پرنده‌ای را نشان دهند، تصویر یک هواپیما را تولید می‌کنند. گروه‌هایی از افراد سودجو می‌توانند به طور بالقوه باعث شوند که یک ماشین خودران چراغ قرمز را نادیده بگیرد، یا در مقیاس بسیار بزرگتر، باعث اختلال و قطعی شبکه برق شوند.

برای دفاع در برابر تهدید حملات مختلف مسمومیت داده‌ها، گروهی از محققان امنیت سایبری دو فناوری نوظهور یعنی یادگیری فدرال و بلاکچین را برای آموزش ایمن‌تر هوش مصنوعی ترکیب کرده‌اند. رویکرد نوآورانه این گروه با موفقیت، داده‌های نادرست را قبل از اینکه بتوانند مجموعه داده‌های آموزشی را به خطر بیندازند، شناسایی و حذف کرد.

هادی امینی، محقق ارشد و استادیار در دانشکده علوم محاسبات و اطلاعات بنیادی موسسه نایت، می‌گوید: ما روشی ایجاد کرده‌ایم که می‌تواند کاربردهای زیادی برای تاب‌آوری زیرساخت‌های حیاتی، امنیت سایبری حمل و نقل، مراقبت‌های بهداشتی و موارد دیگر داشته باشد.

بخش اول این رویکرد جدید شامل یادگیری فدرال است. این روش منحصر به فرد برای آموزش هوش مصنوعی، از یک نسخه کوچک از یک مدل آموزشی استفاده می‌کند که مستقیما روی دستگاه شما آموزش می‌بیند و فقط به‌روزرسانی‌ها و نه داده‌های شخصی کاربر را با مدل جهانی روی سرور یک شرکت به اشتراک می‌گذارد. این روش اگرچه که حریم خصوصی را حفظ می‌کند، اما همچنان در برابر حملات داده‌های مسموم، آسیب‌پذیر است.

اروین مور (Ervin Moore)، کاندیدای دکترا در آزمایشگاه امینی و نویسنده اصلی این مطالعه، توضیح می‌دهد: تأیید اینکه آیا داده‌های کاربر قبل از رسیدن به مدل، صحیح یا نادرست است، چالشی برای یادگیری فدرال است. بنابراین، ما برای کاهش این نقص به فکر بلاکچین افتادیم.

بلاکچین که به دلیل نقشش در ارزهای دیجیتال مانند بیت‌کوین محبوبیت پیدا کرده است، یک پایگاه داده مشترک است که در شبکه‌ای از رایانه‌ها توزیع شده است. داده‌ها در بلوک‌هایی که به ترتیب زمانی روی یک زنجیره به هم متصل شده‌اند، ذخیره می‌شوند. هر کدام اثر انگشت خود و همچنین اثر انگشت بلوک قبلی را دارند که آن را عملا آن را ضد دستکاری می‌کند.

کل زنجیره از یک ساختار خاص پیروی می‌کند. این مانند یک فرآیند بررسی است تا اطمینان حاصل شود که بلوک‌های تصادفی اضافه نمی‌شوند. می‌توان آن را مانند یک چک لیست برای پذیرش داده در نظر گرفت.

محققان هنگام ساخت مدل خود از این قابلیت به نفع خود استفاده کردند. این مدل به‌روزرسانی‌های بلوک را مقایسه می‌کرد و محاسبه می‌کرد که آیا به‌روزرسانی‌ها به طور بالقوه سمی هستند یا خیر. به‌روزرسانی‌های بالقوه سمی ثبت شده و سپس از تجمیع شبکه حذف می‌شدند.

امینی، که همچنین رهبری تیم متخصصان امنیت سایبری و هوش مصنوعی دانشگاه فلوریدا را بر عهده دارد و در حال بررسی هوش مصنوعی امن برای سیستم‌های حمل و نقل متصل و خودران است، می‌گوید: گروه ما اکنون با همکاری مرکز ملی امنیت سایبری و تاب‌آوری حمل و نقل همکاری نزدیکی دارد تا از رمزگذاری کوانتومی پیشرفته برای محافظت از داده‌ها و سیستم‌ها استفاده کند. هدف ما تضمین ایمنی و امنیت زیرساخت‌های حمل و نقل و در عین حال استفاده از قدرت هوش مصنوعی پیشرفته برای بهبود سیستم‌های حمل و نقل است.

انتهای پیام

اخبارجدیدترین

دیوان عالی بریتانیا: وکلا باید مراقب استفاده از محتواهای تولیدشده با هوش مصنوعی باشند

هوش مصنوعی Eleven v3 معرفی شد/ طبیعی‌ترین مدل تبدیل متن به گفتار

وکلایی که به هوش مصنوعی استناد کنند، مجازات می‌شوند

به گزارش ایسنا، مهاجمان سایبری دوزهای کوچکی از «داده‌های مسموم»، به شکل اطلاعات نادرست یا گمراه‌کننده را به مجموعه‌های آموزشی مهم هوش مصنوعی وارد می‌کنند و ماموریت آنها خرابکاری در مدل‌هایی است که زمانی قابل اعتماد بودند تا آنها را در جهتی کاملا متفاوت منحرف کنند.

به نقل از دیجیتال‌ترندز، اکثر سیستم‌های هوش مصنوعی که امروزه با آنها مواجه می‌شویم از چت جی‌پی‌تی گرفته تا توصیه‌های شخصی‌سازی‌شده نتفلیکس فقط به دلیل حجم گسترده متن، تصویر، گفتار و سایر داده‌هایی که بر اساس آنها آموزش دیده‌اند، به اندازه کافی «هوشمند» هستند که چنین شاهکارهای چشمگیری را انجام دهند. اگر این گنجینه غنی آلوده شود، رفتار مدل می‌تواند دچار مشکل شود.

پیامدهای چنین اتفاقی در دنیای واقعی بسیار فراتر از یک چت‌بات است که بی هدف حرف می‌زند یا مولدهای متن به تصویری که وقتی از آنها خواسته می‌شود پرنده‌ای را نشان دهند، تصویر یک هواپیما را تولید می‌کنند. گروه‌هایی از افراد سودجو می‌توانند به طور بالقوه باعث شوند که یک ماشین خودران چراغ قرمز را نادیده بگیرد، یا در مقیاس بسیار بزرگتر، باعث اختلال و قطعی شبکه برق شوند.

برای دفاع در برابر تهدید حملات مختلف مسمومیت داده‌ها، گروهی از محققان امنیت سایبری دو فناوری نوظهور یعنی یادگیری فدرال و بلاکچین را برای آموزش ایمن‌تر هوش مصنوعی ترکیب کرده‌اند. رویکرد نوآورانه این گروه با موفقیت، داده‌های نادرست را قبل از اینکه بتوانند مجموعه داده‌های آموزشی را به خطر بیندازند، شناسایی و حذف کرد.

هادی امینی، محقق ارشد و استادیار در دانشکده علوم محاسبات و اطلاعات بنیادی موسسه نایت، می‌گوید: ما روشی ایجاد کرده‌ایم که می‌تواند کاربردهای زیادی برای تاب‌آوری زیرساخت‌های حیاتی، امنیت سایبری حمل و نقل، مراقبت‌های بهداشتی و موارد دیگر داشته باشد.

بخش اول این رویکرد جدید شامل یادگیری فدرال است. این روش منحصر به فرد برای آموزش هوش مصنوعی، از یک نسخه کوچک از یک مدل آموزشی استفاده می‌کند که مستقیما روی دستگاه شما آموزش می‌بیند و فقط به‌روزرسانی‌ها و نه داده‌های شخصی کاربر را با مدل جهانی روی سرور یک شرکت به اشتراک می‌گذارد. این روش اگرچه که حریم خصوصی را حفظ می‌کند، اما همچنان در برابر حملات داده‌های مسموم، آسیب‌پذیر است.

اروین مور (Ervin Moore)، کاندیدای دکترا در آزمایشگاه امینی و نویسنده اصلی این مطالعه، توضیح می‌دهد: تأیید اینکه آیا داده‌های کاربر قبل از رسیدن به مدل، صحیح یا نادرست است، چالشی برای یادگیری فدرال است. بنابراین، ما برای کاهش این نقص به فکر بلاکچین افتادیم.

بلاکچین که به دلیل نقشش در ارزهای دیجیتال مانند بیت‌کوین محبوبیت پیدا کرده است، یک پایگاه داده مشترک است که در شبکه‌ای از رایانه‌ها توزیع شده است. داده‌ها در بلوک‌هایی که به ترتیب زمانی روی یک زنجیره به هم متصل شده‌اند، ذخیره می‌شوند. هر کدام اثر انگشت خود و همچنین اثر انگشت بلوک قبلی را دارند که آن را عملا آن را ضد دستکاری می‌کند.

کل زنجیره از یک ساختار خاص پیروی می‌کند. این مانند یک فرآیند بررسی است تا اطمینان حاصل شود که بلوک‌های تصادفی اضافه نمی‌شوند. می‌توان آن را مانند یک چک لیست برای پذیرش داده در نظر گرفت.

محققان هنگام ساخت مدل خود از این قابلیت به نفع خود استفاده کردند. این مدل به‌روزرسانی‌های بلوک را مقایسه می‌کرد و محاسبه می‌کرد که آیا به‌روزرسانی‌ها به طور بالقوه سمی هستند یا خیر. به‌روزرسانی‌های بالقوه سمی ثبت شده و سپس از تجمیع شبکه حذف می‌شدند.

امینی، که همچنین رهبری تیم متخصصان امنیت سایبری و هوش مصنوعی دانشگاه فلوریدا را بر عهده دارد و در حال بررسی هوش مصنوعی امن برای سیستم‌های حمل و نقل متصل و خودران است، می‌گوید: گروه ما اکنون با همکاری مرکز ملی امنیت سایبری و تاب‌آوری حمل و نقل همکاری نزدیکی دارد تا از رمزگذاری کوانتومی پیشرفته برای محافظت از داده‌ها و سیستم‌ها استفاده کند. هدف ما تضمین ایمنی و امنیت زیرساخت‌های حمل و نقل و در عین حال استفاده از قدرت هوش مصنوعی پیشرفته برای بهبود سیستم‌های حمل و نقل است.

انتهای پیام

به گزارش ایسنا، مهاجمان سایبری دوزهای کوچکی از «داده‌های مسموم»، به شکل اطلاعات نادرست یا گمراه‌کننده را به مجموعه‌های آموزشی مهم هوش مصنوعی وارد می‌کنند و ماموریت آنها خرابکاری در مدل‌هایی است که زمانی قابل اعتماد بودند تا آنها را در جهتی کاملا متفاوت منحرف کنند.

به نقل از دیجیتال‌ترندز، اکثر سیستم‌های هوش مصنوعی که امروزه با آنها مواجه می‌شویم از چت جی‌پی‌تی گرفته تا توصیه‌های شخصی‌سازی‌شده نتفلیکس فقط به دلیل حجم گسترده متن، تصویر، گفتار و سایر داده‌هایی که بر اساس آنها آموزش دیده‌اند، به اندازه کافی «هوشمند» هستند که چنین شاهکارهای چشمگیری را انجام دهند. اگر این گنجینه غنی آلوده شود، رفتار مدل می‌تواند دچار مشکل شود.

پیامدهای چنین اتفاقی در دنیای واقعی بسیار فراتر از یک چت‌بات است که بی هدف حرف می‌زند یا مولدهای متن به تصویری که وقتی از آنها خواسته می‌شود پرنده‌ای را نشان دهند، تصویر یک هواپیما را تولید می‌کنند. گروه‌هایی از افراد سودجو می‌توانند به طور بالقوه باعث شوند که یک ماشین خودران چراغ قرمز را نادیده بگیرد، یا در مقیاس بسیار بزرگتر، باعث اختلال و قطعی شبکه برق شوند.

برای دفاع در برابر تهدید حملات مختلف مسمومیت داده‌ها، گروهی از محققان امنیت سایبری دو فناوری نوظهور یعنی یادگیری فدرال و بلاکچین را برای آموزش ایمن‌تر هوش مصنوعی ترکیب کرده‌اند. رویکرد نوآورانه این گروه با موفقیت، داده‌های نادرست را قبل از اینکه بتوانند مجموعه داده‌های آموزشی را به خطر بیندازند، شناسایی و حذف کرد.

هادی امینی، محقق ارشد و استادیار در دانشکده علوم محاسبات و اطلاعات بنیادی موسسه نایت، می‌گوید: ما روشی ایجاد کرده‌ایم که می‌تواند کاربردهای زیادی برای تاب‌آوری زیرساخت‌های حیاتی، امنیت سایبری حمل و نقل، مراقبت‌های بهداشتی و موارد دیگر داشته باشد.

بخش اول این رویکرد جدید شامل یادگیری فدرال است. این روش منحصر به فرد برای آموزش هوش مصنوعی، از یک نسخه کوچک از یک مدل آموزشی استفاده می‌کند که مستقیما روی دستگاه شما آموزش می‌بیند و فقط به‌روزرسانی‌ها و نه داده‌های شخصی کاربر را با مدل جهانی روی سرور یک شرکت به اشتراک می‌گذارد. این روش اگرچه که حریم خصوصی را حفظ می‌کند، اما همچنان در برابر حملات داده‌های مسموم، آسیب‌پذیر است.

اروین مور (Ervin Moore)، کاندیدای دکترا در آزمایشگاه امینی و نویسنده اصلی این مطالعه، توضیح می‌دهد: تأیید اینکه آیا داده‌های کاربر قبل از رسیدن به مدل، صحیح یا نادرست است، چالشی برای یادگیری فدرال است. بنابراین، ما برای کاهش این نقص به فکر بلاکچین افتادیم.

بلاکچین که به دلیل نقشش در ارزهای دیجیتال مانند بیت‌کوین محبوبیت پیدا کرده است، یک پایگاه داده مشترک است که در شبکه‌ای از رایانه‌ها توزیع شده است. داده‌ها در بلوک‌هایی که به ترتیب زمانی روی یک زنجیره به هم متصل شده‌اند، ذخیره می‌شوند. هر کدام اثر انگشت خود و همچنین اثر انگشت بلوک قبلی را دارند که آن را عملا آن را ضد دستکاری می‌کند.

کل زنجیره از یک ساختار خاص پیروی می‌کند. این مانند یک فرآیند بررسی است تا اطمینان حاصل شود که بلوک‌های تصادفی اضافه نمی‌شوند. می‌توان آن را مانند یک چک لیست برای پذیرش داده در نظر گرفت.

محققان هنگام ساخت مدل خود از این قابلیت به نفع خود استفاده کردند. این مدل به‌روزرسانی‌های بلوک را مقایسه می‌کرد و محاسبه می‌کرد که آیا به‌روزرسانی‌ها به طور بالقوه سمی هستند یا خیر. به‌روزرسانی‌های بالقوه سمی ثبت شده و سپس از تجمیع شبکه حذف می‌شدند.

امینی، که همچنین رهبری تیم متخصصان امنیت سایبری و هوش مصنوعی دانشگاه فلوریدا را بر عهده دارد و در حال بررسی هوش مصنوعی امن برای سیستم‌های حمل و نقل متصل و خودران است، می‌گوید: گروه ما اکنون با همکاری مرکز ملی امنیت سایبری و تاب‌آوری حمل و نقل همکاری نزدیکی دارد تا از رمزگذاری کوانتومی پیشرفته برای محافظت از داده‌ها و سیستم‌ها استفاده کند. هدف ما تضمین ایمنی و امنیت زیرساخت‌های حمل و نقل و در عین حال استفاده از قدرت هوش مصنوعی پیشرفته برای بهبود سیستم‌های حمل و نقل است.

انتهای پیام

پست قبلی

هوش مصنوعی «متا» دچار انحراف اخلاقی است!

پست بعدی

جنجال جدید زاکربرگ؛ هوش مصنوعی متا می‌تواند حتی با نوجوانان وارد مکالمات جنسی شود

مربوطه پست ها

دیوان عالی بریتانیا: وکلا باید مراقب استفاده از محتواهای تولیدشده با هوش مصنوعی باشند
هوش مصنوعی

دیوان عالی بریتانیا: وکلا باید مراقب استفاده از محتواهای تولیدشده با هوش مصنوعی باشند

۱۹ خرداد ۱۴۰۴
هوش مصنوعی Eleven v3 معرفی شد/ طبیعی‌ترین مدل تبدیل متن به گفتار
هوش مصنوعی

هوش مصنوعی Eleven v3 معرفی شد/ طبیعی‌ترین مدل تبدیل متن به گفتار

۱۹ خرداد ۱۴۰۴
وکلایی که به هوش مصنوعی استناد کنند، مجازات می‌شوند
هوش مصنوعی

وکلایی که به هوش مصنوعی استناد کنند، مجازات می‌شوند

۱۹ خرداد ۱۴۰۴
چین از RoboBrain 2.0 رونمایی کرد؛ قدرتمندترین مدل هوش مصنوعی متن‌باز جهان برای ربات‌ها
هوش مصنوعی

چین از RoboBrain 2.0 رونمایی کرد؛ قدرتمندترین مدل هوش مصنوعی متن‌باز جهان برای ربات‌ها

۱۹ خرداد ۱۴۰۴
ترویج افراطی هوش مصنوعی در میان دانشجویان
هوش مصنوعی

ترویج افراطی هوش مصنوعی در میان دانشجویان

۱۹ خرداد ۱۴۰۴
12 تیم برتر عامل‌های هوشمند مدل‌های زبانی بزرگ معرفی شدند
هوش مصنوعی

12 تیم برتر عامل‌های هوشمند مدل‌های زبانی بزرگ معرفی شدند

۱۹ خرداد ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

هجده − شانزده =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • بهترین چاپخانه‌های دیجیتال را از کجا پیدا کنیم؟ راهنمای جامع انتخاب چاپخانه حرفه‌ای
  • ۴۰ هزار رشته قنات در کشور احیا می شود
  • آب مسأله اول کشور شده است
  • ۱۹ میلیون هکتار زمین طی ۵ سال آبخیزداری می‌شود
  • بررسی بازار ارزهای دیجیتال در هفته‌ای که گذشت
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.