دانش جوین
پنجشنبه, تیر ۲۶, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

مقاله جدید ادعای اپل درباره ناتوانی مدل‌های هوش مصنوعی استدلالگر را رد کرد

دیجیاتو توسط دیجیاتو
۰۵ تیر ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 3 دقیقه
0
مقاله جدید ادعای اپل درباره ناتوانی مدل‌های هوش مصنوعی استدلالگر را رد کرد
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

گروه یادگیری ماشینی اپل اخیراً با انتشار مقاله‌ای با عنوان «توهم تفکر» (The Illusion of Thinking) موجی از واکنش‌ها را میان پژوهشگران هوش مصنوعی به‌ راه انداخته است. در این مقاله، پژوهشگران استدلال کرده‌اند که مدل‌های زبانی فعلی در واقع فرایند تفکر یا استدلال مستقل را انجام نمی‌دهند. مقاله‌ای جدید منتشر شده که ادعای محققان اپل را رد می‌کند.

«الکن لاسن»، محقق Open Philanthropy، در مقاله‌ای تازه مدعی شده یافته‌های محققان اپل بیشتر به مشکلات طراحی هوش مصنوعی مربوط است نه محدودیت‌های بنیادی در بحث استدلال. در بخش نویسندگان این مقاله از مدل Claude Opus شرکت آنتروپیک هم اسم برده شده است.

مقاله لاسن با عنوان «توهم توهم تفکر» یا The Illusion of the Illusion of Thinking مشکلات مدل‌های استدلاگر فعلی در حل معماهای پیچیده را رد نمی‌کند اما می‌گوید اپل محدودیت‌های عملی و پیکربندی‌های معیوب را با شکست قابلیت‌های استدلال اشتباه گرفته است. 3 مسئله اصلی لاسن با مقاله اپل از قرار زیر است:

  1. محدودیت توکن‌ها در مقاله اپل نادیده گرفته شده است: لاسن می‌گوید آنجایی که اپل نتیجه می‌گیرد هوش مصنوعی نمی‌تواند معماها را حل کند، دلیلش کمبود توکن است، نه ناتوانی در استدلال.
  2. ناتوانی در مواجهه با معماهای حل‌ناپذیر شکست تلقی شده است: آزمون «عبور از رودخانه» ظاهراً نمونه‌های حل‌ناپذیر داشته است. لاوسن می‌گوید اپل به‌خاطر شناسایی این معماهای غیرممکن مدل‌های هوش مصنوعی را سرزنش کرده است.
  3. اسکریپت‌های ارزیابی میان شکست قابلیت‌های استدلال و تقطیع خروجی تمایزی قایل نشده است: اپل از پایپ‌لاین‌های خودکاری برای قضاوت مدل‌ها استفاده کرده که فقط خروجی کامل و اشاره به تک‌تک مراحل استدلال را موفقیت می‌داند. لاوسن مدعی است این رویکرد باعث شده هر خروجی جزئی یا استراتژیک هم شکست در نظر گرفته شود.

لاوسن برای تأیید صحبت‌هایش، آزمون‌های اپل را دوباره با شرایطی متفاوت اجرا کرد و نتیجه این بود که وقتی محدودیت‌های مصنوعی در خروجی برطرف می‌شد، مدل‌های استدلالگر به‌خوبی می‌توانستند مشکلات پیچیده را حل کنند.

برج هانوی

محققان اپل برای ارزیابی توانایی مدل‌های زبانی در حل مسائل منطقی، مجموعه‌ای از 4 معمای کلاسیک شامل «برج هانوی» (تصویر بالا)، «دنیای بلوک‌ها»، «معمای عبور از رودخانه» و «پرش مهره‌ها در بازی چکرز» را طراحی کردند.

این معماها که سابقه‌ای طولانی در پژوهش‌های علوم شناختی و هوش مصنوعی دارند، با افزایش تعداد مراحل و محدودیت‌ها پیچیده‌تر می‌شوند و نیاز به برنامه‌ریزی چندمرحله‌ای را ضروری می‌کنند. پژوهشگران از مدل‌ها خواستند نه‌فقط به هر معما پاسخ نهایی بدهند، بلکه روند تفکر خود را نیز مرحله‌به‌مرحله با استفاده از تکنیک «زنجیره تفکر» (Chain-of-Thought Prompting) توضیح دهند.

طبق مطالعه اپل، با افزایش پیچیدگی، دقت مدل‌ها کاهش چشمگیری پیدا می‌کند و در سخت‌ترین وظایف به صفر می‌رسد. اپل این کاهش را نشانه‌ای از فروپاشی قدرت استدلال مدل‌ها می‌داند.

مخالفت کاربران شبکه‌های اجتماعی با تحقیق اپل

برخی منتقدان مطالعه اپل، معتقدند این شرکت تفاوت «ناتوانی در تولید خروجی کامل» و «ناتوانی در استدلال» را نادیده گرفته است. آنها تأکید کرده‌اند مدل‌ها حتی در برخی وظایف، استراتژی‌های صحیحی ارائه کرده‌اند ولی به‌دلیل محدودیت در تعداد توکن، نتوانستند خروجی را تکمیل کنند.

همچنین برخی معماها، مانند برخی نسخه‌های عبور از رودخانه، اساساً قابل حل نبوده‌اند ولی همچنان مدل‌ها بابت پاسخ نادرست نمره منفی گرفته‌اند.

گروه یادگیری ماشینی اپل اخیراً با انتشار مقاله‌ای با عنوان «توهم تفکر» (The Illusion of Thinking) موجی از واکنش‌ها را میان پژوهشگران هوش مصنوعی به‌ راه انداخته است. در این مقاله، پژوهشگران استدلال کرده‌اند که مدل‌های زبانی فعلی در واقع فرایند تفکر یا استدلال مستقل را انجام نمی‌دهند. مقاله‌ای جدید منتشر شده که ادعای محققان اپل را رد می‌کند.

«الکن لاسن»، محقق Open Philanthropy، در مقاله‌ای تازه مدعی شده یافته‌های محققان اپل بیشتر به مشکلات طراحی هوش مصنوعی مربوط است نه محدودیت‌های بنیادی در بحث استدلال. در بخش نویسندگان این مقاله از مدل Claude Opus شرکت آنتروپیک هم اسم برده شده است.

مقاله لاسن با عنوان «توهم توهم تفکر» یا The Illusion of the Illusion of Thinking مشکلات مدل‌های استدلاگر فعلی در حل معماهای پیچیده را رد نمی‌کند اما می‌گوید اپل محدودیت‌های عملی و پیکربندی‌های معیوب را با شکست قابلیت‌های استدلال اشتباه گرفته است. 3 مسئله اصلی لاسن با مقاله اپل از قرار زیر است:

  1. محدودیت توکن‌ها در مقاله اپل نادیده گرفته شده است: لاسن می‌گوید آنجایی که اپل نتیجه می‌گیرد هوش مصنوعی نمی‌تواند معماها را حل کند، دلیلش کمبود توکن است، نه ناتوانی در استدلال.
  2. ناتوانی در مواجهه با معماهای حل‌ناپذیر شکست تلقی شده است: آزمون «عبور از رودخانه» ظاهراً نمونه‌های حل‌ناپذیر داشته است. لاوسن می‌گوید اپل به‌خاطر شناسایی این معماهای غیرممکن مدل‌های هوش مصنوعی را سرزنش کرده است.
  3. اسکریپت‌های ارزیابی میان شکست قابلیت‌های استدلال و تقطیع خروجی تمایزی قایل نشده است: اپل از پایپ‌لاین‌های خودکاری برای قضاوت مدل‌ها استفاده کرده که فقط خروجی کامل و اشاره به تک‌تک مراحل استدلال را موفقیت می‌داند. لاوسن مدعی است این رویکرد باعث شده هر خروجی جزئی یا استراتژیک هم شکست در نظر گرفته شود.

لاوسن برای تأیید صحبت‌هایش، آزمون‌های اپل را دوباره با شرایطی متفاوت اجرا کرد و نتیجه این بود که وقتی محدودیت‌های مصنوعی در خروجی برطرف می‌شد، مدل‌های استدلالگر به‌خوبی می‌توانستند مشکلات پیچیده را حل کنند.

برج هانوی

محققان اپل برای ارزیابی توانایی مدل‌های زبانی در حل مسائل منطقی، مجموعه‌ای از 4 معمای کلاسیک شامل «برج هانوی» (تصویر بالا)، «دنیای بلوک‌ها»، «معمای عبور از رودخانه» و «پرش مهره‌ها در بازی چکرز» را طراحی کردند.

این معماها که سابقه‌ای طولانی در پژوهش‌های علوم شناختی و هوش مصنوعی دارند، با افزایش تعداد مراحل و محدودیت‌ها پیچیده‌تر می‌شوند و نیاز به برنامه‌ریزی چندمرحله‌ای را ضروری می‌کنند. پژوهشگران از مدل‌ها خواستند نه‌فقط به هر معما پاسخ نهایی بدهند، بلکه روند تفکر خود را نیز مرحله‌به‌مرحله با استفاده از تکنیک «زنجیره تفکر» (Chain-of-Thought Prompting) توضیح دهند.

طبق مطالعه اپل، با افزایش پیچیدگی، دقت مدل‌ها کاهش چشمگیری پیدا می‌کند و در سخت‌ترین وظایف به صفر می‌رسد. اپل این کاهش را نشانه‌ای از فروپاشی قدرت استدلال مدل‌ها می‌داند.

مخالفت کاربران شبکه‌های اجتماعی با تحقیق اپل

برخی منتقدان مطالعه اپل، معتقدند این شرکت تفاوت «ناتوانی در تولید خروجی کامل» و «ناتوانی در استدلال» را نادیده گرفته است. آنها تأکید کرده‌اند مدل‌ها حتی در برخی وظایف، استراتژی‌های صحیحی ارائه کرده‌اند ولی به‌دلیل محدودیت در تعداد توکن، نتوانستند خروجی را تکمیل کنند.

همچنین برخی معماها، مانند برخی نسخه‌های عبور از رودخانه، اساساً قابل حل نبوده‌اند ولی همچنان مدل‌ها بابت پاسخ نادرست نمره منفی گرفته‌اند.

اخبارجدیدترین

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد

گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد

گروه یادگیری ماشینی اپل اخیراً با انتشار مقاله‌ای با عنوان «توهم تفکر» (The Illusion of Thinking) موجی از واکنش‌ها را میان پژوهشگران هوش مصنوعی به‌ راه انداخته است. در این مقاله، پژوهشگران استدلال کرده‌اند که مدل‌های زبانی فعلی در واقع فرایند تفکر یا استدلال مستقل را انجام نمی‌دهند. مقاله‌ای جدید منتشر شده که ادعای محققان اپل را رد می‌کند.

«الکن لاسن»، محقق Open Philanthropy، در مقاله‌ای تازه مدعی شده یافته‌های محققان اپل بیشتر به مشکلات طراحی هوش مصنوعی مربوط است نه محدودیت‌های بنیادی در بحث استدلال. در بخش نویسندگان این مقاله از مدل Claude Opus شرکت آنتروپیک هم اسم برده شده است.

مقاله لاسن با عنوان «توهم توهم تفکر» یا The Illusion of the Illusion of Thinking مشکلات مدل‌های استدلاگر فعلی در حل معماهای پیچیده را رد نمی‌کند اما می‌گوید اپل محدودیت‌های عملی و پیکربندی‌های معیوب را با شکست قابلیت‌های استدلال اشتباه گرفته است. 3 مسئله اصلی لاسن با مقاله اپل از قرار زیر است:

  1. محدودیت توکن‌ها در مقاله اپل نادیده گرفته شده است: لاسن می‌گوید آنجایی که اپل نتیجه می‌گیرد هوش مصنوعی نمی‌تواند معماها را حل کند، دلیلش کمبود توکن است، نه ناتوانی در استدلال.
  2. ناتوانی در مواجهه با معماهای حل‌ناپذیر شکست تلقی شده است: آزمون «عبور از رودخانه» ظاهراً نمونه‌های حل‌ناپذیر داشته است. لاوسن می‌گوید اپل به‌خاطر شناسایی این معماهای غیرممکن مدل‌های هوش مصنوعی را سرزنش کرده است.
  3. اسکریپت‌های ارزیابی میان شکست قابلیت‌های استدلال و تقطیع خروجی تمایزی قایل نشده است: اپل از پایپ‌لاین‌های خودکاری برای قضاوت مدل‌ها استفاده کرده که فقط خروجی کامل و اشاره به تک‌تک مراحل استدلال را موفقیت می‌داند. لاوسن مدعی است این رویکرد باعث شده هر خروجی جزئی یا استراتژیک هم شکست در نظر گرفته شود.

لاوسن برای تأیید صحبت‌هایش، آزمون‌های اپل را دوباره با شرایطی متفاوت اجرا کرد و نتیجه این بود که وقتی محدودیت‌های مصنوعی در خروجی برطرف می‌شد، مدل‌های استدلالگر به‌خوبی می‌توانستند مشکلات پیچیده را حل کنند.

برج هانوی

محققان اپل برای ارزیابی توانایی مدل‌های زبانی در حل مسائل منطقی، مجموعه‌ای از 4 معمای کلاسیک شامل «برج هانوی» (تصویر بالا)، «دنیای بلوک‌ها»، «معمای عبور از رودخانه» و «پرش مهره‌ها در بازی چکرز» را طراحی کردند.

این معماها که سابقه‌ای طولانی در پژوهش‌های علوم شناختی و هوش مصنوعی دارند، با افزایش تعداد مراحل و محدودیت‌ها پیچیده‌تر می‌شوند و نیاز به برنامه‌ریزی چندمرحله‌ای را ضروری می‌کنند. پژوهشگران از مدل‌ها خواستند نه‌فقط به هر معما پاسخ نهایی بدهند، بلکه روند تفکر خود را نیز مرحله‌به‌مرحله با استفاده از تکنیک «زنجیره تفکر» (Chain-of-Thought Prompting) توضیح دهند.

طبق مطالعه اپل، با افزایش پیچیدگی، دقت مدل‌ها کاهش چشمگیری پیدا می‌کند و در سخت‌ترین وظایف به صفر می‌رسد. اپل این کاهش را نشانه‌ای از فروپاشی قدرت استدلال مدل‌ها می‌داند.

مخالفت کاربران شبکه‌های اجتماعی با تحقیق اپل

برخی منتقدان مطالعه اپل، معتقدند این شرکت تفاوت «ناتوانی در تولید خروجی کامل» و «ناتوانی در استدلال» را نادیده گرفته است. آنها تأکید کرده‌اند مدل‌ها حتی در برخی وظایف، استراتژی‌های صحیحی ارائه کرده‌اند ولی به‌دلیل محدودیت در تعداد توکن، نتوانستند خروجی را تکمیل کنند.

همچنین برخی معماها، مانند برخی نسخه‌های عبور از رودخانه، اساساً قابل حل نبوده‌اند ولی همچنان مدل‌ها بابت پاسخ نادرست نمره منفی گرفته‌اند.

گروه یادگیری ماشینی اپل اخیراً با انتشار مقاله‌ای با عنوان «توهم تفکر» (The Illusion of Thinking) موجی از واکنش‌ها را میان پژوهشگران هوش مصنوعی به‌ راه انداخته است. در این مقاله، پژوهشگران استدلال کرده‌اند که مدل‌های زبانی فعلی در واقع فرایند تفکر یا استدلال مستقل را انجام نمی‌دهند. مقاله‌ای جدید منتشر شده که ادعای محققان اپل را رد می‌کند.

«الکن لاسن»، محقق Open Philanthropy، در مقاله‌ای تازه مدعی شده یافته‌های محققان اپل بیشتر به مشکلات طراحی هوش مصنوعی مربوط است نه محدودیت‌های بنیادی در بحث استدلال. در بخش نویسندگان این مقاله از مدل Claude Opus شرکت آنتروپیک هم اسم برده شده است.

مقاله لاسن با عنوان «توهم توهم تفکر» یا The Illusion of the Illusion of Thinking مشکلات مدل‌های استدلاگر فعلی در حل معماهای پیچیده را رد نمی‌کند اما می‌گوید اپل محدودیت‌های عملی و پیکربندی‌های معیوب را با شکست قابلیت‌های استدلال اشتباه گرفته است. 3 مسئله اصلی لاسن با مقاله اپل از قرار زیر است:

  1. محدودیت توکن‌ها در مقاله اپل نادیده گرفته شده است: لاسن می‌گوید آنجایی که اپل نتیجه می‌گیرد هوش مصنوعی نمی‌تواند معماها را حل کند، دلیلش کمبود توکن است، نه ناتوانی در استدلال.
  2. ناتوانی در مواجهه با معماهای حل‌ناپذیر شکست تلقی شده است: آزمون «عبور از رودخانه» ظاهراً نمونه‌های حل‌ناپذیر داشته است. لاوسن می‌گوید اپل به‌خاطر شناسایی این معماهای غیرممکن مدل‌های هوش مصنوعی را سرزنش کرده است.
  3. اسکریپت‌های ارزیابی میان شکست قابلیت‌های استدلال و تقطیع خروجی تمایزی قایل نشده است: اپل از پایپ‌لاین‌های خودکاری برای قضاوت مدل‌ها استفاده کرده که فقط خروجی کامل و اشاره به تک‌تک مراحل استدلال را موفقیت می‌داند. لاوسن مدعی است این رویکرد باعث شده هر خروجی جزئی یا استراتژیک هم شکست در نظر گرفته شود.

لاوسن برای تأیید صحبت‌هایش، آزمون‌های اپل را دوباره با شرایطی متفاوت اجرا کرد و نتیجه این بود که وقتی محدودیت‌های مصنوعی در خروجی برطرف می‌شد، مدل‌های استدلالگر به‌خوبی می‌توانستند مشکلات پیچیده را حل کنند.

برج هانوی

محققان اپل برای ارزیابی توانایی مدل‌های زبانی در حل مسائل منطقی، مجموعه‌ای از 4 معمای کلاسیک شامل «برج هانوی» (تصویر بالا)، «دنیای بلوک‌ها»، «معمای عبور از رودخانه» و «پرش مهره‌ها در بازی چکرز» را طراحی کردند.

این معماها که سابقه‌ای طولانی در پژوهش‌های علوم شناختی و هوش مصنوعی دارند، با افزایش تعداد مراحل و محدودیت‌ها پیچیده‌تر می‌شوند و نیاز به برنامه‌ریزی چندمرحله‌ای را ضروری می‌کنند. پژوهشگران از مدل‌ها خواستند نه‌فقط به هر معما پاسخ نهایی بدهند، بلکه روند تفکر خود را نیز مرحله‌به‌مرحله با استفاده از تکنیک «زنجیره تفکر» (Chain-of-Thought Prompting) توضیح دهند.

طبق مطالعه اپل، با افزایش پیچیدگی، دقت مدل‌ها کاهش چشمگیری پیدا می‌کند و در سخت‌ترین وظایف به صفر می‌رسد. اپل این کاهش را نشانه‌ای از فروپاشی قدرت استدلال مدل‌ها می‌داند.

مخالفت کاربران شبکه‌های اجتماعی با تحقیق اپل

برخی منتقدان مطالعه اپل، معتقدند این شرکت تفاوت «ناتوانی در تولید خروجی کامل» و «ناتوانی در استدلال» را نادیده گرفته است. آنها تأکید کرده‌اند مدل‌ها حتی در برخی وظایف، استراتژی‌های صحیحی ارائه کرده‌اند ولی به‌دلیل محدودیت در تعداد توکن، نتوانستند خروجی را تکمیل کنند.

همچنین برخی معماها، مانند برخی نسخه‌های عبور از رودخانه، اساساً قابل حل نبوده‌اند ولی همچنان مدل‌ها بابت پاسخ نادرست نمره منفی گرفته‌اند.

پست قبلی

شکوه همدلی در صدای ارکستر سمفونیک تهران

پست بعدی

آغاز پویش «به عشق امام حسین(ع) می‌بخشم»

مربوطه پست ها

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد
هوش مصنوعی

مدیرعامل انویدیا: هوش مصنوعی همه مشاغل را به‌طور کامل تغییر می‌دهد

۲۵ تیر ۱۴۰۴
چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد
هوش مصنوعی

چت‌بات هوش مصنوعی Claude به‌صورت رسمی با Canva یکپارچه شد

۲۵ تیر ۱۴۰۴
گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد
هوش مصنوعی

گوگل قراردادی ۳ میلیارد دلاری برای خرید انرژی برق‌آبی امضا کرد

۲۵ تیر ۱۴۰۴
هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند
هوش مصنوعی

هوش مصنوعی کوپایلوت در ویندوز حالا می‌تواند تمام صفحه‌نمایش شما را ببیند

۲۵ تیر ۱۴۰۴
تزار هوش مصنوعی کاخ سفید: دلیل لغو محدودیت فروش تراشه به چین مقابله با هواوی است
هوش مصنوعی

تزار هوش مصنوعی کاخ سفید: دلیل لغو محدودیت فروش تراشه به چین مقابله با هواوی است

۲۵ تیر ۱۴۰۴
هشدار محققان OpenAI، گوگل و آنتروپیک: شاید دیگر نتوانیم به افکار هوش مصنوعی پی ببریم
هوش مصنوعی

هشدار محققان OpenAI، گوگل و آنتروپیک: شاید دیگر نتوانیم به افکار هوش مصنوعی پی ببریم

۲۵ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

چهار × 4 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • وزارت ارتباطات از استارلینک شکایت کرد
  • هک به روش فوق عجیب و غیرقابل شناسایی؛ جابجایی کدهای مخرب از طریق  رکوردهای DNS
  • جزئیات دهمین جلسه کارگروه ملی کاهش آلودگی هوا اعلام شد
  • شوک بزرگ دلار به بازارهای ایران | طلا، خودرو و بورس در بلاتکلیفی
  • استراتژی چندوجهی «ایران‌ خودرو»
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.