دانش جوین
سه شنبه, تیر ۱۷, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

«متا» توسعه هوش مصنوعی را متوقف می‌کند

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۱۶ بهمن ۱۴۰۳
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
1
«متا» توسعه هوش مصنوعی را متوقف می‌کند
7
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، «مارک زاکربرگ»(Mark Zuckerberg)، مدیرعامل شرکت «متا»(Meta) متعهد شده است هوش مصنوعی جامع را که تقریبا به عنوان هوش مصنوعی با توانایی‌های یک انسان در انجام دادن کارها تعریف می‌شود، یک روز به طور آشکار در دسترس قرار دهد، اما این شرکت در یک سند پیرامون سیاست جدید خود گفته شرایط خاصی وجود دارد که ممکن است باعث شوند متا سیستم هوش مصنوعی بسیار توانمند خود را منتشر نکند.

به نقل از تک کرانچ، این سند که متا آن را «Frontier AI Framework» نامیده است، دو نوع سیستم هوش مصنوعی را شناسایی می‌کند و گفته شده شرکت، انتشار آنها را بسیار خطرناک می‌داند. این دو سیستم، سیستم‌های پرخطر و سیستم‌های بحرانی نام دارند.

به گفته متا، سیستم‌های پرخطر و بحرانی می‌توانند به امنیت سایبری، حملات شیمیایی و بیولوژیکی کمک کنند. تفاوت آنها در این است که سیستم‌های بحرانی می‌توانند به یک نتیجه فاجعه‌آمیز منجر شوند که قابل کاهش نیست. در مقابل، سیستم‌های پرخطر ممکن است انجام دادن یک حمله را آسان‌تر کنند، اما نه به اندازه یک سیستم بحرانی.

متا اذعان می‌کند که فهرست فاجعه‌های احتمالی در سند کامل نیست، اما مواردی را شامل می‌شود که متا معتقد است فوری‌ترین و محتمل‌ترین آنها هستند و در نتیجه انتشار مستقیم یک سیستم هوش مصنوعی قوی به وجود می‌آیند.

موضوع تعجب‌آور این است که بر اساس این سند، متا خطر سیستم را بر اساس هیچ کدام از آزمایش‌های تجربی طبقه‌بندی نمی‌کند، بلکه طبقه‌بندی را بر اساس داده‌های ارائه‌شده توسط پژوهشگران داخلی و خارجی انجام می‌دهد که توسط تصمیم‌گیرندگان ارشد بررسی می‌شوند. متا می‌گوید که معتقد نیست علم ارزیابی به اندازه کافی قوی باشد تا معیارهای کمی قطعی را برای تصمیم‌گیری درباره خطرپذیری یک سیستم ارائه دهد.

متا می‌گوید اگر تشخیص دهد که یک سیستم پرخطر است، دسترسی به آن را به صورت داخلی محدود می‌کند و تا زمانی که اقدامات کاهشی را برای کاهش خطر به سطوح متوسط ​​انجام ندهد، آن را منتشر نخواهد کرد. از سوی دیگر، متا می‌گوید اگر یک سیستم خطرناک تلقی شود، حفاظت‌های امنیتی نامشخصی را برای جلوگیری از نفوذ به سیستم اجرا خواهد کرد و توسعه را متوقف خواهد ساخت تا زمانی که خطر آن کاهش یابد.

سند Frontier AI Framework متا که به گفته شرکت، با تغییر چشم‌انداز هوش مصنوعی تکامل خواهد یافت و متا پیشتر به انتشار آن پیش از اجلاس «France AI Action Summit» در ماه جاری میلادی متعهد شده بود، به نظر می‌رسد پاسخی به انتقاد از رویکرد باز این شرکت برای توسعه سیستم باشد. متا بر خلاف شرکت‌هایی مانند «اوپن‌ای‌آی»(OpenAI) که تصمیم می‌گیرند سیستم‌های خود را پشت یک API قرار دهند، پذیرفته است که فناوری هوش مصنوعی خود را به ‌صورت آزاد اما نه به صورت منبع باز طبق تعریف معمول در دسترس قرار دهد.

متا در انتشار Frontier AI Framework خود نیز ممکن است قصد داشته باشد راهبرد هوش مصنوعی باز خود را با راهبرد شرکت چینی هوش مصنوعی «دیپ‌سیک»(DeepSeek) مقایسه کند. دیپ‌سیک سیستم‌های خود را به صورت آزاد در دسترس قرار می‌دهد، اما هوش مصنوعی این شرکت، محافظ‌های کمی دارد و به راحتی می‌توان آن را برای تولید خروجی‌های مضر هدایت کرد.

متا در این سند نوشته است: ما معتقدیم که با در نظر گرفتن مزایا و خطرات برای تصمیم‌گیری درباره چگونگی توسعه و استقرار هوش مصنوعی پیشرفته می‌توان آن را به گونه‌ای به جامعه تحویل داد که مزایای آن برای جامعه حفظ شود و در عین حال، سطح مناسبی از خطر را داشته باشد.

انتهای پیام

به گزارش ایسنا، «مارک زاکربرگ»(Mark Zuckerberg)، مدیرعامل شرکت «متا»(Meta) متعهد شده است هوش مصنوعی جامع را که تقریبا به عنوان هوش مصنوعی با توانایی‌های یک انسان در انجام دادن کارها تعریف می‌شود، یک روز به طور آشکار در دسترس قرار دهد، اما این شرکت در یک سند پیرامون سیاست جدید خود گفته شرایط خاصی وجود دارد که ممکن است باعث شوند متا سیستم هوش مصنوعی بسیار توانمند خود را منتشر نکند.

به نقل از تک کرانچ، این سند که متا آن را «Frontier AI Framework» نامیده است، دو نوع سیستم هوش مصنوعی را شناسایی می‌کند و گفته شده شرکت، انتشار آنها را بسیار خطرناک می‌داند. این دو سیستم، سیستم‌های پرخطر و سیستم‌های بحرانی نام دارند.

به گفته متا، سیستم‌های پرخطر و بحرانی می‌توانند به امنیت سایبری، حملات شیمیایی و بیولوژیکی کمک کنند. تفاوت آنها در این است که سیستم‌های بحرانی می‌توانند به یک نتیجه فاجعه‌آمیز منجر شوند که قابل کاهش نیست. در مقابل، سیستم‌های پرخطر ممکن است انجام دادن یک حمله را آسان‌تر کنند، اما نه به اندازه یک سیستم بحرانی.

متا اذعان می‌کند که فهرست فاجعه‌های احتمالی در سند کامل نیست، اما مواردی را شامل می‌شود که متا معتقد است فوری‌ترین و محتمل‌ترین آنها هستند و در نتیجه انتشار مستقیم یک سیستم هوش مصنوعی قوی به وجود می‌آیند.

موضوع تعجب‌آور این است که بر اساس این سند، متا خطر سیستم را بر اساس هیچ کدام از آزمایش‌های تجربی طبقه‌بندی نمی‌کند، بلکه طبقه‌بندی را بر اساس داده‌های ارائه‌شده توسط پژوهشگران داخلی و خارجی انجام می‌دهد که توسط تصمیم‌گیرندگان ارشد بررسی می‌شوند. متا می‌گوید که معتقد نیست علم ارزیابی به اندازه کافی قوی باشد تا معیارهای کمی قطعی را برای تصمیم‌گیری درباره خطرپذیری یک سیستم ارائه دهد.

متا می‌گوید اگر تشخیص دهد که یک سیستم پرخطر است، دسترسی به آن را به صورت داخلی محدود می‌کند و تا زمانی که اقدامات کاهشی را برای کاهش خطر به سطوح متوسط ​​انجام ندهد، آن را منتشر نخواهد کرد. از سوی دیگر، متا می‌گوید اگر یک سیستم خطرناک تلقی شود، حفاظت‌های امنیتی نامشخصی را برای جلوگیری از نفوذ به سیستم اجرا خواهد کرد و توسعه را متوقف خواهد ساخت تا زمانی که خطر آن کاهش یابد.

سند Frontier AI Framework متا که به گفته شرکت، با تغییر چشم‌انداز هوش مصنوعی تکامل خواهد یافت و متا پیشتر به انتشار آن پیش از اجلاس «France AI Action Summit» در ماه جاری میلادی متعهد شده بود، به نظر می‌رسد پاسخی به انتقاد از رویکرد باز این شرکت برای توسعه سیستم باشد. متا بر خلاف شرکت‌هایی مانند «اوپن‌ای‌آی»(OpenAI) که تصمیم می‌گیرند سیستم‌های خود را پشت یک API قرار دهند، پذیرفته است که فناوری هوش مصنوعی خود را به ‌صورت آزاد اما نه به صورت منبع باز طبق تعریف معمول در دسترس قرار دهد.

متا در انتشار Frontier AI Framework خود نیز ممکن است قصد داشته باشد راهبرد هوش مصنوعی باز خود را با راهبرد شرکت چینی هوش مصنوعی «دیپ‌سیک»(DeepSeek) مقایسه کند. دیپ‌سیک سیستم‌های خود را به صورت آزاد در دسترس قرار می‌دهد، اما هوش مصنوعی این شرکت، محافظ‌های کمی دارد و به راحتی می‌توان آن را برای تولید خروجی‌های مضر هدایت کرد.

متا در این سند نوشته است: ما معتقدیم که با در نظر گرفتن مزایا و خطرات برای تصمیم‌گیری درباره چگونگی توسعه و استقرار هوش مصنوعی پیشرفته می‌توان آن را به گونه‌ای به جامعه تحویل داد که مزایای آن برای جامعه حفظ شود و در عین حال، سطح مناسبی از خطر را داشته باشد.

انتهای پیام

اخبارجدیدترین

نسخه جدید گراک از دموکرات‌ها و مدیران یهودی هالیوود انتقاد کرد

مقابله جدی‌تر با دیپ‌فیک‌ها؛ شهروندان دانمارک مالک کپی‌رایت چهره خود می‌شوند

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

به گزارش ایسنا، «مارک زاکربرگ»(Mark Zuckerberg)، مدیرعامل شرکت «متا»(Meta) متعهد شده است هوش مصنوعی جامع را که تقریبا به عنوان هوش مصنوعی با توانایی‌های یک انسان در انجام دادن کارها تعریف می‌شود، یک روز به طور آشکار در دسترس قرار دهد، اما این شرکت در یک سند پیرامون سیاست جدید خود گفته شرایط خاصی وجود دارد که ممکن است باعث شوند متا سیستم هوش مصنوعی بسیار توانمند خود را منتشر نکند.

به نقل از تک کرانچ، این سند که متا آن را «Frontier AI Framework» نامیده است، دو نوع سیستم هوش مصنوعی را شناسایی می‌کند و گفته شده شرکت، انتشار آنها را بسیار خطرناک می‌داند. این دو سیستم، سیستم‌های پرخطر و سیستم‌های بحرانی نام دارند.

به گفته متا، سیستم‌های پرخطر و بحرانی می‌توانند به امنیت سایبری، حملات شیمیایی و بیولوژیکی کمک کنند. تفاوت آنها در این است که سیستم‌های بحرانی می‌توانند به یک نتیجه فاجعه‌آمیز منجر شوند که قابل کاهش نیست. در مقابل، سیستم‌های پرخطر ممکن است انجام دادن یک حمله را آسان‌تر کنند، اما نه به اندازه یک سیستم بحرانی.

متا اذعان می‌کند که فهرست فاجعه‌های احتمالی در سند کامل نیست، اما مواردی را شامل می‌شود که متا معتقد است فوری‌ترین و محتمل‌ترین آنها هستند و در نتیجه انتشار مستقیم یک سیستم هوش مصنوعی قوی به وجود می‌آیند.

موضوع تعجب‌آور این است که بر اساس این سند، متا خطر سیستم را بر اساس هیچ کدام از آزمایش‌های تجربی طبقه‌بندی نمی‌کند، بلکه طبقه‌بندی را بر اساس داده‌های ارائه‌شده توسط پژوهشگران داخلی و خارجی انجام می‌دهد که توسط تصمیم‌گیرندگان ارشد بررسی می‌شوند. متا می‌گوید که معتقد نیست علم ارزیابی به اندازه کافی قوی باشد تا معیارهای کمی قطعی را برای تصمیم‌گیری درباره خطرپذیری یک سیستم ارائه دهد.

متا می‌گوید اگر تشخیص دهد که یک سیستم پرخطر است، دسترسی به آن را به صورت داخلی محدود می‌کند و تا زمانی که اقدامات کاهشی را برای کاهش خطر به سطوح متوسط ​​انجام ندهد، آن را منتشر نخواهد کرد. از سوی دیگر، متا می‌گوید اگر یک سیستم خطرناک تلقی شود، حفاظت‌های امنیتی نامشخصی را برای جلوگیری از نفوذ به سیستم اجرا خواهد کرد و توسعه را متوقف خواهد ساخت تا زمانی که خطر آن کاهش یابد.

سند Frontier AI Framework متا که به گفته شرکت، با تغییر چشم‌انداز هوش مصنوعی تکامل خواهد یافت و متا پیشتر به انتشار آن پیش از اجلاس «France AI Action Summit» در ماه جاری میلادی متعهد شده بود، به نظر می‌رسد پاسخی به انتقاد از رویکرد باز این شرکت برای توسعه سیستم باشد. متا بر خلاف شرکت‌هایی مانند «اوپن‌ای‌آی»(OpenAI) که تصمیم می‌گیرند سیستم‌های خود را پشت یک API قرار دهند، پذیرفته است که فناوری هوش مصنوعی خود را به ‌صورت آزاد اما نه به صورت منبع باز طبق تعریف معمول در دسترس قرار دهد.

متا در انتشار Frontier AI Framework خود نیز ممکن است قصد داشته باشد راهبرد هوش مصنوعی باز خود را با راهبرد شرکت چینی هوش مصنوعی «دیپ‌سیک»(DeepSeek) مقایسه کند. دیپ‌سیک سیستم‌های خود را به صورت آزاد در دسترس قرار می‌دهد، اما هوش مصنوعی این شرکت، محافظ‌های کمی دارد و به راحتی می‌توان آن را برای تولید خروجی‌های مضر هدایت کرد.

متا در این سند نوشته است: ما معتقدیم که با در نظر گرفتن مزایا و خطرات برای تصمیم‌گیری درباره چگونگی توسعه و استقرار هوش مصنوعی پیشرفته می‌توان آن را به گونه‌ای به جامعه تحویل داد که مزایای آن برای جامعه حفظ شود و در عین حال، سطح مناسبی از خطر را داشته باشد.

انتهای پیام

به گزارش ایسنا، «مارک زاکربرگ»(Mark Zuckerberg)، مدیرعامل شرکت «متا»(Meta) متعهد شده است هوش مصنوعی جامع را که تقریبا به عنوان هوش مصنوعی با توانایی‌های یک انسان در انجام دادن کارها تعریف می‌شود، یک روز به طور آشکار در دسترس قرار دهد، اما این شرکت در یک سند پیرامون سیاست جدید خود گفته شرایط خاصی وجود دارد که ممکن است باعث شوند متا سیستم هوش مصنوعی بسیار توانمند خود را منتشر نکند.

به نقل از تک کرانچ، این سند که متا آن را «Frontier AI Framework» نامیده است، دو نوع سیستم هوش مصنوعی را شناسایی می‌کند و گفته شده شرکت، انتشار آنها را بسیار خطرناک می‌داند. این دو سیستم، سیستم‌های پرخطر و سیستم‌های بحرانی نام دارند.

به گفته متا، سیستم‌های پرخطر و بحرانی می‌توانند به امنیت سایبری، حملات شیمیایی و بیولوژیکی کمک کنند. تفاوت آنها در این است که سیستم‌های بحرانی می‌توانند به یک نتیجه فاجعه‌آمیز منجر شوند که قابل کاهش نیست. در مقابل، سیستم‌های پرخطر ممکن است انجام دادن یک حمله را آسان‌تر کنند، اما نه به اندازه یک سیستم بحرانی.

متا اذعان می‌کند که فهرست فاجعه‌های احتمالی در سند کامل نیست، اما مواردی را شامل می‌شود که متا معتقد است فوری‌ترین و محتمل‌ترین آنها هستند و در نتیجه انتشار مستقیم یک سیستم هوش مصنوعی قوی به وجود می‌آیند.

موضوع تعجب‌آور این است که بر اساس این سند، متا خطر سیستم را بر اساس هیچ کدام از آزمایش‌های تجربی طبقه‌بندی نمی‌کند، بلکه طبقه‌بندی را بر اساس داده‌های ارائه‌شده توسط پژوهشگران داخلی و خارجی انجام می‌دهد که توسط تصمیم‌گیرندگان ارشد بررسی می‌شوند. متا می‌گوید که معتقد نیست علم ارزیابی به اندازه کافی قوی باشد تا معیارهای کمی قطعی را برای تصمیم‌گیری درباره خطرپذیری یک سیستم ارائه دهد.

متا می‌گوید اگر تشخیص دهد که یک سیستم پرخطر است، دسترسی به آن را به صورت داخلی محدود می‌کند و تا زمانی که اقدامات کاهشی را برای کاهش خطر به سطوح متوسط ​​انجام ندهد، آن را منتشر نخواهد کرد. از سوی دیگر، متا می‌گوید اگر یک سیستم خطرناک تلقی شود، حفاظت‌های امنیتی نامشخصی را برای جلوگیری از نفوذ به سیستم اجرا خواهد کرد و توسعه را متوقف خواهد ساخت تا زمانی که خطر آن کاهش یابد.

سند Frontier AI Framework متا که به گفته شرکت، با تغییر چشم‌انداز هوش مصنوعی تکامل خواهد یافت و متا پیشتر به انتشار آن پیش از اجلاس «France AI Action Summit» در ماه جاری میلادی متعهد شده بود، به نظر می‌رسد پاسخی به انتقاد از رویکرد باز این شرکت برای توسعه سیستم باشد. متا بر خلاف شرکت‌هایی مانند «اوپن‌ای‌آی»(OpenAI) که تصمیم می‌گیرند سیستم‌های خود را پشت یک API قرار دهند، پذیرفته است که فناوری هوش مصنوعی خود را به ‌صورت آزاد اما نه به صورت منبع باز طبق تعریف معمول در دسترس قرار دهد.

متا در انتشار Frontier AI Framework خود نیز ممکن است قصد داشته باشد راهبرد هوش مصنوعی باز خود را با راهبرد شرکت چینی هوش مصنوعی «دیپ‌سیک»(DeepSeek) مقایسه کند. دیپ‌سیک سیستم‌های خود را به صورت آزاد در دسترس قرار می‌دهد، اما هوش مصنوعی این شرکت، محافظ‌های کمی دارد و به راحتی می‌توان آن را برای تولید خروجی‌های مضر هدایت کرد.

متا در این سند نوشته است: ما معتقدیم که با در نظر گرفتن مزایا و خطرات برای تصمیم‌گیری درباره چگونگی توسعه و استقرار هوش مصنوعی پیشرفته می‌توان آن را به گونه‌ای به جامعه تحویل داد که مزایای آن برای جامعه حفظ شود و در عین حال، سطح مناسبی از خطر را داشته باشد.

انتهای پیام

پست قبلی

سامسونگ شاید دوربین سلفی زیر نمایشگر را به گلکسی S26 اولترا بیاورد؛ غوطه‌وری در تصویر تمام‌صفحه

پست بعدی

دیپ‌سیک در آزمایش‌های ایمنی مردود شد؛ شکست کامل مدل جنجالی!

مربوطه پست ها

نسخه جدید گراک از دموکرات‌ها و مدیران یهودی هالیوود انتقاد کرد
هوش مصنوعی

نسخه جدید گراک از دموکرات‌ها و مدیران یهودی هالیوود انتقاد کرد

۱۷ تیر ۱۴۰۴
مقابله جدی‌تر با دیپ‌فیک‌ها؛ شهروندان دانمارک مالک کپی‌رایت چهره خود می‌شوند
هوش مصنوعی

مقابله جدی‌تر با دیپ‌فیک‌ها؛ شهروندان دانمارک مالک کپی‌رایت چهره خود می‌شوند

۱۷ تیر ۱۴۰۴
اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد
هوش مصنوعی

اپل مدل هوش مصنوعی متفاوت و جذابی را برای برنامه‌نویسی منتشر کرد

۱۵ تیر ۱۴۰۴
محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد
هوش مصنوعی

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

۱۴ تیر ۱۴۰۴
سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود
هوش مصنوعی

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

۱۰ تیر ۱۴۰۴
مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI
هوش مصنوعی

مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI

۱۰ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

3 × چهار =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • تهیه‌کننده آمریکایی: ترامپ دیکتاتور و نوچه‌هایش را بیرون می‌کنیم
  • ۲۰ سخنرانی عاشورایی در ایران‌صدا؛ «با کاروان محرم» همراه شوید
  • امضای تفاهم‌نامه میان موزه سینما و انجمن صنفی عکاسان سینما
  • ۲۷ تیر آخرین مهلت ثبت‌نام در هجدهمین رویداد موسیقی جوان
  • «قوی‌دل» به اکران آنلاین آمد
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.