دانش جوین
چهارشنبه, مرداد ۱, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

هوش مصنوعی در حال فروپاشی است!

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۱۴ خرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
هوش مصنوعی در حال فروپاشی است!
1
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، در حالی که مدیران شرکت‌های فناوری برای سرمایه‌گذاری در «هوش مصنوعی» از یکدیگر پیشی می‌گیرند، یک مشکل بزرگ و رو به رشد وجود دارد، هر مدلی که بر روی داده‌های وب پس از ظهور «چت‌جی‌پی‌تی»(ChatGPT) در سال ۲۰۲۲ آموزش دیده باشد، در حال جذب داده‌های تولید شده توسط «هوش مصنوعی» است. این عمل ممکن است باعث افزایش مشکلات فنی شود و کل این صنعت را تهدید کند.

به نقل از فیوچریسم، «استیون وان-نیکولز»( Steven Vaughn-Nichols) ستون‌نویس فناوری در مقاله‌ای جدید هشدار می‌دهد که حتی تلاش‌ها برای جلوگیری از «فروپاشی مدل»(model collapse) نوع دیگری از کابوس است. این پدیده زمانی رخ می‌دهد که «مدل‌های زبانی بزرگ»(LLM) با داده‌های مصنوعی و تولید شده توسط «هوش مصنوعی» تغذیه می‌شوند و در نتیجه از مسیر درست خارج می‌شوند. 

صنعت «هوش مصنوعی» به  سمتی پیش رفته است که تمام داده‌های آموزشی معتبر موجود یعنی اطلاعاتی که توسط انسان‌ها تولید شده است را استفاده نمی‌کند. برای حل این مشکل، شرکت‌های صنعتی بزرگ مانند گوگل و «اوپن ای‌آی»(OpenAI) یا «آنتروپیک»(Anthropic) درگیر ابزاری موسوم به «تولید تقویت‌شده با بازیابی»(RAG) شده‌اند. این ابزار شامل اتصال «LLM ها» به اینترنت است تا بتوانند در صورت مواجهه با درخواست‌هایی که پاسخ آنها در داده‌های آموزشی‌شان نیست، به دنبال اطلاعات بگردند.

این مفهوم در ظاهر بسیار شهودی به نظر می‌رسد، اما یک مشکل وجود دارد، اینکه اینترنت اکنون پر از محتوای نامعتبر است که از «هوش مصنوعی» برای تولید پاسخ به سوالات رایج استفاده می‌کند و نتایج آن اغلب خنده‌دار، بد و نادرست است.

مطالعه‌ای جدید از بخش تحقیقاتی شرکت رسانه‌ای بزرگ «مایکل بلومبرگ»(Michael Bloomberg)،  از ۱۱ مدل از جدیدترین «LLM ها» پاسخ‌های نادرست بسیار بیشتری نسبت به همتایان خود که فاقد ابزار «RAG» بودند، دریافت کرد.

همانطور که این مطالعه بیان می‌کند: این نگرانی‌های ایمنی می‌تواند شامل محتوای مضر، غیر قانونی، توهین‌آمیز و غیر اخلاقی مانند انتشار اطلاعات نادرست و به خطر انداختن امنیت و حریم خصوصی کاربر باشد.

«آماندا استنت»(Amanda Stent) سرپرست تحقیقات و استراتژی «هوش مصنوعی» در این شرکت توضیح داد: این یافته غیرمنتظره با توجه به اینکه «RAG» چقدر به طور گسترده در برنامه‌های «هوش مصنوعی مولد»(generative AI) مانند سامانه‌ پرسش و پاسخ استفاده می‌شود، پیامدهای گسترده‌ای دارد. کاربر عادی اینترنت روزانه با سامانه‌های مبتنی بر «RAG» تعامل دارد. متخصصان «هوش مصنوعی» باید در مورد نحوه استفاده مسئولانه از این ابزار با دقت عمل کنند.

«وان-نیکولز» اشاره می‌کند: برخی افراد پیشنهاد کرده‌اند که محتوای معتبر و مصنوعی را با هم ترکیب کنند تا یک ترکیب قوی از داده‌های آموزشی خوب «هوش مصنوعی» تولید شود، اما این امر مستلزم آن است که انسان‌ها به تولید محتوای واقعی برای داده‌های آموزشی ادامه دهند. صنعت «هوش مصنوعی» به طور فعال ساختارهای انگیزشی آنها را برای ادامه کار تضعیف می‌کند. این مسئله در حالی است که کار آنها را بدون اجازه سرقت هم می‌کند.

وی افزود: ما بیشتر و بیشتر در «هوش مصنوعی» سرمایه‌گذاری خواهیم کرد تا جایی که پدیده «فروپاشی مدل» باعث شود پاسخ‌های این سامانه آنقدر بد شوند که حتی یک مدیر عامل کندذهن هم نتواند آن را نادیده بگیرد.

انتهای پیام

به گزارش ایسنا، در حالی که مدیران شرکت‌های فناوری برای سرمایه‌گذاری در «هوش مصنوعی» از یکدیگر پیشی می‌گیرند، یک مشکل بزرگ و رو به رشد وجود دارد، هر مدلی که بر روی داده‌های وب پس از ظهور «چت‌جی‌پی‌تی»(ChatGPT) در سال ۲۰۲۲ آموزش دیده باشد، در حال جذب داده‌های تولید شده توسط «هوش مصنوعی» است. این عمل ممکن است باعث افزایش مشکلات فنی شود و کل این صنعت را تهدید کند.

به نقل از فیوچریسم، «استیون وان-نیکولز»( Steven Vaughn-Nichols) ستون‌نویس فناوری در مقاله‌ای جدید هشدار می‌دهد که حتی تلاش‌ها برای جلوگیری از «فروپاشی مدل»(model collapse) نوع دیگری از کابوس است. این پدیده زمانی رخ می‌دهد که «مدل‌های زبانی بزرگ»(LLM) با داده‌های مصنوعی و تولید شده توسط «هوش مصنوعی» تغذیه می‌شوند و در نتیجه از مسیر درست خارج می‌شوند. 

صنعت «هوش مصنوعی» به  سمتی پیش رفته است که تمام داده‌های آموزشی معتبر موجود یعنی اطلاعاتی که توسط انسان‌ها تولید شده است را استفاده نمی‌کند. برای حل این مشکل، شرکت‌های صنعتی بزرگ مانند گوگل و «اوپن ای‌آی»(OpenAI) یا «آنتروپیک»(Anthropic) درگیر ابزاری موسوم به «تولید تقویت‌شده با بازیابی»(RAG) شده‌اند. این ابزار شامل اتصال «LLM ها» به اینترنت است تا بتوانند در صورت مواجهه با درخواست‌هایی که پاسخ آنها در داده‌های آموزشی‌شان نیست، به دنبال اطلاعات بگردند.

این مفهوم در ظاهر بسیار شهودی به نظر می‌رسد، اما یک مشکل وجود دارد، اینکه اینترنت اکنون پر از محتوای نامعتبر است که از «هوش مصنوعی» برای تولید پاسخ به سوالات رایج استفاده می‌کند و نتایج آن اغلب خنده‌دار، بد و نادرست است.

مطالعه‌ای جدید از بخش تحقیقاتی شرکت رسانه‌ای بزرگ «مایکل بلومبرگ»(Michael Bloomberg)،  از ۱۱ مدل از جدیدترین «LLM ها» پاسخ‌های نادرست بسیار بیشتری نسبت به همتایان خود که فاقد ابزار «RAG» بودند، دریافت کرد.

همانطور که این مطالعه بیان می‌کند: این نگرانی‌های ایمنی می‌تواند شامل محتوای مضر، غیر قانونی، توهین‌آمیز و غیر اخلاقی مانند انتشار اطلاعات نادرست و به خطر انداختن امنیت و حریم خصوصی کاربر باشد.

«آماندا استنت»(Amanda Stent) سرپرست تحقیقات و استراتژی «هوش مصنوعی» در این شرکت توضیح داد: این یافته غیرمنتظره با توجه به اینکه «RAG» چقدر به طور گسترده در برنامه‌های «هوش مصنوعی مولد»(generative AI) مانند سامانه‌ پرسش و پاسخ استفاده می‌شود، پیامدهای گسترده‌ای دارد. کاربر عادی اینترنت روزانه با سامانه‌های مبتنی بر «RAG» تعامل دارد. متخصصان «هوش مصنوعی» باید در مورد نحوه استفاده مسئولانه از این ابزار با دقت عمل کنند.

«وان-نیکولز» اشاره می‌کند: برخی افراد پیشنهاد کرده‌اند که محتوای معتبر و مصنوعی را با هم ترکیب کنند تا یک ترکیب قوی از داده‌های آموزشی خوب «هوش مصنوعی» تولید شود، اما این امر مستلزم آن است که انسان‌ها به تولید محتوای واقعی برای داده‌های آموزشی ادامه دهند. صنعت «هوش مصنوعی» به طور فعال ساختارهای انگیزشی آنها را برای ادامه کار تضعیف می‌کند. این مسئله در حالی است که کار آنها را بدون اجازه سرقت هم می‌کند.

وی افزود: ما بیشتر و بیشتر در «هوش مصنوعی» سرمایه‌گذاری خواهیم کرد تا جایی که پدیده «فروپاشی مدل» باعث شود پاسخ‌های این سامانه آنقدر بد شوند که حتی یک مدیر عامل کندذهن هم نتواند آن را نادیده بگیرد.

انتهای پیام

اخبارجدیدترین

گوگل از Gemini Drops رونمایی کرد؛ به‌روزرسانی‌های ماهانه برای هوش مصنوعی

ChatGPT ظاهراً روی تصاویر تولیدشده با هوش مصنوعی واترمارک می‌گذارد

هشدار نایب رئیس کمیسیون هوش مصنوعی نصر تهران: هوش مصنوعی با نگاه امنیتی و دولتی‌سازی توسعه نمی‌یابد

به گزارش ایسنا، در حالی که مدیران شرکت‌های فناوری برای سرمایه‌گذاری در «هوش مصنوعی» از یکدیگر پیشی می‌گیرند، یک مشکل بزرگ و رو به رشد وجود دارد، هر مدلی که بر روی داده‌های وب پس از ظهور «چت‌جی‌پی‌تی»(ChatGPT) در سال ۲۰۲۲ آموزش دیده باشد، در حال جذب داده‌های تولید شده توسط «هوش مصنوعی» است. این عمل ممکن است باعث افزایش مشکلات فنی شود و کل این صنعت را تهدید کند.

به نقل از فیوچریسم، «استیون وان-نیکولز»( Steven Vaughn-Nichols) ستون‌نویس فناوری در مقاله‌ای جدید هشدار می‌دهد که حتی تلاش‌ها برای جلوگیری از «فروپاشی مدل»(model collapse) نوع دیگری از کابوس است. این پدیده زمانی رخ می‌دهد که «مدل‌های زبانی بزرگ»(LLM) با داده‌های مصنوعی و تولید شده توسط «هوش مصنوعی» تغذیه می‌شوند و در نتیجه از مسیر درست خارج می‌شوند. 

صنعت «هوش مصنوعی» به  سمتی پیش رفته است که تمام داده‌های آموزشی معتبر موجود یعنی اطلاعاتی که توسط انسان‌ها تولید شده است را استفاده نمی‌کند. برای حل این مشکل، شرکت‌های صنعتی بزرگ مانند گوگل و «اوپن ای‌آی»(OpenAI) یا «آنتروپیک»(Anthropic) درگیر ابزاری موسوم به «تولید تقویت‌شده با بازیابی»(RAG) شده‌اند. این ابزار شامل اتصال «LLM ها» به اینترنت است تا بتوانند در صورت مواجهه با درخواست‌هایی که پاسخ آنها در داده‌های آموزشی‌شان نیست، به دنبال اطلاعات بگردند.

این مفهوم در ظاهر بسیار شهودی به نظر می‌رسد، اما یک مشکل وجود دارد، اینکه اینترنت اکنون پر از محتوای نامعتبر است که از «هوش مصنوعی» برای تولید پاسخ به سوالات رایج استفاده می‌کند و نتایج آن اغلب خنده‌دار، بد و نادرست است.

مطالعه‌ای جدید از بخش تحقیقاتی شرکت رسانه‌ای بزرگ «مایکل بلومبرگ»(Michael Bloomberg)،  از ۱۱ مدل از جدیدترین «LLM ها» پاسخ‌های نادرست بسیار بیشتری نسبت به همتایان خود که فاقد ابزار «RAG» بودند، دریافت کرد.

همانطور که این مطالعه بیان می‌کند: این نگرانی‌های ایمنی می‌تواند شامل محتوای مضر، غیر قانونی، توهین‌آمیز و غیر اخلاقی مانند انتشار اطلاعات نادرست و به خطر انداختن امنیت و حریم خصوصی کاربر باشد.

«آماندا استنت»(Amanda Stent) سرپرست تحقیقات و استراتژی «هوش مصنوعی» در این شرکت توضیح داد: این یافته غیرمنتظره با توجه به اینکه «RAG» چقدر به طور گسترده در برنامه‌های «هوش مصنوعی مولد»(generative AI) مانند سامانه‌ پرسش و پاسخ استفاده می‌شود، پیامدهای گسترده‌ای دارد. کاربر عادی اینترنت روزانه با سامانه‌های مبتنی بر «RAG» تعامل دارد. متخصصان «هوش مصنوعی» باید در مورد نحوه استفاده مسئولانه از این ابزار با دقت عمل کنند.

«وان-نیکولز» اشاره می‌کند: برخی افراد پیشنهاد کرده‌اند که محتوای معتبر و مصنوعی را با هم ترکیب کنند تا یک ترکیب قوی از داده‌های آموزشی خوب «هوش مصنوعی» تولید شود، اما این امر مستلزم آن است که انسان‌ها به تولید محتوای واقعی برای داده‌های آموزشی ادامه دهند. صنعت «هوش مصنوعی» به طور فعال ساختارهای انگیزشی آنها را برای ادامه کار تضعیف می‌کند. این مسئله در حالی است که کار آنها را بدون اجازه سرقت هم می‌کند.

وی افزود: ما بیشتر و بیشتر در «هوش مصنوعی» سرمایه‌گذاری خواهیم کرد تا جایی که پدیده «فروپاشی مدل» باعث شود پاسخ‌های این سامانه آنقدر بد شوند که حتی یک مدیر عامل کندذهن هم نتواند آن را نادیده بگیرد.

انتهای پیام

به گزارش ایسنا، در حالی که مدیران شرکت‌های فناوری برای سرمایه‌گذاری در «هوش مصنوعی» از یکدیگر پیشی می‌گیرند، یک مشکل بزرگ و رو به رشد وجود دارد، هر مدلی که بر روی داده‌های وب پس از ظهور «چت‌جی‌پی‌تی»(ChatGPT) در سال ۲۰۲۲ آموزش دیده باشد، در حال جذب داده‌های تولید شده توسط «هوش مصنوعی» است. این عمل ممکن است باعث افزایش مشکلات فنی شود و کل این صنعت را تهدید کند.

به نقل از فیوچریسم، «استیون وان-نیکولز»( Steven Vaughn-Nichols) ستون‌نویس فناوری در مقاله‌ای جدید هشدار می‌دهد که حتی تلاش‌ها برای جلوگیری از «فروپاشی مدل»(model collapse) نوع دیگری از کابوس است. این پدیده زمانی رخ می‌دهد که «مدل‌های زبانی بزرگ»(LLM) با داده‌های مصنوعی و تولید شده توسط «هوش مصنوعی» تغذیه می‌شوند و در نتیجه از مسیر درست خارج می‌شوند. 

صنعت «هوش مصنوعی» به  سمتی پیش رفته است که تمام داده‌های آموزشی معتبر موجود یعنی اطلاعاتی که توسط انسان‌ها تولید شده است را استفاده نمی‌کند. برای حل این مشکل، شرکت‌های صنعتی بزرگ مانند گوگل و «اوپن ای‌آی»(OpenAI) یا «آنتروپیک»(Anthropic) درگیر ابزاری موسوم به «تولید تقویت‌شده با بازیابی»(RAG) شده‌اند. این ابزار شامل اتصال «LLM ها» به اینترنت است تا بتوانند در صورت مواجهه با درخواست‌هایی که پاسخ آنها در داده‌های آموزشی‌شان نیست، به دنبال اطلاعات بگردند.

این مفهوم در ظاهر بسیار شهودی به نظر می‌رسد، اما یک مشکل وجود دارد، اینکه اینترنت اکنون پر از محتوای نامعتبر است که از «هوش مصنوعی» برای تولید پاسخ به سوالات رایج استفاده می‌کند و نتایج آن اغلب خنده‌دار، بد و نادرست است.

مطالعه‌ای جدید از بخش تحقیقاتی شرکت رسانه‌ای بزرگ «مایکل بلومبرگ»(Michael Bloomberg)،  از ۱۱ مدل از جدیدترین «LLM ها» پاسخ‌های نادرست بسیار بیشتری نسبت به همتایان خود که فاقد ابزار «RAG» بودند، دریافت کرد.

همانطور که این مطالعه بیان می‌کند: این نگرانی‌های ایمنی می‌تواند شامل محتوای مضر، غیر قانونی، توهین‌آمیز و غیر اخلاقی مانند انتشار اطلاعات نادرست و به خطر انداختن امنیت و حریم خصوصی کاربر باشد.

«آماندا استنت»(Amanda Stent) سرپرست تحقیقات و استراتژی «هوش مصنوعی» در این شرکت توضیح داد: این یافته غیرمنتظره با توجه به اینکه «RAG» چقدر به طور گسترده در برنامه‌های «هوش مصنوعی مولد»(generative AI) مانند سامانه‌ پرسش و پاسخ استفاده می‌شود، پیامدهای گسترده‌ای دارد. کاربر عادی اینترنت روزانه با سامانه‌های مبتنی بر «RAG» تعامل دارد. متخصصان «هوش مصنوعی» باید در مورد نحوه استفاده مسئولانه از این ابزار با دقت عمل کنند.

«وان-نیکولز» اشاره می‌کند: برخی افراد پیشنهاد کرده‌اند که محتوای معتبر و مصنوعی را با هم ترکیب کنند تا یک ترکیب قوی از داده‌های آموزشی خوب «هوش مصنوعی» تولید شود، اما این امر مستلزم آن است که انسان‌ها به تولید محتوای واقعی برای داده‌های آموزشی ادامه دهند. صنعت «هوش مصنوعی» به طور فعال ساختارهای انگیزشی آنها را برای ادامه کار تضعیف می‌کند. این مسئله در حالی است که کار آنها را بدون اجازه سرقت هم می‌کند.

وی افزود: ما بیشتر و بیشتر در «هوش مصنوعی» سرمایه‌گذاری خواهیم کرد تا جایی که پدیده «فروپاشی مدل» باعث شود پاسخ‌های این سامانه آنقدر بد شوند که حتی یک مدیر عامل کندذهن هم نتواند آن را نادیده بگیرد.

انتهای پیام

پست قبلی

مدیرعامل OpenAI: ایجنت‌های هوش مصنوعی در کشف دانش جدید به انسان کمک خواهند کرد

پست بعدی

صدور هشدار «قرمز» هواشناسی برای خوزستان؛ ورود توده خاک از عراق

مربوطه پست ها

گوگل از Gemini Drops رونمایی کرد؛ به‌روزرسانی‌های ماهانه برای هوش مصنوعی
هوش مصنوعی

گوگل از Gemini Drops رونمایی کرد؛ به‌روزرسانی‌های ماهانه برای هوش مصنوعی

۳۱ تیر ۱۴۰۴
ChatGPT ظاهراً روی تصاویر تولیدشده با هوش مصنوعی واترمارک می‌گذارد
هوش مصنوعی

ChatGPT ظاهراً روی تصاویر تولیدشده با هوش مصنوعی واترمارک می‌گذارد

۳۱ تیر ۱۴۰۴
هشدار نایب رئیس کمیسیون هوش مصنوعی نصر تهران: هوش مصنوعی با نگاه امنیتی و دولتی‌سازی توسعه نمی‌یابد
هوش مصنوعی

هشدار نایب رئیس کمیسیون هوش مصنوعی نصر تهران: هوش مصنوعی با نگاه امنیتی و دولتی‌سازی توسعه نمی‌یابد

۳۱ تیر ۱۴۰۴
مراکز داده هوش مصنوعی متا به منابع آب محلی در آمریکا فشار می‌آورند
هوش مصنوعی

مراکز داده هوش مصنوعی متا به منابع آب محلی در آمریکا فشار می‌آورند

۳۱ تیر ۱۴۰۴
متا دستورالعمل داوطلبانه اتحادیه اروپا در زمینه هوش مصنوعی را نپذیرفت
هوش مصنوعی

متا دستورالعمل داوطلبانه اتحادیه اروپا در زمینه هوش مصنوعی را نپذیرفت

۳۱ تیر ۱۴۰۴
هم‌بنیان‌گذار آنتروپیک می‌گوید پیشنهادهای متا برای جذب اعضای تیم او کافی نبوده است
هوش مصنوعی

هم‌بنیان‌گذار آنتروپیک می‌گوید پیشنهادهای متا برای جذب اعضای تیم او کافی نبوده است

۳۱ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

14 − چهار =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • بانک مرکزی: ریال دیجیتال وارد فاز اجرایی شد
  • آیا SHIB شیبا اینو می‌تواند پابه‌پای اتریوم صعود کند؟+ نمودار
  • گام بزرگ اتریوم به سوی آینده‌ای مقیاس‌پذیرتر!
  • حباب بیت‌کوین در آستانه ترکیدن/ کیوساکی بهترین زمان برای خرید را فاش کرد!
  • واگذاری مابقی سهام استقلال و پرسپولیس: قیمت‌های جدید اعلام شد
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.