دانش جوین
یکشنبه, مرداد ۱۹, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

اشتباه خطرناک هوش مصنوعی پزشکی گوگل: اشاره به عضوی در مغز که وجود خارجی ندارد

دیجیاتو توسط دیجیاتو
۱۵ مرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
اشتباه خطرناک هوش مصنوعی پزشکی گوگل: اشاره به عضوی در مغز که وجود خارجی ندارد
0
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

طبق گزارش‌های جدید، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تغییر جزئی در نحوه پرسش، پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات فاحش باعث ایجاد نگرانی‌هایی درباره به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام جدید اختراع کرده بود.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه مختلف، یک دنیا تفاوت ایجاد می‌کنند.» تشخیص اشتباه میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل ایجاد شد

به گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تغییر «Basilar» به «Basal»، موضوع را یک «غلط تایپی» ساده جلوه دهد. اما پس از فشارهای بیشتر، گوگل با بازگرداندن عبارت اشتباه، در توضیحی جدید ادعا کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اشتباه هوش مصنوعی گوگل درباره عضوی در مغز

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. وقتی دکتر سؤالش را با جزئیات کامل (شامل ارائه سن و جنسیت بیمار) پرسید، هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، پاسخ کاملاً متفاوت بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را نشان می‌دهد.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود.

کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه اعتماد به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (مانند وجود گانگلیون بازیلر) را به عنوان یک حقیقت علمی بیان می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

درکل پدیده‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) گفته می‌شود، می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هرگز نمی‌گویند «من نمی‌دانم» و این یک مشکل بسیار بزرگ در حوزه‌های پرخطری مانند پزشکی است.

طبق گزارش‌های جدید، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تغییر جزئی در نحوه پرسش، پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات فاحش باعث ایجاد نگرانی‌هایی درباره به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام جدید اختراع کرده بود.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه مختلف، یک دنیا تفاوت ایجاد می‌کنند.» تشخیص اشتباه میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل ایجاد شد

به گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تغییر «Basilar» به «Basal»، موضوع را یک «غلط تایپی» ساده جلوه دهد. اما پس از فشارهای بیشتر، گوگل با بازگرداندن عبارت اشتباه، در توضیحی جدید ادعا کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اشتباه هوش مصنوعی گوگل درباره عضوی در مغز

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. وقتی دکتر سؤالش را با جزئیات کامل (شامل ارائه سن و جنسیت بیمار) پرسید، هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، پاسخ کاملاً متفاوت بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را نشان می‌دهد.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود.

کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه اعتماد به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (مانند وجود گانگلیون بازیلر) را به عنوان یک حقیقت علمی بیان می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

درکل پدیده‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) گفته می‌شود، می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هرگز نمی‌گویند «من نمی‌دانم» و این یک مشکل بسیار بزرگ در حوزه‌های پرخطری مانند پزشکی است.

اخبارجدیدترین

متا استارتاپ هوش مصنوعی صوتی WaveForms را خریداری کرد

مدل OpenAI قهرمان مسابقات شطرنج هوش مصنوعی شد؛ شکست Grok در فینال

اپل اینتلیجنس در آپدیت iOS 26 به مدل قدرتمند GPT-5 مجهز می‌شود

طبق گزارش‌های جدید، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تغییر جزئی در نحوه پرسش، پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات فاحش باعث ایجاد نگرانی‌هایی درباره به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام جدید اختراع کرده بود.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه مختلف، یک دنیا تفاوت ایجاد می‌کنند.» تشخیص اشتباه میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل ایجاد شد

به گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تغییر «Basilar» به «Basal»، موضوع را یک «غلط تایپی» ساده جلوه دهد. اما پس از فشارهای بیشتر، گوگل با بازگرداندن عبارت اشتباه، در توضیحی جدید ادعا کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اشتباه هوش مصنوعی گوگل درباره عضوی در مغز

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. وقتی دکتر سؤالش را با جزئیات کامل (شامل ارائه سن و جنسیت بیمار) پرسید، هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، پاسخ کاملاً متفاوت بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را نشان می‌دهد.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود.

کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه اعتماد به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (مانند وجود گانگلیون بازیلر) را به عنوان یک حقیقت علمی بیان می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

درکل پدیده‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) گفته می‌شود، می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هرگز نمی‌گویند «من نمی‌دانم» و این یک مشکل بسیار بزرگ در حوزه‌های پرخطری مانند پزشکی است.

طبق گزارش‌های جدید، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تغییر جزئی در نحوه پرسش، پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات فاحش باعث ایجاد نگرانی‌هایی درباره به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام جدید اختراع کرده بود.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه مختلف، یک دنیا تفاوت ایجاد می‌کنند.» تشخیص اشتباه میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل ایجاد شد

به گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تغییر «Basilar» به «Basal»، موضوع را یک «غلط تایپی» ساده جلوه دهد. اما پس از فشارهای بیشتر، گوگل با بازگرداندن عبارت اشتباه، در توضیحی جدید ادعا کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اشتباه هوش مصنوعی گوگل درباره عضوی در مغز

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. وقتی دکتر سؤالش را با جزئیات کامل (شامل ارائه سن و جنسیت بیمار) پرسید، هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، پاسخ کاملاً متفاوت بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را نشان می‌دهد.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود.

کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه اعتماد به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (مانند وجود گانگلیون بازیلر) را به عنوان یک حقیقت علمی بیان می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

درکل پدیده‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) گفته می‌شود، می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هرگز نمی‌گویند «من نمی‌دانم» و این یک مشکل بسیار بزرگ در حوزه‌های پرخطری مانند پزشکی است.

پست قبلی

ریسک تتر برای ایرانی‌ها / تتر دیگر امن نیست؟

پست بعدی

طعنه سنگین گوگل به هوش مصنوعی آیفون

مربوطه پست ها

متا استارتاپ هوش مصنوعی صوتی WaveForms را خریداری کرد
هوش مصنوعی

متا استارتاپ هوش مصنوعی صوتی WaveForms را خریداری کرد

۱۹ مرداد ۱۴۰۴
مدل OpenAI قهرمان مسابقات شطرنج هوش مصنوعی شد؛ شکست Grok در فینال
هوش مصنوعی

مدل OpenAI قهرمان مسابقات شطرنج هوش مصنوعی شد؛ شکست Grok در فینال

۱۹ مرداد ۱۴۰۴
اپل اینتلیجنس در آپدیت iOS 26 به مدل قدرتمند GPT-5 مجهز می‌شود
هوش مصنوعی

اپل اینتلیجنس در آپدیت iOS 26 به مدل قدرتمند GPT-5 مجهز می‌شود

۱۹ مرداد ۱۴۰۴
فروپاشی روانی جمینای؛ هوش مصنوعی گوگل خود را مایه ننگ جهان دانست
هوش مصنوعی

فروپاشی روانی جمینای؛ هوش مصنوعی گوگل خود را مایه ننگ جهان دانست

۱۹ مرداد ۱۴۰۴
ایلان ماسک: هوش مصنوعی هم‌اکنون از اکثر پزشکان بهتر عمل می‌کند
هوش مصنوعی

ایلان ماسک: هوش مصنوعی هم‌اکنون از اکثر پزشکان بهتر عمل می‌کند

۱۹ مرداد ۱۴۰۴
هوش مصنوعی Copilot 3D برای ساخت تصاویر سه‌بعدی معرفی شد [تماشا کنید]
هوش مصنوعی

هوش مصنوعی Copilot 3D برای ساخت تصاویر سه‌بعدی معرفی شد [تماشا کنید]

۱۷ مرداد ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

یک × یک =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • زندگی‌نامه و آثار محمود فرشچیان؛ روایت زندگی استادبرجسته نگارگری ایران
  • میزبانی عمارت نوفل‌لوشاتو از سه نمایش در میانه مرداد
  • بیش از ۱۲ هزار نفر به تماشای نمایش‌های سالن‌های دولتی نشستند
  • مدیرکل تجسمی ماجرای «سیته» را رد کرد؛ آیین‌نامه جدید را پذیرفتیم
  • بررسی آثار موسیقایی «محسن چاوشی» در شماره جدید خیمه
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری
  • سنگ قبر

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.