دانش جوین
چهارشنبه, مرداد ۱۵, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

اشتباه خطرناک هوش مصنوعی پزشکی گوگل: اشاره به عضوی در مغز که وجود خارجی ندارد

دیجیاتو توسط دیجیاتو
۱۵ مرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
اشتباه خطرناک هوش مصنوعی پزشکی گوگل: اشاره به عضوی در مغز که وجود خارجی ندارد
0
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

طبق گزارش‌های جدید، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تغییر جزئی در نحوه پرسش، پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات فاحش باعث ایجاد نگرانی‌هایی درباره به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام جدید اختراع کرده بود.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه مختلف، یک دنیا تفاوت ایجاد می‌کنند.» تشخیص اشتباه میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل ایجاد شد

به گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تغییر «Basilar» به «Basal»، موضوع را یک «غلط تایپی» ساده جلوه دهد. اما پس از فشارهای بیشتر، گوگل با بازگرداندن عبارت اشتباه، در توضیحی جدید ادعا کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اشتباه هوش مصنوعی گوگل درباره عضوی در مغز

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. وقتی دکتر سؤالش را با جزئیات کامل (شامل ارائه سن و جنسیت بیمار) پرسید، هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، پاسخ کاملاً متفاوت بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را نشان می‌دهد.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود.

کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه اعتماد به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (مانند وجود گانگلیون بازیلر) را به عنوان یک حقیقت علمی بیان می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

درکل پدیده‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) گفته می‌شود، می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هرگز نمی‌گویند «من نمی‌دانم» و این یک مشکل بسیار بزرگ در حوزه‌های پرخطری مانند پزشکی است.

طبق گزارش‌های جدید، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تغییر جزئی در نحوه پرسش، پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات فاحش باعث ایجاد نگرانی‌هایی درباره به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام جدید اختراع کرده بود.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه مختلف، یک دنیا تفاوت ایجاد می‌کنند.» تشخیص اشتباه میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل ایجاد شد

به گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تغییر «Basilar» به «Basal»، موضوع را یک «غلط تایپی» ساده جلوه دهد. اما پس از فشارهای بیشتر، گوگل با بازگرداندن عبارت اشتباه، در توضیحی جدید ادعا کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اشتباه هوش مصنوعی گوگل درباره عضوی در مغز

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. وقتی دکتر سؤالش را با جزئیات کامل (شامل ارائه سن و جنسیت بیمار) پرسید، هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، پاسخ کاملاً متفاوت بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را نشان می‌دهد.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود.

کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه اعتماد به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (مانند وجود گانگلیون بازیلر) را به عنوان یک حقیقت علمی بیان می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

درکل پدیده‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) گفته می‌شود، می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هرگز نمی‌گویند «من نمی‌دانم» و این یک مشکل بسیار بزرگ در حوزه‌های پرخطری مانند پزشکی است.

اخبارجدیدترین

ChatGPT محتاط‌تر می‌شود؛ یادآوری برای استراحت و عدم مداخله در تصمیمات حساس

OpenAI پس از 6 سال مدل متن‌باز منتشر کرد؛ GPT-OSS روی لپ‌تاپ نیز قابل اجراست

جمینای به قابلیت Storybook مجهز شد؛ خلق داستان‌های مصور با هوش مصنوعی

طبق گزارش‌های جدید، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تغییر جزئی در نحوه پرسش، پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات فاحش باعث ایجاد نگرانی‌هایی درباره به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام جدید اختراع کرده بود.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه مختلف، یک دنیا تفاوت ایجاد می‌کنند.» تشخیص اشتباه میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل ایجاد شد

به گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تغییر «Basilar» به «Basal»، موضوع را یک «غلط تایپی» ساده جلوه دهد. اما پس از فشارهای بیشتر، گوگل با بازگرداندن عبارت اشتباه، در توضیحی جدید ادعا کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اشتباه هوش مصنوعی گوگل درباره عضوی در مغز

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. وقتی دکتر سؤالش را با جزئیات کامل (شامل ارائه سن و جنسیت بیمار) پرسید، هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، پاسخ کاملاً متفاوت بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را نشان می‌دهد.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود.

کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه اعتماد به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (مانند وجود گانگلیون بازیلر) را به عنوان یک حقیقت علمی بیان می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

درکل پدیده‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) گفته می‌شود، می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هرگز نمی‌گویند «من نمی‌دانم» و این یک مشکل بسیار بزرگ در حوزه‌های پرخطری مانند پزشکی است.

طبق گزارش‌های جدید، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تغییر جزئی در نحوه پرسش، پاسخ‌های کاملاً متناقضی ارائه می‌دهد. این اشتباهات فاحش باعث ایجاد نگرانی‌هایی درباره به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini منتشر شده بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام جدید اختراع کرده بود.

محققان و پزشکان این خطا را «فوق‌العاده خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه مختلف، یک دنیا تفاوت ایجاد می‌کنند.» تشخیص اشتباه میان این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل ایجاد شد

به گزارش ورج، پس از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این اشتباه فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تغییر «Basilar» به «Basal»، موضوع را یک «غلط تایپی» ساده جلوه دهد. اما پس از فشارهای بیشتر، گوگل با بازگرداندن عبارت اشتباه، در توضیحی جدید ادعا کرد که این یک «اشتباه رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

اشتباه هوش مصنوعی گوگل درباره عضوی در مغز

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ثبات در پاسخ‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. وقتی دکتر سؤالش را با جزئیات کامل (شامل ارائه سن و جنسیت بیمار) پرسید، هوش مصنوعی مشکل را به درستی تشخیص داد. اما وقتی همان عکس را با یک سؤال ساده‌تر (صرفاً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، پاسخ کاملاً متفاوت بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را نشان می‌دهد.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه نشان می‌دهد که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند منجر به نتایج کاملاً متضاد و خطرناک شود.

کارشناسان معتقدند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه اعتماد به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (مانند وجود گانگلیون بازیلر) را به عنوان یک حقیقت علمی بیان می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این پدیده را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

درکل پدیده‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) گفته می‌شود، می‌تواند باعث شود پزشکان به دلیل عملکرد عمدتاً صحیح هوش مصنوعی، از بررسی دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هرگز نمی‌گویند «من نمی‌دانم» و این یک مشکل بسیار بزرگ در حوزه‌های پرخطری مانند پزشکی است.

پست قبلی

ریسک تتر برای ایرانی‌ها / تتر دیگر امن نیست؟

پست بعدی

طعنه سنگین گوگل به هوش مصنوعی آیفون

مربوطه پست ها

ChatGPT محتاط‌تر می‌شود؛ یادآوری برای استراحت و عدم مداخله در تصمیمات حساس
هوش مصنوعی

ChatGPT محتاط‌تر می‌شود؛ یادآوری برای استراحت و عدم مداخله در تصمیمات حساس

۱۵ مرداد ۱۴۰۴
OpenAI پس از 6 سال مدل متن‌باز منتشر کرد؛ GPT-OSS روی لپ‌تاپ نیز قابل اجراست
هوش مصنوعی

OpenAI پس از 6 سال مدل متن‌باز منتشر کرد؛ GPT-OSS روی لپ‌تاپ نیز قابل اجراست

۱۵ مرداد ۱۴۰۴
جمینای به قابلیت Storybook مجهز شد؛ خلق داستان‌های مصور با هوش مصنوعی
هوش مصنوعی

جمینای به قابلیت Storybook مجهز شد؛ خلق داستان‌های مصور با هوش مصنوعی

۱۵ مرداد ۱۴۰۴
مایکروسافت مدل متن‌باز جدید OpenAI را برای کاربران ویندوز در دسترس قرار داد
هوش مصنوعی

مایکروسافت مدل متن‌باز جدید OpenAI را برای کاربران ویندوز در دسترس قرار داد

۱۵ مرداد ۱۴۰۴
سرویس هوش مصنوعی لیارا
هوش مصنوعی

موضوع رپورتاژ: قبل از ساخت هر ابزار هوش مصنوعی، این ۵ نکته حیاتی را بدانید!

۱۴ مرداد ۱۴۰۴
رشد چشمگیر ChatGPT؛ تعداد کاربران هفتگی به‌زودی به ۷۰۰ میلیون می‌رسد
هوش مصنوعی

رشد چشمگیر ChatGPT؛ تعداد کاربران هفتگی به‌زودی به ۷۰۰ میلیون می‌رسد

۱۴ مرداد ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پانزده + 18 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • خبر خوش برای استقلالی‌ها / بازگشت ستاره تاثیرگذار به تمرینات
  • عکس جذاب علیرضا فغانی در قلب نیویورک
  • استقلال در سوپرجام مهمان شد
  • تیم جدید مهدی طارمی مشخص شد
  • واکنش پرسپولیس به خبر مصدومیت ارونوف
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری
  • سنگ قبر

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.