دانش جوین
شنبه, خرداد ۱۷, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

هوش مصنوعی در حال فروپاشی است!

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۱۴ خرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
هوش مصنوعی در حال فروپاشی است!
1
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، در حالی که مدیران شرکت‌های فناوری برای سرمایه‌گذاری در «هوش مصنوعی» از یکدیگر پیشی می‌گیرند، یک مشکل بزرگ و رو به رشد وجود دارد، هر مدلی که بر روی داده‌های وب پس از ظهور «چت‌جی‌پی‌تی»(ChatGPT) در سال ۲۰۲۲ آموزش دیده باشد، در حال جذب داده‌های تولید شده توسط «هوش مصنوعی» است. این عمل ممکن است باعث افزایش مشکلات فنی شود و کل این صنعت را تهدید کند.

به نقل از فیوچریسم، «استیون وان-نیکولز»( Steven Vaughn-Nichols) ستون‌نویس فناوری در مقاله‌ای جدید هشدار می‌دهد که حتی تلاش‌ها برای جلوگیری از «فروپاشی مدل»(model collapse) نوع دیگری از کابوس است. این پدیده زمانی رخ می‌دهد که «مدل‌های زبانی بزرگ»(LLM) با داده‌های مصنوعی و تولید شده توسط «هوش مصنوعی» تغذیه می‌شوند و در نتیجه از مسیر درست خارج می‌شوند. 

صنعت «هوش مصنوعی» به  سمتی پیش رفته است که تمام داده‌های آموزشی معتبر موجود یعنی اطلاعاتی که توسط انسان‌ها تولید شده است را استفاده نمی‌کند. برای حل این مشکل، شرکت‌های صنعتی بزرگ مانند گوگل و «اوپن ای‌آی»(OpenAI) یا «آنتروپیک»(Anthropic) درگیر ابزاری موسوم به «تولید تقویت‌شده با بازیابی»(RAG) شده‌اند. این ابزار شامل اتصال «LLM ها» به اینترنت است تا بتوانند در صورت مواجهه با درخواست‌هایی که پاسخ آنها در داده‌های آموزشی‌شان نیست، به دنبال اطلاعات بگردند.

این مفهوم در ظاهر بسیار شهودی به نظر می‌رسد، اما یک مشکل وجود دارد، اینکه اینترنت اکنون پر از محتوای نامعتبر است که از «هوش مصنوعی» برای تولید پاسخ به سوالات رایج استفاده می‌کند و نتایج آن اغلب خنده‌دار، بد و نادرست است.

مطالعه‌ای جدید از بخش تحقیقاتی شرکت رسانه‌ای بزرگ «مایکل بلومبرگ»(Michael Bloomberg)،  از ۱۱ مدل از جدیدترین «LLM ها» پاسخ‌های نادرست بسیار بیشتری نسبت به همتایان خود که فاقد ابزار «RAG» بودند، دریافت کرد.

همانطور که این مطالعه بیان می‌کند: این نگرانی‌های ایمنی می‌تواند شامل محتوای مضر، غیر قانونی، توهین‌آمیز و غیر اخلاقی مانند انتشار اطلاعات نادرست و به خطر انداختن امنیت و حریم خصوصی کاربر باشد.

«آماندا استنت»(Amanda Stent) سرپرست تحقیقات و استراتژی «هوش مصنوعی» در این شرکت توضیح داد: این یافته غیرمنتظره با توجه به اینکه «RAG» چقدر به طور گسترده در برنامه‌های «هوش مصنوعی مولد»(generative AI) مانند سامانه‌ پرسش و پاسخ استفاده می‌شود، پیامدهای گسترده‌ای دارد. کاربر عادی اینترنت روزانه با سامانه‌های مبتنی بر «RAG» تعامل دارد. متخصصان «هوش مصنوعی» باید در مورد نحوه استفاده مسئولانه از این ابزار با دقت عمل کنند.

«وان-نیکولز» اشاره می‌کند: برخی افراد پیشنهاد کرده‌اند که محتوای معتبر و مصنوعی را با هم ترکیب کنند تا یک ترکیب قوی از داده‌های آموزشی خوب «هوش مصنوعی» تولید شود، اما این امر مستلزم آن است که انسان‌ها به تولید محتوای واقعی برای داده‌های آموزشی ادامه دهند. صنعت «هوش مصنوعی» به طور فعال ساختارهای انگیزشی آنها را برای ادامه کار تضعیف می‌کند. این مسئله در حالی است که کار آنها را بدون اجازه سرقت هم می‌کند.

وی افزود: ما بیشتر و بیشتر در «هوش مصنوعی» سرمایه‌گذاری خواهیم کرد تا جایی که پدیده «فروپاشی مدل» باعث شود پاسخ‌های این سامانه آنقدر بد شوند که حتی یک مدیر عامل کندذهن هم نتواند آن را نادیده بگیرد.

انتهای پیام

به گزارش ایسنا، در حالی که مدیران شرکت‌های فناوری برای سرمایه‌گذاری در «هوش مصنوعی» از یکدیگر پیشی می‌گیرند، یک مشکل بزرگ و رو به رشد وجود دارد، هر مدلی که بر روی داده‌های وب پس از ظهور «چت‌جی‌پی‌تی»(ChatGPT) در سال ۲۰۲۲ آموزش دیده باشد، در حال جذب داده‌های تولید شده توسط «هوش مصنوعی» است. این عمل ممکن است باعث افزایش مشکلات فنی شود و کل این صنعت را تهدید کند.

به نقل از فیوچریسم، «استیون وان-نیکولز»( Steven Vaughn-Nichols) ستون‌نویس فناوری در مقاله‌ای جدید هشدار می‌دهد که حتی تلاش‌ها برای جلوگیری از «فروپاشی مدل»(model collapse) نوع دیگری از کابوس است. این پدیده زمانی رخ می‌دهد که «مدل‌های زبانی بزرگ»(LLM) با داده‌های مصنوعی و تولید شده توسط «هوش مصنوعی» تغذیه می‌شوند و در نتیجه از مسیر درست خارج می‌شوند. 

صنعت «هوش مصنوعی» به  سمتی پیش رفته است که تمام داده‌های آموزشی معتبر موجود یعنی اطلاعاتی که توسط انسان‌ها تولید شده است را استفاده نمی‌کند. برای حل این مشکل، شرکت‌های صنعتی بزرگ مانند گوگل و «اوپن ای‌آی»(OpenAI) یا «آنتروپیک»(Anthropic) درگیر ابزاری موسوم به «تولید تقویت‌شده با بازیابی»(RAG) شده‌اند. این ابزار شامل اتصال «LLM ها» به اینترنت است تا بتوانند در صورت مواجهه با درخواست‌هایی که پاسخ آنها در داده‌های آموزشی‌شان نیست، به دنبال اطلاعات بگردند.

این مفهوم در ظاهر بسیار شهودی به نظر می‌رسد، اما یک مشکل وجود دارد، اینکه اینترنت اکنون پر از محتوای نامعتبر است که از «هوش مصنوعی» برای تولید پاسخ به سوالات رایج استفاده می‌کند و نتایج آن اغلب خنده‌دار، بد و نادرست است.

مطالعه‌ای جدید از بخش تحقیقاتی شرکت رسانه‌ای بزرگ «مایکل بلومبرگ»(Michael Bloomberg)،  از ۱۱ مدل از جدیدترین «LLM ها» پاسخ‌های نادرست بسیار بیشتری نسبت به همتایان خود که فاقد ابزار «RAG» بودند، دریافت کرد.

همانطور که این مطالعه بیان می‌کند: این نگرانی‌های ایمنی می‌تواند شامل محتوای مضر، غیر قانونی، توهین‌آمیز و غیر اخلاقی مانند انتشار اطلاعات نادرست و به خطر انداختن امنیت و حریم خصوصی کاربر باشد.

«آماندا استنت»(Amanda Stent) سرپرست تحقیقات و استراتژی «هوش مصنوعی» در این شرکت توضیح داد: این یافته غیرمنتظره با توجه به اینکه «RAG» چقدر به طور گسترده در برنامه‌های «هوش مصنوعی مولد»(generative AI) مانند سامانه‌ پرسش و پاسخ استفاده می‌شود، پیامدهای گسترده‌ای دارد. کاربر عادی اینترنت روزانه با سامانه‌های مبتنی بر «RAG» تعامل دارد. متخصصان «هوش مصنوعی» باید در مورد نحوه استفاده مسئولانه از این ابزار با دقت عمل کنند.

«وان-نیکولز» اشاره می‌کند: برخی افراد پیشنهاد کرده‌اند که محتوای معتبر و مصنوعی را با هم ترکیب کنند تا یک ترکیب قوی از داده‌های آموزشی خوب «هوش مصنوعی» تولید شود، اما این امر مستلزم آن است که انسان‌ها به تولید محتوای واقعی برای داده‌های آموزشی ادامه دهند. صنعت «هوش مصنوعی» به طور فعال ساختارهای انگیزشی آنها را برای ادامه کار تضعیف می‌کند. این مسئله در حالی است که کار آنها را بدون اجازه سرقت هم می‌کند.

وی افزود: ما بیشتر و بیشتر در «هوش مصنوعی» سرمایه‌گذاری خواهیم کرد تا جایی که پدیده «فروپاشی مدل» باعث شود پاسخ‌های این سامانه آنقدر بد شوند که حتی یک مدیر عامل کندذهن هم نتواند آن را نادیده بگیرد.

انتهای پیام

اخبارجدیدترین

رونمایی از قابلیت جدید «جمینای»

اپل در WWDC از قابلیت ترجمه پیام‌ و تماس‌ با هوش مصنوعی رونمایی می‌کند

سکوی ملی هوش مصنوعی با حمایت ۳۰ میلیاردی در راه آزمایش

به گزارش ایسنا، در حالی که مدیران شرکت‌های فناوری برای سرمایه‌گذاری در «هوش مصنوعی» از یکدیگر پیشی می‌گیرند، یک مشکل بزرگ و رو به رشد وجود دارد، هر مدلی که بر روی داده‌های وب پس از ظهور «چت‌جی‌پی‌تی»(ChatGPT) در سال ۲۰۲۲ آموزش دیده باشد، در حال جذب داده‌های تولید شده توسط «هوش مصنوعی» است. این عمل ممکن است باعث افزایش مشکلات فنی شود و کل این صنعت را تهدید کند.

به نقل از فیوچریسم، «استیون وان-نیکولز»( Steven Vaughn-Nichols) ستون‌نویس فناوری در مقاله‌ای جدید هشدار می‌دهد که حتی تلاش‌ها برای جلوگیری از «فروپاشی مدل»(model collapse) نوع دیگری از کابوس است. این پدیده زمانی رخ می‌دهد که «مدل‌های زبانی بزرگ»(LLM) با داده‌های مصنوعی و تولید شده توسط «هوش مصنوعی» تغذیه می‌شوند و در نتیجه از مسیر درست خارج می‌شوند. 

صنعت «هوش مصنوعی» به  سمتی پیش رفته است که تمام داده‌های آموزشی معتبر موجود یعنی اطلاعاتی که توسط انسان‌ها تولید شده است را استفاده نمی‌کند. برای حل این مشکل، شرکت‌های صنعتی بزرگ مانند گوگل و «اوپن ای‌آی»(OpenAI) یا «آنتروپیک»(Anthropic) درگیر ابزاری موسوم به «تولید تقویت‌شده با بازیابی»(RAG) شده‌اند. این ابزار شامل اتصال «LLM ها» به اینترنت است تا بتوانند در صورت مواجهه با درخواست‌هایی که پاسخ آنها در داده‌های آموزشی‌شان نیست، به دنبال اطلاعات بگردند.

این مفهوم در ظاهر بسیار شهودی به نظر می‌رسد، اما یک مشکل وجود دارد، اینکه اینترنت اکنون پر از محتوای نامعتبر است که از «هوش مصنوعی» برای تولید پاسخ به سوالات رایج استفاده می‌کند و نتایج آن اغلب خنده‌دار، بد و نادرست است.

مطالعه‌ای جدید از بخش تحقیقاتی شرکت رسانه‌ای بزرگ «مایکل بلومبرگ»(Michael Bloomberg)،  از ۱۱ مدل از جدیدترین «LLM ها» پاسخ‌های نادرست بسیار بیشتری نسبت به همتایان خود که فاقد ابزار «RAG» بودند، دریافت کرد.

همانطور که این مطالعه بیان می‌کند: این نگرانی‌های ایمنی می‌تواند شامل محتوای مضر، غیر قانونی، توهین‌آمیز و غیر اخلاقی مانند انتشار اطلاعات نادرست و به خطر انداختن امنیت و حریم خصوصی کاربر باشد.

«آماندا استنت»(Amanda Stent) سرپرست تحقیقات و استراتژی «هوش مصنوعی» در این شرکت توضیح داد: این یافته غیرمنتظره با توجه به اینکه «RAG» چقدر به طور گسترده در برنامه‌های «هوش مصنوعی مولد»(generative AI) مانند سامانه‌ پرسش و پاسخ استفاده می‌شود، پیامدهای گسترده‌ای دارد. کاربر عادی اینترنت روزانه با سامانه‌های مبتنی بر «RAG» تعامل دارد. متخصصان «هوش مصنوعی» باید در مورد نحوه استفاده مسئولانه از این ابزار با دقت عمل کنند.

«وان-نیکولز» اشاره می‌کند: برخی افراد پیشنهاد کرده‌اند که محتوای معتبر و مصنوعی را با هم ترکیب کنند تا یک ترکیب قوی از داده‌های آموزشی خوب «هوش مصنوعی» تولید شود، اما این امر مستلزم آن است که انسان‌ها به تولید محتوای واقعی برای داده‌های آموزشی ادامه دهند. صنعت «هوش مصنوعی» به طور فعال ساختارهای انگیزشی آنها را برای ادامه کار تضعیف می‌کند. این مسئله در حالی است که کار آنها را بدون اجازه سرقت هم می‌کند.

وی افزود: ما بیشتر و بیشتر در «هوش مصنوعی» سرمایه‌گذاری خواهیم کرد تا جایی که پدیده «فروپاشی مدل» باعث شود پاسخ‌های این سامانه آنقدر بد شوند که حتی یک مدیر عامل کندذهن هم نتواند آن را نادیده بگیرد.

انتهای پیام

به گزارش ایسنا، در حالی که مدیران شرکت‌های فناوری برای سرمایه‌گذاری در «هوش مصنوعی» از یکدیگر پیشی می‌گیرند، یک مشکل بزرگ و رو به رشد وجود دارد، هر مدلی که بر روی داده‌های وب پس از ظهور «چت‌جی‌پی‌تی»(ChatGPT) در سال ۲۰۲۲ آموزش دیده باشد، در حال جذب داده‌های تولید شده توسط «هوش مصنوعی» است. این عمل ممکن است باعث افزایش مشکلات فنی شود و کل این صنعت را تهدید کند.

به نقل از فیوچریسم، «استیون وان-نیکولز»( Steven Vaughn-Nichols) ستون‌نویس فناوری در مقاله‌ای جدید هشدار می‌دهد که حتی تلاش‌ها برای جلوگیری از «فروپاشی مدل»(model collapse) نوع دیگری از کابوس است. این پدیده زمانی رخ می‌دهد که «مدل‌های زبانی بزرگ»(LLM) با داده‌های مصنوعی و تولید شده توسط «هوش مصنوعی» تغذیه می‌شوند و در نتیجه از مسیر درست خارج می‌شوند. 

صنعت «هوش مصنوعی» به  سمتی پیش رفته است که تمام داده‌های آموزشی معتبر موجود یعنی اطلاعاتی که توسط انسان‌ها تولید شده است را استفاده نمی‌کند. برای حل این مشکل، شرکت‌های صنعتی بزرگ مانند گوگل و «اوپن ای‌آی»(OpenAI) یا «آنتروپیک»(Anthropic) درگیر ابزاری موسوم به «تولید تقویت‌شده با بازیابی»(RAG) شده‌اند. این ابزار شامل اتصال «LLM ها» به اینترنت است تا بتوانند در صورت مواجهه با درخواست‌هایی که پاسخ آنها در داده‌های آموزشی‌شان نیست، به دنبال اطلاعات بگردند.

این مفهوم در ظاهر بسیار شهودی به نظر می‌رسد، اما یک مشکل وجود دارد، اینکه اینترنت اکنون پر از محتوای نامعتبر است که از «هوش مصنوعی» برای تولید پاسخ به سوالات رایج استفاده می‌کند و نتایج آن اغلب خنده‌دار، بد و نادرست است.

مطالعه‌ای جدید از بخش تحقیقاتی شرکت رسانه‌ای بزرگ «مایکل بلومبرگ»(Michael Bloomberg)،  از ۱۱ مدل از جدیدترین «LLM ها» پاسخ‌های نادرست بسیار بیشتری نسبت به همتایان خود که فاقد ابزار «RAG» بودند، دریافت کرد.

همانطور که این مطالعه بیان می‌کند: این نگرانی‌های ایمنی می‌تواند شامل محتوای مضر، غیر قانونی، توهین‌آمیز و غیر اخلاقی مانند انتشار اطلاعات نادرست و به خطر انداختن امنیت و حریم خصوصی کاربر باشد.

«آماندا استنت»(Amanda Stent) سرپرست تحقیقات و استراتژی «هوش مصنوعی» در این شرکت توضیح داد: این یافته غیرمنتظره با توجه به اینکه «RAG» چقدر به طور گسترده در برنامه‌های «هوش مصنوعی مولد»(generative AI) مانند سامانه‌ پرسش و پاسخ استفاده می‌شود، پیامدهای گسترده‌ای دارد. کاربر عادی اینترنت روزانه با سامانه‌های مبتنی بر «RAG» تعامل دارد. متخصصان «هوش مصنوعی» باید در مورد نحوه استفاده مسئولانه از این ابزار با دقت عمل کنند.

«وان-نیکولز» اشاره می‌کند: برخی افراد پیشنهاد کرده‌اند که محتوای معتبر و مصنوعی را با هم ترکیب کنند تا یک ترکیب قوی از داده‌های آموزشی خوب «هوش مصنوعی» تولید شود، اما این امر مستلزم آن است که انسان‌ها به تولید محتوای واقعی برای داده‌های آموزشی ادامه دهند. صنعت «هوش مصنوعی» به طور فعال ساختارهای انگیزشی آنها را برای ادامه کار تضعیف می‌کند. این مسئله در حالی است که کار آنها را بدون اجازه سرقت هم می‌کند.

وی افزود: ما بیشتر و بیشتر در «هوش مصنوعی» سرمایه‌گذاری خواهیم کرد تا جایی که پدیده «فروپاشی مدل» باعث شود پاسخ‌های این سامانه آنقدر بد شوند که حتی یک مدیر عامل کندذهن هم نتواند آن را نادیده بگیرد.

انتهای پیام

پست قبلی

مدیرعامل OpenAI: ایجنت‌های هوش مصنوعی در کشف دانش جدید به انسان کمک خواهند کرد

پست بعدی

صدور هشدار «قرمز» هواشناسی برای خوزستان؛ ورود توده خاک از عراق

مربوطه پست ها

رونمایی از قابلیت جدید «جمینای»
هوش مصنوعی

رونمایی از قابلیت جدید «جمینای»

۱۷ خرداد ۱۴۰۴
اپل در WWDC از قابلیت ترجمه پیام‌ و تماس‌ با هوش مصنوعی رونمایی می‌کند
هوش مصنوعی

اپل در WWDC از قابلیت ترجمه پیام‌ و تماس‌ با هوش مصنوعی رونمایی می‌کند

۱۷ خرداد ۱۴۰۴
سکوی ملی هوش مصنوعی با حمایت ۳۰ میلیاردی در راه آزمایش
هوش مصنوعی

سکوی ملی هوش مصنوعی با حمایت ۳۰ میلیاردی در راه آزمایش

۱۷ خرداد ۱۴۰۴
مدل جدید DeepSeek با بهبودهای چشمگیر به‌روز شد؛ چالشی تازه برای OpenAI o3 و جمینای 2.5 پرو
هوش مصنوعی

مدل جدید DeepSeek با بهبودهای چشمگیر به‌روز شد؛ چالشی تازه برای OpenAI o3 و جمینای 2.5 پرو

۱۷ خرداد ۱۴۰۴
«گوگل درایو ایرانی» با الهام از گوگل در سکوی ملی هوش مصنوعی در خدمت همه کاربران
هوش مصنوعی

«گوگل درایو ایرانی» با الهام از گوگل در سکوی ملی هوش مصنوعی در خدمت همه کاربران

۱۷ خرداد ۱۴۰۴
هوش مصنوعی جمینای به قابلیت زمان‌بندی انجام وظایف مجهز شد
هوش مصنوعی

هوش مصنوعی جمینای به قابلیت زمان‌بندی انجام وظایف مجهز شد

۱۷ خرداد ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

نوزده − 9 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • مسیر تبدیل شدن به برنامه‌نویس پایتون؛ از صفر تا استخدام
  • ایران و عمان؛ دوستان قدیمی با حجم تجارت ضعیف/ پیشنهاد جذاب مسقط برای فعالان اقتصادی ایرانی چیست؟
  • قیمت گوشی‌های سامسونگ، امروز شنبه ۱۷ خرداد ۱۴۰۴
  • قیمت گوشی‌های شیائومی، امروز شنبه ۱۷ خرداد ۱۴۰۴
  • ریزش 34 میلیارد دلاری ثروت ایلان ماسک /حالا ثروتمندترین مرد جهان کیست؟
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.