دانش جوین
جمعه, تیر ۲۷, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی سایر اخبار تکنولوژی

مجلس سنا آمریکا لایحه جدیدی برای ردیابی نقض مدل‌های هوش مصنوعی پیشنهاد کرد

کارشناس روابط عمومی دیجیتال توسط کارشناس روابط عمومی دیجیتال
۰۴ مهر ۱۴۰۳
در سایر اخبار تکنولوژی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
مجلس سنا آمریکا لایحه جدیدی برای ردیابی نقض مدل‌های هوش مصنوعی پیشنهاد کرد
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

مجلس سنا ایالات متحده لایحه جدیدی را پیشنهاد کرده است که با الزام ایجاد پایگاه داده‌ای برای ثبت تمام نقض‌های سیستم‌های هوش مصنوعی، به‌دنبال ردیابی مسائل امنیتی این حوزه است.

براساس گزارش ورج، لایحه مذکور که «قانون هوش مصنوعی امن» نام دارد، توسط «مارک وارنر» (D-VA) و «تام تیلیس» (R-NC)، دو سناتور آمریکایی معرفی شده است و با وجود آن، یک مرکز امنیت هوش مصنوعی در آژانس امنیت ملی ایجاد خواهد شد. این مرکز در مورد تکنیک‌هایی برای یادگیری نحوه دستکاری سیستم‌های هوش‌مصنوعی که لایحه از آن به‌عنوان «ضد-هوش مصنو‌عی» یاد کرده است، تحقیق خواهد کرد. همچنین برای جلوگیری از استفاده از این تکنیک‌ها، دستوراتی را ایجاد خواهد کرد.

ایجاد پایگاه‌داده‌ای از نقض‌های هوش مصنوعی

علاوه بر این، مؤسسه ملی استانداردها و فناوری (NIST) و آژانس امنیت سایبری و امنیت زیرساخت با وجود این لایحه، مجبور به ایجاد پایگاه‌داده‌ای از نقض‌های هوش مصنو‌عی هستند.

لایحه پیشنهادی بر تکنیک‌هایی برای مقابله با هوش‌مصنوعی تمرکز دارد و آن‌ها را به‌عنوان مسمومیت داده‌ها، حملات فرار، حملات مبتنی بر حریم خصوصی و حملات سوء استفاده طبقه‌بندی می‌کند.

مسمومیت داده به روشی گفته می‌شود که در آن در داده‌های یک مدل هوش مصنو‌عی از کدهایی استفاده می‌شود تا خروجی آن تخریب شود. از این رویکرد برای جلوگیری از کپی آثار هنری توسط مدل‌های هو‌ش مصنوعی تولیدکننده تصویر استفاده می‌شود. حملات فرار نیز داده‌های مطالعه‌شده توسط مدل‌های هوش مصنو‌عی را تغییر می‌دهند تا مدل گیج شود.

در همین رابطه، روز گذشته در گزارشی گفته شده بود که هشت نشریه آمریکایی در شکایتی علیه مایکروسافت و OpenAI ادعا کردند که بدون پرداخت غرامت یا کسب اجازه، از مطالب آن‌ها برای آموزش مدل‌های هوش‌مصنوعی استفاده شده است.

«قانون هو‌ش مصنوعی امن» حالا باید تأییدیه‌های یک کمیته را دریافت کند تا در نهایت توسط مجلس سنا ایالات متحده تصویب شود.

مجلس سنا ایالات متحده لایحه جدیدی را پیشنهاد کرده است که با الزام ایجاد پایگاه داده‌ای برای ثبت تمام نقض‌های سیستم‌های هوش مصنوعی، به‌دنبال ردیابی مسائل امنیتی این حوزه است.

براساس گزارش ورج، لایحه مذکور که «قانون هوش مصنوعی امن» نام دارد، توسط «مارک وارنر» (D-VA) و «تام تیلیس» (R-NC)، دو سناتور آمریکایی معرفی شده است و با وجود آن، یک مرکز امنیت هوش مصنوعی در آژانس امنیت ملی ایجاد خواهد شد. این مرکز در مورد تکنیک‌هایی برای یادگیری نحوه دستکاری سیستم‌های هوش‌مصنوعی که لایحه از آن به‌عنوان «ضد-هوش مصنو‌عی» یاد کرده است، تحقیق خواهد کرد. همچنین برای جلوگیری از استفاده از این تکنیک‌ها، دستوراتی را ایجاد خواهد کرد.

ایجاد پایگاه‌داده‌ای از نقض‌های هوش مصنوعی

علاوه بر این، مؤسسه ملی استانداردها و فناوری (NIST) و آژانس امنیت سایبری و امنیت زیرساخت با وجود این لایحه، مجبور به ایجاد پایگاه‌داده‌ای از نقض‌های هوش مصنو‌عی هستند.

لایحه پیشنهادی بر تکنیک‌هایی برای مقابله با هوش‌مصنوعی تمرکز دارد و آن‌ها را به‌عنوان مسمومیت داده‌ها، حملات فرار، حملات مبتنی بر حریم خصوصی و حملات سوء استفاده طبقه‌بندی می‌کند.

مسمومیت داده به روشی گفته می‌شود که در آن در داده‌های یک مدل هوش مصنو‌عی از کدهایی استفاده می‌شود تا خروجی آن تخریب شود. از این رویکرد برای جلوگیری از کپی آثار هنری توسط مدل‌های هو‌ش مصنوعی تولیدکننده تصویر استفاده می‌شود. حملات فرار نیز داده‌های مطالعه‌شده توسط مدل‌های هوش مصنو‌عی را تغییر می‌دهند تا مدل گیج شود.

در همین رابطه، روز گذشته در گزارشی گفته شده بود که هشت نشریه آمریکایی در شکایتی علیه مایکروسافت و OpenAI ادعا کردند که بدون پرداخت غرامت یا کسب اجازه، از مطالب آن‌ها برای آموزش مدل‌های هوش‌مصنوعی استفاده شده است.

«قانون هو‌ش مصنوعی امن» حالا باید تأییدیه‌های یک کمیته را دریافت کند تا در نهایت توسط مجلس سنا ایالات متحده تصویب شود.

اخبارجدیدترین

توپ جام جهانی آن‌قدر بد بود که ناسا وارد میدان شد

این سوپرسونیک در سکوت پرواز می‌کند!

اینترنت ماهواره‌ای به این گوشی چینی آمد!

مجلس سنا ایالات متحده لایحه جدیدی را پیشنهاد کرده است که با الزام ایجاد پایگاه داده‌ای برای ثبت تمام نقض‌های سیستم‌های هوش مصنوعی، به‌دنبال ردیابی مسائل امنیتی این حوزه است.

براساس گزارش ورج، لایحه مذکور که «قانون هوش مصنوعی امن» نام دارد، توسط «مارک وارنر» (D-VA) و «تام تیلیس» (R-NC)، دو سناتور آمریکایی معرفی شده است و با وجود آن، یک مرکز امنیت هوش مصنوعی در آژانس امنیت ملی ایجاد خواهد شد. این مرکز در مورد تکنیک‌هایی برای یادگیری نحوه دستکاری سیستم‌های هوش‌مصنوعی که لایحه از آن به‌عنوان «ضد-هوش مصنو‌عی» یاد کرده است، تحقیق خواهد کرد. همچنین برای جلوگیری از استفاده از این تکنیک‌ها، دستوراتی را ایجاد خواهد کرد.

ایجاد پایگاه‌داده‌ای از نقض‌های هوش مصنوعی

علاوه بر این، مؤسسه ملی استانداردها و فناوری (NIST) و آژانس امنیت سایبری و امنیت زیرساخت با وجود این لایحه، مجبور به ایجاد پایگاه‌داده‌ای از نقض‌های هوش مصنو‌عی هستند.

لایحه پیشنهادی بر تکنیک‌هایی برای مقابله با هوش‌مصنوعی تمرکز دارد و آن‌ها را به‌عنوان مسمومیت داده‌ها، حملات فرار، حملات مبتنی بر حریم خصوصی و حملات سوء استفاده طبقه‌بندی می‌کند.

مسمومیت داده به روشی گفته می‌شود که در آن در داده‌های یک مدل هوش مصنو‌عی از کدهایی استفاده می‌شود تا خروجی آن تخریب شود. از این رویکرد برای جلوگیری از کپی آثار هنری توسط مدل‌های هو‌ش مصنوعی تولیدکننده تصویر استفاده می‌شود. حملات فرار نیز داده‌های مطالعه‌شده توسط مدل‌های هوش مصنو‌عی را تغییر می‌دهند تا مدل گیج شود.

در همین رابطه، روز گذشته در گزارشی گفته شده بود که هشت نشریه آمریکایی در شکایتی علیه مایکروسافت و OpenAI ادعا کردند که بدون پرداخت غرامت یا کسب اجازه، از مطالب آن‌ها برای آموزش مدل‌های هوش‌مصنوعی استفاده شده است.

«قانون هو‌ش مصنوعی امن» حالا باید تأییدیه‌های یک کمیته را دریافت کند تا در نهایت توسط مجلس سنا ایالات متحده تصویب شود.

مجلس سنا ایالات متحده لایحه جدیدی را پیشنهاد کرده است که با الزام ایجاد پایگاه داده‌ای برای ثبت تمام نقض‌های سیستم‌های هوش مصنوعی، به‌دنبال ردیابی مسائل امنیتی این حوزه است.

براساس گزارش ورج، لایحه مذکور که «قانون هوش مصنوعی امن» نام دارد، توسط «مارک وارنر» (D-VA) و «تام تیلیس» (R-NC)، دو سناتور آمریکایی معرفی شده است و با وجود آن، یک مرکز امنیت هوش مصنوعی در آژانس امنیت ملی ایجاد خواهد شد. این مرکز در مورد تکنیک‌هایی برای یادگیری نحوه دستکاری سیستم‌های هوش‌مصنوعی که لایحه از آن به‌عنوان «ضد-هوش مصنو‌عی» یاد کرده است، تحقیق خواهد کرد. همچنین برای جلوگیری از استفاده از این تکنیک‌ها، دستوراتی را ایجاد خواهد کرد.

ایجاد پایگاه‌داده‌ای از نقض‌های هوش مصنوعی

علاوه بر این، مؤسسه ملی استانداردها و فناوری (NIST) و آژانس امنیت سایبری و امنیت زیرساخت با وجود این لایحه، مجبور به ایجاد پایگاه‌داده‌ای از نقض‌های هوش مصنو‌عی هستند.

لایحه پیشنهادی بر تکنیک‌هایی برای مقابله با هوش‌مصنوعی تمرکز دارد و آن‌ها را به‌عنوان مسمومیت داده‌ها، حملات فرار، حملات مبتنی بر حریم خصوصی و حملات سوء استفاده طبقه‌بندی می‌کند.

مسمومیت داده به روشی گفته می‌شود که در آن در داده‌های یک مدل هوش مصنو‌عی از کدهایی استفاده می‌شود تا خروجی آن تخریب شود. از این رویکرد برای جلوگیری از کپی آثار هنری توسط مدل‌های هو‌ش مصنوعی تولیدکننده تصویر استفاده می‌شود. حملات فرار نیز داده‌های مطالعه‌شده توسط مدل‌های هوش مصنو‌عی را تغییر می‌دهند تا مدل گیج شود.

در همین رابطه، روز گذشته در گزارشی گفته شده بود که هشت نشریه آمریکایی در شکایتی علیه مایکروسافت و OpenAI ادعا کردند که بدون پرداخت غرامت یا کسب اجازه، از مطالب آن‌ها برای آموزش مدل‌های هوش‌مصنوعی استفاده شده است.

«قانون هو‌ش مصنوعی امن» حالا باید تأییدیه‌های یک کمیته را دریافت کند تا در نهایت توسط مجلس سنا ایالات متحده تصویب شود.

پست قبلی

چالش‌های زیست‌محیطی در توسعه هوش مصنوعی؛ آینده این فناوری در گرو تأمین انرژی

پست بعدی

چت‌بات هوش مصنوعی «آمازون Q» در دسترس عموم کاربران سازمانی قرار گرفت [تماشا کنید]

مربوطه پست ها

توپ جام جهانی آن‌قدر بد بود که ناسا وارد میدان شد
سایر اخبار تکنولوژی

توپ جام جهانی آن‌قدر بد بود که ناسا وارد میدان شد

۲۷ تیر ۱۴۰۴
این سوپرسونیک در سکوت پرواز می‌کند!
سایر اخبار تکنولوژی

این سوپرسونیک در سکوت پرواز می‌کند!

۲۷ تیر ۱۴۰۴
اینترنت ماهواره‌ای به این گوشی چینی آمد!
سایر اخبار تکنولوژی

اینترنت ماهواره‌ای به این گوشی چینی آمد!

۲۷ تیر ۱۴۰۴
رنگ جنجالی آیفون ۱۷، امضای نسل جدید اپل می‌شود؟
سایر اخبار تکنولوژی

رنگ جنجالی آیفون ۱۷، امضای نسل جدید اپل می‌شود؟

۲۷ تیر ۱۴۰۴
ارتش سوسک‌های نینجا چه ماموریتی دارند؟
سایر اخبار تکنولوژی

ارتش سوسک‌های نینجا چه ماموریتی دارند؟

۲۷ تیر ۱۴۰۴
کدام گوشی هوشمند در چین پرفروش‌ترین است؟
سایر اخبار تکنولوژی

کدام گوشی هوشمند در چین پرفروش‌ترین است؟

۲۶ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

شش + سیزده =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • بلیت‌های اربعین روی کاغذ هست، در عمل نیست! | سردرگمی زائران در فروش پلکانی ایران‌ایر
  • صدای حقیقت خاموش نمی‌شود؛ سلاح ما میکروفن ماست
  • جزئیات استرداد بلیت پروازهای اربعین اعلام شد
  • وزش تندباد لحظه‌ای در تهران| ماندگاری هوای گرم طی هفته آینده
  • «مهمان‌کُشی» روزهای پایانی تیر روی آنتن می‌رود
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.