دانش جوین
جمعه, مرداد ۳, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

هوش مصنوعی، «بازرس» می‌شود!

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۱۴ خرداد ۱۴۰۴
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
هوش مصنوعی، «بازرس» می‌شود!
1
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، متا قصد دارد وظیفه ارزیابی خطرات بالقوه محصولات خود را از بازبین‌های انسانی به سیستم‌های هوش مصنوعی واگذار کند تا این فرایند با سرعت بیشتری انجام شود. اسناد داخلی که NPR به آنها دست یافته است، نشان می‌دهند که متا قصد دارد تا ۹۰ درصد ارزیابی‌های ریسک را به هوش مصنوعی بسپارد. این شرکت حتی در حال بررسی استفاده از هوش مصنوعی در حوزه‌های حساسی چون خطرات مرتبط با کودکان و مسائل «تمامیت» (integrity) است؛ منظور از «تمامیت» حفظ سلامت و اعتماد عمومی در پلتفرم‌های متا است؛ مفهومی که شامل مقابله با محتوای خشونت‌آمیز، اطلاعات نادرست، نفرت‌پراکنی، آزار و اذیت و سایر تهدیدهای اخلاقی و اجتماعی می‌شود.

به نقل از انگجت، کارمندان کنونی و سابق متا که با NPR صحبت کرده‌اند، هشدار داده‌اند که هوش مصنوعی ممکن است خطرات جدی را نادیده بگیرد؛ خطراتی که گروه‌های انسانی قادر به شناسایی آن‌ها بودند.

در گذشته، به‌روزرسانی‌ها و ویژگی‌های جدید در پلتفرم‌هایی مانند اینستاگرام و واتس‌اپ پیش از عرضه عمومی توسط انسان‌ها بررسی می‌شدند. اما طبق گزارش NPR، متا طی دو ماه گذشته تمرکز خود را بر استفاده از هوش مصنوعی دوچندان کرده است. اکنون گروه‌های محصول باید پرسش‌نامه‌ای در مورد محصول خود تکمیل کرده و آن را برای بررسی به سیستم هوش مصنوعی ارسال کنند. این سیستم به‌طور معمول یک «تصمیم فوری» صادر می‌کند که شامل شناسایی حوزه‌های پرریسک است. گروه‌ها سپس باید بر اساس این ارزیابی‌ها اقدام کنند تا بتوانند محصول را عرضه کنند.

یکی از مدیران پیشین متا می‌گوید: کاهش بررسی انسانی یعنی پذیرش ریسک بیشتر و پیامدهای منفی تغییرات کمتر محصولات که پیش از بروز مشکلات در جهان قابل پیشگیری خواهند بود.

متا در بیانیه‌ای اعلام کرده است که همچنان از «تخصص انسانی» برای ارزیابی مسائل جدید و پیچیده استفاده خواهد کرد و تصمیم‌گیری درباره موارد «کم‌ریسک» را به هوش مصنوعی خواهد سپرد.

این خبر تنها چند روز پس از انتشار آخرین گزارش‌های فصلی متا درباره تمامیت پلتفرم‌هایش منتشر می‌شود؛ گزارشی که اولین بار پس از تغییر سیاست‌های این شرکت درباره تعدیل محتوا و راستی‌آزمایی در سال جاری است. طبق این گزارش، حجم محتوای حذف‌شده کاهش یافته، اما موارد آزار و اذیت، خشونت و محتوای گرافیکی کمی افزایش داشته‌اند.

انتهای پیام

به گزارش ایسنا، متا قصد دارد وظیفه ارزیابی خطرات بالقوه محصولات خود را از بازبین‌های انسانی به سیستم‌های هوش مصنوعی واگذار کند تا این فرایند با سرعت بیشتری انجام شود. اسناد داخلی که NPR به آنها دست یافته است، نشان می‌دهند که متا قصد دارد تا ۹۰ درصد ارزیابی‌های ریسک را به هوش مصنوعی بسپارد. این شرکت حتی در حال بررسی استفاده از هوش مصنوعی در حوزه‌های حساسی چون خطرات مرتبط با کودکان و مسائل «تمامیت» (integrity) است؛ منظور از «تمامیت» حفظ سلامت و اعتماد عمومی در پلتفرم‌های متا است؛ مفهومی که شامل مقابله با محتوای خشونت‌آمیز، اطلاعات نادرست، نفرت‌پراکنی، آزار و اذیت و سایر تهدیدهای اخلاقی و اجتماعی می‌شود.

به نقل از انگجت، کارمندان کنونی و سابق متا که با NPR صحبت کرده‌اند، هشدار داده‌اند که هوش مصنوعی ممکن است خطرات جدی را نادیده بگیرد؛ خطراتی که گروه‌های انسانی قادر به شناسایی آن‌ها بودند.

در گذشته، به‌روزرسانی‌ها و ویژگی‌های جدید در پلتفرم‌هایی مانند اینستاگرام و واتس‌اپ پیش از عرضه عمومی توسط انسان‌ها بررسی می‌شدند. اما طبق گزارش NPR، متا طی دو ماه گذشته تمرکز خود را بر استفاده از هوش مصنوعی دوچندان کرده است. اکنون گروه‌های محصول باید پرسش‌نامه‌ای در مورد محصول خود تکمیل کرده و آن را برای بررسی به سیستم هوش مصنوعی ارسال کنند. این سیستم به‌طور معمول یک «تصمیم فوری» صادر می‌کند که شامل شناسایی حوزه‌های پرریسک است. گروه‌ها سپس باید بر اساس این ارزیابی‌ها اقدام کنند تا بتوانند محصول را عرضه کنند.

یکی از مدیران پیشین متا می‌گوید: کاهش بررسی انسانی یعنی پذیرش ریسک بیشتر و پیامدهای منفی تغییرات کمتر محصولات که پیش از بروز مشکلات در جهان قابل پیشگیری خواهند بود.

متا در بیانیه‌ای اعلام کرده است که همچنان از «تخصص انسانی» برای ارزیابی مسائل جدید و پیچیده استفاده خواهد کرد و تصمیم‌گیری درباره موارد «کم‌ریسک» را به هوش مصنوعی خواهد سپرد.

این خبر تنها چند روز پس از انتشار آخرین گزارش‌های فصلی متا درباره تمامیت پلتفرم‌هایش منتشر می‌شود؛ گزارشی که اولین بار پس از تغییر سیاست‌های این شرکت درباره تعدیل محتوا و راستی‌آزمایی در سال جاری است. طبق این گزارش، حجم محتوای حذف‌شده کاهش یافته، اما موارد آزار و اذیت، خشونت و محتوای گرافیکی کمی افزایش داشته‌اند.

انتهای پیام

اخبارجدیدترین

ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد

فکر کردن طولانی‌مدت ظاهراً مدل‌های هوش مصنوعی را احمق‌تر می‌کند

علی‌بابا از پیشرفته‌ترین مدل هوش مصنوعی خود برای برنامه‌نویسی رونمایی کرد

به گزارش ایسنا، متا قصد دارد وظیفه ارزیابی خطرات بالقوه محصولات خود را از بازبین‌های انسانی به سیستم‌های هوش مصنوعی واگذار کند تا این فرایند با سرعت بیشتری انجام شود. اسناد داخلی که NPR به آنها دست یافته است، نشان می‌دهند که متا قصد دارد تا ۹۰ درصد ارزیابی‌های ریسک را به هوش مصنوعی بسپارد. این شرکت حتی در حال بررسی استفاده از هوش مصنوعی در حوزه‌های حساسی چون خطرات مرتبط با کودکان و مسائل «تمامیت» (integrity) است؛ منظور از «تمامیت» حفظ سلامت و اعتماد عمومی در پلتفرم‌های متا است؛ مفهومی که شامل مقابله با محتوای خشونت‌آمیز، اطلاعات نادرست، نفرت‌پراکنی، آزار و اذیت و سایر تهدیدهای اخلاقی و اجتماعی می‌شود.

به نقل از انگجت، کارمندان کنونی و سابق متا که با NPR صحبت کرده‌اند، هشدار داده‌اند که هوش مصنوعی ممکن است خطرات جدی را نادیده بگیرد؛ خطراتی که گروه‌های انسانی قادر به شناسایی آن‌ها بودند.

در گذشته، به‌روزرسانی‌ها و ویژگی‌های جدید در پلتفرم‌هایی مانند اینستاگرام و واتس‌اپ پیش از عرضه عمومی توسط انسان‌ها بررسی می‌شدند. اما طبق گزارش NPR، متا طی دو ماه گذشته تمرکز خود را بر استفاده از هوش مصنوعی دوچندان کرده است. اکنون گروه‌های محصول باید پرسش‌نامه‌ای در مورد محصول خود تکمیل کرده و آن را برای بررسی به سیستم هوش مصنوعی ارسال کنند. این سیستم به‌طور معمول یک «تصمیم فوری» صادر می‌کند که شامل شناسایی حوزه‌های پرریسک است. گروه‌ها سپس باید بر اساس این ارزیابی‌ها اقدام کنند تا بتوانند محصول را عرضه کنند.

یکی از مدیران پیشین متا می‌گوید: کاهش بررسی انسانی یعنی پذیرش ریسک بیشتر و پیامدهای منفی تغییرات کمتر محصولات که پیش از بروز مشکلات در جهان قابل پیشگیری خواهند بود.

متا در بیانیه‌ای اعلام کرده است که همچنان از «تخصص انسانی» برای ارزیابی مسائل جدید و پیچیده استفاده خواهد کرد و تصمیم‌گیری درباره موارد «کم‌ریسک» را به هوش مصنوعی خواهد سپرد.

این خبر تنها چند روز پس از انتشار آخرین گزارش‌های فصلی متا درباره تمامیت پلتفرم‌هایش منتشر می‌شود؛ گزارشی که اولین بار پس از تغییر سیاست‌های این شرکت درباره تعدیل محتوا و راستی‌آزمایی در سال جاری است. طبق این گزارش، حجم محتوای حذف‌شده کاهش یافته، اما موارد آزار و اذیت، خشونت و محتوای گرافیکی کمی افزایش داشته‌اند.

انتهای پیام

به گزارش ایسنا، متا قصد دارد وظیفه ارزیابی خطرات بالقوه محصولات خود را از بازبین‌های انسانی به سیستم‌های هوش مصنوعی واگذار کند تا این فرایند با سرعت بیشتری انجام شود. اسناد داخلی که NPR به آنها دست یافته است، نشان می‌دهند که متا قصد دارد تا ۹۰ درصد ارزیابی‌های ریسک را به هوش مصنوعی بسپارد. این شرکت حتی در حال بررسی استفاده از هوش مصنوعی در حوزه‌های حساسی چون خطرات مرتبط با کودکان و مسائل «تمامیت» (integrity) است؛ منظور از «تمامیت» حفظ سلامت و اعتماد عمومی در پلتفرم‌های متا است؛ مفهومی که شامل مقابله با محتوای خشونت‌آمیز، اطلاعات نادرست، نفرت‌پراکنی، آزار و اذیت و سایر تهدیدهای اخلاقی و اجتماعی می‌شود.

به نقل از انگجت، کارمندان کنونی و سابق متا که با NPR صحبت کرده‌اند، هشدار داده‌اند که هوش مصنوعی ممکن است خطرات جدی را نادیده بگیرد؛ خطراتی که گروه‌های انسانی قادر به شناسایی آن‌ها بودند.

در گذشته، به‌روزرسانی‌ها و ویژگی‌های جدید در پلتفرم‌هایی مانند اینستاگرام و واتس‌اپ پیش از عرضه عمومی توسط انسان‌ها بررسی می‌شدند. اما طبق گزارش NPR، متا طی دو ماه گذشته تمرکز خود را بر استفاده از هوش مصنوعی دوچندان کرده است. اکنون گروه‌های محصول باید پرسش‌نامه‌ای در مورد محصول خود تکمیل کرده و آن را برای بررسی به سیستم هوش مصنوعی ارسال کنند. این سیستم به‌طور معمول یک «تصمیم فوری» صادر می‌کند که شامل شناسایی حوزه‌های پرریسک است. گروه‌ها سپس باید بر اساس این ارزیابی‌ها اقدام کنند تا بتوانند محصول را عرضه کنند.

یکی از مدیران پیشین متا می‌گوید: کاهش بررسی انسانی یعنی پذیرش ریسک بیشتر و پیامدهای منفی تغییرات کمتر محصولات که پیش از بروز مشکلات در جهان قابل پیشگیری خواهند بود.

متا در بیانیه‌ای اعلام کرده است که همچنان از «تخصص انسانی» برای ارزیابی مسائل جدید و پیچیده استفاده خواهد کرد و تصمیم‌گیری درباره موارد «کم‌ریسک» را به هوش مصنوعی خواهد سپرد.

این خبر تنها چند روز پس از انتشار آخرین گزارش‌های فصلی متا درباره تمامیت پلتفرم‌هایش منتشر می‌شود؛ گزارشی که اولین بار پس از تغییر سیاست‌های این شرکت درباره تعدیل محتوا و راستی‌آزمایی در سال جاری است. طبق این گزارش، حجم محتوای حذف‌شده کاهش یافته، اما موارد آزار و اذیت، خشونت و محتوای گرافیکی کمی افزایش داشته‌اند.

انتهای پیام

پست قبلی

پایش رانشگرهای میکرونیوتنی ماهواره‌ها بافناوری هسته‌ای ایران

پست بعدی

مهلت ۳‌ماهه برای نصب باجه فاکتور الکترونیک در تره‌بارها

مربوطه پست ها

ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد
هوش مصنوعی

ترامپ با امضای سه فرمان اجرایی، از طرح جامع هوش مصنوعی رونمایی کرد

۰۲ مرداد ۱۴۰۴
فکر کردن طولانی‌مدت ظاهراً مدل‌های هوش مصنوعی را احمق‌تر می‌کند
هوش مصنوعی

فکر کردن طولانی‌مدت ظاهراً مدل‌های هوش مصنوعی را احمق‌تر می‌کند

۰۲ مرداد ۱۴۰۴
علی‌بابا از پیشرفته‌ترین مدل هوش مصنوعی خود برای برنامه‌نویسی رونمایی کرد
هوش مصنوعی

علی‌بابا از پیشرفته‌ترین مدل هوش مصنوعی خود برای برنامه‌نویسی رونمایی کرد

۰۱ مرداد ۱۴۰۴
گوگل از Gemini Drops رونمایی کرد؛ به‌روزرسانی‌های ماهانه برای هوش مصنوعی
هوش مصنوعی

گوگل از Gemini Drops رونمایی کرد؛ به‌روزرسانی‌های ماهانه برای هوش مصنوعی

۳۱ تیر ۱۴۰۴
ChatGPT ظاهراً روی تصاویر تولیدشده با هوش مصنوعی واترمارک می‌گذارد
هوش مصنوعی

ChatGPT ظاهراً روی تصاویر تولیدشده با هوش مصنوعی واترمارک می‌گذارد

۳۱ تیر ۱۴۰۴
هشدار نایب رئیس کمیسیون هوش مصنوعی نصر تهران: هوش مصنوعی با نگاه امنیتی و دولتی‌سازی توسعه نمی‌یابد
هوش مصنوعی

هشدار نایب رئیس کمیسیون هوش مصنوعی نصر تهران: هوش مصنوعی با نگاه امنیتی و دولتی‌سازی توسعه نمی‌یابد

۳۱ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

18 − 6 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • تأکید وزیر صمت بر توجه ویژه دولت چهاردهم به تجارت بین‌المللی
  • درخواست باشگاه استقلال درمورد سوپرجام
  • دعوت رئیس سازمان سینمایی برای دیدن دوباره آثار مطرح سینمای ایران
  • انتشار فراخوان رویداد «برای ایران»
  • کارگروه بیمه آثار هنری کمیته اقتصاد هنر آغاز به‌ کار کرد
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
    • وبکده

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.