دانش جوین
جمعه, تیر ۲۷, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی سایر اخبار تکنولوژی

OpenAI ابزاری برای شناسایی دیپ‌فیک‌های DALL-E عرضه می‌کند

کارشناس روابط عمومی دیجیتال توسط کارشناس روابط عمومی دیجیتال
۰۴ مهر ۱۴۰۳
در سایر اخبار تکنولوژی
زمان خواندن: زمان موردنیاز برای مطالعه: 2 دقیقه
0
OpenAI ابزاری برای شناسایی دیپ‌فیک‌های DALL-E عرضه می‌کند
1
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

با نزدیک‌شدن به انتخابات 2024 آمریکا، حساسیت قانون‌گذاران درباره انتشار دیپ‌فیک‌های تصویری و صوتی بیش‌ازپیش شده است. اکنون OpenAI ابزاری را منتشر می‌کند که می‌تواند محتوای ایجادشده توسط هوش مصنوعی مولد DALL-E را شناسایی کند.

براساس گزارش نیویورک تایمز، OpenAI ابزار تشخیص دیپ‌فیک جدید خود را در اختیار گروه کوچکی از محققان حوزه اطلاعات جعلی قرار داده است تا بتوانند این ابزار را در موقعیت‌های واقعی آزمایش کنند و آن را بهبود ببخشند. همچنین OpenAI گفته است که این ابزار می‌تواند 98.8 درصد از تصاویر ایجادشده توسط DALL-E 3 (آخرین نسخه هوش مصنوعی مولد تصویر این شرکت) را به درستی شناسایی کند.

ابزار OpenAI برای شناسایی دیپ‌فیک‌

OpenAI می‌گوید اگرچه ابزار جدید آن می‌تواند درصد بالایی از تصاویر ایجادشده توسط DALL-E 3 را تشخیص دهد، اما این ابزار برای شناسایی تصاویر تولیدشده توسط سایر هوش مصنوعی‌های محبوب مانند میدجرنی و Stability طراحی نشده است.

به‌طورکلی، مبارزه با اطلاعات جعلی و دیپ‌فیک‌ها به سادگی قابل انجام نیست و به همین دلیل شرکت‌های بزرگ فناوری باید روش‌های مختلفی را بررسی کنند. اکنون غول‌های فناوری مانند گوگل، متا و OpenAI به کمیته‌ای موسم به «ائتلاف برای منشأ و اعتبار محتوا» یا C2PA پیوسته‌اند که هدف آن اعتبارسنجی محتواهای مختلف است. استاندارد C2PA شبیه به نوعی برچسب عمل می‌کند که در آن می‌توان زمان و نحوه تولید یا تغییر تصاویر، ویدیوها، کلیپ‌های صوتی و فایل‌های دیگر را مشاهده کرد.

OpenAI همچنین گفته است که درحال توسعه روش‌هایی برای نشانه‌گذاری روی صداهای تولیدشده توسط هوش مصنوعی است تا بتوان آن‌ها را به‌راحتی شناسایی کرد. این شرکت امیدوار است حذف این واترمارک‌ها را دشوار کند.

اخیراً مدیرعامل ElevenLabs نیز گفته است قراردادن واترمارک دیجیتالی روی صداهای هوش مصنوعی می‌تواند راه‌حلی برای مقابله با دیپ‌فیک‌های صوتی باشد.

با نزدیک‌شدن به انتخابات 2024 آمریکا، حساسیت قانون‌گذاران درباره انتشار دیپ‌فیک‌های تصویری و صوتی بیش‌ازپیش شده است. اکنون OpenAI ابزاری را منتشر می‌کند که می‌تواند محتوای ایجادشده توسط هوش مصنوعی مولد DALL-E را شناسایی کند.

براساس گزارش نیویورک تایمز، OpenAI ابزار تشخیص دیپ‌فیک جدید خود را در اختیار گروه کوچکی از محققان حوزه اطلاعات جعلی قرار داده است تا بتوانند این ابزار را در موقعیت‌های واقعی آزمایش کنند و آن را بهبود ببخشند. همچنین OpenAI گفته است که این ابزار می‌تواند 98.8 درصد از تصاویر ایجادشده توسط DALL-E 3 (آخرین نسخه هوش مصنوعی مولد تصویر این شرکت) را به درستی شناسایی کند.

ابزار OpenAI برای شناسایی دیپ‌فیک‌

OpenAI می‌گوید اگرچه ابزار جدید آن می‌تواند درصد بالایی از تصاویر ایجادشده توسط DALL-E 3 را تشخیص دهد، اما این ابزار برای شناسایی تصاویر تولیدشده توسط سایر هوش مصنوعی‌های محبوب مانند میدجرنی و Stability طراحی نشده است.

به‌طورکلی، مبارزه با اطلاعات جعلی و دیپ‌فیک‌ها به سادگی قابل انجام نیست و به همین دلیل شرکت‌های بزرگ فناوری باید روش‌های مختلفی را بررسی کنند. اکنون غول‌های فناوری مانند گوگل، متا و OpenAI به کمیته‌ای موسم به «ائتلاف برای منشأ و اعتبار محتوا» یا C2PA پیوسته‌اند که هدف آن اعتبارسنجی محتواهای مختلف است. استاندارد C2PA شبیه به نوعی برچسب عمل می‌کند که در آن می‌توان زمان و نحوه تولید یا تغییر تصاویر، ویدیوها، کلیپ‌های صوتی و فایل‌های دیگر را مشاهده کرد.

OpenAI همچنین گفته است که درحال توسعه روش‌هایی برای نشانه‌گذاری روی صداهای تولیدشده توسط هوش مصنوعی است تا بتوان آن‌ها را به‌راحتی شناسایی کرد. این شرکت امیدوار است حذف این واترمارک‌ها را دشوار کند.

اخیراً مدیرعامل ElevenLabs نیز گفته است قراردادن واترمارک دیجیتالی روی صداهای هوش مصنوعی می‌تواند راه‌حلی برای مقابله با دیپ‌فیک‌های صوتی باشد.

اخبارجدیدترین

کدام گوشی هوشمند در چین پرفروش‌ترین است؟

جنگ خاموش چین و آمریکا در اعماق دریا

«گلکسی زد TriFold»، گوشی تاشوی متفاوت سامسونگ

با نزدیک‌شدن به انتخابات 2024 آمریکا، حساسیت قانون‌گذاران درباره انتشار دیپ‌فیک‌های تصویری و صوتی بیش‌ازپیش شده است. اکنون OpenAI ابزاری را منتشر می‌کند که می‌تواند محتوای ایجادشده توسط هوش مصنوعی مولد DALL-E را شناسایی کند.

براساس گزارش نیویورک تایمز، OpenAI ابزار تشخیص دیپ‌فیک جدید خود را در اختیار گروه کوچکی از محققان حوزه اطلاعات جعلی قرار داده است تا بتوانند این ابزار را در موقعیت‌های واقعی آزمایش کنند و آن را بهبود ببخشند. همچنین OpenAI گفته است که این ابزار می‌تواند 98.8 درصد از تصاویر ایجادشده توسط DALL-E 3 (آخرین نسخه هوش مصنوعی مولد تصویر این شرکت) را به درستی شناسایی کند.

ابزار OpenAI برای شناسایی دیپ‌فیک‌

OpenAI می‌گوید اگرچه ابزار جدید آن می‌تواند درصد بالایی از تصاویر ایجادشده توسط DALL-E 3 را تشخیص دهد، اما این ابزار برای شناسایی تصاویر تولیدشده توسط سایر هوش مصنوعی‌های محبوب مانند میدجرنی و Stability طراحی نشده است.

به‌طورکلی، مبارزه با اطلاعات جعلی و دیپ‌فیک‌ها به سادگی قابل انجام نیست و به همین دلیل شرکت‌های بزرگ فناوری باید روش‌های مختلفی را بررسی کنند. اکنون غول‌های فناوری مانند گوگل، متا و OpenAI به کمیته‌ای موسم به «ائتلاف برای منشأ و اعتبار محتوا» یا C2PA پیوسته‌اند که هدف آن اعتبارسنجی محتواهای مختلف است. استاندارد C2PA شبیه به نوعی برچسب عمل می‌کند که در آن می‌توان زمان و نحوه تولید یا تغییر تصاویر، ویدیوها، کلیپ‌های صوتی و فایل‌های دیگر را مشاهده کرد.

OpenAI همچنین گفته است که درحال توسعه روش‌هایی برای نشانه‌گذاری روی صداهای تولیدشده توسط هوش مصنوعی است تا بتوان آن‌ها را به‌راحتی شناسایی کرد. این شرکت امیدوار است حذف این واترمارک‌ها را دشوار کند.

اخیراً مدیرعامل ElevenLabs نیز گفته است قراردادن واترمارک دیجیتالی روی صداهای هوش مصنوعی می‌تواند راه‌حلی برای مقابله با دیپ‌فیک‌های صوتی باشد.

با نزدیک‌شدن به انتخابات 2024 آمریکا، حساسیت قانون‌گذاران درباره انتشار دیپ‌فیک‌های تصویری و صوتی بیش‌ازپیش شده است. اکنون OpenAI ابزاری را منتشر می‌کند که می‌تواند محتوای ایجادشده توسط هوش مصنوعی مولد DALL-E را شناسایی کند.

براساس گزارش نیویورک تایمز، OpenAI ابزار تشخیص دیپ‌فیک جدید خود را در اختیار گروه کوچکی از محققان حوزه اطلاعات جعلی قرار داده است تا بتوانند این ابزار را در موقعیت‌های واقعی آزمایش کنند و آن را بهبود ببخشند. همچنین OpenAI گفته است که این ابزار می‌تواند 98.8 درصد از تصاویر ایجادشده توسط DALL-E 3 (آخرین نسخه هوش مصنوعی مولد تصویر این شرکت) را به درستی شناسایی کند.

ابزار OpenAI برای شناسایی دیپ‌فیک‌

OpenAI می‌گوید اگرچه ابزار جدید آن می‌تواند درصد بالایی از تصاویر ایجادشده توسط DALL-E 3 را تشخیص دهد، اما این ابزار برای شناسایی تصاویر تولیدشده توسط سایر هوش مصنوعی‌های محبوب مانند میدجرنی و Stability طراحی نشده است.

به‌طورکلی، مبارزه با اطلاعات جعلی و دیپ‌فیک‌ها به سادگی قابل انجام نیست و به همین دلیل شرکت‌های بزرگ فناوری باید روش‌های مختلفی را بررسی کنند. اکنون غول‌های فناوری مانند گوگل، متا و OpenAI به کمیته‌ای موسم به «ائتلاف برای منشأ و اعتبار محتوا» یا C2PA پیوسته‌اند که هدف آن اعتبارسنجی محتواهای مختلف است. استاندارد C2PA شبیه به نوعی برچسب عمل می‌کند که در آن می‌توان زمان و نحوه تولید یا تغییر تصاویر، ویدیوها، کلیپ‌های صوتی و فایل‌های دیگر را مشاهده کرد.

OpenAI همچنین گفته است که درحال توسعه روش‌هایی برای نشانه‌گذاری روی صداهای تولیدشده توسط هوش مصنوعی است تا بتوان آن‌ها را به‌راحتی شناسایی کرد. این شرکت امیدوار است حذف این واترمارک‌ها را دشوار کند.

اخیراً مدیرعامل ElevenLabs نیز گفته است قراردادن واترمارک دیجیتالی روی صداهای هوش مصنوعی می‌تواند راه‌حلی برای مقابله با دیپ‌فیک‌های صوتی باشد.

پست قبلی

مدیر اجرایی OpenAI: هوش مصنوعی امروزی، یک‌سال دیگر به‌طرز مضحکی بد خواهد بود

پست بعدی

مایکروسافت مدل هوش مصنوعی قدرتمندی در سطح GPT-4 می‌سازد

مربوطه پست ها

کدام گوشی هوشمند در چین پرفروش‌ترین است؟
سایر اخبار تکنولوژی

کدام گوشی هوشمند در چین پرفروش‌ترین است؟

۲۶ تیر ۱۴۰۴
جنگ خاموش چین و آمریکا در اعماق دریا
سایر اخبار تکنولوژی

جنگ خاموش چین و آمریکا در اعماق دریا

۲۶ تیر ۱۴۰۴
«گلکسی زد TriFold»، گوشی تاشوی متفاوت سامسونگ
سایر اخبار تکنولوژی

«گلکسی زد TriFold»، گوشی تاشوی متفاوت سامسونگ

۲۶ تیر ۱۴۰۴
پشت‌پرده حملات جدید سایبری / بدافزار از راهی وارد می‌شود که هیچ‌کس انتظارش را ندارد
سایر اخبار تکنولوژی

پشت‌پرده حملات جدید سایبری / بدافزار از راهی وارد می‌شود که هیچ‌کس انتظارش را ندارد

۲۶ تیر ۱۴۰۴
طرح تعویض آیفون با گوشی تاشوی سامسونگ / کدام گوشی‌های اپل شامل این طرح می‌شوند؟
سایر اخبار تکنولوژی

طرح تعویض آیفون با گوشی تاشوی سامسونگ / کدام گوشی‌های اپل شامل این طرح می‌شوند؟

۲۶ تیر ۱۴۰۴
قیمت متفاوت‌ترین آیفون تاریخ / گران‌تر از مک‌بوک پرو
سایر اخبار تکنولوژی

قیمت متفاوت‌ترین آیفون تاریخ / گران‌تر از مک‌بوک پرو

۲۶ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

4 × 5 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • نقاشی‌ها تحت تاثیر جنگ؛ از گرنیکای پیکاسو و چهره جنگ دالی تا فتح تهران
  • نمادی از صلح، تاب‌آوری و دوستی ملل در «گل‌ها و نمادهای ملی جهان»
  • رئیس سازمان سینمایی: هنرمندان ما دشمن را ناامید کردند
  • کدام گوشی هوشمند در چین پرفروش‌ترین است؟
  • کاهش ۳۳ درصدی آلاینده‌ها با روانکار نانویی
  • پاسینیک
  • خرید سرور ایران و خارج
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • پرشین هتل
  • راحت ترین روش یادگیری انگلیسی
  • خرید سرور ابری

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.