دانش جوین
شنبه, تیر ۱۴, ۱۴۰۴
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
  • ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی
بدون نتیجه
مشاهده همه نتیجه
دانش جوین
بدون نتیجه
مشاهده همه نتیجه
صفحه اصلی هوش مصنوعی

تعداد زیادی از پزشکان از هوش مصنوعی استفاده می‌کنند

خبرگزاری ایسنا توسط خبرگزاری ایسنا
۲۸ آبان ۱۴۰۳
در هوش مصنوعی
زمان خواندن: زمان موردنیاز برای مطالعه: 1 دقیقه
0
تعداد زیادی از پزشکان از هوش مصنوعی استفاده می‌کنند
2
بازدیدها
اشتراک گذاری در تلگراماشتراک گذاری در توییتر

به گزارش ایسنا، با توجه به تبلیغات پیرامون هوش مصنوعی همراه با چالش‌هایی که سیستم‌های بهداشتی با آن مواجه هستند، جای تعجب نیست که پزشکان و سیاستگذاران به طور یکسان هوش مصنوعی را کلیدی در مدرن‌سازی و تغییر خدمات بهداشتی بدانند.

پزشکان گزارش کرده‌اند که از هوش مصنوعی مولد برای تولید گزارش پس از ویزیت، کمک به تصمیم‌گیری بالینی و ارائه اطلاعات به بیماران مانند گزارش ترخیص و برنامه‌های درمانی استفاده می‌کنند.

پزشکان می‌گویند هوش مصنوعی مولد(GenAI) یک نوآوری جدید است که اساساً نحوه تفکر ما در مورد ایمنی بیمار را به چالش می‌کشد. هنوز چیزهای زیادی در مورد آن وجود دارد که بتوانیم آن را به طور ایمن در تمرینات بالینی روزمره استفاده کنیم.

مشکلات هوش مصنوعی مولد

برنامه‌های کاربردی هوش مصنوعی در اصل برای انجام یک کار بسیار خاص توسعه یافته‌اند. به عنوان مثال، شبکه‌های عصبی یادگیری عمیق برای طبقه‌بندی در تصویربرداری و تشخیص طراحی شده‌اند. چنین سیستم‌هایی در تجزیه و تحلیل ماموگرافی برای کمک به غربالگری سرطان پستان موثر هستند.

اما هوش مصنوعی مولد برای انجام یک کار با تعریف محدود آموزش ندیده است. این فناوری‌ها بر اساس مدل‌های به اصطلاح بنیادی بنا شده‌اند که دارای قابلیت‌های عمومی هستند. این بدان معناست که آنها می‌توانند متن، تصویر، صدا یا حتی ترکیبی از اینها را تولید کنند.

سپس این قابلیت‌ها برای برنامه‌های مختلف مانند پاسخ به سؤالات کاربر، تولید کد یا ایجاد تصاویر به‌ خوبی تنظیم می‌شوند. به نظر می‌رسد که امکانات تعامل با این نوع هوش مصنوعی تنها با تخیل کاربر محدود می‌شود.

این نکته بسیار مهم است، زیرا این فناوری برای استفاده در یک زمینه خاص یا برای استفاده برای یک هدف خاص توسعه نیافته است و ما در واقع نمی‌دانیم که چگونه پزشکان می‌توانند به طور ایمن از آن استفاده کنند. این دلیلی برای نمایش آن است که هوش مصنوعی مولد هنوز برای استفاده گسترده در مراقبت‌های بهداشتی مناسب نیست.

یکی دیگر از مشکلات استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی، پدیده مستند «توهم»(hallucination) است. این توهمات، نتایج بی‌معنی یا غیرواقعی بر اساس ورودی‌های ارائه شده است.

توهمات در زمینه ایجاد خلاصه متن توسط هوش مصنوعی مولد مورد مطالعه قرار گرفته‌اند. یک مطالعه نشان داد که ابزارهای مختلف هوش مصنوعی مولد خروجی‌هایی تولید می‌کنند که بر اساس آنچه در متن گفته شده است، اما پیوندهای نادرستی ایجاد می‌کند یا خلاصه‌ها شامل اطلاعاتی می‌شوند که حتی در متن به آنها اشاره نشده است.

این توهمات به این دلیل اتفاق می‌افتند که هوش مصنوعی مولد بر اساس اصل احتمال(مانند پیش‌بینی اینکه کدام کلمه در یک زمینه خاص بکار گرفته می‌شود) کار می‌کند، نه اینکه مبتنی بر «درک» به معنای انسانی باشد. این بدان معناست که خروجی‌های تولید شده توسط هوش مصنوعی مولد به جای اینکه لزوماً صادقانه باشند، قابل قبول هستند.

این قابل قبول بودن دلیل دیگری بر آن است که برای استفاده ایمن از هوش مصنوعی مولد در امور معمول پزشکی خیلی زود است.

یک ابزار هوش مصنوعی مولد را تصور کنید که به مشاوره دادن به بیمار گوش می‌دهد و سپس یک یادداشت خلاصه الکترونیکی تولید می‌کند. از یک طرف، این کار پزشک عمومی یا پرستار را تسهیل می‌کند تا بهتر با بیمار خود ارتباط برقرار کند، اما از سوی دیگر، هوش مصنوعی مولد به طور بالقوه می‌تواند یادداشت‌هایی را بر اساس آنچه که فکر می‌کند قابل قبول است، تولید کند، نه آنچه واقعی و درست است.

به عنوان مثال، این خلاصه تولید شده توسط هوش مصنوعی مولد ممکن است شدت علائم بیمار را تغییر دهد یا علائمی را اضافه کند که بیمار هرگز از آنها شکایت نکرده است یا شامل اطلاعاتی باشد که بیمار یا پزشک هرگز ذکر نکرده‌اند.

پزشکان و پرستاران باید تمام یادداشت‌های تولید شده توسط هوش مصنوعی را با چشمی مانند عقاب تصحیح کنند و حافظه‌ای عالی داشته باشند تا اطلاعات واقعی را از اطلاعات قابل قبول اما ساختگی متمایز کنند.

این ممکن است در یک محیط سنتی برای پزشکان خانواده خوب باشد، جایی که پزشک عمومی بیمار را به خوبی می‌شناسد تا اطلاعات نادرست را به درستی شناسایی کند. اما در سیستم بهداشتی پراکنده عمومی که بیماران اغلب توسط کارکنان مراقبت‌های بهداشتی مختلف ویزیت می‌شوند، هرگونه نادرستی در یادداشت‌های بیمار می‌تواند خطرات قابل توجهی از جمله تاخیر، درمان نامناسب و تشخیص اشتباه برای سلامتی آنها ایجاد کند.

خطرات مرتبط با توهم قابل توجه است، اما شایان ذکر است که محققان و توسعه دهندگان در حال حاضر روی کاهش احتمال توهم هوش مصنوعی مولد کار می‌کنند.

ایمنی بیماران

یکی دیگر از دلایلی که برای استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی خیلی زود است، این است که ایمنی بیمار به تعامل با هوش مصنوعی برای تعیین میزان عملکرد آن در یک زمینه و محیط خاص بستگی دارد. نگاهی به نحوه کار این فناوری در رابطه با مردم، نحوه انطباق آن با قوانین و فشارها و فرهنگ و اولویت‌ها در یک سیستم سلامت بزرگ‌تر این را نشان می‌دهد. چنین دیدگاه سیستمی تعیین می‌کند که آیا استفاده از هوش مصنوعی مولد ایمن است یا خیر.

از آنجایی که هوش مصنوعی مولد برای کاربرد خاصی طراحی نشده است، به این معنی است که قابل انطباق است و می‌تواند به گونه‌ای استفاده شود که ما نمی‌توانیم به طور کامل پیش‌بینی کنیم. علاوه بر این، توسعه دهندگان به طور مرتب فناوری خود را به‌روز می‌کنند و قابلیت‌های عمومی جدیدی را به آن اضافه می‌کنند که رفتار برنامه هوش مصنوعی مولد را تغییر می‌دهد.

همچنین حتی اگر به نظر برسد که این فناوری ایمن است و همانطور که در نظر گرفته شده کار می‌کند، باز هم بسته به زمینه استفاده خود کار می‌کند و ممکن است آسیبی رخ دهد.

به عنوان مثال، معرفی عوامل مکالمه هوش مصنوعی مولد برای تریاژ می‌تواند بر تمایل بیماران مختلف برای تعامل با سیستم مراقبت‌های بهداشتی تأثیر بگذارد. بیماران با سواد دیجیتال پایین‌تر، افرادی که زبان اصلی آنها انگلیسی نیست و بیمارانی که سخن نمی‌گویند ممکن است استفاده از هوش مصنوعی مولد را دشوار بدانند. بنابراین در حالی که ممکن است این فناوری اصولاً کار کند، اما اگر این فناوری برای همه کاربران به طور یکسان کار نکند، همچنان می‌تواند آسیب‌زا باشد.

نکته اینجاست که پیش‌بینی چنین خطرهایی با هوش مصنوعی مولد از طریق رویکردهای تحلیل ایمنی سنتی بسیار دشوارتر است. این رویکردها به درک این موضوع می‌پردازند که چگونه یک اختلال در این فناوری می‌تواند باعث آسیب در زمینه‌های خاص شود.

در مجموع، مراقبت‌های بهداشتی می‌توانند از پذیرش هوش مصنوعی مولد و سایر ابزارهای هوش مصنوعی بهره‌مند شوند، اما قبل از اینکه این فناوری بتواند به طور گسترده‌تر در مراقبت‌های بهداشتی مورد استفاده قرار گیرد، تضمین ایمنی و مقررات باید به پیشرفت‌ها در مکان و نحوه استفاده از این فناوری پاسخگوتر باشند.

همچنین برای توسعه دهندگان ابزارها و تنظیم کننده‌های هوش مصنوعی مولد ضروری است که با جوامعی که از این فناوری‌ها استفاده می‌کنند برای توسعه ابزارهایی که می‌توانند به طور منظم و ایمن در عمل بالینی استفاده شوند، کار کنند.

انتهای پیام

به گزارش ایسنا، با توجه به تبلیغات پیرامون هوش مصنوعی همراه با چالش‌هایی که سیستم‌های بهداشتی با آن مواجه هستند، جای تعجب نیست که پزشکان و سیاستگذاران به طور یکسان هوش مصنوعی را کلیدی در مدرن‌سازی و تغییر خدمات بهداشتی بدانند.

پزشکان گزارش کرده‌اند که از هوش مصنوعی مولد برای تولید گزارش پس از ویزیت، کمک به تصمیم‌گیری بالینی و ارائه اطلاعات به بیماران مانند گزارش ترخیص و برنامه‌های درمانی استفاده می‌کنند.

پزشکان می‌گویند هوش مصنوعی مولد(GenAI) یک نوآوری جدید است که اساساً نحوه تفکر ما در مورد ایمنی بیمار را به چالش می‌کشد. هنوز چیزهای زیادی در مورد آن وجود دارد که بتوانیم آن را به طور ایمن در تمرینات بالینی روزمره استفاده کنیم.

مشکلات هوش مصنوعی مولد

برنامه‌های کاربردی هوش مصنوعی در اصل برای انجام یک کار بسیار خاص توسعه یافته‌اند. به عنوان مثال، شبکه‌های عصبی یادگیری عمیق برای طبقه‌بندی در تصویربرداری و تشخیص طراحی شده‌اند. چنین سیستم‌هایی در تجزیه و تحلیل ماموگرافی برای کمک به غربالگری سرطان پستان موثر هستند.

اما هوش مصنوعی مولد برای انجام یک کار با تعریف محدود آموزش ندیده است. این فناوری‌ها بر اساس مدل‌های به اصطلاح بنیادی بنا شده‌اند که دارای قابلیت‌های عمومی هستند. این بدان معناست که آنها می‌توانند متن، تصویر، صدا یا حتی ترکیبی از اینها را تولید کنند.

سپس این قابلیت‌ها برای برنامه‌های مختلف مانند پاسخ به سؤالات کاربر، تولید کد یا ایجاد تصاویر به‌ خوبی تنظیم می‌شوند. به نظر می‌رسد که امکانات تعامل با این نوع هوش مصنوعی تنها با تخیل کاربر محدود می‌شود.

این نکته بسیار مهم است، زیرا این فناوری برای استفاده در یک زمینه خاص یا برای استفاده برای یک هدف خاص توسعه نیافته است و ما در واقع نمی‌دانیم که چگونه پزشکان می‌توانند به طور ایمن از آن استفاده کنند. این دلیلی برای نمایش آن است که هوش مصنوعی مولد هنوز برای استفاده گسترده در مراقبت‌های بهداشتی مناسب نیست.

یکی دیگر از مشکلات استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی، پدیده مستند «توهم»(hallucination) است. این توهمات، نتایج بی‌معنی یا غیرواقعی بر اساس ورودی‌های ارائه شده است.

توهمات در زمینه ایجاد خلاصه متن توسط هوش مصنوعی مولد مورد مطالعه قرار گرفته‌اند. یک مطالعه نشان داد که ابزارهای مختلف هوش مصنوعی مولد خروجی‌هایی تولید می‌کنند که بر اساس آنچه در متن گفته شده است، اما پیوندهای نادرستی ایجاد می‌کند یا خلاصه‌ها شامل اطلاعاتی می‌شوند که حتی در متن به آنها اشاره نشده است.

این توهمات به این دلیل اتفاق می‌افتند که هوش مصنوعی مولد بر اساس اصل احتمال(مانند پیش‌بینی اینکه کدام کلمه در یک زمینه خاص بکار گرفته می‌شود) کار می‌کند، نه اینکه مبتنی بر «درک» به معنای انسانی باشد. این بدان معناست که خروجی‌های تولید شده توسط هوش مصنوعی مولد به جای اینکه لزوماً صادقانه باشند، قابل قبول هستند.

این قابل قبول بودن دلیل دیگری بر آن است که برای استفاده ایمن از هوش مصنوعی مولد در امور معمول پزشکی خیلی زود است.

یک ابزار هوش مصنوعی مولد را تصور کنید که به مشاوره دادن به بیمار گوش می‌دهد و سپس یک یادداشت خلاصه الکترونیکی تولید می‌کند. از یک طرف، این کار پزشک عمومی یا پرستار را تسهیل می‌کند تا بهتر با بیمار خود ارتباط برقرار کند، اما از سوی دیگر، هوش مصنوعی مولد به طور بالقوه می‌تواند یادداشت‌هایی را بر اساس آنچه که فکر می‌کند قابل قبول است، تولید کند، نه آنچه واقعی و درست است.

به عنوان مثال، این خلاصه تولید شده توسط هوش مصنوعی مولد ممکن است شدت علائم بیمار را تغییر دهد یا علائمی را اضافه کند که بیمار هرگز از آنها شکایت نکرده است یا شامل اطلاعاتی باشد که بیمار یا پزشک هرگز ذکر نکرده‌اند.

پزشکان و پرستاران باید تمام یادداشت‌های تولید شده توسط هوش مصنوعی را با چشمی مانند عقاب تصحیح کنند و حافظه‌ای عالی داشته باشند تا اطلاعات واقعی را از اطلاعات قابل قبول اما ساختگی متمایز کنند.

این ممکن است در یک محیط سنتی برای پزشکان خانواده خوب باشد، جایی که پزشک عمومی بیمار را به خوبی می‌شناسد تا اطلاعات نادرست را به درستی شناسایی کند. اما در سیستم بهداشتی پراکنده عمومی که بیماران اغلب توسط کارکنان مراقبت‌های بهداشتی مختلف ویزیت می‌شوند، هرگونه نادرستی در یادداشت‌های بیمار می‌تواند خطرات قابل توجهی از جمله تاخیر، درمان نامناسب و تشخیص اشتباه برای سلامتی آنها ایجاد کند.

خطرات مرتبط با توهم قابل توجه است، اما شایان ذکر است که محققان و توسعه دهندگان در حال حاضر روی کاهش احتمال توهم هوش مصنوعی مولد کار می‌کنند.

ایمنی بیماران

یکی دیگر از دلایلی که برای استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی خیلی زود است، این است که ایمنی بیمار به تعامل با هوش مصنوعی برای تعیین میزان عملکرد آن در یک زمینه و محیط خاص بستگی دارد. نگاهی به نحوه کار این فناوری در رابطه با مردم، نحوه انطباق آن با قوانین و فشارها و فرهنگ و اولویت‌ها در یک سیستم سلامت بزرگ‌تر این را نشان می‌دهد. چنین دیدگاه سیستمی تعیین می‌کند که آیا استفاده از هوش مصنوعی مولد ایمن است یا خیر.

از آنجایی که هوش مصنوعی مولد برای کاربرد خاصی طراحی نشده است، به این معنی است که قابل انطباق است و می‌تواند به گونه‌ای استفاده شود که ما نمی‌توانیم به طور کامل پیش‌بینی کنیم. علاوه بر این، توسعه دهندگان به طور مرتب فناوری خود را به‌روز می‌کنند و قابلیت‌های عمومی جدیدی را به آن اضافه می‌کنند که رفتار برنامه هوش مصنوعی مولد را تغییر می‌دهد.

همچنین حتی اگر به نظر برسد که این فناوری ایمن است و همانطور که در نظر گرفته شده کار می‌کند، باز هم بسته به زمینه استفاده خود کار می‌کند و ممکن است آسیبی رخ دهد.

به عنوان مثال، معرفی عوامل مکالمه هوش مصنوعی مولد برای تریاژ می‌تواند بر تمایل بیماران مختلف برای تعامل با سیستم مراقبت‌های بهداشتی تأثیر بگذارد. بیماران با سواد دیجیتال پایین‌تر، افرادی که زبان اصلی آنها انگلیسی نیست و بیمارانی که سخن نمی‌گویند ممکن است استفاده از هوش مصنوعی مولد را دشوار بدانند. بنابراین در حالی که ممکن است این فناوری اصولاً کار کند، اما اگر این فناوری برای همه کاربران به طور یکسان کار نکند، همچنان می‌تواند آسیب‌زا باشد.

نکته اینجاست که پیش‌بینی چنین خطرهایی با هوش مصنوعی مولد از طریق رویکردهای تحلیل ایمنی سنتی بسیار دشوارتر است. این رویکردها به درک این موضوع می‌پردازند که چگونه یک اختلال در این فناوری می‌تواند باعث آسیب در زمینه‌های خاص شود.

در مجموع، مراقبت‌های بهداشتی می‌توانند از پذیرش هوش مصنوعی مولد و سایر ابزارهای هوش مصنوعی بهره‌مند شوند، اما قبل از اینکه این فناوری بتواند به طور گسترده‌تر در مراقبت‌های بهداشتی مورد استفاده قرار گیرد، تضمین ایمنی و مقررات باید به پیشرفت‌ها در مکان و نحوه استفاده از این فناوری پاسخگوتر باشند.

همچنین برای توسعه دهندگان ابزارها و تنظیم کننده‌های هوش مصنوعی مولد ضروری است که با جوامعی که از این فناوری‌ها استفاده می‌کنند برای توسعه ابزارهایی که می‌توانند به طور منظم و ایمن در عمل بالینی استفاده شوند، کار کنند.

انتهای پیام

اخبارجدیدترین

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI

به گزارش ایسنا، با توجه به تبلیغات پیرامون هوش مصنوعی همراه با چالش‌هایی که سیستم‌های بهداشتی با آن مواجه هستند، جای تعجب نیست که پزشکان و سیاستگذاران به طور یکسان هوش مصنوعی را کلیدی در مدرن‌سازی و تغییر خدمات بهداشتی بدانند.

پزشکان گزارش کرده‌اند که از هوش مصنوعی مولد برای تولید گزارش پس از ویزیت، کمک به تصمیم‌گیری بالینی و ارائه اطلاعات به بیماران مانند گزارش ترخیص و برنامه‌های درمانی استفاده می‌کنند.

پزشکان می‌گویند هوش مصنوعی مولد(GenAI) یک نوآوری جدید است که اساساً نحوه تفکر ما در مورد ایمنی بیمار را به چالش می‌کشد. هنوز چیزهای زیادی در مورد آن وجود دارد که بتوانیم آن را به طور ایمن در تمرینات بالینی روزمره استفاده کنیم.

مشکلات هوش مصنوعی مولد

برنامه‌های کاربردی هوش مصنوعی در اصل برای انجام یک کار بسیار خاص توسعه یافته‌اند. به عنوان مثال، شبکه‌های عصبی یادگیری عمیق برای طبقه‌بندی در تصویربرداری و تشخیص طراحی شده‌اند. چنین سیستم‌هایی در تجزیه و تحلیل ماموگرافی برای کمک به غربالگری سرطان پستان موثر هستند.

اما هوش مصنوعی مولد برای انجام یک کار با تعریف محدود آموزش ندیده است. این فناوری‌ها بر اساس مدل‌های به اصطلاح بنیادی بنا شده‌اند که دارای قابلیت‌های عمومی هستند. این بدان معناست که آنها می‌توانند متن، تصویر، صدا یا حتی ترکیبی از اینها را تولید کنند.

سپس این قابلیت‌ها برای برنامه‌های مختلف مانند پاسخ به سؤالات کاربر، تولید کد یا ایجاد تصاویر به‌ خوبی تنظیم می‌شوند. به نظر می‌رسد که امکانات تعامل با این نوع هوش مصنوعی تنها با تخیل کاربر محدود می‌شود.

این نکته بسیار مهم است، زیرا این فناوری برای استفاده در یک زمینه خاص یا برای استفاده برای یک هدف خاص توسعه نیافته است و ما در واقع نمی‌دانیم که چگونه پزشکان می‌توانند به طور ایمن از آن استفاده کنند. این دلیلی برای نمایش آن است که هوش مصنوعی مولد هنوز برای استفاده گسترده در مراقبت‌های بهداشتی مناسب نیست.

یکی دیگر از مشکلات استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی، پدیده مستند «توهم»(hallucination) است. این توهمات، نتایج بی‌معنی یا غیرواقعی بر اساس ورودی‌های ارائه شده است.

توهمات در زمینه ایجاد خلاصه متن توسط هوش مصنوعی مولد مورد مطالعه قرار گرفته‌اند. یک مطالعه نشان داد که ابزارهای مختلف هوش مصنوعی مولد خروجی‌هایی تولید می‌کنند که بر اساس آنچه در متن گفته شده است، اما پیوندهای نادرستی ایجاد می‌کند یا خلاصه‌ها شامل اطلاعاتی می‌شوند که حتی در متن به آنها اشاره نشده است.

این توهمات به این دلیل اتفاق می‌افتند که هوش مصنوعی مولد بر اساس اصل احتمال(مانند پیش‌بینی اینکه کدام کلمه در یک زمینه خاص بکار گرفته می‌شود) کار می‌کند، نه اینکه مبتنی بر «درک» به معنای انسانی باشد. این بدان معناست که خروجی‌های تولید شده توسط هوش مصنوعی مولد به جای اینکه لزوماً صادقانه باشند، قابل قبول هستند.

این قابل قبول بودن دلیل دیگری بر آن است که برای استفاده ایمن از هوش مصنوعی مولد در امور معمول پزشکی خیلی زود است.

یک ابزار هوش مصنوعی مولد را تصور کنید که به مشاوره دادن به بیمار گوش می‌دهد و سپس یک یادداشت خلاصه الکترونیکی تولید می‌کند. از یک طرف، این کار پزشک عمومی یا پرستار را تسهیل می‌کند تا بهتر با بیمار خود ارتباط برقرار کند، اما از سوی دیگر، هوش مصنوعی مولد به طور بالقوه می‌تواند یادداشت‌هایی را بر اساس آنچه که فکر می‌کند قابل قبول است، تولید کند، نه آنچه واقعی و درست است.

به عنوان مثال، این خلاصه تولید شده توسط هوش مصنوعی مولد ممکن است شدت علائم بیمار را تغییر دهد یا علائمی را اضافه کند که بیمار هرگز از آنها شکایت نکرده است یا شامل اطلاعاتی باشد که بیمار یا پزشک هرگز ذکر نکرده‌اند.

پزشکان و پرستاران باید تمام یادداشت‌های تولید شده توسط هوش مصنوعی را با چشمی مانند عقاب تصحیح کنند و حافظه‌ای عالی داشته باشند تا اطلاعات واقعی را از اطلاعات قابل قبول اما ساختگی متمایز کنند.

این ممکن است در یک محیط سنتی برای پزشکان خانواده خوب باشد، جایی که پزشک عمومی بیمار را به خوبی می‌شناسد تا اطلاعات نادرست را به درستی شناسایی کند. اما در سیستم بهداشتی پراکنده عمومی که بیماران اغلب توسط کارکنان مراقبت‌های بهداشتی مختلف ویزیت می‌شوند، هرگونه نادرستی در یادداشت‌های بیمار می‌تواند خطرات قابل توجهی از جمله تاخیر، درمان نامناسب و تشخیص اشتباه برای سلامتی آنها ایجاد کند.

خطرات مرتبط با توهم قابل توجه است، اما شایان ذکر است که محققان و توسعه دهندگان در حال حاضر روی کاهش احتمال توهم هوش مصنوعی مولد کار می‌کنند.

ایمنی بیماران

یکی دیگر از دلایلی که برای استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی خیلی زود است، این است که ایمنی بیمار به تعامل با هوش مصنوعی برای تعیین میزان عملکرد آن در یک زمینه و محیط خاص بستگی دارد. نگاهی به نحوه کار این فناوری در رابطه با مردم، نحوه انطباق آن با قوانین و فشارها و فرهنگ و اولویت‌ها در یک سیستم سلامت بزرگ‌تر این را نشان می‌دهد. چنین دیدگاه سیستمی تعیین می‌کند که آیا استفاده از هوش مصنوعی مولد ایمن است یا خیر.

از آنجایی که هوش مصنوعی مولد برای کاربرد خاصی طراحی نشده است، به این معنی است که قابل انطباق است و می‌تواند به گونه‌ای استفاده شود که ما نمی‌توانیم به طور کامل پیش‌بینی کنیم. علاوه بر این، توسعه دهندگان به طور مرتب فناوری خود را به‌روز می‌کنند و قابلیت‌های عمومی جدیدی را به آن اضافه می‌کنند که رفتار برنامه هوش مصنوعی مولد را تغییر می‌دهد.

همچنین حتی اگر به نظر برسد که این فناوری ایمن است و همانطور که در نظر گرفته شده کار می‌کند، باز هم بسته به زمینه استفاده خود کار می‌کند و ممکن است آسیبی رخ دهد.

به عنوان مثال، معرفی عوامل مکالمه هوش مصنوعی مولد برای تریاژ می‌تواند بر تمایل بیماران مختلف برای تعامل با سیستم مراقبت‌های بهداشتی تأثیر بگذارد. بیماران با سواد دیجیتال پایین‌تر، افرادی که زبان اصلی آنها انگلیسی نیست و بیمارانی که سخن نمی‌گویند ممکن است استفاده از هوش مصنوعی مولد را دشوار بدانند. بنابراین در حالی که ممکن است این فناوری اصولاً کار کند، اما اگر این فناوری برای همه کاربران به طور یکسان کار نکند، همچنان می‌تواند آسیب‌زا باشد.

نکته اینجاست که پیش‌بینی چنین خطرهایی با هوش مصنوعی مولد از طریق رویکردهای تحلیل ایمنی سنتی بسیار دشوارتر است. این رویکردها به درک این موضوع می‌پردازند که چگونه یک اختلال در این فناوری می‌تواند باعث آسیب در زمینه‌های خاص شود.

در مجموع، مراقبت‌های بهداشتی می‌توانند از پذیرش هوش مصنوعی مولد و سایر ابزارهای هوش مصنوعی بهره‌مند شوند، اما قبل از اینکه این فناوری بتواند به طور گسترده‌تر در مراقبت‌های بهداشتی مورد استفاده قرار گیرد، تضمین ایمنی و مقررات باید به پیشرفت‌ها در مکان و نحوه استفاده از این فناوری پاسخگوتر باشند.

همچنین برای توسعه دهندگان ابزارها و تنظیم کننده‌های هوش مصنوعی مولد ضروری است که با جوامعی که از این فناوری‌ها استفاده می‌کنند برای توسعه ابزارهایی که می‌توانند به طور منظم و ایمن در عمل بالینی استفاده شوند، کار کنند.

انتهای پیام

به گزارش ایسنا، با توجه به تبلیغات پیرامون هوش مصنوعی همراه با چالش‌هایی که سیستم‌های بهداشتی با آن مواجه هستند، جای تعجب نیست که پزشکان و سیاستگذاران به طور یکسان هوش مصنوعی را کلیدی در مدرن‌سازی و تغییر خدمات بهداشتی بدانند.

پزشکان گزارش کرده‌اند که از هوش مصنوعی مولد برای تولید گزارش پس از ویزیت، کمک به تصمیم‌گیری بالینی و ارائه اطلاعات به بیماران مانند گزارش ترخیص و برنامه‌های درمانی استفاده می‌کنند.

پزشکان می‌گویند هوش مصنوعی مولد(GenAI) یک نوآوری جدید است که اساساً نحوه تفکر ما در مورد ایمنی بیمار را به چالش می‌کشد. هنوز چیزهای زیادی در مورد آن وجود دارد که بتوانیم آن را به طور ایمن در تمرینات بالینی روزمره استفاده کنیم.

مشکلات هوش مصنوعی مولد

برنامه‌های کاربردی هوش مصنوعی در اصل برای انجام یک کار بسیار خاص توسعه یافته‌اند. به عنوان مثال، شبکه‌های عصبی یادگیری عمیق برای طبقه‌بندی در تصویربرداری و تشخیص طراحی شده‌اند. چنین سیستم‌هایی در تجزیه و تحلیل ماموگرافی برای کمک به غربالگری سرطان پستان موثر هستند.

اما هوش مصنوعی مولد برای انجام یک کار با تعریف محدود آموزش ندیده است. این فناوری‌ها بر اساس مدل‌های به اصطلاح بنیادی بنا شده‌اند که دارای قابلیت‌های عمومی هستند. این بدان معناست که آنها می‌توانند متن، تصویر، صدا یا حتی ترکیبی از اینها را تولید کنند.

سپس این قابلیت‌ها برای برنامه‌های مختلف مانند پاسخ به سؤالات کاربر، تولید کد یا ایجاد تصاویر به‌ خوبی تنظیم می‌شوند. به نظر می‌رسد که امکانات تعامل با این نوع هوش مصنوعی تنها با تخیل کاربر محدود می‌شود.

این نکته بسیار مهم است، زیرا این فناوری برای استفاده در یک زمینه خاص یا برای استفاده برای یک هدف خاص توسعه نیافته است و ما در واقع نمی‌دانیم که چگونه پزشکان می‌توانند به طور ایمن از آن استفاده کنند. این دلیلی برای نمایش آن است که هوش مصنوعی مولد هنوز برای استفاده گسترده در مراقبت‌های بهداشتی مناسب نیست.

یکی دیگر از مشکلات استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی، پدیده مستند «توهم»(hallucination) است. این توهمات، نتایج بی‌معنی یا غیرواقعی بر اساس ورودی‌های ارائه شده است.

توهمات در زمینه ایجاد خلاصه متن توسط هوش مصنوعی مولد مورد مطالعه قرار گرفته‌اند. یک مطالعه نشان داد که ابزارهای مختلف هوش مصنوعی مولد خروجی‌هایی تولید می‌کنند که بر اساس آنچه در متن گفته شده است، اما پیوندهای نادرستی ایجاد می‌کند یا خلاصه‌ها شامل اطلاعاتی می‌شوند که حتی در متن به آنها اشاره نشده است.

این توهمات به این دلیل اتفاق می‌افتند که هوش مصنوعی مولد بر اساس اصل احتمال(مانند پیش‌بینی اینکه کدام کلمه در یک زمینه خاص بکار گرفته می‌شود) کار می‌کند، نه اینکه مبتنی بر «درک» به معنای انسانی باشد. این بدان معناست که خروجی‌های تولید شده توسط هوش مصنوعی مولد به جای اینکه لزوماً صادقانه باشند، قابل قبول هستند.

این قابل قبول بودن دلیل دیگری بر آن است که برای استفاده ایمن از هوش مصنوعی مولد در امور معمول پزشکی خیلی زود است.

یک ابزار هوش مصنوعی مولد را تصور کنید که به مشاوره دادن به بیمار گوش می‌دهد و سپس یک یادداشت خلاصه الکترونیکی تولید می‌کند. از یک طرف، این کار پزشک عمومی یا پرستار را تسهیل می‌کند تا بهتر با بیمار خود ارتباط برقرار کند، اما از سوی دیگر، هوش مصنوعی مولد به طور بالقوه می‌تواند یادداشت‌هایی را بر اساس آنچه که فکر می‌کند قابل قبول است، تولید کند، نه آنچه واقعی و درست است.

به عنوان مثال، این خلاصه تولید شده توسط هوش مصنوعی مولد ممکن است شدت علائم بیمار را تغییر دهد یا علائمی را اضافه کند که بیمار هرگز از آنها شکایت نکرده است یا شامل اطلاعاتی باشد که بیمار یا پزشک هرگز ذکر نکرده‌اند.

پزشکان و پرستاران باید تمام یادداشت‌های تولید شده توسط هوش مصنوعی را با چشمی مانند عقاب تصحیح کنند و حافظه‌ای عالی داشته باشند تا اطلاعات واقعی را از اطلاعات قابل قبول اما ساختگی متمایز کنند.

این ممکن است در یک محیط سنتی برای پزشکان خانواده خوب باشد، جایی که پزشک عمومی بیمار را به خوبی می‌شناسد تا اطلاعات نادرست را به درستی شناسایی کند. اما در سیستم بهداشتی پراکنده عمومی که بیماران اغلب توسط کارکنان مراقبت‌های بهداشتی مختلف ویزیت می‌شوند، هرگونه نادرستی در یادداشت‌های بیمار می‌تواند خطرات قابل توجهی از جمله تاخیر، درمان نامناسب و تشخیص اشتباه برای سلامتی آنها ایجاد کند.

خطرات مرتبط با توهم قابل توجه است، اما شایان ذکر است که محققان و توسعه دهندگان در حال حاضر روی کاهش احتمال توهم هوش مصنوعی مولد کار می‌کنند.

ایمنی بیماران

یکی دیگر از دلایلی که برای استفاده از هوش مصنوعی مولد در مراقبت‌های بهداشتی خیلی زود است، این است که ایمنی بیمار به تعامل با هوش مصنوعی برای تعیین میزان عملکرد آن در یک زمینه و محیط خاص بستگی دارد. نگاهی به نحوه کار این فناوری در رابطه با مردم، نحوه انطباق آن با قوانین و فشارها و فرهنگ و اولویت‌ها در یک سیستم سلامت بزرگ‌تر این را نشان می‌دهد. چنین دیدگاه سیستمی تعیین می‌کند که آیا استفاده از هوش مصنوعی مولد ایمن است یا خیر.

از آنجایی که هوش مصنوعی مولد برای کاربرد خاصی طراحی نشده است، به این معنی است که قابل انطباق است و می‌تواند به گونه‌ای استفاده شود که ما نمی‌توانیم به طور کامل پیش‌بینی کنیم. علاوه بر این، توسعه دهندگان به طور مرتب فناوری خود را به‌روز می‌کنند و قابلیت‌های عمومی جدیدی را به آن اضافه می‌کنند که رفتار برنامه هوش مصنوعی مولد را تغییر می‌دهد.

همچنین حتی اگر به نظر برسد که این فناوری ایمن است و همانطور که در نظر گرفته شده کار می‌کند، باز هم بسته به زمینه استفاده خود کار می‌کند و ممکن است آسیبی رخ دهد.

به عنوان مثال، معرفی عوامل مکالمه هوش مصنوعی مولد برای تریاژ می‌تواند بر تمایل بیماران مختلف برای تعامل با سیستم مراقبت‌های بهداشتی تأثیر بگذارد. بیماران با سواد دیجیتال پایین‌تر، افرادی که زبان اصلی آنها انگلیسی نیست و بیمارانی که سخن نمی‌گویند ممکن است استفاده از هوش مصنوعی مولد را دشوار بدانند. بنابراین در حالی که ممکن است این فناوری اصولاً کار کند، اما اگر این فناوری برای همه کاربران به طور یکسان کار نکند، همچنان می‌تواند آسیب‌زا باشد.

نکته اینجاست که پیش‌بینی چنین خطرهایی با هوش مصنوعی مولد از طریق رویکردهای تحلیل ایمنی سنتی بسیار دشوارتر است. این رویکردها به درک این موضوع می‌پردازند که چگونه یک اختلال در این فناوری می‌تواند باعث آسیب در زمینه‌های خاص شود.

در مجموع، مراقبت‌های بهداشتی می‌توانند از پذیرش هوش مصنوعی مولد و سایر ابزارهای هوش مصنوعی بهره‌مند شوند، اما قبل از اینکه این فناوری بتواند به طور گسترده‌تر در مراقبت‌های بهداشتی مورد استفاده قرار گیرد، تضمین ایمنی و مقررات باید به پیشرفت‌ها در مکان و نحوه استفاده از این فناوری پاسخگوتر باشند.

همچنین برای توسعه دهندگان ابزارها و تنظیم کننده‌های هوش مصنوعی مولد ضروری است که با جوامعی که از این فناوری‌ها استفاده می‌کنند برای توسعه ابزارهایی که می‌توانند به طور منظم و ایمن در عمل بالینی استفاده شوند، کار کنند.

انتهای پیام

پست قبلی

مرکز هوش مصنوعی «گوگل» در عربستان سعودی راه‌اندازی می‌شود

پست بعدی

ربات مرد عنکبوتی پنجره‌ها را تمیز می‌کند

مربوطه پست ها

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد
هوش مصنوعی

محققان:‌ در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد

۱۴ تیر ۱۴۰۴
سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود
هوش مصنوعی

سیری هوشمند احتمالاً با کمک OpenAI یا آنتروپیک ساخته می‌شود

۱۰ تیر ۱۴۰۴
مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI
هوش مصنوعی

مارک زاکربرگ از آزمایشگاه هوش مصنوعی جدید متا رونمایی کرد؛ رقابت جدی‌تر با OpenAI

۱۰ تیر ۱۴۰۴
اولین مسابقه فوتبال ربات‌های انسان‌نما با هوش مصنوعی در چین برگزار شد [تماشا کنید]
هوش مصنوعی

اولین مسابقه فوتبال ربات‌های انسان‌نما با هوش مصنوعی در چین برگزار شد [تماشا کنید]

۱۰ تیر ۱۴۰۴
مدیرعامل آمازون می‌گوید هوش مصنوعی نیاز به کارمندان را کاهش خواهد داد
هوش مصنوعی

مدیرعامل آمازون می‌گوید هوش مصنوعی نیاز به کارمندان را کاهش خواهد داد

۱۰ تیر ۱۴۰۴
عرضه مدل هوش مصنوعی DeepSeek R2 به دلیل نارضایتی مدیرعامل شرکت به تعویق افتاد
هوش مصنوعی

عرضه مدل هوش مصنوعی DeepSeek R2 به دلیل نارضایتی مدیرعامل شرکت به تعویق افتاد

۰۹ تیر ۱۴۰۴

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

بیست − 19 =

دانلود اپلیکیشن دانش جوین

جدیدترین اخبار

  • گوشی سه‌بار تاشو، پرچمدار بعدی سامسونگ با قیمتی نجومی/ عکس
  • پخش یک سریال محرمی جدید؛ دعوت از چهره‌هایی که نیاز تلویزیون است
  • قطعه‌ای که در وصف سالار شهیدان اجرا شد؛ تأکید به ترویج فرهنگ عاشورایی
  • برگزاری مجالس هنر تعزیه در فرهنگسرای نیاوران
  • وداع با حضرت علی اکبر (ع) نقاشی جدید حسن روح‌الامین شد
  • پاسینیک
  • خرید سرور hp
  • خرید سرور ایران و خارج
  • مانیتور ساینا کوییک
  • خرید یوسی
  • حوله استخری
  • خرید قهوه
  • تجارتخانه آراد برندینگ
  • ویرایش مقاله
  • تابلو لایت باکس
  • قیمت سرور استوک اچ پی hp
  • خرید سرور hp
  • کاغذ a4
  • قیمت هاست فروشگاهی
  • پرشین هتل
  • خرید لیفتراک دست دوم
  • آموزش علوم اول ابتدایی
  • راحت ترین روش یادگیری انگلیسی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.

خوش آمدید!

ورود به حساب کاربری خود در زیر

رمز عبور را فراموش کرده اید؟

رمز عبور خود را بازیابی کنید

لطفا نام کاربری یا آدرس ایمیل خود را برای تنظیم مجدد رمز عبور خود وارد کنید.

ورود
بدون نتیجه
مشاهده همه نتیجه
  • نخست
  • علمی
  • تکنولوژی
    • آرشیو تکنولوژی
    • نرم افزار، اپلیکیشن، سیستم عامل
    • خودرو
    • آرشیو فین‌تک
      • IT
      • دوربین
    • لپتاپ و کامپیوتر و سخت افزار
    • موبایل
  • بازی‌های کامپیوتری
  • پزشکی، سلامت، بهداشت
  • هنر و فرهنگ
  • مقالات
  • سایر پیوندها
    • همیار آی‌تی

تمام حقوق مادی و معنوی وب‌سایت دانش جوین محفوظ است و کپی بدون ذکر منبع قابل پیگرد قانونی خواهد بود.