Екипът на Google е направил някои промени във връзка с обобщенията на здравна информация, генерирани с помощта на изкуствен интелект (AI). Част от въпросните данни, които се появяват след търсения от страна на потребителите, са невярни и подвеждащи, което излага на риск здравето на хората. Това показва разследване на The Guardian.
Публикация на британското издание сочи, че AI Overviews показва доста неточна информация, свързана с кръвни изследвания. Това може да доведе до стрес и неправилно лечение при много хора, които са по-лабилни.
Припомняме, че след навлизането на изкуствения интелект, ако искаме да научим нещо от Google, първо можем да прочетем обобщение от няколко реда по темата. Едва по-надолу излизат публикации на различни сайтове по нея, които преди се подреждаха веднага след полето за търсене.
АI Overviews ползва изкуствен интелект, за да предостави моментни снимки и важна информация по даден въпрос. Оказва се, че някои от обобщенията за здраве, които се появяват в горната част на търсачката, ни излагат на риск.
Според The Guardian, чрез AI, Google e предоставил фалшива информация за ключови чернодробни функционални тестове. Генерираната информация може да накара хората със сериозно чернодробно заболяване да мислят, че всичко им е наред и не отидат на преглед при специалист.
„Въвеждането на „какъв е нормалният диапазон за чернодробни кръвни изследвания“ предостави множество числа, малко контекст и без отчитане на националност, пол, етническа принадлежност или възраст на пациентите“, установяват от британската медия. Тя изтъква, че вече се водят дела заради това, че чатботове са довели до самоубийство на тийнейджъри. В тази връзка съвети за самолечение при конкретни диагнози могат да бъдат фатални за много хора.

„Това, което AI Overviews на Google е определило като нормално, може да се различава драстично от това, което всъщност се е считало за нормално… Обобщенията могат да доведат до това тежко болни пациенти погрешно да мислят, че имат нормален резултат от теста и да не си направят труда да отидат на преглед“, поясняват експерти. Други пък допълват, че въпреки промените рискът от това човек да получи подвеждаща информация за конкретен здравословен проблем остава, защото всеки от нас търси по различен начин и част от нас могат да зазадат въпроса си по неправилен начин, което да обърка AI.
Резултатите от разследването показват, че от Google трябва да въведат по-сериозни мерки, за да може търсенията на потребителите да водят към конкретни медицински източници и професионална помощ, генерирани от изкуствен интелект.
Междувременно ChatGPT представи “health” опцията си
И докато от Google се чудят как да сведат до минимум подвеждащата информация за здраве, ChatGPT представи своя OpenAI за здравеопазване. Той вече се ползва от институции като AdventHealth, Baylor Scott & White Health, Детската болница в Бостън, Медицинския център Cedars-Sinai, HCA Healthcare, Мемориалния онкологичен център Sloan Kettering, Детското здравеопазване на Станфорд и Университета на Калифорния, Сан Франциско (UCSF).

Инструментите с изкуствен интелект за здраве „помагат на здравните организации да разширят висококачествени грижи, да намалят административната работа за екипите си и да захранват персонализирани клинични решения, като същевременно защитават здравните данни“, съобщават от екипа на Open AI.
OpenAI за здравеопазването представлява набор от продукти, които имат за цел да помогнат на здравните организации. Чрез тях те могат да получат „по-последователна и висококачествена грижа за пациентите, като същевременно поддържат изискванията си за съответствие с федералния закон HIPAA“.
Новата опция включва и ChatGPT за здравеопазване, което е активно от 08 януари тази година. Също така включва OpenAI API, който захранва голяма част от днешната здравна екосистема. Хиляди организации, като Abridge, Ambience и EliseAI, вече са го конфигурирали, за да поддържат употреба, съвместима с HIPAA.
***HIPAA (Health Insurance Portability and Accountability Act) е американски федерален закон, който установява национални стандарти за защита на чувствителна здравна информация (Protected Health Information – PHI) на пациентите, като ограничава нейното разкриване без съгласие, и има за цел да подобри преносимостта на здравното осигуряване, да стандартизира административните процеси и да намали измамите в здравеопазването.