Штучний інтелект у медицині: Оксфорд попереджає про приховані ризики
Чат-боти зі штучним інтелектом, які надають медичні консультації, можуть бути небезпечними через неточні та суперечливі рекомендації. Це створює серйозну загрозу для безпеки пацієнтів, адже алгоритми часто неправильно інтерпретують неповну інформацію, отриману від користувача.

Науковці з Оксфордського університету провели дослідження, яке виявило суттєві недоліки у медичних рекомендаціях, наданих чат-ботами на базі штучного інтелекту. Це може нести пряму загрозу для здоров’я та безпеки пацієнтів, оскільки такі системи часто помилково інтерпретують неповну інформацію, надану користувачами. Як повідомляє УНН, самолікування за допомогою ШІ може виявитися вкрай ризикованим.
Ключові висновки дослідження
У рамках експерименту, в якому взяли участь 1300 добровольців, було встановлено, що ефективність відповідей ШІ значною мірою залежить від того, як саме користувач формулює свій запит. Учасникам пропонували описати симптоми, такі як сильний головний біль чи надмірна втома. Однак, чат-боти часто надавали довгий перелік можливих діагнозів, змушуючи людину самостійно обирати найімовірніший варіант.
Доктор Адам Махді, один з авторів дослідження, пояснив для BBC: “Коли штучний інтелект пропонує три потенційні стани, користувач змушений здогадуватися, який саме відповідає його ситуації. Саме тут і криється головна проблема”.
Доктор Ребекка Пейн, провідна дослідниця, назвала практику звернення до ШІ за медичними порадами “дуже небезпечною”. Вона пояснила, що люди рідко надають повну інформацію одразу, пропускаючи важливі деталі, які кваліфікований лікар зміг би виявити під час особистого огляду. В результаті, користувачі отримували суміш корисної та потенційно шкідливої інформації, що ускладнювало прийняття обґрунтованих рішень щодо необхідності звернення до лікаря.
Системні проблеми та майбутні перспективи
Крім технічних помилок, експерти звертають увагу на глибші, системні недоліки технології. Докторка Ембер В. Чайлдс з Єльського університету наголошує, що ШІ навчається на медичних даних, які вже містять багаторічні упередження.
Навчаючись на даних, зібраних від досвідчених, але неідеальних клініцистів, чат-бот може стати таким самим “діагностом” — тобто, не позбавленим помилок.
– додала вона.
Це створює додатковий ризик відтворення помилок, які вже існують у сучасній медичній практиці.
Незважаючи на критику, експерти бачать потенціал у спеціалізованих медичних моделях ШІ. Доктор Берталан Меско припускає, що нові версії чат-ботів від OpenAI та Anthropic, розроблені спеціально для сфери охорони здоров’я, можуть продемонструвати кращі результати. Однак, ключовим фактором для забезпечення безпеки залишається впровадження чітких національних регуляторних норм, правових бар’єрів та офіційних медичних настанов для покращення якості та надійності таких систем.
Порада від Business News:
Ця інформація є надзвичайно важливою для кожного, хто розглядає використання чат-ботів для отримання медичних консультацій. Дослідження Оксфордського університету чітко вказує на потенційні ризики та недоліки таких технологій. Пам’ятайте, що жоден ШІ наразі не може замінити кваліфікованого медичного фахівця. Перед прийняттям будь-яких рішень щодо свого здоров’я завжди консультуйтеся з лікарем.
: unn.ua
