Медична дезінформація в пошуковику Google непокоїть лікарів

7

Google представив інструмент AI Overviews у 2024 році, обіцяючи користувачам швидкі та чіткі відповіді без необхідності відкривати десятки веб-сайтів. Однак, як з’ясувала британська газета The Guardian, Алгоритм штучного інтелекту не завжди справляється із завданням – особливо, коли мова йде про здоров’я.

Читайте також: Що найбільше цікавило німців у 2025 році: дані Google Trends

По суті, AI Overviews автоматично генерує коротке резюме з різних джерел і відображає його у верхній частині результатів пошуку, повідомляє watson.de. З одного боку, це економить час. Але з іншого боку, користувачі часто сприймають таке резюме як надійну рекомендацію, не перевіряючи першоджерела.

Неправильна порада онкохворим

Аналіз The Guardian показав, що штучний інтелект Google надає неточні та іноді небезпечні медичні поради. Наприклад, людям з раком підшлункової залози рекомендували уникати жирної їжі.

Медики з цим категорично не згодні. При хворобі підшлункової залози знижується вироблення ферментів і організм гірше засвоює поживні речовини. В результаті пацієнти втрачають вагу та енергію. Жир залишається одним із небагатьох доступних джерел калорій для підтримки ваги та сили під час лікування.

Медики: «Такі помилки можуть коштувати життя»

Британська організація Pancreatic Cancer UK, яка підтримує хворих на рак підшлункової залози, різко відреагувала на висновки журналістів.

Прес-секретар фонду Анна Джуелл повідомила, що таке ради можуть “серйозно ставить під загрозу шанси людини на успішне лікування».. За її словами, якщо пацієнт дотримується рекомендацій ШІ та різко обмежує жири, це призведе до дефіциту калорій, втрати ваги та неможливості пройти хіміотерапію чи операцію.

Однією хворобою проблеми не обмежуються

Як пише The Guardian, помилки в оглядах штучного інтелекту стосуються не лише онкології. Система поширювала невірну інформацію про тести функції печінки та скринінг на рак для жінок.

Читайте також:  Печія спорту: як тренуватися без шкоди

Отже, коли запитують про «нормальні результати аналізів печінки», Google показав спотворені значення. За словами Памели Хілі з British Liver Trust, ці цифри надає система “суттєво розходиться з медичними стандартами”.

Крім того, журналісти знайшли небезпечні поради в розділах, присвячених психічним розладам. Відповіді AI містили такі заяви може перешкодити людям звертатися за професійною допомогою при психозах або розладах харчування.

Позиція Google: «Більшість відповідей правильні»

Google заперечує звинувачення та каже, що «переважна більшість» її оглядів AI є точними та корисними. На цьому наголосив представник корпорації Команда постійно працює над підвищенням якості відповідей.

У відповідь на конкретні приклади, опубліковані The Guardian, Google відповіла, що надані скріншоти були «неповними» та вирваними з контексту. У компанії кажуть, що ШІ посилається на «надійні джерела» і «рекомендує користувачам проконсультуватися зі своїми лікарями».

Однак експерти сумніваються, чи достатньо таких заходів, коли на кону стоїть здоров’я людини.

Що важливо знати користувачам

Фахівці нагадують: навіть якщо інформація надходить від відомої компанії, необхідно перевірити медичні дані. ШІ може помилятися, і наслідки цих помилок надто серйозні.

ЗАЛИШИТИ КОМЕНТАР

Введіть свій коментар!
Введіть тут своє ім'я