ChatGPT довів американця до “психушки” – як так вийшло

16
GPT

Нейромережа дала пораду, від якої чоловік не встояв. У буквальному значенні слова. У США стався дуже курйозний випадок: 60-річний чоловік потрапив у психіатричне відділення клініки, послухавши поради від ChatGPT.

Спочатку була дієта

Американець, якому стукнуло 60, вирішив дотримуватися вегетаріанської дієти. До того ж, чоловік зрозумів, що хоче відмовитися від солі. А потім спитав у чат-бота, чим можна її замінити.

ChatGPT підказав купити бромід натрію, забувши згадати: продукт не вживають у їжу.

Через три місяці такої дієти чоловік звернувся до лікарні зі скаргами на проблеми зі шкірою, параною та навіть галюцинації.

Лікарі, м’яко кажучи, здивувалися

Під час лікування американець навіть встиг втекти з лікарні, після чого його примусово перевели до психіатричного стаціонару.

Так герой історії провів ще майже місяць, доки остаточно не одужав.

Весь цей час лікарі ламали голову, що трапилося з їхнім пацієнтом, і постійно брали у чоловіка аналізи.

З’ясувалося, що концентрація бромідів у крові за норми до 7 мг на літр крові становила пограничні 1700 мг.

Медики повторили експеримент і запитали ChatGPT, на що їм у відповідь дійсно був запропонований бромід натрію. Щоправда, чат-бот цього разу додав, що йому необхідно більше інформації та контексту для надання правильної поради.

Шкідливі ШІ-поради

Експерти та вчені неодноразово попереджали, що через ризик помилок і неточностей покладатися на рекомендації ChatGPT та інших нейромереж просто небезпечно.

Інтернет пам’ятає дуже сумнівні рекомендації від Gemini, коли ШІ радив людям вживати каміння для кращого травлення або додавати в піцу клей.

Однак за статистикою такого роду запити – одні з найчастіших. Тільки в США приблизно кожен шостий дорослий не рідше одного разу на місяць звертається до генеративних чат-ботів для пошуку медичної інформації та консультацій.

Читайте також:  Обіцянка F-16 не є політичним розворотом

ЗАЛИШИТИ КОМЕНТАР

Введіть свій коментар!
Введіть тут своє ім'я