Нейромережа дала пораду, від якої чоловік не встояв. У буквальному значенні слова. У США стався дуже курйозний випадок: 60-річний чоловік потрапив у психіатричне відділення клініки, послухавши поради від ChatGPT.
Спочатку була дієта
Американець, якому стукнуло 60, вирішив дотримуватися вегетаріанської дієти. До того ж, чоловік зрозумів, що хоче відмовитися від солі. А потім спитав у чат-бота, чим можна її замінити.
ChatGPT підказав купити бромід натрію, забувши згадати: продукт не вживають у їжу.
Через три місяці такої дієти чоловік звернувся до лікарні зі скаргами на проблеми зі шкірою, параною та навіть галюцинації.
Лікарі, м’яко кажучи, здивувалися
Під час лікування американець навіть встиг втекти з лікарні, після чого його примусово перевели до психіатричного стаціонару.
Так герой історії провів ще майже місяць, доки остаточно не одужав.
Весь цей час лікарі ламали голову, що трапилося з їхнім пацієнтом, і постійно брали у чоловіка аналізи.
З’ясувалося, що концентрація бромідів у крові за норми до 7 мг на літр крові становила пограничні 1700 мг.
Медики повторили експеримент і запитали ChatGPT, на що їм у відповідь дійсно був запропонований бромід натрію. Щоправда, чат-бот цього разу додав, що йому необхідно більше інформації та контексту для надання правильної поради.
Шкідливі ШІ-поради
Експерти та вчені неодноразово попереджали, що через ризик помилок і неточностей покладатися на рекомендації ChatGPT та інших нейромереж просто небезпечно.
Інтернет пам’ятає дуже сумнівні рекомендації від Gemini, коли ШІ радив людям вживати каміння для кращого травлення або додавати в піцу клей.
Однак за статистикою такого роду запити – одні з найчастіших. Тільки в США приблизно кожен шостий дорослий не рідше одного разу на місяць звертається до генеративних чат-ботів для пошуку медичної інформації та консультацій.


















