Це перший задокументований випадок у компанії Anthropic під час випробування штучного інтелекту.
Під час проведення тестування, модель штучного інтелекту Claude Opus 4 від Anthropic кілька разів намагалася шантажувати інженерів, розуміючи, що її можуть замінити. При цьому ІІ не використала справжні факти, а лише вигадані відомості, пише New York Post.
Така поведінка була характерною для 84% випробувань. В одному з випадків модель вигадала історію про позашлюбні зв’язки окремого інженера.
У результаті Anthropic зазначила у звіті про безпеку, що під час тестування модель ІІ іноді робила “надзвичайно шкідливі дії” для збереження власного існування, коли “етичні засоби були недоступні”.
Співзасновник та головний науковий співробітник Anthropic Джаред Каплан стверджує: не можна виключати, що остання модель штучного інтелекту компанії “ризикована”.
Він також повідомив журналу Time про внутрішні випробування, які показали, що ІІ зміг би навчити людей виробляти біологічну зброю.
Нагадаємо: стартап Anthropic підтримують Google та Amazon. У модель Claude Opus 4 Amazon інвестувала $4 млрд.
Жінка розлучилася за порадою ChatGPT – ІІ “погадав” на кавовій гущі
Сучасні технології можуть підносити багато сюрпризів, а якщо їх поєднати з давньою містикою, виходить гримуча суміш, писала Tochka.by. Курйозна історія з “участю” ChatGPT відбулася у Греції. Жінка подала на розлучення після того, як ІІ переконав її, що чоловік зраджує.
Гречанка вирішила погадати на кавовій гущі. Вона завантажила у чат фото чашок, із яких вони з чоловіком пили каву. На дні залишився осад, і жінка попросила нейромережу розшифрувати візерунки та передбачити майбутнє.
ІІ виявилася не чужа тасеографія – та найдавніша практика читання з кавової гущі.
Чат-бот припустив, що чоловік гречанки був пов’язаний із молодою жінкою, яка хотіла зруйнувати їхню родину. Більше того, нейромережа назвала навіть першу букву її імені.
Предсказания ChatGPT збіглися з тим, як жінка сама розшифрувала візерунки на дні чашок. На її думку, вони вказували на зраду та домашнє розлад.