Сам ти Natasha – у Великій Британії замість нейромережі працювали індуси

65
нейромережа ШІ (AI)

Компанія-розробник може стати банкрутом. Технологічна компанія Builder.ai із Лондона бореться з банкрутством. Раніше вона проголосила себе першопрохідником в автоматизації створення програм за допомогою ШІ.

Минулого левову частку її активів заарештував великий кредитор. Builder.ai стала відомою через свій інноваційний підхід до роботи. Близько 10 років тому компанія заявила про можливість розробки програм без написання коду. Усі нюанси мала вирішувати їх “нейромережа” під назвою Natasha AI. Штучний інтелект насправді виявився цілком реальним. Замість програми роботу виконували сотні співробітників із Індії.

Підробку виявили ще шість років тому. Але це не погіршило становище компанії. Навпаки, Builder.ai досягла ринкової капіталізації понад $1 млрд. Загалом у стартап інвестували понад $440 млн. Серед великих кредиторів – Microsoft, Суверенний інвестиційний фонд Катару, різноманітні великі фонди та організації.

Буквально на початку 2025-го у цій британській компанії змінилося керівництво. Виявилися фінансові проблеми. Нова команда знайшла причину не використання фіктивного ІІ, а неефективному фінансовому плануванні.

“Вишенькою” на торті стало те, що у травні великий кредитор Viola Credit заарештував $37 млн ​​на рахунках фірми. Фактично зупинилася діяльність Builder.ai у Великій Британії, США, ОАЕ, Сінгапурі та Індії. Більшість співробітників було звільнено.

Наразі компанія запросила захист від банкрутства, щоб зберегти хоча б частину бізнесу.

ШІ шантажував інженерів, які намагалися його відключити

Під час проведення тестування, модель штучного інтелекту Claude Opus 4 від Anthropic кілька разів намагалася шантажувати інженерів, розуміючи, що її можуть замінити. У цьому ШІ не використовувала справжні факти, лише вигадані відомості.

Така поведінка була характерною для 84% випробувань. В одному з випадків модель вигадала історію про позашлюбні зв’язки окремого інженера.

У результаті Anthropic зазначила у звіті про безпеку, що під час тестування модель ШІ іноді робила “надзвичайно шкідливі дії” для збереження власного існування, коли “етичні засоби були недоступні”.

Читайте також:  Німецька пошта обмежує відправлення посилків до Сполучених Штатів через обов'язки Трампа

Співзасновник та головний науковий співробітник Anthropic Джаред Каплан стверджує: не можна виключати, що остання модель штучного інтелекту компанії “ризикована”.

Він також повідомив журналу Time про внутрішні випробування, які показали, що ІІ зміг би навчити людей виробляти біологічну зброю. Нагадаємо: стартап Anthropic підтримують Google та Amazon. У модель Claude Opus 4 Amazon інвестувала $4 млрд.

ЗАЛИШИТИ КОМЕНТАР

Введіть свій коментар!
Введіть тут своє ім'я