Дослідники повідомляють, що мережі з багатьох автономних ІІ-агентів здатні імітувати поведінку реальних користувачів. Крім того, вони беруть активну участь в обговореннях, копіюють емоційне тло і підтримують один одного в дискусіях. У такий спосіб виникає ефект штучної більшості. Воно може змусити людей повірити, що певна позиція домінує у суспільстві.
Чому такі системи небезпечні
Хоча раніше ботів було легко розпізнати за примітивними шаблонами, сучасні роєві інтелекти діють набагато тонше. З одного боку, вони розсіюють свої повідомлення на різних платформах. З іншого боку, вони підтверджують одне слово, що посилює враження справжності.
Саме це, на думку дослідників, становить найбільшу загрозу. Небезпека полягає не в поодинокій фейковій новині. Набагато важливішим є ефект штучної згоди. Людині здається, що думка більшості вже сформована. Отже, може змінити власну позицію, орієнтуючись на хибну картину публічної дискусії.
Вчені зазначають, що повністю сформованих роїв поки що не виявлено. Однак перші мережі, що частково керуються ІІ, вже виявлено. При цьому технології, необхідні для створення таких систем, знаходяться у відкритому доступі. Достатньо мотивації та обчислювальної потужності.
Як ІІ моделює альтернативні суспільства
Гарсіа пояснює, що великі мовні моделі (LLM) дозволяють як розробляти чат-ботів, а й створювати цілі симуляції умовного суспільства. Наприклад, розробник може сформувати групу цифрових персонажів із різними стилями поведінки. Ці персонажі здатні взаємодіяти один з одним, ніби вони представляли реальні соціальні групи.
Такий підхід дає можливість непомітно впливати на політичні уподобання людей. Крім того, постійні повторення вигідної позиції створюють ілюзію сталого суспільного тренду. Як результат, у користувачів виникає відчуття, що зміна їхньої позиції є логічним кроком.
Думка дослідників: що можна зробити вже зараз
Міжнародна команда вчених, яка опублікувала роботу на платформі Science Policy Forum, закликає запроваджувати захисні заходи наперед. Отже, спеціалісти пропонують кілька напрямків роботи.
Можливі заходи протидії:
- перевірка цифрового контенту за допомогою алгоритмів, що виявляють координовану поведінку;
- створення незалежного наглядового органу, який відстежує вплив ІІ на публічні дискусії;
- розробка інструментів ранньої діагностики, що допомагають визначити штучне зростання активності;
- моніторинг дискусій на різних платформах, щоб побачити загальну картину та вчасно виявити підозрілий збіг думок.
Дослідники наголошують, що чим раніше такі мережі стають помітними, тим складніше їм підірвати довіру користувачів. Зокрема, своєчасне виявлення механізму роботи рою дозволяє захистити різноманітність думок та запобігти спотворенню суспільних процесів.























