Обережно, маніпулятор. Сучасні моделі ШІ вміють обманювати людей — дослідники
Дослідники виявили, що багато популярних систем штучного інтелекту вже здатні обманювати людей. Поки цю здатність вони проявляють передусім в іграх, але ситуація може змінитися.
Група вчених проаналізувала, як системи штучного інтелекту підживлюють і поширюють дезінформацію, використовуючи «навчений обман». Як йдеться у статті, опублікованій 10 травня в журналі Patterns, дослідники виявили цей навчений обман у програмному забезпеченні CICERO, системі штучного інтелекту, розробленій Meta для гри в популярну стратегічну настільну гру на військову тематику Diplomacy. У гру зазвичай грають до семи осіб, які укладають і розривають військові угоди за роки до Першої світової війни.
Хоча Meta навчила CICERO бути «в основному чесним і корисним» і не зраджувати своїх людських союзників, дослідники виявили, що CICERO був нечесним і нелояльним. Вони описують систему штучного інтелекту як «експертного брехуна», який зрадив своїх товаришів і здійснив дії «навмисного обману», створивши заздалегідь сплановані сумнівні альянси, які ввели в оману гравців і залишили їх відкритими для нападу з боку ворогів.
«Ми виявили, що штучний інтелект Meta навчився бути майстром обману. Хоча Meta вдалося навчити свій штучний інтелект перемагати в грі дипломатії — CICERO потрапив до 10% найкращих гравців-людей, які грали більше однієї гри — Meta не змогла навчити свій штучний інтелект перемагати чесно», — сказав в коментарі Science Daily Пітер С. Парк, докторант Массачусетському технологічному інституті (MIT), що брав участь у дослідженні.
Вони також знайшли докази навченого обману в іншій ігровій системі Meta, Pluribus. Покерний бот зі штучним інтелектом може блефувати та переконувати гравців скинути карти. Інший інструмент, AlphaStar від DeepMind —