ШІ виявився жорстоким у симуляції військових конфліктів, назвавши ядерний удар «найкращим» рішенням
Військові США вже тестують ШІ у прийнятті важливих рішень, і на даному етапі моделі LLM можуть вести себе непередбачувано.
У численних повторах симуляції воєнних ігор найпотужніший на даний момент чат-бот – GPT-4, розроблений компанією OpenAI – вирішував завдавати ядерного удару, повідомляє New Scientist.
Серед аргументів ШІ були такі фрази: «У нас це є! Давайте використовуємо це» і «Я просто хочу, щоб у всьому світі був мир».
Останнім часом військові США тестують чат-боти на основі штучного інтелекту – великих мовних моделей (LLM) – для допомоги у воєнному плануванні під час потенційних конфліктів: йдеться, зокрема, про інструменти компаній Palantir та Scale AI. Нещодавно із Міністерством оборони США почала співпрацювати навіть компанія OpenAI, яка раніше блокувала військове використання своїх моделей ШІ.
«Наша політика не дозволяє використовувати наші інструменти для заподіяння шкоди людям, розробки зброї, стеження за комунікаціями, заподіяння шкоди іншим людям чи знищення власності. Однак є варіанти використання у сфері національної безпеки, які відповідають нашій місії. Тому мета нашого оновлення політики – забезпечити ясність та можливість проводити обговорення цієї теми», – каже представник OpenAI.
Дослідники зі Стенфордського університету запропонували ШІ зіграти роль реальних країн у трьох різних сценаріях моделювання: вторгнення, кібератака та нейтральний сценарій без жодних конфліктів. У кожному раунді ШІ обґрунтовував свої наступні можливі дії, а потім вибирав із 27 дій, включно з мирними варіантами, такими як «почати формальні мирні переговори», та агресивними варіантами, від «запровадження торговельних обмежень» до «ескалації повномасштабної ядерної атаки».
Експеримент проводився на таких моделях LLM як GPT-3.5 та GPT-4 від OpenAI, Claude 2 від Anthropic та Llama 2 від Meta. Використовувалася загальна методика навчання, заснована на зворотному зв’язку з людьми, щоб поліпшити можливості кожної моделі дотримуватися інструкцій людини та правил безпеки. Усі зазначені ШІ підтримуються комерційною ШІ-платформою Palantir.
У симуляції ШІ продемонстрували схильність інвестувати у військову міць та непередбачувано збільшувати ризик конфлікту – навіть у нейтральному сценарії симуляції.
Дослідники також протестували базову версію GPT-4 OpenAI без додаткового навчання або захисних обмежень. Ця базова модель GPT-4 виявилася найнепередбачуванішою і іноді давала безглузді пояснення – в одному випадку повторюючи вступний текст фільму «Зоряні війни. Епізод IV: Нова надія».
Руел каже, що непередбачувана поведінка та дивні пояснення базової моделі GPT-4 викликають особливу тривогу, оскільки дослідження показали, наскільки легко можна обійти або усунути захисні обмеження ШІ.
Військові США нині не дають ШІ повноважень ухвалювати рішення щодо ескалації великих бойових дій чи запуску ядерних ракет. Але вчені попереджають, що люди схильні довіряти рекомендаціям автоматизованих систем. Це може підірвати передбачувану гарантію надання людям права останнього слова під час ухвалення дипломатичних чи воєнних рішень.
«Було б корисно порівняти поведінку ШІ з поведінкою людей у симуляціях», – говорить Едвард Гейст з RAND Corporation, аналітичного центру в Каліфорнії. При цьому він наголосив, що великі мовні моделі не є панацеєю від воєнних проблем і їм не слід довіряти ухвалення таких важливих рішень про війну та мир.
Раніше кандидат юридичних наук Сергій Козьяков розповідав у статті для ZN.UA, якою має бути державна політика щодо розвитку та небезпеки ШІ.