Штучний інтелект: Залишивши війну комп'ютерам, світ стане небезпечнішим – The Economist

Поділитися
Штучний інтелект: Залишивши війну комп'ютерам, світ стане небезпечнішим – The Economist © 4pda.ru
Оскільки комп'ютери відіграють все більшу роль у війні, небезпека для людей зростає.

У суперництва двох світових супердержав – Китаю і США – багато аспектів: від торговельної війни до студентських віз. Один з найбільш тривожних і найменш зрозумілих – це боротьба за ведення війни з використанням штучного інтелекту. Обидві країни вкладають великі суми в воєнізований штучний інтелект: від автономних роботів до програмного забезпечення, яке дає генералам швидкі тактичні поради в розпал битви. Китай стурбований тим, що перевага у США завдяки розвідкам західних компаній. США побоюється, що у китайських автократів є вільний доступ до даних, і вони можуть залучати місцеві технологічні фірми для роботи на державу. Жодна зі сторін не хоче відставати. Як сказав минулого місяця генерал Джек Шанахан, який є ключовою фігурою в Пентагоні з питань штучного інтелекту: "Те, що я не хочу бачити, - це майбутнє, в якому у наших потенційних супротивників є сила, повністю підтримувана штучним інтелектом, а у нас її немає", йдеться в статті "Контроль над розумом" в журналі The Economist.

Зброя зі штучним інтелектом може працювати з надлюдською швидкістю і точністю. Але вона також може порушити баланс сил. Щоб отримати військову перевагу, спокуса для армій буде полягати в тому, щоб дозволити ШІ не тільки рекомендувати рішення, але і віддавати накази. У цього можуть бути серйозні наслідки. Система наказів, яка здатна мислити швидше людини, може відбити ракетні удари по авіаносцях і авіабазі зі швидкістю, що не залишає часу для дипломатії, і способами, які не до кінця зрозумілі її операторам. Крім того, системи ШІ можна зламати і обманути маніпулюванням даних.

Протягом 20-го століття світ, в кінцевому підсумку, знайшов спосіб керувати зміною парадигми у військовій технології. З появою ядерної бомби. Глобальної катастрофи вдалося уникнути завдяки поєднанню трьох підходів: стримування, контроль над озброєннями та заходи безпеки. Багато хто шукає подібний шаблон для ШІ. На жаль, у нього обмежене застосування - і не тільки тому, що технологія є новою.

Стримування ґрунтувалося на консенсусі про те, що у разі використання ядерних бомб вони будуть представляти катастрофічні ризики для обох сторін. Але загроза, що виходить від ШІ, менш ясна. Це може спричинити раптові атаки або сплутати їх, і число загиблих тоді зможе варіюватися від одного до мільйонів. Так само контроль над озброєннями часів холодної війни ґрунтувався на прозорості, і здібності з деякою упевненістю знати, що замишляє інша сторона. На відміну від ракетних сховищ, з супутників не можна стежити за програмним забезпеченням. І в той час як вороги можуть показати свої боєголовки, не зменшуючи їх потенціал, демонстрація зовнішньому світу алгоритму може поставити під загрозу його ефективність. В обох сторін може бути стимул вводити в оману іншу сторону. "Незнання противниками розвинених конфігурацій ШІ стануть стратегічним перевагою", - припускає Генрі Кіссінджер, який очолював зусилля США з контролю над озброєннями в період холодної війни з Радянським Союзом.

Це залишає останній контроль - безпеку. Ядерні арсенали включають складні системи, в яких великий ризик аварій. Протоколи були розроблені для гарантування, що зброя не може бути використаний без дозволу. Це, наприклад, відмовостійкі механізми, які роблять так, що бомби не вибухають, якщо їх скинули передчасно. Потрібно більше роздумів про те, як аналогічні заходи можуть застосовуватися до систем штучного інтелекту, особливо до тих, на які покладено управління військовими силами на хаотичному і туманному полі битви.

Принципи, які повинні втілювати ці правила прості - ШІ повинен буде відображати людські цінності, такі як справедливість, і бути стійким до спроб обдурити його. Дуже важливо, щоб ШІ-зброя була настільки зрозумілою, наскільки це можливо, щоб люди могли зрозуміти, як вона приймає рішення. Багато західних компаній, що розробляють ШІ у комерційних цілях, у тому числі автомобілі з автоматичним управлінням і програмне забезпечення для розпізнавання обличчя, вже тестують свої ШІ-системи, щоб гарантувати, що у них є деякі з цих характеристик. Ставки вищі у військовій сфері, де обман - звичайна справа, а темп - скажений. В умовах конфронтації між двома наддержавами у світі виникає спокуса скоротити тимчасові переваги. Досі немає жодних ознак того, що небезпека сприймається досить серйозно, хоча центр ШІ у Пентагоні наймає фахівця з етики. Залишивши війну комп'ютерам, світ стане небезпечнішим.

Поділитися
Помітили помилку?

Будь ласка, виділіть її мишкою та натисніть Ctrl+Enter або Надіслати помилку

Додати коментар
Всього коментарів: 0
Текст містить неприпустимі символи
Залишилось символів: 2000
Будь ласка, виберіть один або кілька пунктів (до 3 шт.), які на Вашу думку визначає цей коментар.
Будь ласка, виберіть один або більше пунктів
Нецензурна лексика, лайка Флуд Порушення дійсного законодвства України Образа учасників дискусії Реклама Розпалювання ворожнечі Ознаки троллінгу й провокації Інша причина Відміна Надіслати скаргу ОК
Залишайтесь в курсі останніх подій!
Підписуйтесь на наш канал у Telegram
Стежити у Телеграмі