Біологічна зброя, створена штучним інтелектом — остання безпекова одержимість Вашингтона
Рокко Касагранде прийшов до Білого дому з чорною скринькою, трохи більшою за кубик Рубіка. Всередині були десятки пробірок з інгредієнтами, які, якщо їх правильно зібрати, могли б спричинити наступну пандемію. Цей смертельний рецепт йому надав чат-бот зі штучним інтелектом, повідомляє Bloomberg.
Останні новини: OpenAI не поспішає випускати інструмент для виявлення текстів ChatGPT
Касагранде, біохімік і колишній інспектор ООН з озброєнь, не мав наміру розповсюджувати біологічну зброю в залі, повній урядових чиновників. Він прийшов, щоб розповісти їм про те, як штучний інтелект може навчити користувачів створювати небезпечні віруси. Він пояснив, що інструменти, такі як ChatGPT, можуть допомогти терористам ідентифікувати потужні біологічні агенти та забезпечити матеріали для їх створення.
Штучний інтелект змінює світ по-різному. Наприклад, ChatGPT полегшує пошук рецептів з наявних інгредієнтів на вашій кухні. Але є й загрози, такі як автоматизація, яка може позбавити людей роботи. Найбільш тривожним є те, що штучний інтелект може допомогти створити зброю масового знищення, яку можна виготовити в підвалі або шкільній лабораторії.
Зброїзація хвороб не нова. У XVIII столітті британські офіцери обговорювали розповсюдження віспи серед корінних американців через ковдри. Використання хімічної зброї, такої як гірчичний газ у Першій світовій війні, призвело до Женевської конвенції 1925 року, яка намагалася обмежити розробку хімічної та біологічної зброї. Проте це було мало ефективно. У Другій світовій війні Японія скидала бліх, заражених чумою, на Китай. У 1970-х роках було укладено ще одну глобальну угоду про заборону розробки та використання біологічної зброї, але її також не вдалося ефективно впровадити.
Сучасні наукові досягнення лише посилили можливості маніпулювання біологією для шкідливих цілей. Тепер можливість змінювати генетичні коди організмів дозволяє, наприклад, відроджувати віруси, пов’язані з віспою. Комбінація синтетичної біології та штучного інтелекту створює нові загрози для урядів, які повільно вводять системи нагляду.
Після зустрічі з Касагранде, уряд США почав активно розглядати питання біозагроз, пов’язаних зі штучним інтелектом. Президент Джо Байден та його адміністрація вжили низку заходів для захисту від цієї загрози. У липні минулого року Білий дім домовився з провідними компаніями зі штучного інтелекту про оцінку найзначніших ризиків ШІ у галузі біобезпеки.
У жовтні адміністрація Байдена видала указ, який закликав майже всі федеральні агентства допомогти знизити загрози, пов’язані зі штучним інтелектом. Указ включав більший нагляд за урядовими дослідженнями з використанням штучного ДНК, створення інституту безпеки штучного інтелекту та розробку керівних принципів для ШІ, що працює з біологічними даними.
Попри всі зусилля, критики вважають, що указ не надає уряду достатньо повноважень для розв’язання проблем. Багато пропозицій покладаються на те, що компанії добровільно передаватимуть дані уряду або дотримуватимуться рекомендацій без загрози штрафів.
Штучний інтелект продовжує розвиватися, і з ним зростають і потенційні загрози. Однак, за словами науковців, потенціал ШІ переважає можливі ризики, якщо його використовувати відповідально. Надалі уряд та індустрія повинні працювати разом, щоб забезпечити безпеку та уникнути катастрофічних наслідків.
