Закон ЄС про штучний інтелект набув чинності: що це означає для розробників
Європейський Союз офіційно ввів у дію регулювання застосувань штучного інтелекту, засноване на ризиках, починаючи з четверга, 1 серпня 2024 року. Це запускає відлік серії поступових дедлайнів для різних типів розробників ШІ та застосувань. Як повідомляє TechCrunch, основні положення набудуть чинності до середини 2026 року, але перший дедлайн, який передбачає заборони на невелику кількість застосувань ШІ в специфічних контекстах, таких як використання біометричних даних правоохоронцями у громадських місцях, настане вже за шість місяців.
Останні новини: OpenAI надасть уряду США ранній доступ до своєї наступної моделі штучного інтелекту
Закон ЄС про штучний інтелект – класифікація ризиків
За підходом ЄС, більшість застосувань ШІ вважаються низькоризиковими або безризиковими й не підпадатимуть під регулювання. Однак, є підмножина потенційних застосувань ШІ, що класифікуються як високоризикові, такі як біометрія і розпізнавання облич, медичне програмне забезпечення на основі ШІ, а також ШІ, що використовується в освітній та трудовій сферах. Їх розробники повинні дотримуватися вимог щодо управління ризиками та якості, включаючи проведення оцінки відповідності перед виходом на ринок і можливість підлягати регуляторному аудиту. Високоризикові системи, які використовуються державними установами або їх постачальниками, також мають бути зареєстровані у базі даних ЄС.
Також цікаво: Стів Хаффман, CEO Reddit загрожує Microsoft блокуванням
Обмежений ризик і прозорість
Третій рівень “обмеженого ризику” застосовується до таких технологій ШІ, як чат-боти або інструменти, що можуть використовуватися для створення дипфейків. Вони повинні відповідати певним вимогам щодо прозорості, щоб уникнути обману користувачів.
Актуально: Google спрощує видалення відвертих дипфейків із результатів пошуку
Штрафи за порушення
Штрафи також класифікуються за рівнями: до 7% від глобального річного обороту за порушення заборонених застосувань ШІ; до 3% за порушення інших зобов’язань; і до 1,5% за надання неправдивої інформації регуляторам.
Загальні призначення ШІ (GPAIs)
Інший важливий аспект закону стосується розробників так званих загальних призначень ШІ (GPAIs). ЄС взяв підхід, заснований на ризиках, де більшість розробників GPAI матимуть легкі вимоги щодо прозорості, але повинні надавати резюме навчальних даних і забезпечувати політику дотримання авторських прав.
Оцінка ризиків та вимоги
Лише підмножина найпотужніших моделей буде зобов’язана здійснювати оцінку ризиків та вживати заходи щодо їх пом’якшення. Наразі ці GPAI з потенціалом створення системних ризиків визначаються як моделі, треновані з використанням обчислювальної потужності понад 10^25 FLOPs.
Запровадження правил
Виконання загальних правил Акту про ШІ буде передано національним органам держав-членів, тоді як правила для GPAI контролюватимуться на рівні ЄС. Точні вимоги для GPAI розробників ще обговорюються, оскільки Кодекси практики ще мають бути розроблені.
На початку цього тижня AI Office, стратегічний наглядовий орган, розпочав консультації та заклик до участі у розробці правил, очікуючи завершення Кодексів у квітні 2025 року. Власний інструктаж для Акту про ШІ, підготовлений OpenAI, містить рекомендації розробникам, які намагаються визначити, як відповідати вимогам.
Рекомендації розробникам ШІ
OpenAI порадив організаціям класифікувати системи ШІ, визначити GPAI та інші системи ШІ, які використовуються, визначити їх класифікацію та відповідні зобов’язання, а також проконсультуватися з юристами у випадку виникнення питань.
Європейські стандарти для високоризикових систем ШІ ще розробляються, а завершення цієї роботи очікується у квітні 2025 року, після чого стандарти мають бути затверджені ЄС.