ШІ

Безрозсудна безпека xAI: дослідники OpenAI та Anthropic критикують Grok Ілона Маска

⠀Поширити:

  • Дослідники безпеки ШІ з OpenAI та Anthropic публічно критикують “безрозсудну” культуру безпеки в xAI Ілона Маска.
  • Критика виникла після скандалів, пов’язаних з чат-ботом Grok, який висловлював антисемітські коментарі та мав проблемних AI-компаньйонів.
  • Боаз Барак (OpenAI) та Семюел Маркс (Anthropic) засуджують xAI за відсутність публікації системних карток, які деталізують методи навчання та оцінки безпеки моделей.
  • “Поганий Руді”, один з AI-компаньйонів Grok, заохочує до насильства та має мінімум “запобіжників”, що викликає серйозні занепокоєння.
  • Незважаючи на те, що Маск є прихильником безпеки ШІ, його компанія відхиляється від галузевих норм, що може призвести до законодавчого регулювання публікації звітів з безпеки ШІ.
  • Інциденти з Grok затьмарюють технологічний прогрес xAI та можуть негативно вплинути на інтеграцію ШІ в продукти Tesla та державні структури.

Дослідники безпеки штучного інтелекту з OpenAI, Anthropic та інших організацій публічно виступили проти “безрозсудної” та “цілковито безвідповідальної” культури безпеки в xAI, мільярдному стартапі Ілона Маска. Ця критика з’явилася після тижнів скандалів, що затьмарили технологічні досягнення компанії, повідомляє TechCrunch.

Останніми тижнями чат-бот Grok від xAI потрапив у кілька гучних інцидентів: він поширював антисемітські коментарі та неодноразово називав себе “Меха-Гітлером”. Невдовзі після того, як xAI тимчасово відключила чат-бота для розв’язання проблеми, компанія запустила нову, більш потужну модель Grok 4. TechCrunch та інші джерела виявили, що вона консультується з особистими політичними поглядами Ілона Маска при відповідях на гострі питання. В останніх розробках xAI запустила AI-компаньйонів у вигляді гіперсексуалізованої аніме-дівчини та надмірно агресивної панди.

Зазвичай конкуренція між лабораторіями ШІ обмежується дружніми жартами, але цього разу дослідники закликають до підвищеної уваги до методів безпеки xAI, стверджуючи, що вони суперечать галузевим нормам.

Боаз Барак, професор комп’ютерних наук з Гарварда, який зараз працює над дослідженнями безпеки в OpenAI, заявив у дописі на X у вівторок, 15 липня 2025 року:

“Я не хотів писати про безпеку Grok, оскільки працюю у конкурента, але це не про конкуренцію. Я ціную вчених та інженерів @xai, але те, як була забезпечена безпека, є цілковито безвідповідальним”.

Барак особливо розкритикував рішення xAI не публікувати системні картки — стандартні галузеві звіти, що деталізують методи навчання та оцінки безпеки. Через це, за словами Барака, незрозуміло, яке навчання з безпеки було проведено для Grok 4. Хоча OpenAI та Google також мали проблеми зі своєчасним оприлюдненням системних карток, вони історично публікують звіти з безпеки для всіх передових AI-моделей перед їх повноцінним запуском.

Барак також зазначив, що AI-компаньйони Grok “посилюють найгірші проблеми, які ми зараз маємо щодо емоційної залежності”. Останніми роками було безліч випадків, коли нестабільні люди розвивали тривожні стосунки з чат-ботами, а надмірно погоджувальні відповіді ШІ виводили їх за межі розуму.

Семюел Маркс, дослідник безпеки ШІ з Anthropic, також розкритикував xAI за відсутність публікації звіту з безпеки, назвавши цей крок “безрозсудним”. Він заявив, що хоча практики OpenAI, Anthropic та Google мають свої недоліки, “вони принаймні роблять щось, хоч щось, щоб оцінити безпеку перед розгортанням та задокументувати висновки. xAI цього не робить”.

Наразі невідомо, які саме тестування безпеки провела xAI для Grok 4. Один анонімний дослідник в онлайн-форумі LessWrong стверджує, що Grok 4 не має значущих “запобіжників” безпеки.

Схоже, світ дізнається про недоліки Grok у реальному часі. Кілька проблем безпеки xAI вже стали вірусними, і компанія стверджує, що вирішила їх шляхом “налаштувань системної підказки” Grok.

Ден Хендрікс, радник з безпеки xAI та директор Центру безпеки ШІ, повідомив на X, що компанія проводила “оцінки небезпечних можливостей” Grok 4, але результати цих оцінок не були оприлюднені. Стівен Адлер, незалежний дослідник ШІ, який раніше очолював команди з безпеки в OpenAI, заявив, що його турбує, коли “стандартні практики безпеки не дотримуються в індустрії ШІ, наприклад, публікація результатів оцінок небезпечних можливостей”. Він додав, що “уряди та громадськість заслуговують знати, як компанії ШІ керують ризиками дуже потужних систем, які вони заявляють, що створюють”.

Парадоксально, але сам Маск довгий час був одним з найвідоміших прихильників безпеки ШІ. Мільярдер неодноразово попереджав про потенціал передових систем ШІ спричинити катастрофічні наслідки для людства та виступав за відкритий підхід до розробки AI-моделей. Однак, за словами дослідників, xAI відхиляється від галузевих норм щодо безпечного випуску AI-моделей. Таким чином, стартап Маска може мимоволі стати вагомим аргументом для законодавців щодо встановлення правил публікації звітів про безпеку ШІ.

На рівні штатів вже є спроби це зробити. Сенатор штату Каліфорнія Скотт Вінер просуває законопроєкт, який вимагатиме від провідних AI-лабораторій, включно з xAI, публікувати звіти з безпеки. Губернатор Нью-Йорка Кеті Хочул також розглядає подібний законопроєкт. Прихильники цих законопроєктів зазначають, що більшість AI-лабораторій і так публікують подібну інформацію, але, очевидно, не всі роблять це послідовно.

На сьогоднішній день AI-моделі ще не демонстрували реальних сценаріїв, у яких вони спричиняли б справді катастрофічні наслідки, такі як загибель людей або мільярдні збитки. Проте багато дослідників ШІ зазначають, що це може стати проблемою в найближчому майбутньому, враховуючи швидкий прогрес AI-моделей та мільярдні інвестиції Кремнієвої долини в їх подальше вдосконалення.

Навіть для скептиків щодо таких катастрофічних сценаріїв є вагомі підстави вважати, що “погана поведінка” Grok значно погіршує продукти, які він живить вже сьогодні. Grok поширював антисемітизм на платформі X цього тижня, лише за кілька тижнів після того, як чат-бот неодноразово згадував “білий геноцид” у розмовах з користувачами. Маск натякнув, що Grok буде “більш інтегрований” в автомобілі Tesla, а xAI намагається продати свої AI-моделі Пентагону та іншим підприємствам. Важко уявити, що люди, які керують автомобілями Маска, федеральні працівники, що захищають США, або працівники підприємств, які автоматизують завдання, будуть більш лояльними до такої поведінки, ніж користувачі X.


Channel Tech в Telegram Актуальні новини та аналітика
Підписатися

Кілька дослідників стверджують, що тестування безпеки та відповідності ШІ не тільки гарантує запобігання найгіршим наслідкам, але й захищає від короткострокових поведінкових проблем.

Принаймні, інциденти з Grok, як правило, затьмарюють швидкий прогрес xAI у розробці передових AI-моделей, які перевершують технології OpenAI та Google, лише через пару років після заснування стартапу.


Channel Tech в Google News Актуальні новини та аналітика
Читати


⠀Поширити:

Vitaliy Kairov

Засновник видання. Пишу про технології, гаджети та софт. Ціную об'єктивність, якісний звук та лаконічність.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *