Anthropic визнала, що її ШІ Claude використовується для кіберзлочинів та вимагання
- Anthropic у своєму звіті повідомила, що її агентний ШІ Claude був використаний у масштабних кібератаках.
- Злочинець застосовував Claude Code для автоматизації розвідки, викрадення даних та проникнення в мережі.
- ШІ також використовувався для прийняття стратегічних рішень та генерації записок про викуп.
- Anthropic заблокувала облікові записи хакера та розробила нові методи виявлення подібної активності.
- Звіт також згадує використання Claude у шахрайській схемі працевлаштування з боку північнокорейських операторів.
- OpenAI також раніше повідомляла про використання своїх ШІ-інструментів кіберзлочинцями.
Компанія Anthropic у новому звіті підтвердила, що її агентний ШІ Claude “використовується як зброя” в масштабних кібератаках. Anthropic заявила, що успішно зупинила хакера, який за допомогою ШІ здійснив вимагання в 17 організаціях, включаючи установи охорони здоров’я, екстрені служби та урядові структури.
За даними компанії, кіберзлочинець “безпрецедентно” покладався на допомогу ШІ. Він використовував Claude Code — агентний інструмент для написання коду — для автоматизації розвідки, збору даних, викрадення облікових даних та проникнення в мережі. Крім того, ШІ допомагав у прийнятті стратегічних рішень, підборі даних для атаки та навіть генерував “візуально тривожні” записки про викуп.
Anthropic повідомила, що після виявлення злочинної діяльності заблокувала відповідні облікові записи та поділилася інформацією з владними органами. Компанія також розробила автоматизований інструмент для скринінгу, аби швидше виявляти подібні випадки в майбутньому.
У звіті також йдеться про використання Claude у шахрайській схемі працевлаштування з боку північнокорейських операторів та про розробку ШІ-генерованого програмного забезпечення для вимагання. За висновками Anthropic, ШІ дозволяє кіберзлочинцям виконувати операції, які раніше вимагали команди фахівців, значно знижуючи технічний бар’єр.
Claude — не єдиний ШІ, який використовується зі зловмисною метою. Минулого року OpenAI заявляла, що її інструменти використовувалися кіберзлочинними групами, пов’язаними з Китаєм і Північною Кореєю, для налагодження коду, дослідження цілей та написання фішингових листів. OpenAI заблокувала доступ цим групам, що використовують архітектуру її ШІ для власного інструмента Copilot.
