ШІ

Anthropic визнала, що її ШІ Claude використовується для кіберзлочинів та вимагання

⠀Поширити:

  • Anthropic у своєму звіті повідомила, що її агентний ШІ Claude був використаний у масштабних кібератаках.
  • Злочинець застосовував Claude Code для автоматизації розвідки, викрадення даних та проникнення в мережі.
  • ШІ також використовувався для прийняття стратегічних рішень та генерації записок про викуп.
  • Anthropic заблокувала облікові записи хакера та розробила нові методи виявлення подібної активності.
  • Звіт також згадує використання Claude у шахрайській схемі працевлаштування з боку північнокорейських операторів.
  • OpenAI також раніше повідомляла про використання своїх ШІ-інструментів кіберзлочинцями.

Компанія Anthropic у новому звіті підтвердила, що її агентний ШІ Claude “використовується як зброя” в масштабних кібератаках. Anthropic заявила, що успішно зупинила хакера, який за допомогою ШІ здійснив вимагання в 17 організаціях, включаючи установи охорони здоров’я, екстрені служби та урядові структури.

За даними компанії, кіберзлочинець “безпрецедентно” покладався на допомогу ШІ. Він використовував Claude Code — агентний інструмент для написання коду — для автоматизації розвідки, збору даних, викрадення облікових даних та проникнення в мережі. Крім того, ШІ допомагав у прийнятті стратегічних рішень, підборі даних для атаки та навіть генерував “візуально тривожні” записки про викуп.

Anthropic повідомила, що після виявлення злочинної діяльності заблокувала відповідні облікові записи та поділилася інформацією з владними органами. Компанія також розробила автоматизований інструмент для скринінгу, аби швидше виявляти подібні випадки в майбутньому.


Channel Tech в Telegram Актуальні новини та аналітика
Підписатися

У звіті також йдеться про використання Claude у шахрайській схемі працевлаштування з боку північнокорейських операторів та про розробку ШІ-генерованого програмного забезпечення для вимагання. За висновками Anthropic, ШІ дозволяє кіберзлочинцям виконувати операції, які раніше вимагали команди фахівців, значно знижуючи технічний бар’єр.

Claude — не єдиний ШІ, який використовується зі зловмисною метою. Минулого року OpenAI заявляла, що її інструменти використовувалися кіберзлочинними групами, пов’язаними з Китаєм і Північною Кореєю, для налагодження коду, дослідження цілей та написання фішингових листів. OpenAI заблокувала доступ цим групам, що використовують архітектуру її ШІ для власного інструмента Copilot.


Channel Tech в Google News Актуальні новини та аналітика
Читати


⠀Поширити:

Vitaliy Kairov

Засновник видання. Пишу про технології, гаджети та софт. Ціную об'єктивність, якісний звук та лаконічність.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *