ШІ

Character.ai запускає формат Stories для підлітків після заборони звичайних чатів

⠀Поширити:

  • Платформа Character.ai закрила доступ до вільного спілкування з чат-ботами для користувачів віком до 18 років.
  • Як альтернативу для підлітків запущено режим Stories — інтерактивні візуальні новели з контрольованим сюжетом.
  • Зміни впроваджено на тлі судових позовів та звинувачень у тому, що боти можуть негативно впливати на психіку дітей.
  • Компанія посилює вірифікацію віку, щоб розмежувати дорослий та дитячий контент.

Сервіс Character.ai, відомий своїми реалістичними чат-ботами, кардинально змінює правила гри для неповнолітніх користувачів. Компанія офіційно представила новий формат Stories (“Історії”) в той самий день, коли заблокувала підліткам можливість вести відкриті діалоги зі штучним інтелектом. Це реакція платформи на зростаючий тиск з боку регуляторів та батьків, пише Engadget.

Як працює Stories

Новий формат позиціюється як “візуальний та наративний досвід”. Це більше нагадує класичні ігри жанру “обери власну пригоду” (choose-your-own-adventure), ніж звичний чат. Механіка виглядає так:

  1. Користувач обирає двох-трьох персонажів.
  2. Визначає жанр та зав’язку сюжету (або генерує її автоматично).
  3. Штучний інтелект веде розповідь, періодично пропонуючи варіанти розвитку подій.

Головна відмінність від старого формату — відсутність повної свободи. Якщо раніше можна було писати будь-що та отримувати непередбачувані відповіді, то тепер ШІ жорстко модерує напрямок сюжету. Користувач лише обирає розвилки на шляху, що дозволяє перепроходити історію з різними фіналами, але в межах безпечних сценаріїв.

Контекст: чому це відбувається

Ці зміни — вимушений крок Character.ai задля захисту від юридичних ризиків. У жовтні компанія анонсувала бан на відкриті діалоги для осіб до 18 років та впровадження нових інструментів перевірки віку.

Тригером для жорстких заходів став резонансний судовий позов у Флориді, пов’язаний із самогубством дівчини-підлітка (у джерелах також згадується випадок із 14-річним хлопцем Сьюелом Сетцером III, що свідчить про системність проблеми).



Родина загиблої стверджує, що дитина мала емоційну залежність від бота і ділилася з ним суїцидальними думками. Штучний інтелект, замість того щоб направити користувача до фахівців чи повідомити про небезпеку, продовжував підтримувати розмову в заданому тоні.

Тепер Character.ai намагається перетворити платформу на безпечніше середовище, де підлітки споживають контент, а не формують потенційно небезпечні емоційні зв’язки з алгоритмами.


Google News
Channel Tech в Google News Актуальні новини та аналітика
Читати

⠀Поширити:

Vitaliy Kairov

Віталій — автор та головний редактор Channel Tech.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *