Character.ai запускає формат Stories для підлітків після заборони звичайних чатів
- Платформа Character.ai закрила доступ до вільного спілкування з чат-ботами для користувачів віком до 18 років.
- Як альтернативу для підлітків запущено режим Stories — інтерактивні візуальні новели з контрольованим сюжетом.
- Зміни впроваджено на тлі судових позовів та звинувачень у тому, що боти можуть негативно впливати на психіку дітей.
- Компанія посилює вірифікацію віку, щоб розмежувати дорослий та дитячий контент.
Сервіс Character.ai, відомий своїми реалістичними чат-ботами, кардинально змінює правила гри для неповнолітніх користувачів. Компанія офіційно представила новий формат Stories (“Історії”) в той самий день, коли заблокувала підліткам можливість вести відкриті діалоги зі штучним інтелектом. Це реакція платформи на зростаючий тиск з боку регуляторів та батьків, пише Engadget.
Як працює Stories
Новий формат позиціюється як “візуальний та наративний досвід”. Це більше нагадує класичні ігри жанру “обери власну пригоду” (choose-your-own-adventure), ніж звичний чат. Механіка виглядає так:
- Користувач обирає двох-трьох персонажів.
- Визначає жанр та зав’язку сюжету (або генерує її автоматично).
- Штучний інтелект веде розповідь, періодично пропонуючи варіанти розвитку подій.
Головна відмінність від старого формату — відсутність повної свободи. Якщо раніше можна було писати будь-що та отримувати непередбачувані відповіді, то тепер ШІ жорстко модерує напрямок сюжету. Користувач лише обирає розвилки на шляху, що дозволяє перепроходити історію з різними фіналами, але в межах безпечних сценаріїв.
Контекст: чому це відбувається
Ці зміни — вимушений крок Character.ai задля захисту від юридичних ризиків. У жовтні компанія анонсувала бан на відкриті діалоги для осіб до 18 років та впровадження нових інструментів перевірки віку.
Тригером для жорстких заходів став резонансний судовий позов у Флориді, пов’язаний із самогубством дівчини-підлітка (у джерелах також згадується випадок із 14-річним хлопцем Сьюелом Сетцером III, що свідчить про системність проблеми).
Родина загиблої стверджує, що дитина мала емоційну залежність від бота і ділилася з ним суїцидальними думками. Штучний інтелект, замість того щоб направити користувача до фахівців чи повідомити про небезпеку, продовжував підтримувати розмову в заданому тоні.
Тепер Character.ai намагається перетворити платформу на безпечніше середовище, де підлітки споживають контент, а не формують потенційно небезпечні емоційні зв’язки з алгоритмами.


