На Facebook зростає рівень насильства та цькування після змін у модерації контенту
Meta вперше опублікувала квартальний звіт про прозорість та дотримання політик після того, як Марк Цукерберг у 2024 році змінив курс компанії щодо модерації контенту. Ці зміни включали відхід від проактивної модерації більшості типів контенту, за винятком найсерйозніших порушень, як-от дитяча експлуатація чи тероризм. І хоч Meta називає результати позитивними, насправді платформа зіткнулася зі збільшенням кількості насильницьких матеріалів і проявів онлайн-цькування.
У першому кварталі 2025 року частка жорстокого та графічного контенту зросла до 0,09% від загальної кількості дописів — проти 0,06-0,07% наприкінці 2024-го. У компанії пояснили це «збільшенням поширення контенту, що порушує правила», а також власними намаганнями уникнути помилок у модерації.
Цькування та домагання на платформі також пішли вгору. Якщо наприкінці 2024 року їхня частка складала 0,06-0,07%, то на початку 2025 зросла до 0,07-0,08%. У Meta пов’язують це з раптовим «сплеском» порушень у березні, хоча деталі не розкривають. Варто зауважити, що йдеться про окрему категорію контенту, яка не охоплює дописи на теми ненависті — політику щодо них було змінено, і тепер вона дозволяє таргетування іммігрантів та ЛГБТК-спільноти.
Попри ці тенденції, у Meta переконують, що зміни дали позитивний ефект — зокрема, помилок у модерації стало вдвічі менше. Компанія посилається на зниження кількості «неправильних дій» з боку модераторів у США за один квартал, хоча точну методику підрахунку не надає.
Водночас кількість видаленого контенту різко зменшилася. Наприклад, за перші три місяці 2025 року Facebook прибрав лише 3,4 млн дописів, які порушували політику щодо мови ворожнечі — найнижчий показник з 2018 року. Видалення спаму впало майже вдвічі: з 730 до 366 мільйонів. Кількість заблокованих фейкових акаунтів зменшилася з 1,4 до 1 мільярда.
Meta визнає, що однією з небагатьох категорій, де проактивна модерація все ще застосовується, залишаються підлітки. Платформа продовжує автоматично приховувати контент, пов’язаний із цькуванням, для молодшої аудиторії. У цьому напрямку компанія вже кілька місяців тестує спеціальні «облікові записи для підлітків».
Ще один ключовий елемент нової стратегії Meta — використання великих мовних моделей (LLM) для модерації. У компанії повідомили, що ШІ-моделі в деяких випадках вже перевершують модераторів-людей. Зокрема, контент, який явно не порушує політик, автоматично видаляється зі списків на перевірку.
Інший важливий крок — відмова Meta від співпраці з незалежними фактчекерами у США. Замість цього компанія просуває власну версію краудсорсингових приміток — на кшталт Community Notes — для Facebook, Instagram та Threads. Також цю систему вже тестують у Reels та коментарях Threads. Проте Meta поки не розкриває, наскільки ефективною є ця нова модель перевірки фактів.
