Wikipedia оголошує війну фейковим статтям, створеним ШІ: як волонтери борються з дезінформацією
Вільна енциклопедія Wikipedia опинилася в центрі кризи редагування через масове використання штучного інтелекту (ШІ) для створення статей. Мережею поширюються матеріали з абсурдною інформацією, яку вигадують великі мовні моделі на зразок ChatGPT, що викликає значне занепокоєння серед редакторів. Про це повідомляє Techspot.
У відповідь на ситуацію було створено ініціативу під назвою WikiProject AI Cleanup – це група волонтерів, які активно переглядають статті, редагують або видаляють неправдиву інформацію, яка, ймовірно, була опублікована користувачами за допомогою генеративного ШІ.
Читайте також: Як увімкнути темну тему на Вікіпедії
Ільяс Леблеу, один із засновників групи очищення, в інтерв’ю для 404 Media розповів, що криза почалася, коли редактори й користувачі Вікіпедії почали помічати уривки тексту, написані в стилі, характерному для чат-ботів. Підтвердити це вдалося завдяки відтворенню деяких фрагментів за допомогою ChatGPT.
“Декілька з нас помітили збільшення кількості неприродних текстів, які мали явні ознаки створення ШІ, і ми змогли відтворити подібний ‘стиль’ за допомогою ChatGPT”, – зазначив Леблеу. За його словами, команда швидко навчилася розпізнавати деякі загальні фрази, характерні для ШІ, що дозволило їм виявляти й видаляти найбільш кричущі приклади.
Один із найвідоміших випадків включав статтю про нібито османську фортецю Amberlisihar, побудовану в XV столітті. Стаття, яка містила близько 2000 слів, описувала місцезнаходження і конструкцію фортеці. Однак, згодом виявилося, що Amberlisihar взагалі не існує – це був повністю вигаданий об’єкт, де штучно додана реалістична інформація створювала ілюзію достовірності. Статтю було видалено, як тільки факт шахрайства був підтверджений.
Команда з очищення вважає, що основні причини появи матеріалів, створених ШІ, це самореклама, навмисне шахрайство або банальне непорозуміння, коли користувачі думають, що створений ШІ контент є корисним і достовірним.
Леблеу наголошує на двох ключових причинах, через які виникають такі ситуації. Перша – це сама модель Wikipedia, де кожен може бути редактором. Через це багато університетів не приймають посилання на цю платформу як надійне джерело. Друга причина – властива інтернету тенденція до зловживань. Досвід показує, що кожного разу, коли публіка отримує майже необмежений доступ до ресурсу, знайдуться ті, хто зловживає можливістю.
Ситуація з ШІ на платформі нагадує попередні випадки зловживань у сфері штучного інтелекту, зокрема з Microsoft Tay, твіттер-ботом, який був знятий менше ніж за добу після початку публікації образливих повідомлень. Історія повторюється, але цього разу це зачепило одну з найпопулярніших інформаційних платформ світу – Wikipedia.
