ІнтернетШІ

Wikipedia оголошує війну фейковим статтям, створеним ШІ: як волонтери борються з дезінформацією

⠀Поширити:

Вільна енциклопедія Wikipedia опинилася в центрі кризи редагування через масове використання штучного інтелекту (ШІ) для створення статей. Мережею поширюються матеріали з абсурдною інформацією, яку вигадують великі мовні моделі на зразок ChatGPT, що викликає значне занепокоєння серед редакторів. Про це повідомляє Techspot.

У відповідь на ситуацію було створено ініціативу під назвою WikiProject AI Cleanup – це група волонтерів, які активно переглядають статті, редагують або видаляють неправдиву інформацію, яка, ймовірно, була опублікована користувачами за допомогою генеративного ШІ.

Читайте також: Як увімкнути темну тему на Вікіпедії

Ільяс Леблеу, один із засновників групи очищення, в інтерв’ю для 404 Media розповів, що криза почалася, коли редактори й користувачі Вікіпедії почали помічати уривки тексту, написані в стилі, характерному для чат-ботів. Підтвердити це вдалося завдяки відтворенню деяких фрагментів за допомогою ChatGPT.

“Декілька з нас помітили збільшення кількості неприродних текстів, які мали явні ознаки створення ШІ, і ми змогли відтворити подібний ‘стиль’ за допомогою ChatGPT”, – зазначив Леблеу. За його словами, команда швидко навчилася розпізнавати деякі загальні фрази, характерні для ШІ, що дозволило їм виявляти й видаляти найбільш кричущі приклади.

Один із найвідоміших випадків включав статтю про нібито османську фортецю Amberlisihar, побудовану в XV столітті. Стаття, яка містила близько 2000 слів, описувала місцезнаходження і конструкцію фортеці. Однак, згодом виявилося, що Amberlisihar взагалі не існує – це був повністю вигаданий об’єкт, де штучно додана реалістична інформація створювала ілюзію достовірності. Статтю було видалено, як тільки факт шахрайства був підтверджений.

Команда з очищення вважає, що основні причини появи матеріалів, створених ШІ, це самореклама, навмисне шахрайство або банальне непорозуміння, коли користувачі думають, що створений ШІ контент є корисним і достовірним.

Леблеу наголошує на двох ключових причинах, через які виникають такі ситуації. Перша – це сама модель Wikipedia, де кожен може бути редактором. Через це багато університетів не приймають посилання на цю платформу як надійне джерело. Друга причина – властива інтернету тенденція до зловживань. Досвід показує, що кожного разу, коли публіка отримує майже необмежений доступ до ресурсу, знайдуться ті, хто зловживає можливістю.



Ситуація з ШІ на платформі нагадує попередні випадки зловживань у сфері штучного інтелекту, зокрема з Microsoft Tay, твіттер-ботом, який був знятий менше ніж за добу після початку публікації образливих повідомлень. Історія повторюється, але цього разу це зачепило одну з найпопулярніших інформаційних платформ світу – Wikipedia.


Google News
Channel Tech в Google News Актуальні новини та аналітика
Читати

⠀Поширити:

Vitaliy Kairov

Засновник видання. Пишу про технології, гаджети та софт. Ціную об'єктивність, якісний звук та лаконічність.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *