ChatGPT та інші великі мовні моделі не становлять загрози для людства: нове дослідження
Нове дослідження від Університету Бата та Технічного університету Дармштадта в Німеччині розвіює міф про те, що великі мовні моделі (LLM), як-от ChatGPT, можуть стати загрозою для людства. Вчені з’ясували, що ці моделі не здатні навчатися самостійно чи освоювати нові навички без чітких інструкцій. Це означає, що вони залишаються під контролем, передбачуваними та безпечними для використання, пише Neuroscience News.
Останні новини: ChatGPT тепер дозволяє безплатно створювати зображення за допомогою DALL-E 3
Мовні моделі: здібні, але не самостійні
Дослідження, опубліковане в рамках 62-ї щорічної зустрічі Асоціації комп’ютерної лінгвістики (ACL 2024), показало, що великі мовні моделі, хоча і вміють ефективно слідувати інструкціям, не мають здатності самостійно розвивати нові навички. Вони можуть виконувати завдання, але тільки в межах того, що їм було задано, що робить їх передбачуваними та контрольованими.
Небезпека ШІ – лише в його зловмисному використанні
Доктор Харіш Тайяр Мадабуші, комп’ютерний науковець з Університету Бата та співавтор дослідження, наголосив, що страхи щодо того, що ці моделі можуть несподівано набути небезпечних здібностей, є необґрунтованими. Він зазначив, що побоювання, що моделі стануть неконтрольованими та здатними на несподівані дії, не підкріплені доказами. Єдина реальна загроза походить від можливого зловмисного використання цієї технології.
Чіткі інструкції – ключ до безпечного використання
Для досягнення найкращих результатів користувачам рекомендується чітко й детально формулювати завдання для ШІ. Моделі повинні отримувати конкретні інструкції, щоб уникнути помилок та неточностей. Це особливо важливо при виконанні складних завдань, які вимагають глибоких міркувань.
Що це означає для користувачів
Професорка Ірина Гуревич з Технічного університету Дармштадта, яка очолювала дослідження, підкреслила, що результати не означають повної безпеки ШІ. Натомість вони показують, що побоювання щодо появи складних навичок мислення, пов’язаних з певними загрозами, не підтверджуються доказами. Вона зазначила, що майбутні дослідження мають зосередитися на вивченні інших ризиків, таких як можливість використання ШІ для створення фейкових новин.
Отже, хоча розвиток штучного інтелекту продовжує викликати обговорення, можливості, які наразі надають великі мовні моделі, не є загрозою для людства. Важливо залишатися обачними та відповідально підходити до використання цієї технології, забезпечуючи її безпечне застосування.
