ШІ

OpenAI стверджує, що може розпізнавати зображення, створені DALL-E 3, та є нюанс

⠀Поширити:

Ми всі думаємо, що досить добре розпізнаємо зображення, створені штучним інтелектом. Це дивний інопланетний текст на задньому плані. Химерні неточності, які, здається, порушують закони фізики. А найбільше – ці жахливі руки та пальці. Однак технологія постійно розвивається, і пройде не так багато часу, перш ніж ми не зможемо розрізнити, що є реальним, а що ні. Лідер галузі OpenAI намагається випередити цю проблему, створивши набір інструментів, який розпізнає зображення, створені власним генератором DALL-E 3. Але, як повідомляє Engadget, результати вийшли неоднозначними.

OpenAI стверджує, що може розпізнавати зображення, зроблені його власним програмним забезпеченням, та є нюанс 001

Компанія стверджує, що може точно розпізнавати зображення, створені DALL-3, у 98 відсотках випадків, що є чудовим результатом. Однак є кілька досить серйозних застережень. Перш за все, зображення має бути створене DALL-E, а це не єдиний генератор зображень. Інтернет переповнений ними. За даними OpenAI, системі вдалося успішно класифікувати лише п’ять-десять відсотків зображень, створених іншими моделями ШІ.

Крім того, у неї виникають проблеми, якщо зображення було якимось чином модифіковано. У випадку незначних модифікацій, таких як обрізання, стиснення та зміна насиченості, це не було великою проблемою. У цих випадках відсоток успішності був нижчим, але все ще в межах прийнятного діапазону – приблизно 95-97 відсотків. Однак, якщо змінювати відтінок, відсоток успішності знижується до 82%.

OpenAI стверджує, що може розпізнавати зображення, зроблені його власним програмним забезпеченням, та є нюанс 002

А ось тут починаються справжні труднощі. Інструментарій не справлявся з класифікацією зображень, які зазнали більш значних змін. OpenAI навіть не опублікував відсоток успішності в цих випадках, зазначивши лише, що “інші модифікації, однак, можуть знизити продуктивність”.

Це дуже прикро, адже це рік виборів в США і не тільки, і переважна більшість зображень, створених ШІ, будуть змінені постфактум, щоб краще розлютити людей. Іншими словами, інструмент, швидше за все, розпізнає зображення Джо Байдена, який спить в Овальному кабінеті в оточенні пакетиків з білим порошком, але не після того, як творець накладе на нього купу гнівного тексту і відфотошопить у фотошопі плачучого лисого орла чи ще чогось.

Підпишись на Channel Tech (CT) в Telegram - найкращі технологічні новини

Принаймні, OpenAI є прозорим щодо обмежень своєї технології виявлення. Вона також надає зовнішнім тестувальникам доступ до вищезгаданих інструментів, щоб допомогти виправити ці проблеми, як повідомляє The Wall Street Journal. Компанія, разом з кращим другом Microsoft, вклала 2 мільйони доларів у так званий Фонд суспільної стійкості, який сподівається розширити освіту і грамотність у сфері штучного інтелекту.

На жаль, ідея про те, що ШІ може зіпсувати вибори, не є чимось далеким від реальності. Це відбувається прямо зараз. У цьому циклі вже були згенеровані штучним інтелектом передвиборчі оголошення та нещирі зображення, і, ймовірно, їх буде набагато більше, коли ми повільно, повільно, повільно (повільно) поповземо до листопада.

Підпишись на Channel Tech (CT) в Google News - найкращі технологічні новини

⠀Поширити:

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *