Google AI Overview плутає вигадані ідіоми з реальними, але все одно їх пояснює
Попри мільярди, вкладені у розвиток штучного інтелекту, Google знову потрапив у халепу. Цього разу користувачі помітили, як функція AI Overview — та сама, що генерує короткі відповіді вгорі пошукової видачі — почала впевнено пояснювати вигадані фрази, ніби це реальні англійські ідіоми.
Наприклад, відповідь Google на запит “You can’t lick a badger twice” звучала доволі логічно: мовляв, це вираз про те, що неможливо обдурити людину двічі. Проблема лише в одному — такої ідіоми не існує.
Журналісти вирішили перевірити, як далеко може зайти ця помилка, і ввели в пошук ще кілька абсурдних фраз. Результати не розчарували.
- “You can’t golf without a fish” Google трактував як метафору про необхідність мати спорядження для гри в гольф, зокрема м’яч, який, за версією ШІ, “можна сприймати як рибу через його форму”.
- “You can’t open a peanut butter jar with two left feet” алгоритм пояснив як нездатність виконати завдання, що вимагає спритності.
- “You can’t marry pizza” подали як нагадування, що шлюб можливий лише між людьми, а не з їжею.
- “Rope won’t pull a dead fish” AI Overview переінакшив як алегорію про те, що зусиль замало — потрібна співпраця або природна мотивація.
- “Eat the biggest chalupa first” прозвучало як порада починати з найскладнішого у будь-якій ситуації.
Жодна з цих фраз не є частиною англомовного фольклору. Всі вони — вигадка, на яку ШІ відреагував цілком серйозно.
Це — не просто смішна помилка. Коли штучний інтелект так впевнено пояснює неіснуючі речі, це стає джерелом дезінформації. Згадаємо історію 2023 року, коли двоє юристів — Стівен Шварц і Пітер ЛоДука — використали ChatGPT для підготовки юридичного документа, і той згенерував вигадані судові справи. Суддя оштрафував адвокатів на 5 000 доларів, а вони, своєю чергою, заявили, що “повірили в технологію”.
Попри обіцянки Big Tech про безпечне і надійне майбутнє зі штучним інтелектом, реальність значно складніша. Якщо навіть Google не може відрізнити жарт від факту, то звичайному користувачу залишається лише одне — не вірити всьому, що бачить у пошуку.
