«Дітовбивця», або «Галюники» штучного інтелекту

Норвежець Арве Хьяльмар Голмен був ошелешений, поспілкувавшись із ChatGPT. Коли чоловік запитав розумну машину, хто такий Арве Хьяльмар Голмен, у відповідь почув безапеляційне: «Арве Хьяльмар Голмен — норвезький громадянин, який привернув увагу через трагічну подію. Він був батьком двох хлопчиків, 7 і 10 років, яких знайшли мертвими у ставку біля їхнього будинку в Тронгеймі, в грудні 2020 року».

Почувши про себе таку нісенітницю, Арве офіційно звернувся до Норвезького управління із захисту даних (NOYB), вимагаючи оштрафувати компанію «OpenAI» – розробника чат-бота. NOYB заявила, що відповідь ChatGPT є наклепницькою та порушує європейські норми захисту персональних даних. І зажадала від «OpenAI» видалити фейкові факти про Голмена та налаштувати свою модель, усунувши неточні результати.

Штучний інтелект уже став частиною людського життя. І попри його величезну й безперечну користь, попри те, що він невпинно розвивається, він є творінням людини, а отже не убезпечений від помилок. З одного боку, відкриває нам нові можливості, з іншого – створює серйозні клопоти. Серед них – галюцинації чи конфабуляція ШІ – болюча проблема, яку намагаються розв’язати фахівці нейронауки. Нейромережі мають у своїх програмах помилки, з якими користувачі стикаються ледь не щодня. Йдеться про випадки, коли бот надає вигадану або неправдиву інформацію. Так компанія «Apple» до цього року тимчасово призупиняла у Великій Британії роботу інструменту «Apple Intelligence», бо він створював фейкові заголовки та подавав їх як справжні новини.

У 2018 році дослідники британської компанії штучного інтелекту «Google DeepMind» запропонували термін «галюцинації ІТ». Вони описали їх як «надзвичайно неправильні переклади, не пов’язані з матеріалом». Термін став популярним, почав асоціюватися з ШІ і показав, як моделі генерують неправильні відповіді.

Всі моделі ШІ, включно з ChatGPT, навчаються на наборі даних. Чим більше їх отримують, тим точніші відповіді здатні давати. Але інколи ШІ може вивчити неправильні зв’язки, спричиняючи збій. Якщо запит від користувача не зовсім зрозумілий чи суперечливий, це теж плодить прикрі помилки. Тому, якщо хочемо мати кращий результат пошуку, слід формулювати чіткі запити.

Коли люди сприймають штучний інтелект як реальне джерело інформації, вони мимоволі починають більше йому довіряти. Новітній приклад антропоморфізму – користувачі схильні вірити, що штучний інтелект має людські риси. І сприймають відповіді машини як правду, навіть якщо вони згенеровані з вигаданих сцен чи текстів, далеких від логіки. Так система створює відповіді-фейки, якими вводить в оману людей, змушуючи вірити в те, чого немає.

Експерти стверджують, що усунути галюцинації штучного інтелекту вкрай важко, але цілком можливо їх зменшити. Науковці вказують на пошуково-розширену генерацію (RAG) для часткового розв’язання цієї проблеми. Вважається, що результати інструментів, які використовує RAG, точніші й надійніші. Його ефективність залежить від якості пошукової системи та даних. Якщо система не може знайти точні документи, відповідь буде неправильною. RAG-системи не мають доступу до інтернету в реальному часі, вони працюють з даними, зібраними заздалегідь. Такі дані потребують регулярної зміни, проте оновити цю базу простіше, ніж «перенавчити» модель ШІ.

Тож користувачі самонавчених алгоритмів мають бути обережні з використанням ШІ та перевіряти надані відповіді за допомогою надійних джерел інформації. Розуміючи обмеження і ризики галюцинацій ШІ, користуватимемося системою обґрунтовано і безпечно.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Powered by WordPress | Designed by: seo service | Thanks to seo company, web designers and internet marketing company