ChatGPT звинуватив людину у вбивстві: що буде з ШІ, який "галюцинує"
techno.znaj.ua
Tue, 25 Mar 2025 21:50:00 +0200

Популярний ШІчатбот ChatGPT знову опинився в центрі скандалу він вигадує фейкові факти про людей, а OpenAI, схоже, не надто поспішає це виправляти.
На цей раз жертвою став норвезький користувач Арве Хьялмар Хольмен, який просто вирішив дізнатися, що ChatGPT знає про нього.
Відповідь виявилася шокуючою чатбот звинуватив його у вбивстві своїх дітей.
Про це розповіли у noyb.
Як таке взагалі можливе ChatGPT не лише приписав користувачеві неіснуючий злочин, але й підмішав в історію реальні факти наприклад, вірна кількість його дітей та назва рідного міста.
Більше того, у відповіді робота навіть була інформація про вирок 21 рік вязниці.
Такі галюцинації зустрічаються не вперше.
ChatGPT вже звинувачував людей у корупції, насильстві та інших злочинах.
Організація noyb, що займається захистом персональних даних, подала другу скаргу на OpenAI, звинувачуючи компанію у порушенні європейського GDPR загального регламенту захисту даних.
Чому OpenAI нічого не робить Коли аналогічна скарга подавалася 2024 року, OpenAI відповіла, що не може виправляти конкретні дані в моделі.
Максимум, що вони можуть блокувати певні запити, але помилкова інформація залишається в системі.
Іншими словами, якщо хтось запитає ChatGPT про людину, бот може промовчати, але помилка все одно нікуди не зникне.
У відповідь на звинувачення компанія лише додала в ChatGPT стандартне попередження мовляв, він може помилятися.
Але noyb справедливо каже, що закон не можна обійти простою відмовою від відповідальності.
Що ж тепер Після скандалу OpenAI оновила модель і тепер ChatGPT шукає інформацію в інтернеті в режимі реального часу.
Це допомогло усунути помилкові звинувачення проти Хольмена, але не гарантує, що подібні помилки не зявляться знову.
Організація noyb вимагає, щоб OpenAI видаляла фейкові дані та змінила систему, щоб такі помилки не відбувалися.
Також вони пропонують оштрафувати компанію, щоб вона почала серйозніше ставитись до захисту персональних даних.
Поки неясно, до чого це призведе, але очевидно одне якщо ШІ продовжуватиме вигадувати помилкові біографії, від таких галюцинацій може постраждати будьяка людина.
Нагадаємо, дві українки створюють мультики за допомогою ШІ на основі сценаріїв малюків.
Раніше ми писали про те, що чоловік перевів на карту 27 тисяч доларів дівчині, намальованій ШІ Крім того, Знай.ua повідомляв, що все втрачено поки ІІ не зміг красиво пройти класичного Супер Маріо
Останні новини
