Популярный ИИ-чатбот ChatGPT снова оказался в центре скандала: он выдумывает фейковые факты о людях, а OpenAI, похоже, не слишком торопится это исправлять.
Подпишись на наш Viber: новости, юмор и развлечения!
ПодписатьсяВ этот раз жертвой стал норвежский пользователь Арве Хьялмар Хольмен, который просто решил узнать, что ChatGPT знает о нем. Ответ оказался шокирующим: чат-бот обвинил его в убийстве собственных детей.
Об этом рассказали в noyb.
Как такое вообще возможно?
ChatGPT не только приписал пользователю несуществующее преступление, но и подмешал в историю реальные факты – например, верное количество его детей и название родного города. Более того, в ответе бота даже была информация о приговоре: 21 год тюрьмы.
Такого рода "галлюцинации" встречаются не впервые. ChatGPT уже обвинял людей в коррупции, насилии и других преступлениях. Организация noyb, занимающаяся защитой персональных данных, подала вторую жалобу на OpenAI, обвиняя компанию в нарушении европейского GDPR (общего регламента по защите данных).
Почему OpenAI ничего не делает?
Когда аналогичная жалоба подавалась в 2024 году, OpenAI ответила, что не может исправлять конкретные данные в модели. Максимум, что они могут – "блокировать" определенные запросы, но ложная информация остается в системе.
Другими словами, если кто-то спросит у ChatGPT о человеке, бот может промолчать, но ошибка все равно никуда не исчезнет.
В ответ на обвинения компания всего лишь добавила в ChatGPT стандартное предупреждение: мол, "он может ошибаться". Но noyb справедливо говорит, что закон нельзя обойти простым отказом от ответственности.
Что теперь?
После скандала OpenAI обновила модель, и теперь ChatGPT ищет информацию в интернете в режиме реального времени. Это помогло убрать ложные обвинения против Хольмена, но не гарантирует, что подобные ошибки не появятся снова.
Организация noyb требует, чтобы OpenAI удаляла фейковые данные и изменила систему, чтобы такие ошибки не происходили. Также они предлагают оштрафовать компанию, чтобы она начала серьезнее относиться к защите персональных данных.
Пока неясно, к чему это приведет, но очевидно одно: если ИИ будет продолжать придумывать ложные биографии, от таких "галлюцинаций" может пострадать любой человек.
Напомним, две украинки создают мультики с помощью ИИ на основе сценариев малышей
Ранее мы писали о том, что мужчина перевел на карту 27 тысяч долларов девушке, нарисованной ИИ
Кроме того, Знай.ua сообщал, не все потеряно пока: ИИ не смог красиво пройти классического "Супер Марио"