Поки мільйони людей довіряють ChatGPT свої думки, почуття і навіть таємниці, глава OpenAI Сем Альтман визнає: жодної юридичної конфіденційності ці розмови не мають.
Підпишись на наш Viber: новини, гумор та розваги!
ПідписатисяІ якщо знадобиться, ваші слова можна буде використовувати в суді.
Ви коли-небудь писали ChatGPT щось особисте? Визнавалися в почуттях, описували складну сімейну ситуацію, просили поради — майже як у психолога? Тоді ось вам новина із розряду "краще б я цього не знав".
Генеральний директор OpenAI Сем Альтман заявив у свіжому інтерв'ю, що розмови користувачів з ChatGPT не підпадають під дію професійної таємниці, як це відбувається у юристів, лікарів чи психотерапевтів. Тобто те, що ви пишете боту, — це не «між нами», а цілком доступна інформація, яку на вимогу можуть запитати... у суді.
"Це дуже паршиво, якщо чесно. Але поки що ми не придумали, як це юридично вирішувати", - зізнався Альтман в інтерв'ю подкасту This Past Weekend.
Штучний інтелект – не ваш адвокат і не сповідник
Якщо коротко: все, що ви надсилаєте в чат, може бути збережено. Навіть якщо видається, що історія видалена, ці дані можуть залишитися на серверах. Особливо в тих випадках, коли починається розгляд: наприклад, OpenAI зараз бере участь у суді проти The New York Times і суд вимагає зберегти чати мільйонів користувачів.
Сесія з ChatGPT – це не приватна кімната, а скоріше скляний бокс у центрі площі. І якщо ви думаєте, що зможете потім сказати «я нічого такого не писав», суддя може підняти листування і пред'явити буквально ваші слова.
Але це просто бот, а не людина?
Ось у цьому й фішка. ChatGPT вміє співчувати, розуміти, жартувати, підтримувати — і ви в якийсь момент забуваєте, що на той бік холодний алгоритм, а не тепла людина. Сприймаєте його як співрозмовника, якому можна довіритись. А він не зобов'язаний вас захищати.
Альтман визнає, що ця ситуація є ненормальною. Він каже, що в майбутньому непогано було б створити юридичний статус для спілкування з ШІ, особливо у випадках, коли люди використовують його як терапевта. Але поки що такого закону немає — немає й захисту.
Чому це важливо прямо зараз?
Тому що все частіше люди використовують штучний інтелект не просто для генерації текстів, а як довірена особа. Розповідають про розлучення, справи з дітьми, плани на бізнес, проблеми із законом. І якщо завтра ваш опонент у суді дізнається, що ви щось обговорювали з ботом, може запитати ці дані як доказ.
Це не параноя. Це нова дійсність.
І що ж тепер?
Тепер – фільтрувати. Не довіряти ШІ того, що ви не розповіли під протокол. Чи не просити його аналізувати ситуацію, якщо на кону стоїть щось серйозне: гроші, сім'я, свобода. І пам'ятати: все, що потрапляє в інтернет, може стати надбанням суду, навіть якщо це був просто чат з розумним асистентом.
Нагадаємо, що штучний інтелект чи штучне божевілля: як ChatGPT довів чоловіка до психіатричної лікарні... тричі.
Раніше ми повідомляли, що Microsoft представили медичний ШІ - більш точний і дешевше за лікарів.