Пока миллионы людей доверяют ChatGPT свои мысли, чувства и даже тайны, глава OpenAI Сэм Альтман признаёт: никакой юридической конфиденциальности у этих разговоров нет.

И если понадобится — ваши слова можно будет использовать в суде.

суд
суд

Вы когда-нибудь писали ChatGPT что-то личное? Признавались в чувствах, описывали сложную семейную ситуацию, просили совета — почти как у психолога? Тогда вот вам новость из разряда "лучше бы я этого не знал".

Генеральный директор OpenAI Сэм Альтман заявил в свежем интервью, что разговоры пользователей с ChatGPT не подпадают под действие профессиональной тайны, как это происходит у юристов, врачей или психотерапевтов. То есть то, что вы пишете боту, — это не «между нами», а вполне себе доступная информация, которую по требованию могут запросить... в суде.

Популярные статьи сейчас
Гороскоп на неделю 4-10 августа для всех знаков Зодиака: терпение Львов, напряжение Скорпионов и победа Рыб В ВСУ заговорили о возможном завершении войны – к чему готовиться В Украине вырастет стоимость электроэнергии: чего ждать гражданам Украинцы получают новые суммы в платежках: начислят даже тем, кто не пользуется
Показать еще

"Это очень паршиво, если честно. Но пока мы не придумали, как это юридически решать", — признался Альтман в интервью подкасту This Past Weekend.

Искусственный интеллект — не ваш адвокат и не исповедник

Если коротко: всё, что вы отправляете в чат — может быть сохранено. Даже если кажется, что история удалена, эти данные могут остаться на серверах. Особенно в тех случаях, когда начинается разбирательство: например, OpenAI сейчас участвует в суде против The New York Times, и суд требует сохранить чаты миллионов пользователей.

Сессия с ChatGPT — это не приватная комната, а скорее стеклянный бокс в центре площади. И если вы думаете, что сможете потом сказать «я ничего такого не писал», судья может поднять переписку и предъявить буквально ваши слова.

ChatGPT, скриншот: YouTube
ChatGPT, скриншот: YouTube

Но ведь это просто бот, а не человек?

Вот в этом-то и фишка. ChatGPT умеет сочувствовать, понимать, шутить, поддерживать — и вы в какой-то момент забываете, что по ту сторону холодный алгоритм, а не тёплый человек. Воспринимаете его как собеседника, которому можно довериться. А он — не обязан вас защищать.

Альтман признаёт, что эта ситуация ненормальная. Он говорит, что в будущем неплохо было бы создать юридический статус для общения с ИИ, особенно в тех случаях, когда люди используют его как терапевта. Но пока такого закона нет — нет и защиты.

Почему это важно прямо сейчас?

Потому что всё чаще люди используют искусственный интеллект не просто для генерации текстов, а как доверенное лицо. Рассказывают о разводах, делах с детьми, планах на бизнес, проблемах с законом. И если завтра ваш оппонент в суде узнает, что вы что-то обсуждали с ботом — может запросить эти данные как доказательство.

Это не паранойя. Это новая реальность.

Рабочее место, стол, компьютер, фото из соцсетей
Рабочее место, стол, компьютер, фото из соцсетей

И что теперь?

Теперь — фильтровать. Не доверять ИИ того, что вы не рассказали бы под протокол. Не просить его анализировать ситуацию, если на кону стоит что-то серьёзное: деньги, семья, свобода. И помнить: всё, что попадает в интернет — может стать достоянием суда, даже если это был просто чат с умным ассистентом.

Напомним, что искусственный интеллект или искусственное безумие: как ChatGPT довел мужчину до психбольницы... трижды.

Ранее мы сообщали, что Microsoft представили медицинский ИИ – более точный и дешевле врачей.