Осторожно, вас слушает робот: как откровения с ChatGPT могут обернуться против вас в суде

Пока миллионы людей доверяют ChatGPT свои мысли, чувства и даже тайны, глава OpenAI Сэм Альтман признаёт: никакой юридической конфиденциальности у этих разговоров нет.
И если понадобится — ваши слова можно будет использовать в суде.
Вы когда-нибудь писали ChatGPT что-то личное? Признавались в чувствах, описывали сложную семейную ситуацию, просили совета — почти как у психолога? Тогда вот вам новость из разряда "лучше бы я этого не знал".
Генеральный директор OpenAI Сэм Альтман заявил в свежем интервью, что разговоры пользователей с ChatGPT не подпадают под действие профессиональной тайны, как это происходит у юристов, врачей или психотерапевтов. То есть то, что вы пишете боту, — это не «между нами», а вполне себе доступная информация, которую по требованию могут запросить... в суде.
"Это очень паршиво, если честно. Но пока мы не придумали, как это юридически решать", — признался Альтман в интервью подкасту This Past Weekend.
Искусственный интеллект — не ваш адвокат и не исповедник
Если коротко: всё, что вы отправляете в чат — может быть сохранено. Даже если кажется, что история удалена, эти данные могут остаться на серверах. Особенно в тех случаях, когда начинается разбирательство: например, OpenAI сейчас участвует в суде против The New York Times, и суд требует сохранить чаты миллионов пользователей.
Сессия с ChatGPT — это не приватная комната, а скорее стеклянный бокс в центре площади. И если вы думаете, что сможете потом сказать «я ничего такого не писал», судья может поднять переписку и предъявить буквально ваши слова.
Но ведь это просто бот, а не человек?
Вот в этом-то и фишка. ChatGPT умеет сочувствовать, понимать, шутить, поддерживать — и вы в какой-то момент забываете, что по ту сторону холодный алгоритм, а не тёплый человек. Воспринимаете его как собеседника, которому можно довериться. А он — не обязан вас защищать.
Альтман признаёт, что эта ситуация ненормальная. Он говорит, что в будущем неплохо было бы создать юридический статус для общения с ИИ, особенно в тех случаях, когда люди используют его как терапевта. Но пока такого закона нет — нет и защиты.
Почему это важно прямо сейчас?
Потому что всё чаще люди используют искусственный интеллект не просто для генерации текстов, а как доверенное лицо. Рассказывают о разводах, делах с детьми, планах на бизнес, проблемах с законом. И если завтра ваш оппонент в суде узнает, что вы что-то обсуждали с ботом — может запросить эти данные как доказательство.
Это не паранойя. Это новая реальность.
И что теперь?
Теперь — фильтровать. Не доверять ИИ того, что вы не рассказали бы под протокол. Не просить его анализировать ситуацию, если на кону стоит что-то серьёзное: деньги, семья, свобода. И помнить: всё, что попадает в интернет — может стать достоянием суда, даже если это был просто чат с умным ассистентом.
Напомним, что искусственный интеллект или искусственное безумие: как ChatGPT довел мужчину до психбольницы... трижды.
Ранее мы сообщали, что Microsoft представили медицинский ИИ – более точный и дешевле врачей.
Последние новости
