Глава OpenAI рассказал, почему ChatGPT может представлять угрозу для личных данных

Лицо ChatGPT и глава OpenAI Сэм Альтман неожиданно высказался против использования облачных ИИ-чатботов, включая собственную разработку. В одном подкасте Альтман прямо заявил, что гораздо безопаснее запускать ИИ-модель прямо на своем компьютере.
Об этом сообщает РБК-Украина со ссылкой на технологический сайт PCWorld.
Причина - конфиденциальность"Люди рассказывают ChatGPT самые личные вещи. Молодежь использует его как психотерапевта, коуча, советника по отношениям. А ведь если бы вы говорили об этом с врачом, адвокатом или психологом, это бы подпадало под юридическую тайну. Но с ChatGPT - нет", заявил Альтман.
Да, OpenAI заявляет, что не делится вашими данными с третьими лицами. Но юридических гарантий на анонимность нет . И если суд обяжет компанию предоставить переписку, она, скорее всего, это сделает.
"Если вы обсуждаете с ботом что-то чувствительное, а потом возникает судебное дело, нас могут обязать предоставить эти данные", - подтвердил Альтман.
Он подчеркнул, что пока не существует правовой базы, которая защищала бы разговоры с ИИ - как это делают законы для врачей, юристов и психотерапевтов.
Именно поэтому все больше пользователей обращаются к локальным LLM-моделям (Large Language Models), которые работают прямо на ПК - без подключения к облаку. Например, GPT4All и другие . Такие модели можно запускать с графическим или нейронным процессором, и они не отправляют ваши данные на сервер.
Локальные чаты можно не сохранять вовсе, а при необходимости - сразу удалить . Это особенно важно, если вы не хотите, чтобы ваши разговоры всплыли в неприятный момент.
Однако стоит помнить: если ваш компьютер изымают по решению суда, удаление компрометирующих данных может быть расценено как попытка скрыть улики. Это уже уголовная ответственность.
Запуск локального ИИ-ассистента - абсолютно легален. Но если вы действительно ищете эмоциональную поддержку или пытаетесь разобраться в себе, лучше обратиться к живому, квалифицированному специалисту.
Вас может заинтересовать:
- ИИ-модели начали передавать друг другу искажающие данные
- Чем опасен доступ ИИ к вашим личным данным
- Исследование выявило неожиданные риски использования ИИ в качестве психолога
Последние новости
