ChatGPT раскрывает пароли из частных разговоров своих пользователей

Моя цель - предложение широкого ассортимента товаров и услуг на постоянно высоком качестве обслуживания по самым выгодным ценам.

Читатель ArsTechnica Чейз Уайтсайд заметил, что ChatGPT раскрывает данные из частных бесед, которые включают учётные данные для входа и другую информацию.

arstechnica.com
arstechnica.com

Два из семи скриншотов, представленных пользователем, содержали несколько пар имён пользователей и паролей, которые заказывали рецептурные лекарства с аптечного портала. Его сотрудник, использующий чат-бота, похоже, устранял проблемы, возникшие при использовании портала. в утечке фигурирует название приложения, в котором сотрудник устраняет неполадки, и номер магазина, при работе которого возникла проблема. Один из скриншотов демонстрирует весь разговор в чате. 

Читатель получил эти данные, когда использовал ChatGPT для запроса совсем из другой области. Он попросил чат-бота придумать умные названия для цветов в палитре. После этого пользователь заметил в истории своих запросов элементы нескольких чужих диалогов.

arstechnica.com
arstechnica.com

Они включали название презентации, над которой кто-то работал, подробности неопубликованного исследовательского предложения и сценарий, использующий язык программирования PHP.

arstechnica.com
arstechnica.com

В одном из разговоров о портале рецептов упоминался 2020 год. В других беседах даты не фигурировали.

arstechnica.com
arstechnica.com

В марте прошлого года OpenAI уже отключала чат-бота после того, как из-за ошибки он показывал заголовки из истории чата одних пользователей другим. В апреле компания разрешила пользователям отключать историю чатов в настройках доступа.

В июне на OpenAI подали иск из‑за предполагаемой кражи личных данных пользователей. Авторы заявления заявили, что компания нарушила законодательство о персональных данных и незаконно собрала информацию в интернете, в том числе персональные данные людей, не дававших согласие на обработку.

В ноябре исследователи опубликовали документ, в котором сообщалось, как они использовали запросы, чтобы побудить ChatGPT раскрыть адреса электронной почты, номера телефонов и факсов, физические адреса и другие личные данные, которые были включены в материалы, используемые для обучения большой языковой модели.

Многие компании, включая Apple, ограничили использование ChatGPT и других чат-ботов своими сотрудниками.

Этот эпизод и другие подобные ему подчёркивают важность удаления личных данных из запросов, сделанных в ChatGPT и других службах искусственного интеллекта. 

Представитель OpenAI сообщил, что компания расследует отчёт.

Источник: https://habr.com/ru/news/790022/


Интересные статьи

Интересные статьи

Stability AI, создатель модели преобразования текста в изображение Stable Diffusion, теперь предлагает услугу подписки, которая стандартизирует способы использования её ИИ в коммерческих целях.
МТС теперь имеют возможность таргетинга рекламы в Telegram Ads с помощью номеров телефонов клиентов МТС (Но у них нет партнерства c Telegram). Это значит что МТС сможет настраивать свою рекламу в Tel...
Всем привет! Я продуктовый аналитик компании Интерсвязь, и у меня, как и у многих, часто всплывает потребность в том чтобы «разложить по полочкам» кучу разных текстов. Например:1. Я хочу знать, о чем ...
Некоторое время назад я опубликовал статью в которой я показывал легкость программирования с помощью ChatGPT. Для получения кода достаточно всего лишь сформулировать запрос на человеческом языке, то е...
Сегодня Интернет-трафик совсем другой, нежели десятилетие назад. Более миллиона человек становятся новыми пользователями сети ежедневно, а общее количество уже насчитывает миллиарды человек. Кто ...