Как утечки данных пользователей ChatGPT подставляют пользователей

Моя цель - предложение широкого ассортимента товаров и услуг на постоянно высоком качестве обслуживания по самым выгодным ценам.

В конце мая вскрылась масштабная утечка данных пользователей ChatGPT, которые потенциально могут скомпрометировать конфиденциальную и чувствительную информацию, которую пользователи доверяют этому продвинутому чат-боту. На биржах украденных данных в даркнете появились логи, содержащие более 100 000 учетных записей ChatGPT. Как сообщает The Hacker News и сингапурская компания Group-IB, занимающаяся кибербезопасностью, в публичный доступ попали учётные данные пользователей, заходивших в ChatGPT с момента его запуска в июне 2022 года по май 2023 года, когда появилась информация об утечке — а это значит, что она вполне может продолжаться. Наибольшее количество локаций утекших учеток — США, Франция, Марокко, Индонезия, Пакистан и Бразилия.

«Количество доступных журналов, содержащих скомпрометированные учетные записи ChatGPT, достигло пика в 26 802 в мае 2023 года», — Group-IB. «За последний год в Азиатско-Тихоокеанском регионе наблюдалась самая высокая концентрация учетных данных ChatGPT, выставленных на продажу».

Следует понимать, что речь идёт о логах с учетными записями ChatGPT, а не их владельцах или самом ChatGPT. Учитывая стремительный рост чат-ботов и интерес к ИИ в целом, начавшийся в конце прошлого года, само собой разумеется, что более свежие логи будут содержать больше учетных записей ChatGPT, чем те, которые предлагались несколько месяцев назад. По словам OpenAI, материнской организации ChatGPT, пока компания исследует проблему, в ChatGPT продолжают действовать отраслевые стандарты безопасности.

«Отчёт Group-IB Threat Intelligence указывает на последствия массового вредоносного ПО на устройствах людей, а не взлом OpenAI, — сообщил представитель OpenAI изданию Tom’s Hardware. — В настоящее время мы расследуем раскрытые учетные записи. OpenAI применяет передовые отраслевые методы аутентификации и авторизации пользователей в своих сервисах, включая ChatGPT, и мы рекомендуем нашим пользователям использовать надежные пароли и устанавливать на персональные компьютеры только проверенное и надежное программное обеспечение».

Упомянутые выше 26 802 доступных журнала означают, что утекшие данные уже активно торгуются на чёрном рынке интернета: «Логи со скомпрометированными данными активно торгуются на торговых площадках даркнета», — говорится в сообщении Group-IB. «Дополнительная информация о логах, доступных на таких рынках, включает списки доменов, найденных в журнале, а также информацию об IP-адресе скомпрометированного хоста».

Большинство сброшенных учетных данных были обнаружены в логах, связанных с несколькими семействами вредоносных программ для кражи информации. Популярный malware Raccoon Infostealer (aka Racealer) был использован для взлома ровно 78 348 учетных записей. (Точные цифры легко установить, когда вы знаете, что искать для каждого типа вредоносного ПО.)

Raccoon Infostealer представляет собой идеальный пример того, как даркнет является параллельным миром — эдаким зазеркальем обычного интернета: пользователи могут приобрести доступ к Raccoon по модели подписки; не требуется кодирования или особых навыков. Простота его развертывания является одной из причин роста числа преступлений, связанных с киберпреступностью. Raccoon, как и другие подобные программы, идёт в комплекте с различными дополнительными возможностями. Эти похитители информации на основе подписки не просто крадут учетные данные; они также позволяют злоумышленникам автоматизировать последующие атаки.

Разумеется, для кражи учетных данных пользователей использовались и другие blackhat-инструменты: на втором месте после Raccoon был Vidar, который использовался для доступа к 12 984 учетным записям, а третье место заняли 6 773 учетных данных, захваченных с помощью вредоносного ПО RedLine.

То, что эти учетные данные дают доступ к учетным записям ChatGPT, должно заставить задуматься любого, кто им пользуется. 

Утечки данных — одна из множества описанных к данному моменту угроз безопасности пользователей и адекватности информации в интернете, возникших вместе с новыми продвинутыми моделями ИИ:

  1. Взлом и «угон» ИИ-чат-ботов с получением доступа к их базовому коду и данным позволит использовать их для создания вредоносных чат-ботов, которые могут выдавать себя за обычные.

  2. Содействие цифровым атакам. Чат-боты с искусственным интеллектом могут использоваться для помощи в мошеннических и фишинговых атаках путем создания убедительных сообщений, которые обманом заставляют пользователей раскрывать конфиденциальную информацию или выполнять действия, которые они не должны делать. Например, всё, что нужно для атаки, называемой скрытой prompt-инъекцией — это скрыть запрос (prompt) для бота на веб-странице нулевым или невидимым на белом фоне белым шрифтом. Сделав это, злоумышленник может приказать ИИ делать то, что ему нужно — например, выведать данные банковской карты пользователя.

  3. Цифровой помощник преступников. Новейшие возможности нейросетей уже берутся на вооружение мошенниками всех сортов, размывая границу между цифровыми и оффлайновыми преступлениями. В апреле уже прогремел случай, когда вымогатели потребовали у женщины выкуп в миллион долларов за возврат якобы похищенного ребёнка, используя дипфейк голоса её дочери. Правдоподобные дипфейки аудио, видео, созданные нейросетями реалистичные картинки и тексты в совокупности создают мощный инструмент для обмана и принуждения людей. 

  4. Отравление данных. Чат-боты с искусственным интеллектом можно обучать на зараженных наборах данных, содержащих вредоносный контент, которые затем можно использовать для создания вредоносных материалов — например, фишинговых писем.

  5. ИИ-галлюцинации. Этот термин используется для описания вымышленных ответов чатботов. С этим феноменом столкнулись уже очень многие пользователи, но объяснения ему до сих пор нет. ChatGPT отличается тем, что выдумывает несуществующие книги, цитаты, исследования и людей, причём снабжает их подробными оглавлениями, списками источников, насыщает биографии вымышленных людей событиями — и тараторит это с такой убедительностью, словно он пересказывает статью из «Википедии», но всё это — полностью, с нуля сфабрикованное на ходу. И хотя здесь нет (скорее всего,) чьего-то злого умысла — по крайней мере, пока — трудно даже представить, к какому засорению интернета продуктами ИИ-галлюцинаций это приведёт. Но не приходится сомневаться, что это произойдёт: цитаты в интернете были проблемой и до ИИ.  

  6. Утечки данных, компрометирующих информацию, доверенную чатботам. Речь не просто о доступе к вашей личной информации. «Сотрудники дают боту секретную информацию или используют бота для оптимизации проприетарного кода. Учитывая, что стандартная конфигурация ChatGPT сохраняет все разговоры, это может выдать злоумышленникам, получившим учетные данные, ценную информацию». Поскольку большинство пользователей хранят свои чаты в приложении OpenAI, утекшие учетки дают к ним доступ — а, значит, ко всем, что в этих чатах происходило и происходит: бизнес-планирование, разработка приложений (включая разработку вредоносных программ, кстати) и всему, что было написано в этих чатах. В учетной записи ChatGPT можно найти как личный, так и профессиональный контент, от коммерческих секретов компании, которых там быть не должно, до личных дневников — возможно, даже секретные документы.

В общем, это довольно серьёзная информационная утечка. Так что помните: все пароли имеют значение. Но, возможно, безопасность вашей вкладки с ChatGPT (как дома, так и на работе) даже важнее, чем остальные. 

  • Следите, какие плагины к ChatGPT вы устанавливаете.

  • Выбирайте способы анонимного использования ChatGPT. Сейчас уже есть много вариантов доступа к нему: довольно популярны Телеграм-боты, но они, в свою очередь, получают базу пользователей Телеграма. Пользоваться ChatGPT без идентифицирующих следов можно в анонимном мессенджере Utopia, для которого не нужны телефон или почта, и в котором под названием Utopia AI встроен именно ChatGPT.

  • Используйте надежные пароли.

  • активируйте двухфакторную аутентификацию (2FA).

  • помните о передовых стандартах кибербезопасности, которые снизят вероятность того, что вас успешно атакуют.

Источник: https://habr.com/ru/articles/746702/


Интересные статьи

Интересные статьи

Как работать с медленно меняющимися измерениями при использовании облачного хранилища данных?В этом вопросе скрывается довольно много ответов, поэтому давайте сделаем паузу.
Ладно, не заливай! Ни разу не был на берегах Data Lake?! Пойми, в IT только и говорят, что о Data Lake! Как оно бесконечно прекрасно. О бигдате и графах, которые они видели. О том, как дата-сайентист,...
В FunBox мы делаем продукты для мобильных операторов: различные порталы, геосервисы, платежи, мобильную рекламу и многое другое.  Один из наших проектов построен на микросервисной архит...
Привет, я Андрей Сергеев, руководитель группы разработки IoT-решений в Mail.ru Cloud Solutions. Известно, что универсальной базы данных не существует. Особенно когда нужно построить платформу и...
Привет, читатель. По стопам моего первого поста подборки датасетов для машинного обучения — сделаю подборку относительно свежих датасетов с рабочими примерами по обработке данных. Ведь ни для ...