Поддержать команду Зеркала
Беларусы на войне
  1. Для медиков и желающих выехать на работу за границу могут ввести изменения. Что за они
  2. Россия задействует для шпионажа против стран НАТО технологии, разработанные в ходе войны, — СМИ рассказали об инциденте в Германии
  3. Где работает самая медийная доносчица Беларуси? Узнали о местах работы Ольги Бондаревой
  4. Вот почему важны независимые СМИ. У детской школы искусств в Хойниках упал дрон — как местная газета объяснила, почему не пишет об этом
  5. «Мы должны сначала принять закон». Для родителей хотят ввести новую обязанность, но как это будет работать, чиновники не могут пояснить
  6. Доллар станет еще дешевле в феврале? Прогноз по валютам
  7. Беларусов с двойным гражданством перестали пропускать в страну по иностранным документам
  8. Власти любят говорить, что санкции нипочем и делают сильнее. Но реальность иная, если посмотреть полученный «Киберпартизанами» документ
  9. Для некоторых беларусов снижают пенсионный возраст
  10. «К сожалению, я любила этого человека». Тимановская попросила силовиков, чтобы они задержали ее бывшего мужа — узнали, зачем ей это
  11. Правительство Беларуси приняло решение, которое может удивить жителей страны, где есть АЭС
  12. «С моей стороны это был тактический шаг». Полина Шарендо-Панасюк рассказала, что подписала соглашение о сотрудничестве с силовиками
  13. Гомельчанин задолжал мобильному оператору одну копейку 14 лет назад. Вы удивитесь, какая пеня ему за это «набежала»
  14. СМИ: США приостанавливают разработку мирного плана по Украине


Эксперт по кибербезопасности обнаружил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложные данные в память искусственного интеллекта (ИИ) через вредоносные запросы, что может угрожать безопасности персональных данных, пишет «Хайтек».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Исследователь в области кибербезопасности Иоганн Рейбергер выявил уязвимость в ChatGPT, которая позволяет злоумышленникам внедрять ложную информацию в память чат-бота с помощью вредоносных запросов. Эта проблема может угрожать конфиденциальности данных пользователей.

ChatGPT использует долговременную память для хранения информации о пользователе, включая возраст, пол и личные предпочтения. Это упрощает общение, так как чат-бот помнит важные данные из предыдущих разговоров. Однако Рейбергер выяснил, что злоумышленники могут использовать специальные запросы, чтобы подменить эти данные на ложные.

Исследователь продемонстрировал, как через непрямые инъекции — например, с помощью документов или ссылок — можно заставить ИИ поверить, что пользователь живет в «Матрице» или считает Землю плоской. Все последующие диалоги будут основаны на этих фальшивых данных. Особенно опасным стало использование внешних файловых хранилищ, таких как Google Диск или OneDrive.

В мае Рейбергер сообщил об этой проблеме в OpenAI, но его обращение закрыли, не придав ей большого значения. Позже, предоставив модель взлома, он показал, как вредоносные ссылки позволяют хакеру получить доступ ко всей переписке пользователя, включая новые сеансы общения.

OpenAI частично устранила уязвимость, но исследователь считает, что риск инъекций через вредоносные запросы все еще существует. Пользователям рекомендуется следить за временем добавления новой информации в память ИИ и проверять ее на предмет ложных данных.

OpenAI также выпустила инструкцию по управлению функцией памяти, чтобы помочь пользователям защитить свои данные.