Израильские ученые обучают ИИ-модели безопасному «забыванию» конфиденциальных данных

Исследователи из Тель-Авивского университета вместе с коллегами из США пришли к выводу, что текущие методы удаления информации из ИИ-моделей могут привести к утечкам оставшихся конфиденциальных данных. Необходимость заставить обученные ИИ-модели «забывать» определенные сведения, в соответствии с законами о защите данных, такими как европейский закон о «праве на забвение», скрывает в себе определенные риски.

Традиционно считается, что идеальным решением будет результат, равный полному переобучению системы с нуля, исключая удаляемые данные. Однако ученые доказали, что стремление к такой точности создает уязвимости. Злоумышленник может вводить свои данные в модель, а затем запрашивать их удаление. Контролируя лишь незначительную часть данных, он может извлечь конфиденциальную информацию, анализируя изменения в ответах модели. Это особенно актуально для моделей, которые обучаются в реальном времени на пользовательских данных.

Исследования показали, что когда модель изменяет свои параметры после удаления данных, различия между состояниями «до» и «после» могут раскрыть избыточную информацию о оставшихся данных. Существующие меры безопасности часто упускают из виду этот риск, сосредотачиваясь исключительно на полном удалении, а не на защите оставшейся информации. Это делает современные методы «машинного забывания» уязвимыми для атак.

Чтобы улучшить ситуацию, авторы исследования предложили новый стандарт безопасности, который смещает акцент с имитации «идеального переобучения» на активную защиту данных, которые не подлежат удалению. Этот подход позволяет сохранить функциональность ИИ-моделей без угрозы раскрытия защищенной информации. Новый метод демонстрирует, что процесс удаления данных — это не простой технический процесс, а сложное взаимодействие между приватностью и функциональностью.