Эксперт объяснил, как защитить запросы к ИИ от утечки данных
Россиянам, которые активно работают с нейросетями, стоит задуматься о защите своих запросов – хакеры могут получить доступ ко всей введенной информации. Об этом в интервью RT предупредил старший преподаватель РТУ МИРЭА Андрей Рыбников. По его словам, ИИ-системы уязвимы для атак. При определенных условиях злоумышленники способны получить данные, которые пользователь вводил ранее.
Больше всего риску подвержены те ИИ-модели, которые обучаются на открытых данных или продолжают учиться на пользовательских запросах, отметил Рыбников. При этом он напомнил, что в России действует закон о персональных данных, который не позволяет передавать личную информацию третьим лицам без согласия.
«Это означает, что при использовании ИИ-сервисов, особенно зарубежных, пользователь должен понимать, где и как обрабатываются его запросы. Даже если сервис утверждает, что не сохраняет данные, отсутствие прозрачной политики хранения и обработки информации может привести к нарушению закона», – подчеркнул эксперт.
Самым безопасным вариантом работы с ИИ, по словам Рыбникова, являются локальные модели, которые работают самостоятельно и не отправляют данные в облако.
Также можно использовать корпоративные версии ИИ – они обычно защищают данные и не учатся на запросах пользователей. Если такой функции нет, то нужно самому удалять из запросов личные данные: имена, контакты, номера документов и другое. Эксперт посоветовал не загружать в ИИ важные документы и избегать подозрительных шаблонов.
Даже если ИИ не подключен к интернету, он все равно сохраняет историю запросов. Поэтому важно регулярно чистить кеш и использовать шифрование файлов – это можно сделать с помощью встроенных функций Windows, macOS или Linux.
«Также рекомендуется ограничить доступ к ИИ-программам с помощью настроек прав пользователей», – заключил Рыбников.