|
Рубрика:
Наука и технологии /
Раздел для научных публикаций
|
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|
Кондратьева А.А., студент, Морской Государственный университет имени адмирала Г.И. Невельского, г. Владивосток, Kondratyeva2025@tcnet.msun
Защита данных в системах искусственного интеллекта: методологические подходы и практические решения
Цифровая трансформация организаций требует внедрения систем искусственного интеллекта, что одновременно создает новые вызовы в области защиты информации. Настоящая работа систематизирует подходы к защите данных в ИИ-системах, анализируя типологию утечек, технические методологии (дифференциальная приватность, федеративное обучение, гомоморфное шифрование, Zero Trust). Особое внимание уделено российскому регулированию (152-ФЗ, предписания ФСТЭК) и методологии MLSecOps как инструменту обеспечения безопасности на протяжении всего жизненного цикла ИИ-проектов. Предложены комплексные подходы, балансирующие между защитой и функциональностью систем.
Введение
Процесс цифровой трансформации организаций неразрывно связан с внедрением систем искусственного интеллекта и машинного обучения. По мере того, как ИИ превращается из инновационного тренда в критическую бизнес-необходимость, возникают принципиально новые вызовы в области защиты информации [10]. Ежедневно организации передают огромные объемы данных в системы ИИ для решения разнообразных задач – от персонализации обслуживания клиентов до прогнозирования финансовых показателей, создавая при этом новые уязвимости, для которых традиционные механизмы безопасности оказываются недостаточными [17].
Традиционные подходы к защите информационных активов не могут полностью учесть особенности систем ИИ, где данные не просто хранятся и передаются, но обрабатываются алгоритмами, способными извлекать скрытые закономерности и воссоздавать исходные данные из промежуточных результатов обработки [10]. Известны примеры успешных инверсионных атак, когда исследователи восстановили изображения лиц из параметров моделей классификации, имея доступ только к самой модели и именам субъектов данных [10]. В апреле 2023 года сотрудники Samsung непреднамеренно раскрыли конфиденциальный исходный код, загрузив его в ChatGPT, демонстрируя, что угрозы исходят не только из внешних кибератак, но и из внутренних процессов при работе с ИИ-системами [10].
<...>
Ключевые слова: защита данных, искусственный интеллект, персональные данные, федеративное обучение, Zero Trust, MLSecOps
Полную версию статьи читайте в журнале Подпишитесь на журнал
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|