Рубрика:
Безопасность /
Опрос
|
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|
Защита личных и клиентских данных: как мошенники используют ИИ и как защититься?
По данным RED Security, общее число кибератак на российские компании в 2024 году выросло в 2,5 раза по сравнению с 2023 годом – до 130 тыс.
> Как мошенники используют ИИ, чтобы красть данные компаний и клиентов в 2025 году? > Что делать, что не допустить взлома облачных/цифровых носителей от злоумышленников? > Назовите случаи, когда компании уже теряли данные клиентов на мошенничестве с использованием ИИ.
Эксперты ИТ-отрасли отвечают на вопросы «Системного администратора»
Александр Красуля, эксперт факультета NFT в Crypto Academy SoulTeam
«Для защиты от ИИ можно использовать тот же ИИ. Он лучше, проще и быстрее, чем человек, анализирует сообщения и помечает потенциальные угрозы»
Мошенники все чаще применяют ИИ для своих целей. Но есть и хорошая новость: защищаться от их атак можно тоже с помощью искусственного интеллекта. Рассказываю подробно.
Сейчас в ходу у мошенников так называемый “фишинг нового поколения», и для него как раз используется искусственный интеллект. Злоумышленники создают сообщения якобы от коллег, друзей или родных – и они выглядят как настоящие. ИИ может делать сообщения очень убедительными: он адаптируется не только к отправителю, но и к получателю, и поэтому бывает очень сложно отличить настоящее сообщение от подделки.
Еще одна распространенная технология – голосовой дипфейк для звонка. Например, в 2023 году мошенники использовали ИИ-подделку голоса для звонка финансовому директору компании и убедили его перевести крупную сумму на их счет. На эту уловку попадаются и простые люди, и профессионалы. Всего за год мошенники с помощью голосовых дипфейков украли более 35 миллионов долларов: в основном они создавали имитации звонков от банка.
Также искусственный интеллект применяется для атак с использованием чат-ботов: мошенники собирают скомпрометированные данные пользователей, создают чат-ботов, маскируя их под техподдержку или сервис для клиентов. В них имитируются реальные диалоги, и люди ведутся на обман. Был случай, когда с помощью чат-бота хакер взломал базу данных и украл информацию о банковских картах пользователей.
Хакеры атакуют и облачные хранилища: с помощью искусственного интеллекта анализируется уязвимости, создаются алгоритмы для взлома, подбираются пароли, разрабатываются сложные атаки – подмена доступов, токенов, паролей, различные брутфорсы. Как раз из-за подделки токенов в 2025 году одна крупная компания пострадала от рук мошенников: они получили доступ к облаку, заменили токены – и украли данные.
Также искусственный интеллект используется для поиска уязвимости в коде приложений или систем компании. Для этого мошеннику даже не нужно быть программистом: достаточно составить запрос к ИИ, и он предоставит базу, поможет написать вирус или эксплойт для подбора пароля или нахождения уязвимости в программе.
В 2023 году от рук хакеров, применивших ИИ, пострадала крупная финтех-компания: злоумышленники смогли найти уязвимость в ее системах и выкрали данные пользователей.
Еще один недавний пример: в 2024 году была обнаружена уязвимость Microsoft Exchange, и хакеры получили доступ к данным тысяч пользователей. В прошлом же году крупная медицинская компания потеряла данные пациентов – все потому, что искусственный интеллект нашел уязвимость в системе управления доступом.
Как защититься от атак? Для защиты от ИИ можно использовать тот же ИИ. Он лучше, проще и быстрее, чем человек, анализирует сообщения и помечает потенциальные угрозы. Поэтому на основе ИИ можно создавать системы для обнаружения аномалий, подозрительных транзакций и так далее.
Человеческий фактор – это главная уязвимость. Поэтому нужно проводить тренинги с сотрудниками, чтобы они умели распознавать фишинговые письма, подозрительные запросы, дипфейки.
Важно усилить безопасность облачных хранилищ, ввести двухфакторную идентификацию для входа. Также можно внедрить, например, какие-нибудь автоматизированные системы мониторинга активности – то есть проверять, соответствует ли активность тому пользователю, который занимает определенную должность или находится на рабочем месте.
Еще обязательно нужно регулярно обновлять и тестировать безопасность своей системы, модернизировать защиту.
Также нельзя забывать про шифрование данных и шифровать любую передаваемую информацию. И хорошо бы, конечно, ввести ограничения доступа для персонала: если сотрудник использует определенный ресурс, то у него должно быть ровно столько прав, чтобы он мог выполнять свою работу. Не нужно давать ему больше прав и объема работы, чем предписано его должностью.
Если данные все-таки были украдены, в первую очередь необходимо оповестить об этом всех клиентов и сотрудников, кого это коснулось, и параллельно как можно быстрее устранить уязвимость и изолировать взломанную систему. Следует передать информацию о взломе правоохранителям для начала расследования: возможно, удастся найти мошенника.
Затем нужно провести анализ инцидента, чтобы понять, как произошел взлом, и разработать меры, чтобы в будущем он не повторился.
Наталья Лылова, научный сотрудник центра кибербезопасности ИТ-кампуса НЕЙМАРК
«Три четверти всех APT-группировок используют таргетированные фишинговые письма для начала атак на компанию»
В 2025 году сохранится тенденция взлома и кражи данных через социальную инженерию с использованием ИИ, позволяющего выстроить целую цепочку атак на компанию и ее сотрудников. Так, в 2024 году 80% кибератак начинались с фишинговых рассылок.
По данным RED Security, общее число кибератак на российские компании в 2024 году выросло в 2,5 раза по сравнению с 2023 годом – до 130 тыс. Также наблюдался рост всех основных киберугроз для российского бизнеса: по данным F6 (F.A.С.С.T)., на андеграундных форумах и в тематических Telegram-каналах – 259 новых баз данных российских компаний, что на 5% больше, чем 2023 году, количество атак шифровальщиков возросло на 44%, число прогосударственных APT-групп, атакующих цели в России, выросло вдвое, и составило 27 прогосударственных групп.
Три четверти всех APT-группировок используют таргетированные фишинговые письма для начала атак на компанию, а 30% – атаки типа watering hole с использованием вредоносного ПО.
Инструменты на базе ИИ позволяют автоматизировать, упростить и ускорить процесс сбора и анализа данных о пользователях, составить подробный портрет с учетом их слабостей и интересов, и на основе полученной информации сгенерировать реалистичный контент для проведения фишинговой атаки, путем рассылки писем и сообщений, вишинга или встраиваемой полезной нагрузки в приложение к письму.
В случае watering hole, ИИ упрощает сбор информации о посещаемых сайтах сотрудниками целевой компании, поиск их уязвимостей для интеграции вредоносного кода, загружающего вредоносное ПО.
В начале 2024 года OpenAI сообщила о том, что три APT-группировки использовали ее продукты для сбора информации и генерации контента для проведения фишинговых атак. С января по октябрь 2024 год OpenAI было пресечено более 20 попыток использования ИИ для разработки и отладки вредоносного ПО.
Кроме того, мошенники активно используют ИИ для взломов систем компании: поиск и эксплуатация уязвимостей, эксплойтов нулевого дня, модификация вредоносного ПО, которое позволяет обойти системы безопасности и скрыть мошенническую активность, автоматизация технологии Lateral movement во взломанных сетях.
Для защиты от фишинга компаниям необходимо регулярно проводить обучение сотрудников, на которых они будут узнавать о новых схемах мошенников и учиться выявлять подозрительные сообщения.
Кроме того, многие службы безопасности проводят тестирование сотрудников на знание и выявление фишинговых писем, рассылая им свои. Это позволяет вести внутренний список потенциальных жертв компании.
Для защиты систем компаний – необходимо регулярно проводить аудит систем безопасности, поиск уязвимостей, доработку эксплойтов с учетом обновленных баз уязвимостей.
Евгений Осьминин, директор по развитию и цифровой трансформации РДТЕХ
«Человечество способен погубить не искусственный интеллект, а излишнее доверие к нему и деградация естественного человеческого интеллекта»
Безусловно, ИИ расширяет возможности мошенников. Но он также увеличивает и возможности противодействия им. В принципе, подобные противостояния были на протяжении всей истории развития ИТ-отрасли. Но сейчас, в силах конечных пользователей, существенно помочь кибербезопасникам. Что для этого требуется?
Во-первых, не забывать про организационные аспекты информационной безопасности, ИБ-гигиене, защите персональных данных. Руководству компаний – повышать осведомленность сотрудников о рисках и методах защиты, распознаванию фишинга, безопасному использованию паролей, защите личных данных и т.д. Важным аспектом также является актуализация политик и формирование культуры безопасности в организации, исходя из новых реалий.
Во-вторых, учитывать, что человеческий – один из ключевых факторов риска, который с появлением ИИ, необходимо рассматривать как более значимый. Здесь важно выработать правильный взгляд и критичное отношение к ИИ-технологиям.
Важно понимать, что ИИ – это инструмент, который может быть использован как во благо, так и во вред. Пользователи должны быть осведомлены о возможных манипуляциях и злоупотреблениях, связанных с ИИ. Человечество способен погубить не искусственный интеллект, а излишнее доверие к нему и деградация естественного человеческого интеллекта.
Роман Сидельников, эксперт по кибербезопасности Angara Security
«В феврале 2024 года мошенники из Гонконга использовали технологию дипфейка для создания поддельного видеозвонка, имитируя голос и внешность финансового директора крупной компании»
Злоумышленники все чаще используют искусственный интеллект для проведения продвинутых атак, например, для создания очень убедительных поддельных голосов, видео или текстовых сообщений. Так, они пытаются выдавать себя за руководителей компаний или доверенных партнеров. ИИ часто используют для автоматизации фишинговых кампаний, отслеживая поведение целевой аудитории и создавая персонализированные сообщения, которые практически неотличимы от настоящих.
Помимо этого, злоумышленники уже используют инструменты на основе ИИ для поиска слабых мест и уязвимостей в системах, чтобы воспользоваться ими для несанкционированного доступа.
Как защититься? Для защиты облачных вычислений и цифровых носителей компаниям необходимо реализовать многоуровневый подход к обеспечению безопасности. Это может быть внедрение многофакторной аутентификации (MFA), шифрование данных при передаче и в состоянии покоя, а также регулярное резервное копирование в защищенной среде.
Можно использовать проактивные меры, такие как проведение регулярных аудитов безопасности, внедрение программного обеспечения для обнаружения аномалий на основе искусственного интеллекта и обучение сотрудников методам обнаружения и реагирования на фишинговые атаки.
В опубликованном отчете компании GEN о киберугрозах за второй квартал 2024 года отмечается рост числа атак, основанных на использовании искусственного интеллекта.
Например, в феврале 2024 года мошенники из Гонконга использовали технологию дипфейка для создания поддельного видеозвонка, имитируя голос и внешность финансового директора крупной компании. В ходе общения злоумышленники убедили сотрудника перевести 25 млн долларов, обосновав это как срочную финансовую транзакцию. Данная атака была хорошо спланирована: мошенники использовали ранее полученную информацию о компании и ее генеральном директоре. Обман вскрылся только после завершения перевода, что затруднило возврат средств. Это один из самых громких случаев использования ИИ в мошенничестве
Александр Вайс, серийный FinTech and DeFi предприниматель, разработчик и аналитик WEB3Bureau
«Мошенники получили доступ к аккаунтам Snowflake клиентов, используя украденные учетные данные, которые были проданы на чёрном рынке»
Искусственный интеллект (ИИ) – механизм, своеобразный «цифровой мозг», способный автоматизированно выполнять функции и задачи практически любой сложности на основе заложенного в программе кода. С развитием цифровых технологий мошенники начали создавать новые способы обмана, в том числе с помощью ИИ, что повышает риски попасться на хакерские схемы.
Определим, как мошенники используют ИИ для кражи данных компаний и клиентов в 2025 году:
- Генерация сообщений. ИИ способен анализировать поведение людей, сотрудников компании, стиль их общения в интернете, тем самым подстраиваясь под характеристики каждого человека и генерируя максимально правдоподобные, но мошеннические (фишинговые) сообщения.
- Дипфейки. Это максимально реалистичные подделки, включающие видео-звонки, голосовые сообщения. Данная технология позволяет мошенникам представляться руководителем компании, чтобы манипулировать сотрудниками и вымогать важную информацию о компании.
С использованием данных технологий распознать мошенников ещё тяжелее. С помощью ИИ хакеры также научились взламывать пароли, похищать важные данные из сервисов.
Чтобы не допустить взлома облачных и цифровых носителей данных, существует ряд способов, например:
- Обновление паролей. Регулярная смена паролей очень важна, особенно для крупных компаний. Устанавливая уникальные и сложные пароли, подобрать нужную комбинацию букв и цифр мошеннику становится крайне тяжело, что защищает компанию от похищения данных.
- Шифрование данных. Шифрование важных данных (финансовые показатели компании, личные данные сотрудников) необходимо устанавливать для безопасности. В таком случае, даже если злоумышленник получит доступ к сервисам, он не сможет похитить зашифрованные пароли.
- Обучение сотрудников. Люди – это основная движущая сила компании, именно их обучение по распознаванию мошенников и противодействию им позволит в случае столкновения с хакером защитить данные и вовремя сообщить об этом руководству.
Все эти меры безопасности необходимы, поскольку такие виды мошенничества не просто слова, в мире уже случались случаи, когда таким способом удалось украсть у компании десятки миллионов долларов. Ниже приведены пару таких примеров:
- Лето 2024 года. Париж готовится принять Олимпийские игры. За считанные недели мошенники создали схему обмана. Более 700 поддельных доменов, таких как paris2024-tickets.com и olympic-entry.net. Результаты мошеннической схемы оказались ошеломляющими. За два месяца пострадало около 180 000 человек, а общая сумма похищенных средств – 15 миллионов евро.
- В мае 2024 года произошла одна из самых значительных утечек данных, затронувшая облачную платформу Snowflake. Мошенники получили доступ к аккаунтам Snowflake клиентов, используя украденные учетные данные, которые были проданы на чёрном рынке. Утечка данных затронула более 30 миллионов записей, включая 560 миллионов записей клиентов Ticketmaster, 30 миллионов записей клиентов Santander, 2,3 миллиона записей клиентов Advance Auto Parts и 28 миллионов номеров кредитных карт.
Таким образом, теперь компании нужно защищать не от грабителей, а от цифровых мошенников, так как в век информационных технологий все важные данные хранятся в интернете, и несоблюдение безопасности может привести к краху организации. Важно регулярно менять уникальные пароли, шифровать данные и проходить двухэтапную аутентификацию, при этом обучая и сотрудников.
Андрей Осин, доцент кафедры «Информационная безопасность» МТУСИ, кандидат технических наук
«ИИ в состоянии вступить в диалог с потенциальной жертвой и убедить передать сведения, необходимые для доступа к важной информации»
Сегодня ИИ стал не только инструментом развития бизнеса, но и мощным оружием в руках киберпреступников. Сейчас наблюдается несколько ключевых способов, как мошенники используют ИИ для кражи данных компаний и клиентов.
Фишинг нового уровня: ИИ, использующий большие языковые модели, позволяет создавать крайне убедительные поддельные электронные письма, сайты и сообщения, которые невозможно отличить от реальных. Например, голосовые сообщения или видеозаписи (дипфейки) с подделкой личности руководителя компании могут обмануть сотрудников и заставить их раскрыть конфиденциальные данные.
Автоматизированный взлом паролей: Современные алгоритмы ИИ значительно ускоряют подбор паролей и расшифровку сложных данных. Даже сложные пароли становятся уязвимыми перед обученными моделями.
Социальная инженерия с использованием ИИ: ИИ анализирует поведение людей в социальных сетях, чтобы создавать персонализированные сценарии атак, которые повышают доверие жертвы.
Чтобы защитить данные, необходимо обеспечить реализацию комплекса мер:
- Укрепление системы защиты: Используйте многофакторную аутентификацию (MFA). Регулярно обновляйте ПО и проверяйте его на уязвимости. Внедряйте инструменты обнаружения аномалий, основанные на ИИ, чтобы выявлять подозрительную активность.
- Обучение сотрудников: Проводите тренинги по кибергигиене; Предупреждайте о рисках персонализированных атак и фишинга.
- Шифрование данных: Даже если данные будут украдены, их защита через шифрование сведет к минимуму ущерб.
- Аудит и мониторинг: Постоянно проверяйте безопасность цифровой инфраструктуры и используйте системы, которые способны обнаруживать действия ИИ-ботов.
Инциденты, которые происходят с применением ИИ, как правило, не получают широкой огласки и чаще всего базируются на социальной инженерии. Например, когда с применением дипфейков подделывается указание руководителя или просьба коллеги. Также ИИ в состоянии вступить в диалог с потенциальной жертвой и убедить передать сведения, необходимые для доступа к важной информации для бизнеса компании или персональным данным.
Максим Захаренко, СЕО «Облакотека»
«В 2021 году десятки телекоммуникационных компаний во всем мире стали жертвами хакерской операции Operation Diànxùn»
Злоумышленники с помощью ИИ создают фишинговые письма, которые практически невозможно отличить от реальных, генерируют голоса сотрудников для телефонного мошенничества, автоматизируют атаки на базы данных.
Одним из популярных способов остается глубокое сканирование слабых мест в системах защиты – ИИ быстро анализирует уязвимости и создает схемы проникновения.
Еще одна серьезная угроза – так называемые deepfake-технологии. Представьте: вам звонит ваш директор, вы узнаете его голос, на экране – его фото, да и сам вопрос к вам звучит абсолютно правдоподобно. Но все это обман, подстроенный мошенниками: голос сгенерирован, а запрос служит исключительно их целям. Компании уже теряли данные и деньги, доверившись таким атакам.
В феврале прошлого года в Гонконге разразился большой скандал с групповым звонком по технологии deepfake, который стоил транснациональной корпорации Arup 25,6 млн долларов. Сотрудник, которому “позвонили» цифровые версии его финдиректора и других топов, уверял, что они выглядели “совершенно реальными». Во время созвона “финдиректор» отдал распоряжение о переводе средств на пять гонконгских счетов, и сотрудник, не сомневаясь, выполнил приказ. Впоследствии оказалось, что он не был единственной жертвой: мошенники пытались обмануть еще двух или трех работников.
Причем утечки зачастую касаются не только финансовых, но и персональных данных – как клиентов, так и сотрудников.
В 2025 году такие схемы будут становиться еще более изощренными: ИИ обучается все быстрее, действия его все эффективнее.
Как защититься? Первое и главное – строить грамотную систему кибербезопасности. В этом могут помочь облачные технологии, которые предполагают распределенные системы хранения данных, автоматическое шифрование и регулярные проверки на уязвимости.
Второе – обучение сотрудников. Именно человек остается слабым звеном, и даже самая передовая технология не спасет, если, например, администратор вводит пароль в фальшивую форму.
И третье – мониторинг. Постоянный контроль за системой безопасности позволяет выявить угрозы еще на этапе их формирования.
К сожалению, не все компании понимают важность защиты. Были случаи, когда организации теряли сотни гигабайт данных, думая: «Нас это не коснется».
Кейс, который я хочу привести, относится к 2021 году. Тогда десятки телекоммуникационных компаний во всем мире стали жертвами хакерской операции Operation Diànxùn. Злоумышленники сгенерировали фишинговые письма с помощью нейросети: сообщается, что их было не отличить от типичных обращений рекрутеров и отраслевых экспертов. Жертвы перенаправлялись на домен, который маскировался под сайт Huawei, и их компьютеры заражались вредоносным ПО.
Евгений Перов, директор по продукту в корпоративном мессенджере Compass
«Наиболее надежная профилактика – полностью перенести корпоративное общение в защищенное доверенное пространство и закрепить это в регламентах»
Злоумышленники чаще атакуют сотрудников – наиболее уязвимый слой защиты любой компании. Один из популярных методов – социальная инженерия. Искусственный интеллект часто становится инструментом для создания дипфейков, которые в прошлом году засветились в нескольких крупных инцидентах. Например, в Гонконге сотрудник перевел злоумышленникам 25 миллионов долларов после видеоконференции с «финансовым директором».
Подобные атаки требуют подготовки. Злоумышленники должны собрать данные для обучения нейросети, например, голосовые сообщения и видеозаписи. Один из возможных сценариев – злоумышленники получают доступ к учетной записи руководителя компании или отдела, обучают нейросеть, после чего отправляют сотрудникам голосовые сообщения от имени руководителя. Сотрудники верят, переводят деньги или отправляют злоумышленникам данные компании.
Однако искусственный интеллект – не основной фактор успеха злоумышленников. Большинство атак становятся возможными не благодаря качеству дипфейков. Все дело в коммуникации вне доверенного корпоративного пространства. Каким бы удобным не был тот же Telegram, в приложении невозможно проверить собеседника, если его номер телефона или никнейм неизвестен. Кроме того, данные в общедоступном мессенджере не защищены согласно корпоративным стандартам – учетная запись не до конца защищена от взлома.
Защитить данные компании помогут регулярные тренинги сотрудников по противодействию социальной инженерии и фишингу. Желательно повторять их раз в несколько месяцев. Однако наиболее надежная профилактика – полностью перенести корпоративное общение в защищенное доверенное пространство и закрепить это в регламентах.
Корпоративный сервис вместо публичных мессенджеров закрывает сразу несколько проблем. Украсть аккаунт в нем достаточно сложно, однако даже в случае взлома дистанционный разлогин по команде с сервера сохранит данные компании в безопасности.
Кроме того, злоумышленники не могут попасть в изолированное рабочее пространство компании, а значит, не могут получить какие-либо данные или деньги с помощью рассылки дипфейков.
Павел Кузнецов, директор по стратегическим альянсам и взаимодействию с органами государственной власти группы компаний «Гарда»
«Самый простой способ убедиться в (не)реальности личности человека, который с вами контактирует – перезвонить ему по известному вам номеру»
Как и прогнозировалось, в реальных атаках используются функции так называемого ИИ, не требующие серьёзной технической подготовки и образования. Атакующие генерируют тексты для массовых рассылок фишинговых сообщений, применяют инструменты подделки аудио по ранее полученным образцам в рамках социотехнических кампаний.
Также в отдельных случаях используют генеративные сети для «переписывания» кода вредоносных программ с целью того, чтобы «сбить» детект антивирусных движков.
Для того, чтобы противостоять таким атакам, необходимо иметь стандартный набор средств защиты информации, включающий антивирус и средство противодействия утечкам, а также бдительно относиться к звонкам с незнакомых номеров и не верить «на слово» сообщениям, включая голосовые, от якобы начальства и друзей. Самый простой способ убедиться в (не)реальности личности человека, который с вами контактирует – перезвонить ему по известному вам номеру.
Антон Баланов, топ-менеджер и профессор – почётный доктор наук. Советник по экономике и социологии РАЕН
«Принимая проактивные меры и обучая сотрудников, можно значительно снизить риски и защитить как корпоративные, так и клиентские данные»
Мошенники все чаще используют искусственный интеллект (ИИ) для кражи данных компаний и клиентов. Эти технологии позволяют злоумышленникам автоматизировать атаки, делать их более целенаправленными и, что особенно опасно, маскировать свои действия, делая их практически неотличимыми от легитимных пользователей.
Одним из распространенных методов является фишинг с использованием ИИ. Мошенники обучают алгоритмы на исторических данных о взаимодействии компаний с клиентами, чтобы создать убедительные сообщения и имитировать стиль общения.
Например, если компания регулярно рассылает уведомления о транзакциях, мошенники могут создать фальшивое уведомление, которое выглядит точно так же, как оригинальное, но ведет на вредоносный сайт. В 2024 году известная финансовая компания стала жертвой такой атаки, в результате которой были украдены данные тысяч клиентов.
Другим примером является использование ИИ для автоматизации взломов учетных записей. Злоумышленники применяют алгоритмы для подбора паролей, анализируя утечки данных из предыдущих атак. Благодаря этому они быстро получают доступ к учётным записям пользователей и крадут чувствительную информацию. Взлом, в результате которого утекают данные клиентов, приводит к значительным финансовым потерям и потере доверия со стороны пользователей.
Чтобы предотвратить подобные атаки, компаниям необходимо внедрять многоуровневую стратегию безопасности.
Первым шагом должно стать обучение сотрудников основам кибербезопасности. Многие успешные атаки начинаются с человеческой ошибки, поэтому важно понимать, как распознать фишинговые попытки и какие меры предосторожности следует принимать.
Вторым шагом является внедрение многофакторной аутентификации (МФА). Это затрудняет доступ к учётным записям, даже если злоумышленник узнал пароль.
Кроме того, компании должны регулярно обновлять свои системы безопасности и проводить аудит уязвимостей, чтобы выявлять и устранять возможные риски.
Наконец, важно осознать необходимость создания резервных копий данных и их шифрования. В случае утечки информации компании смогут быстро восстановить свои системы и минимизировать ущерб.
В заключение, использование ИИ мошенниками – это реальная угроза, с которой компании сталкивались и будут сталкиваться в 2025 году. Однако, принимая проактивные меры и обучая сотрудников, можно значительно снизить риски и защитить как корпоративные, так и клиентские данные.
Максим Кириенко, руководитель технического пресейла VolgaBlob
«Поскольку одним из наиболее частых способов атаки является социальная инженерия, хорошим и относительно простым инструментом будут встроенные тренинги и симуляции фишинга»
В последние пару лет киберугрозы переживают своего рода революцию. Если раньше злоумышленники полагались на шаблонные методы, то сегодня ИИ позволяет им масштабировать атаки, персонализировать фишинг и обходить традиционные системы защиты.
Особенность ИИ в том, что он позволяет использовать гиперперсонализированный фишинг. Алгоритмы NLP могут анализировать соцсети жертв, генерируя сообщения, стилистически неотличимые от переписки коллег или друзей. Такие атаки успешны в 15% случаев против 0,3% у стандартных методов. Если же объединить их с технологиями подмены голоса и видео, которые позволяют имитировать руководителей, сотрудников госорганов или даже умерших родственников, то атака становится еще более успешной.
ИИ также может модифицировать код уже известных вирусов, делая их «невидимыми» для антивирусов, а сервисы RaaS (Ransomware-as-a-Service) упрощают запуск атак даже для непрофессионалов.
Как защитить себя и компанию? Поскольку одним из наиболее частых способов атаки является социальная инженерия, хорошим и относительно простым инструментом будут встроенные тренинги и симуляции фишинга. Именно они позволят снизить влияние человеческого фактора, который оказывается «слабым звеном» в 84% инцидентов.
В универсальных платформах мониторинга могут использоваться специальные модули, которые позволяют формировать профиль пользователя или любого другого объекта, вычисляя его «нормальное» поведение. Таким образом, благодаря статистическим алгоритмам и алгоритмам машинного обучения инцидент может быть зафиксирован даже на основе незначительного отклонения от нормального поведения. А ведь это обычно и происходит, когда злоумышленник получает доступ к инфраструктуре. Вряд ли учетная запись бухгалтера будет выполнять Powershell скрипты на ВМ, не так ли?
Конечно же, очень важно своевременное реагирование, зачастую в автоматизированном формате. Оно позволит пресечь проникновение злоумышленника на ранних этапах, даже если он смог получить первичный доступ.
ИИ – это палка о двух концах: он способен усилить как атаку, так и защиту. Компаниям необходимо не только следить за трендами, но и внедрять адаптивные решения, которые учатся на каждой новой угрозе. Даже один пропущенный дипфейк может привести к многомиллионным потерям.
.
Ключевые слова: персональные данные, социальная инженерия, искусственный интеллект, шифрование, проактивные меры защиты
Полную версию статьи читайте в журнале Подпишитесь на журнал
Facebook
Мой мир
Вконтакте
Одноклассники
Google+
|