«Борьба брони и снаряда». Соревнования AI технологий в кибербезопасности
Проблема безопасности граждан и бизнеса, подвергающихся атакам кибермошенников, сейчас стоит необычайно остро. О том, каких угроз опасаться и как это победить, в интервью aif.ru рассказал Вице-президент по кибербезопасности Сбера Сергей Лебедь.
Что такое дипфейки и как с ними бороться?
Алина Клименко, spb.aif.ru: Сергей Васильевич, один из самых обсуждаемых сейчас вопросв кибербезопасности это так называемые дипфейки — поддельные голосовые и видеосообщения. Насколько эта проблема действительно распространена?
Сергей Лебедь: Сейчас мы наблюдаем, что кибермошенники, действительно, стали использовать все чаще дипфейки в своих схемах. Это им помогает втереться в доверие или «взломать» человека. И сегодня такие технологии направлены в первую очередь на то, чтобы помочь взломать самый первый эшелон защиты — сознание, чтобы под влиянием мошенников человек совершал именно те действия, о которых злоумышленники его просят.
Сегодня, к счастью, число атак, которые используют дипфейки, не очень велико. Это несколько процентов среди общего числа киберпреступлений. Однако их количество будет расти. Почему? Потому что мошенникам сегодня все легче и легче получать доступ к инструментам создания дипфейков и сами эти инструменты все проще. Уже сейчас можно бесплатно и за несколько минут создать голосовой или аудиофейк, который трудно отличить от записи голоса реального человека.
Пока это не является критичной проблемой, но в скором будущем, безусловно, мы должны быть готовы к тому, чтобы противостоять атакам с использованием таких технологий. И готовится нужно уже сейчас, создавая эффективные технологии распознавания.
— Какой сценарий с использованием дипфейка наиболее распространен сейчас??
Очень популярен сценарий «фальшивый босс», когда мошенники используют голос или видео руководителя жертвы. Они создают в мессенджере фейковый аккаунт и, используя подделанный голос иногда вместе с изображением реального руководителя направляют его сотруднику-жертве сообщение с просьбой перевести деньги. Сегодня мошенники делаю все это в ручном режиме, требуется время, чтобы собрать нужную информацию о руководителе и сотруднике, получить образцы голоса и видео и так далее. Но в скором будущем ИИ позволит автоматизировать и эту работу: находить реальные аккаунты, а затем создавать фейковые, определять подчиненных настоящих руководителей и автоматизировать им отправку сообщений, вступать в переписку с потенциальными жертвами и, вполне возможно, в автоматическом режиме отвечать голосом на их вопросы, вести полноценный диалог. Все это приведет к росту числа такого вида мошенничеств.
ИИ на службе у мошенников и против них
— Опишите, какие еще фейки используют для мошенничества. Что чаще всего используют — все-таки голос или изображение?
— Голосовые сообщения подделывать проще всего. Однако ИИ используют и для генерации фишинговых писем, картинок, сайтов — то есть тех, которые похожи на оригинальные. Например, вам приходит письмо якобы с акцией на авиабилеты и ссылкой, вы по ней переходите и думаете, что покупаете билет на сайте, например, Аэрофлота или другой авиакомпании, но на самом деле это поддельный сайт и вы направляете деньги злоумышленникам.
То же самое касается сайтов отелей, маркетплейсов, ритейла и других популярных компаний.
— А как ИИ помогает защищать людей и бизнес, как его можно применить для защиты информации?
— Есть классическая история — «борьба брони и снаряда», она актуальна и для ИИ. Идут соревнования технологий защиты и нападений. Например, ИИ для защиты используется в биометрии. Сама биометрия в том числе является технологией для противодействия. Благодаря ей можно подтверждать некоторые финансовые операции, входить в аккаунт, разблокировать гаджет или получать ряд услуг используя свое лицо как ключ. При биометрии ваше изображение переводится в некий цифровой код, который невозможно подделать. А затем система сверяет полученный цифровой код с оригиналом, который был собран на сдаче биометрического образца.
Но, конечно, это далеко не единственный способ использования ИИ для защиты. Он, например, широко используется в системах противодействия мошенничеству в банках — так называемых антифрод-системах. Благодаря ИИ мы можем в режиме реального времени контролировать миллиарды операций наших клиентов и приостанавливать те, что совершаются под влиянием мошенников. В Сбере мы используем порядка 100 моделей ИИ в системе антифрода — без них уже невозможно обеспечивать эффективную защиту инфраструктуру банка и его клиентов.
Несколько простых правил, чтобы не попасть в сети обмана
— Сергей Васильевич, в завершении дайте несколько советов, как человеку не стать жертвой мошенников
— Никогда и никому не сообщайте данные своей банковской карты и ни в коем случае не переводите свои деньги по указанию незнакомцев кем бы они не представлялись и чем бы вам не угрожали. Если есть сомнения — сами обращайтесь в банк, сотрудники в офисе или по телефону прояснят ситуацию. Никогда не предпринимайте поспешных решений — если кто-то вас торопит — это признак мошенничества. Советуйтесь со своими родными и близкими.
Также рекомендую использовать сервисы безопасности в мобильном приложении СберБанк Онлайн. В разделе «безопасность» у нас порядка 20 сервисов и, например, можно активизировать определитель мошеннических звонков, подключить функцию контроля операций близкого человека, установить антивирус и сделать многое другое. Использование сервисов безопасности в разы снижает риск стать жертвой обмана. Сегодня это базовый цифровой чек-ап.
Еще один совет — повышайте киберграмотность свою и своих близких. Сбер создал библиотеку знаний «Кибрарий» — она бесплатно доступна всем на сайте банка. Заходите и получайте информацию о самых актуальных уловках мошенников и способах противодействия им.