Что такое deepfake и как с ним бороться?

Все самое важное о киберугрозе, актуальной уже не только для бизнеса, но и для национальной безопасности

Лозунг на окне отеля в Давосе.

«Давайте всерьез поговорим об ИИ» — слоган на окне отеля в Давосе. Фото: Markus Schreiber/AP

Каждый будний день «Сегодня» делится с читателями дайджестом самых интересных материалов израильской прессы, а потом подробно разбирает один из этих материалов.

Если раньше атаки хакеров были направлены на системы и код, то сегодня ситуация в корне изменилась: все чаще и чаще мишенью становится конкретный человек.

Как считает The Jerusalem Post, технологии deepfake превратились из экспериментального инструмента в быстрорастущую угрозу; сегодня можно говорить о том, что они используются буквально-таки в «промышленных масштабах».

Что такое deepfake?

Напомним, что deepfake — это реалистичная подделка фото, видео или аудио, которая создается с помощью искусственного интеллекта и алгоритмов глубинного обучения. Разработанная технология позволяет заменять лица, имитировать голос и мимику — в результате конкретные люди на демонстрируемой записи говорят или делают то, чего они не совершали в реальности.

По мнению издания, даже наиболее защищенные организации уже не застрахованы от подобного рода атак. Масштабы проблемы подтверждаются цифрами: с 2022 по 2023 год количество атак с использованием deepfake выросло в 10 раз, а общий рост за последние годы превысил 1000%.

Примерно 49% компаний в мире уже сталкивались с соответствующими инцидентами, причем 46% атак происходят через видео или звонки в реальном времени. Под угрозой — даже рекрутинг: 17% интервьюеров указывают на появление фальшивых кандидатов.

Ущерб исчисляется сотнями миллионов долларов, а в отдельных случаях — десятками миллионов за одну транзакцию, с прогнозами роста в ближайшие годы до десятков миллиардов.

Почему deepfake успешно вводит в заблуждение?

Высокий КПД атак с использованием deepfake объясняют не только искусным применением новым технологий, но и тонким расчетом, ориентированным на человеческую психологию. Злоумышленники используют факторы авторитета, срочности и давления, стремясь, чтобы их запросы выглядели как можно более логично и убедительно.

Когда же ко всему этому прибавляются знакомый голос и реалистичное лицо, вероятность сомнений сводится к минимуму — потому и традиционные меры защиты оказываются недостаточно надежными.

Наконец, ключевая проблема — в том, что организации продолжают действовать по старым правилам, без учета нынешнего развития ситуации. Пользователей давно научили остерегаться фишинговых писем и подозрительных ссылок, но на видеозвонки от «руководства» их осторожность не распространяется.

Между тем в Израиле только за 2024 год использование фальшивого видео и аудио выросло на 118%, а атаки все чаще и чаще целятся в технологический и финансовый сектор. В настоящее время deepfake применяется в самом широком контексте — от имитации топ-менеджеров до информационных операций, включая распространение фейковых материалов во время конфликта с Ираном.

Проблема выходит на новый уровень

Социальные сети, к примеру, наводнили в огромных количествах фотографии и видеозаписи, фиксирующие якобы масштабные разрушения Тель-Авива или Беэр-Шевы. Почти все они оказались подделками, фейками, не имевшими никакого отношения к действительности — но при этом влияющими на общественное сознание.

На фоне текущей ситуации в сфере безопасности проблема обретает по-настоящему судьбоносный характер. Несмотря на временное прекращение огня, напряженность между Израилем и Ираном никуда не делась. Кибератаки — один из методов, к которым прибегает противник, а deepfake способен стать стратегическим средством поражения на государственном уровне.

Имитация высшего руководства, фальшивые сообщения в реальном времени и введение в заблуждение с использованием видеозвонков способны наносить урон критически важным процессам, дезавуировать принятые решения и даже оказывать влияние на ход военных кампаний. А это значит, что угроза уже напрямую касается не только бизнеса, но и национальной безопасности.

Как бороться с deepfake?

Что же делать? К сожалению, простого решения не существует или такового пока не придумали. Да, безусловно, важны технологии распознавания фейков, но этого недостаточно — требуется кардинально изменить мышление.

Организациям необходимо внедрять процедуры, основанные на встроенном скептицизме. Это звучит радикально, но такова реальность: ни одно чувствительное действие теперь не может быть утверждено на основfybb одного звонка, даже если этот звонок выглядит достоверным. Следует вменить в обязанность сотрудников осуществлять дополнительную проверку через другой канал, а также наделить их правом на сомнение и перепроверку — даже если к ним обращается топ-менеджер или руководитель высшего звена.

Другими словами, необходимо не только использовать соответствующие инструменты для выявления фейков, но и всячески внедрять критическое восприятие. Это дополнительная нагрузка, которая, безусловно, замедлит производственный процесс и снизит эффективность работы, однако альтернатива — значительно более высокие риски и потери — смотрится еще хуже.  

В новой реальности безопасность требует не только совершенствования технологий, но и готовности действовать по новым правилам, порой играя на опережение.

При повышенном уровне осведомленности, сильной, отлаженной корпоративной культуре и правильных эффективных инструментах можно снизить ущерб, продолжая безопасную работу и надеясь на появление надежной защиты от deepfake.