Каждый будний день «Сегодня» делится с читателями дайджестом самых интересных материалов израильской прессы, а потом подробно разбирает один из этих материалов.
Если раньше атаки хакеров были направлены на системы и код, то сегодня ситуация в корне изменилась: все чаще и чаще мишенью становится конкретный человек.
Как считает The Jerusalem Post, технологии deepfake превратились из экспериментального инструмента в быстрорастущую угрозу; сегодня можно говорить о том, что они используются буквально-таки в «промышленных масштабах».
Что такое deepfake?
Напомним, что deepfake — это реалистичная подделка фото, видео или аудио, которая создается с помощью искусственного интеллекта и алгоритмов глубинного обучения. Разработанная технология позволяет заменять лица, имитировать голос и мимику — в результате конкретные люди на демонстрируемой записи говорят или делают то, чего они не совершали в реальности.
По мнению издания, даже наиболее защищенные организации уже не застрахованы от подобного рода атак. Масштабы проблемы подтверждаются цифрами: с 2022 по 2023 год количество атак с использованием deepfake выросло в 10 раз, а общий рост за последние годы превысил 1000%.
Примерно 49% компаний в мире уже сталкивались с соответствующими инцидентами, причем 46% атак происходят через видео или звонки в реальном времени. Под угрозой — даже рекрутинг: 17% интервьюеров указывают на появление фальшивых кандидатов.
Ущерб исчисляется сотнями миллионов долларов, а в отдельных случаях — десятками миллионов за одну транзакцию, с прогнозами роста в ближайшие годы до десятков миллиардов.
Почему deepfake успешно вводит в заблуждение?
Высокий КПД атак с использованием deepfake объясняют не только искусным применением новым технологий, но и тонким расчетом, ориентированным на человеческую психологию. Злоумышленники используют факторы авторитета, срочности и давления, стремясь, чтобы их запросы выглядели как можно более логично и убедительно.
Когда же ко всему этому прибавляются знакомый голос и реалистичное лицо, вероятность сомнений сводится к минимуму — потому и традиционные меры защиты оказываются недостаточно надежными.
Наконец, ключевая проблема — в том, что организации продолжают действовать по старым правилам, без учета нынешнего развития ситуации. Пользователей давно научили остерегаться фишинговых писем и подозрительных ссылок, но на видеозвонки от «руководства» их осторожность не распространяется.
Между тем в Израиле только за 2024 год использование фальшивого видео и аудио выросло на 118%, а атаки все чаще и чаще целятся в технологический и финансовый сектор. В настоящее время deepfake применяется в самом широком контексте — от имитации топ-менеджеров до информационных операций, включая распространение фейковых материалов во время конфликта с Ираном.
Проблема выходит на новый уровень
Социальные сети, к примеру, наводнили в огромных количествах фотографии и видеозаписи, фиксирующие якобы масштабные разрушения Тель-Авива или Беэр-Шевы. Почти все они оказались подделками, фейками, не имевшими никакого отношения к действительности — но при этом влияющими на общественное сознание.
На фоне текущей ситуации в сфере безопасности проблема обретает по-настоящему судьбоносный характер. Несмотря на временное прекращение огня, напряженность между Израилем и Ираном никуда не делась. Кибератаки — один из методов, к которым прибегает противник, а deepfake способен стать стратегическим средством поражения на государственном уровне.
Имитация высшего руководства, фальшивые сообщения в реальном времени и введение в заблуждение с использованием видеозвонков способны наносить урон критически важным процессам, дезавуировать принятые решения и даже оказывать влияние на ход военных кампаний. А это значит, что угроза уже напрямую касается не только бизнеса, но и национальной безопасности.
Как бороться с deepfake?
Что же делать? К сожалению, простого решения не существует или такового пока не придумали. Да, безусловно, важны технологии распознавания фейков, но этого недостаточно — требуется кардинально изменить мышление.
Организациям необходимо внедрять процедуры, основанные на встроенном скептицизме. Это звучит радикально, но такова реальность: ни одно чувствительное действие теперь не может быть утверждено на основfybb одного звонка, даже если этот звонок выглядит достоверным. Следует вменить в обязанность сотрудников осуществлять дополнительную проверку через другой канал, а также наделить их правом на сомнение и перепроверку — даже если к ним обращается топ-менеджер или руководитель высшего звена.
Другими словами, необходимо не только использовать соответствующие инструменты для выявления фейков, но и всячески внедрять критическое восприятие. Это дополнительная нагрузка, которая, безусловно, замедлит производственный процесс и снизит эффективность работы, однако альтернатива — значительно более высокие риски и потери — смотрится еще хуже.
В новой реальности безопасность требует не только совершенствования технологий, но и готовности действовать по новым правилам, порой играя на опережение.
При повышенном уровне осведомленности, сильной, отлаженной корпоративной культуре и правильных эффективных инструментах можно снизить ущерб, продолжая безопасную работу и надеясь на появление надежной защиты от deepfake.