Поиск по сайту:

Как дипфейки способствуют новому виду киберпреступности


Делать дипфейки становится проще, и они убедительнее, чем когда-либо. Киберпреступники используют видео- и аудиодипфейки для вымогательства денег у жертв, добавляя к своим мошенничествам заслуживающую доверия «фальшивую подлинность».

Редактирование убеждений людей

С тех пор, как первый человек сказал, что «камера никогда не лжет», были люди, пытавшиеся доказать обратное. Креативные фотографы конца 19 века использовали простые приемы для создания поддельных изображений.

Кляп «человек в бутылке» пользовался моментом популярности. Сфотографируйте себя в подходящей позе. Разверните и распечатайте фотографию нужного размера. Вырежьте свое изображение, поместите его в стеклянную бутылку и сделайте еще одну фотографию себя с бутылкой в руках. Эй, вуаля, у вас есть образ себя, держащего бутылку с миниатюрной версией вас самих.

Конечно, сегодня мы можем делать такие вещи с помощью Photoshop или GIMP. И мы понимаем, что при наличии достаточных навыков и творческого подхода специалисты могут создавать изображения, которые выглядят совершенно подлинными, но содержат невозможные элементы. Как это ни парадоксально, это осознание может привести к тому, что мы усомнились в подлинности фотографий. Поразительное изображение, которое по чистой случайности запечатлевает событие, которое случается раз в жизни, всегда вызывает вопрос: «Это реально?»

Фотография миниатюрного человека в бутылке явно подделка. Но измените фотографию так, чтобы она показывала что-то, что может быть правдой, и при этом выглядела реальной, и некоторые люди поверят в это.

Это уже не про визуальные приколы. Это вооружающие образы. Это социальная инженерия.

Движущиеся картинки и звуковые фильмы

Как только кино стало общественным зрелищем, кинематографисты-первопроходцы стали использовать спецэффекты и трюки для решения двух проблем. Один снимал то, что действительно могло произойти, но снимать было нецелесообразно, а другой снимал то, что было просто невозможно. Решение этой проблемы породило огромную индустрию спецэффектов, которую мы имеем сегодня.

Добавление звука и диалогов привело к упадку немого кино и появлению звуковых фильмов. Некоторые молчаливые звезды не совершили переход. Их голос был неправильным, или они не могли произносить реплики убедительно и вовремя. Пока наложение не стало модным, не было другого решения, кроме как нанять кого-то другого.

Сегодня мы также манипулируем голосами актеров. Действительно ли Джордж Клуни пел в О, где же ты, брат?? Нет, это был голос Дэна Тымински, синхронизированный компьютером с движущимся изображением Джорджа Клуни.

Системы, которые могут выполнять такого рода манипуляции с видео и звуком, большие и дорогие, и для управления ими нужны специалисты. Но убедительных конечных результатов можно добиться, используя легкодоступное и относительно простое программное обеспечение, которое будет работать на разумном компьютерном оборудовании.

Видео и звук могут быть не голливудского качества, но они, безусловно, достаточно хороши, чтобы позволить киберпреступникам добавлять поддельные изображения, видео и аудио в свой арсенал оружия.

Дипфейки

Термин дипфейк был придуман для описания цифровых кадров, которыми манипулируют так, что кто-то на видео полностью носит лицо другого человека. «Глубокая» часть названия происходит от «глубокого обучения», одной из областей машинного обучения искусственного интеллекта. Машинное обучение использует специальные алгоритмы и большое количество данных для обучения искусственных нейронных сетей достижению цели. Чем больше данных у вас есть для обучения системы, тем лучше результаты.

Предоставьте ему достаточное количество фотографий кого-либо, и система глубокого обучения настолько хорошо поймет физиономию лица этого человека, что сможет понять, как оно будет выглядеть, отображая любое выражение лица под любым углом. Затем он может создавать изображения лица этого человека, которые соответствуют всем выражениям и позам головы человека в видео.

Когда эти изображения вставляются в видео, новое лицо идеально соответствует действию видео. Поскольку искусственно созданные выражения лица, синхронизация губ и движения головы такие же, как у оригинального человека, когда снималось настоящее видео, результат может быть очень убедительной подделкой.

Это особенно верно, когда две формы лица похожи. Известный дипфейк отображает лицо Линды Картер на теле Галь Гадот, объединяя две версии Чудо-женщины. В других громких примерах фигурировали Барак Обама и Том Круз. Вы можете найти их и многие другие примеры на YouTube.

Те же методы машинного обучения могут быть применены к аудио. Имея достаточно голосовых сэмплов, вы можете обучить искусственную нейронную сеть производить высококачественный звук, воспроизводящий семплированный голос. И вы можете заставить его говорить что угодно. Хотите услышать Notorious B.I.G. читаете некоторые из жутких ужасов Говарда Лавкрафта? Опять же, YouTube — это место. На самом деле, вы услышите что-то, очень похожее на Notorious B.I.G. читает Лавкрафт.

Помимо сумасшедших мэшапов и летних блокбастеров, эти техники находят функциональное применение и в других местах. Descript – это звуковой и видеоредактор, который создает текстовую расшифровку вашей записи. Отредактируйте текстовый документ, и изменения будут внесены в запись. Если вам не нравится, как вы что-то сказали, просто отредактируйте текст. Descript синтезирует любой недостающий звук из вашего собственного голоса. Он может синтезировать голос всего за одну минуту оригинальной записи голоса.

Корейский телеканал MBN создал дипфейк своей ведущей новостей Ким Чжу Ха. Если история, которой обычно занимается Ким Джу-Ха, ломается, когда ее нет в студии, ее доставляет дипфейк.

Киберпреступления уже начались

Киберпреступники всегда быстро прыгают на любую подножку, которую они могут использовать для улучшения или модернизации своих атак. Подделки аудио становятся настолько хорошими, что для окончательной идентификации подделок требуется анализатор спектра, а для выявления поддельных видео были разработаны системы искусственного интеллекта. Если манипулирование изображениями позволяет вам превратить их в оружие, представьте, что вы можете сделать с фальшивыми звуками и видео, которые достаточно хороши, чтобы обмануть большинство людей.

Преступления с использованием поддельных изображений и аудио уже имели место. Эксперты прогнозируют, что следующая волна дипфейковых киберпреступлений будет связана с видео. Работа на дому, перегруженная видеозвонками, «новая нормальность» вполне могла возвестить новую эру дипфейковых киберпреступлений.

Фишинговые атаки

Старая фишинговая атака по электронной почте включает в себя отправку электронного письма жертве, в которой утверждается, что у вас есть видео, на котором они находятся в компрометирующем или неловком положении. Если оплата не будет получена в биткойнах, отснятый материал будет отправлен их друзьям и коллегам. Боясь, что может быть такое видео, некоторые люди платят выкуп.

Глубокий вариант этой атаки включает в себя прикрепление некоторых изображений к электронному письму. Предположительно, это взорванные кадры из видео. Лицо жертвы, занимающее большую часть кадра, вставлено в изображения в цифровом виде. Для непосвященных они делают угрозу шантажа более убедительной.

По мере того, как системы дипфейков становятся все более эффективными, их можно обучать на все меньших наборах данных. Аккаунты в социальных сетях часто могут предоставить достаточно изображений, чтобы использовать их в качестве учебной базы данных.

Вишинг атаки

Фишинговые атаки по электронной почте используют различные методы, чтобы создать ощущение срочности, чтобы попытаться заставить людей действовать поспешно, или они играют на желании сотрудника показаться полезным и эффективным. Фишинговые атаки, проводимые по телефону, называются вишинговыми атаками. Они используют одни и те же методы социальной инженерии.

Адвокату в США позвонил его сын, который явно был расстроен. Он сказал, что сбил беременную женщину в автокатастрофе и сейчас находится под стражей. Он сказал своему отцу ожидать звонка от государственного защитника, чтобы организовать залог в размере 15 000 долларов.

Звонок был не от его сына, это были мошенники, использующие систему преобразования текста в речь, которую они обучили на звуковых клипах его сына для создания аудиодипфейка. Адвокат ни на секунду не задавался вопросом. Насколько он мог судить, он разговаривал со своим собственным сыном. Пока он ждал звонка общественного защитника, он нашел время, чтобы позвонить своей невестке и на работу сына, чтобы сообщить им об аварии. Известие дошло до сына, который позвонил и сказал, что это мошенничество.

Генеральному директору в Великобритании повезло меньше. Он получил адресное фишинговое электронное письмо якобы от исполнительного директора немецкой материнской компании фирмы. В нем требовалось произвести платеж в размере 243 000 фунтов стерлингов (примерно 335 000 долларов США) венгерскому поставщику в течение часа. За этим сразу же последовал телефонный звонок от исполнительного директора, который подтвердил, что платеж срочный и должен быть произведен немедленно.

По словам жертвы, он не только узнал голос своего босса и легкий немецкий акцент, но также узнал интонацию и аккуратное произношение. Так что он с радостью произвел оплату.

Контрмеры

Правительство США признало потенциальную угрозу дипфейков. Закон о запрещении вредоносных дипфейков от 2018 года и Закон об идентификации результатов генеративно-состязательных сетей или Закон IOGAN были приняты в качестве прямого ответа на угрозы, исходящие от дипфейков.

Компании должны добавить обсуждение дипфейков в свои тренинги по кибербезопасности. Обучение кибербезопасности должно быть частью вводного курса для новичков и должно периодически повторяться для всего персонала.

Пока что атаки, которые были замечены, представляют собой отточенные версии фишинговых и целевых фишинговых атак. Простые процедуры могут помочь поймать многие из них.

  • Никакой перевод финансов не должен осуществляться только после получения электронного письма.
  • Последующий телефонный звонок должен быть сделан от получателя сообщения электронной почты отправителю, а не от отправителя получателю.
  • Могут быть включены сложные фразы, которые неизвестны внешнему злоумышленнику.
  • Сопоставьте и перепроверьте все необычное.