МВД России объявило конкурс на разработку компьютерной системы, которая позволит выявлять так называемые дипфейки. Это новое слово в виртуальной реальности — убедительные видеоподделки. С помощью искусственного интеллекта можно смоделировать присутствие любого человека там, где его в действительности никогда не было, сообщают «Ветеранские вести» со ссылкой на «Российскую газету».
В настоящее время дипфейки используются исключительно для развлечения. Но совсем скоро, по мнению экспертов, технологией вооружатся аферисты. И тогда, ответив на видеозвонок, человек сможет увидеть своего близкого, который попросит, допустим, срочно выручить деньгами. Уже потом выяснится, что родственник человеку не звонил. Это лишь один из способов, который в перспективе станут применять мошенники.
Дипфейки стали очень популярны в последние годы. Технология широко используется для создания реалистичных порнографических роликов с участием знаменитостей, в которых те никогда не снимались, или фальшивых выступлений крупных политических деятелей.
Одним из самых популярных дипфейков в интернете стал ролик с основателем SpaceX Илоном Маском, на котором он якобы поет песню «Трава у дома», которую в действительности исполняет группа «Земляне».
Технология уже пробралась и на телевидение. Пока настоящий актер Леонид Куравлев, переживая смерть жены, скрылся от общественности и перестал выходить с кем-либо на связь, его помолодевшая копия снялась в рекламном ролике. Жорж Милославский, исполненный Куравлевым в фильме 1973 года выпуска «Иван Васильевич меняет профессию», в рекламном ролике гуляет по Москве, ездит на поезде МЦД и на такси, ходит по магазинам, участвует в концерте с современными звездами. Понятно, что исполнил эту роль другой актер, а лицо молодого Куравлева было наложено на компьютере позже. Но снята реклама профессионально и подделку на глаз невозможно распознать.
«С помощью такой технологии легко можно подставить неугодного человека, вставив его изображение на видео, на котором совершается аморальный поступок или даже преступление. Именно поэтому важно как можно скорее научиться быстро и эффективно выявлять такие подделки», — прокомментировал тендер МВД сотрудник полицейского управления «К» (специализируется на раскрытии преступлений, совершенных с применением новых технологий).
Кстати, применение технологии DeepFake сейчас запрещается крупнейшими сайтами, включая Reddit и Twitter.
В Китае уже принят закон, который запрещает публикацию дипфейков без специальной и различимой пометки. Он вступил в силу с 1 января 2020 года. В ближайшем будущем использование данной технологии обязательно будет регулироваться по всему миру. В самом технологическом штате — Калифорнии — дипфейки в рамках политических кампаний решили запретить на законодательном уровне. В России пока нет законодательных инициатив по запрету дипфейков.
Поэтому полицейские в ближайшее время твердо намерены опередить мошенников и разработать инструмент выявления подобных видеоподделок.
По условиям тендера, опубликованного на сайте госзакупок, победителю предстоит выполнить работу на тему «Исследование возможных способов выявления признаков внутрикадрового монтажа видеоизображений, выполненного с помощью нейронных сетей». Кроме того, исполнитель должен будет составить техническое задание на разработку аппаратно-программного комплекса, который сможет выявлять видеофальшивки не впоследствии, а по ходу просмотра.
Заказчиком выступает ФКУ «Научно-производственное объединение «Специальная техника и связь». Это структурное подразделение МВД, отвечающее за разработку всех технических новинок. Начальная сумма контракта составляет 4 790 357 рублей. Система проходит под шифром «Зеркало (Верблюд)». Предполагается, что работа будет выполнена в два этапа и окончательно завершится 30 ноября 2022 года.
Отмечается, что новая разработка должна повысить «уровень научно-технического обеспечения экспертно-криминалистических подразделений МВД России по линии производства видеотехнических экспертиз и исследований».
Юрий Жданов, генерал-лейтенант МВД, руководитель российской секции Международной полицейской ассоциации, доктор юридических наук:
— Технология дипфейк существует с 2017 года, но до недавнего времени она чаще всего применялась в архитектуре, кино, дизайне и создании видеоигр. С развитием цифровых технологий и искусственного интеллекта растет популярность дипфейков, которые могут использоваться не только в развлекательных и маркетинговых форматах. Мошенники смогут применять дипфейк в кибератаках — смоделировать необходимое изображение или голос и с помощью них убедить человека отправить деньги или сообщить персональные данные.
Биометрическая идентификация позволяет кардинальным образом изменить клиентский опыт, повысить удобство пользования всевозможными услугами, в том числе банковскими. При этом любая технология сопряжена с рисками кибербезопасности. В условиях стремительного развития технологий искусственного интеллекта (синтез изображений и речи) повышаются риски успешных атак на системы, использующие биометрию. Поэтому для критичных операций или услуг биометрия используется в банке в качестве одного из факторов аутентификации, не является единственным фактором.
В целом же эта технология представляет огромную угрозу, и бороться с ней чрезвычайно тяжело. Разобраться, где правда, а где фейк, становится все сложнее, поэтому здесь на помощь должны прийти мощные системы защиты человека от подделок, созданных с помощью дипфейка. 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — Microsoft Video Authenticator, программное обеспечение, которое позволяет определить вмешательство в видео.
IT-гиганты разрабатывают «антидипфейки»: тренируют алгоритмы, которые смогли бы качественно определять видеоподделки. Минувшей осенью Facebook организовал Deepfake Detection Challenge — конкурс на лучшую программу по распознаванию дипфейков. Призовой фонд — 10 млн долларов. Результаты буду подведены в июне 2021-го.
Помимо синтеза голоса и изображения, мошенники вскоре могут создать и освоить инструменты подмены или перехвата рисунка сетчатки или отпечатка пальца.
Deepfake может быть использован для создания поддельных новостей и вредоносных обманов. Сейчас на рынке десятки приложений, с помощью которых любой может сделать дипфейк, самые известные — Zao, DeepFaceLab, Deepfakes web, FakeApp, использующая TensorFlow.
Сергей Шипилов, специалист по IT-технологиям:
— Сегодня, когда возможности не так давно появившейся в киностудиях технологии дипфейк стали доступны рядовым пользователям смартфонов, не будет преувеличением сказать, что мир (во всех смыслах этого слова) стоит на грани серьезных потрясений. Впервые о дипфейках (от deep — глубокий и fake — фальшивый) заговорили в 2017 году. Но оказывается, родоначальником таких попыток можно считать, пожалуй, 2013 год, когда в рекламе появилась давно покойная Одри Хепберн. Копия актрисы рекламировала шоколад Galaxy на фоне декораций, напоминающих итальянское побережье Амальфи из фильма «Римские каникулы».
С тех пор, как говорится, много воды утекло. И технологии скакнули невероятно далеко. Сейчас речь уже не об одной программе, а о целых нейросетях, с основой на искусственный интеллект, которые конкурируют друг с другом за качество картинки. Эта технология получила название генеративно-состязательных нейросетей (GAN). Два алгоритма создают две картинки человека. При этом один алгоритм работает с фото или видео человека, условно говоря, кодирует актера Куравлева «жить» и «сниматься» в рекламе банка, а другой алгоритм пытается этот образ раскодировать до изначального. И такая конкуренция сетей продолжается до тех пор, пока вторая программа не начнет путать сгенерированную «фейковую» картинку с оригиналом.
Помимо синтеза голоса и изображения мошенники вскоре могут создать и освоить инструменты подмены рисунка сетчатки глаза или отпечатка пальца
Пока это воспринимается как игра. Но перспективы развития таких технологий уже сейчас просматриваются совершенно четко. Как на граждан, так и на государства может обрушиться целая лавина преступлений практически во всех сферах жизни общества. Например, с помощью компрометирующего дипфейк-ролика можно поставить крест на политической карьере общественного деятеля или способствовать его проигрышу на выборах. Можно сфальсифицировать доказательства по административному или уголовному делу. Сейчас стали не единичными случаями, когда из ячеек банков пропадают оставленные гражданами ценности. Уже сейчас сложно доказать, что в ячейке гражданин оставил настоящие деньги, а не резанную бумагу. На камерах видеонаблюдения видно только, что он в ячейку что-то кладет, а что именно — не видно. А теперь представьте, что суду банк-мошенник представит дипфейковое видео со своих камер. А на этой записи гражданин не только положил, но через несколько дней «пришел» снова и все «забрал» из ячейки. То есть уже потерпевшего надо судить за мошенничество в отношении «честного банка». Не исключено искажение с помощью дипфейков фактов, как исторических событий, так и современных, особенно в таких чувствительных и взрывоопасных, как межнациональная и межрелигиозная сферы жизни. Условно говоря, когда вдруг откуда ни возьмись якобы случайно находятся якобы «архивные» фото и видео преступлений армий какого-либо государства.
Лишиться работы или уж точно сверхгонораров могут живые актеры. Вместо них в будущих фильмах начнут «сниматься» звезды ушедших эпох.
А вот увидеть, скажем, Элвиса Пресли или Майкла Джексона, исполняющих партию из «Травиаты», если и получится, то, скорее всего, нескоро. Как ни странно, но во всей новейшей высокотехнологичной фейковой деятельности самым сложным остается, и еще долго будет оставаться, именно воспроизведение голоса. Но вполне возможно, что с развитием технологий и эта проблема будет решена.
Список возможностей по вредоносному использованию дипфейков можно продолжать долго, поэтому необходимо обратить внимание на эту проблему законодателям. И скорее определиться с ответственностью за заказ, создание и распространение дипфейков.