Технология нейронных фальшивок напугала США и Китай

Поддельные фото и видео оказались суперреалистичными

07.01.2020 в 17:53, просмотров: 7844

С января 2020 года в Китае запрещено публиковать синтезированные по технологии deep fake фото и видео без особой пометки. В США в октябре 2019 года Калифорния стала первым штатом, вообще запретившим выкладывать в сеть ролики с политическими кандидатами за 60 дней и менее до выборов — из боязни их подделок. Сейчас к этой инициативе присоединились еще несколько штатов. Почему эта технология так пугает людей и в чем ее опасность, мы поговорили с экспертами.

Технология нейронных фальшивок напугала США и Китай

Их вывод неутешителен: если спровоцировать глобальный конфликт используя deep fake пока вряд ли получится, то локальные войны или революции — без проблем.

Что же такое deep fake? Имя технология получила от сочетания deep learning («глубокое обучение») и fake («подделка»). В основе технологии deep fake лежат нейронные сети, работающие по генеративно-состязательному принципу. Один алгоритм обучается на представленных фото и видео создавать подмену лица. Второй проверяет полученный результат — сравнивает созданную копию с реальным изображением. Если ложный образ неудачен, возвращает данные для нового обучения первого алгоритма. И так до тех пор, пока сама нейронная сеть не начнет путать где созданная копия, а где оригинал. Это позволяет моделировать поведение и внешность человека на видеозаписи.

Естественно, как только технология появилась, первым делом в звезд порноиндустрии стали превращать знаменитостей типа Скарлетт Йоханссон, Тейлор Свифт, Эммы Уотсон и Кэти Перри. Актера Николаса Кейджа, прославившегося неразборчивостью в выборе ролей, стали вставлять ради развлечения в эпизоды культовых фильмов.

В фильме «Изгой один: Звёздные войны» режиссер для одного эпизода «воскресил» с помощью технологии deep fake актера Питер Кушинга, скончавшегося в 1994 году. Дошло и до политиков. Например, был сгенерирован ролик, в котором Барак Обама кроет матом Дональда Трампа.

Зафиксирован и случай использования deep fake мошенниками. Британскую энергетическую компанию ограбили на 220 тысяч евро, когда на связь с финансовым отделом вышел «клон» управляющего из Германии и потребовал перевести деньги.

Легко представить, какие возможности дает эта технология политтехнологам. Именно поэтому появляются запреты, аналогичные введенным в Китае и США.

Алексей Макаркин, заместитель директора Центра политических технологий, считает, что в первую очередь под удар нечистоплотных политтехнологов могут попасть страны Востока:

- У нас глобальный мир. Интернет — это глобальный мир. Но в рамках этого глобального мира есть разные культуры. Например, если мы берем Европу, Америку, то там большинство людей относятся к вброшенной информации с пониманием. Кто-то не поверит, кто-то поверит. Но те, кто поверит, смогут как-то проверить информацию перед тем, как принимать решение. Поэтому в европейской и американской культуре я больших проблем, связанных с deep fake, не вижу.

А вот для стран Востока, где гораздо более серьезно относятся к слову, это проблема. Если помните, аятолла Хомейни приговорил к смерти поэта Салмана Рушди всего лишь за книгу «Сатанинские стихи». Сейчас в Пакистане молодого преподавателя приговорили к смертной казни за якобы оскорбление ислама. Поэтому, если мы говорим о странах Востока, то здесь какие-либо оскорбительные слова в отношении религии, национальности, которые могут быть вложены с помощью deep fake в уста конкретного человека, многие просто не будут проверять. Что может стать основанием для очень серьезных осложнений. Это может спровоцировать локальный конфликт, межнациональный конфликт, конфликт на религиозной почве.

Ведущий российский военный эксперт Алексей Леонков придерживается похожего мнения:

- В умелых руках такие технологии по зволяют подделать что угодно. Раньше были такие форматы скандальные «лицо, похожее на некоего политика» совершило некое аморальное действие. Но там на записи еле просматривается что-то. А в «цифре» такого рода «доказательства» будут настолько реалистичными, что например, перед выборами скомпрометируют политика. Покажут, скажем, его якобы встречу с криминалитетом. Фантазировать тут можно долго. Понятно, что для создания таких подделок нужны соответствующие вычислительные мощности. Это не сложно для развитых стран и создает проблемы для не развитых. С помощью провокаций с использованием deep fake можно добиться военного конфликта. Особенно в странах, где сильны родо-племенные отношения. Конечно, технология пока несовершенна. Видна неестественность, можно заметить подделку. Особенно в тех же фильмах, когда ты знаешь, какой был оргинал. А если ты не знаешь оригинала? Там только специалист может определить подделку. Так что, формировать общественное мнение можно.

В мире сейчас генерируется в среднем около 20 тысяч deep fake видео каждый месяц. Внимательный зритель теоретически может различить подделку. В первую очередь, можно обратить внимание, что синтезированные лица на видео не моргают. Дело в том, что обучение нейронных сетей проходит по выложенным в сеть картинкам. Но многие ли пользователи выкладывают свои фото с закрытыми глазами?

Впрочем, аналитики полагают, что эта недоработка скоро будет устранена. И тогда «разоблачать» deep fake смогут только другие алгоритмы. Но смогут ли? Сейчас лучшие программы, предназначенные для этого, могут гарантировать 97% точности. Кроме того, появляются все новые и новые программы для еще более глубоких подделок. Так, приложение Neural Rendering, разработанное специалистами университетов Принстона, Макса Планка и Стэнфорда «заставляет» изображение человека своим голосом произносить любой текст на любом языке.

И зарубежные, и российские IT-специалисты считают, что технология deep fake может стать самой опасной в цифровой сфере. И не только в глобальном плане - для провокации конфликтов. Ее развитие без сдерживающих факторов может привести к тому, что, например, видеодоказательства не смогут быть аргументами в суде.