
Фейковое видео с Бараком Обамой, на котором видно, как можно фабриковать видео. Deepfake Videos / AP / TASS
Об особом отношении Дональда Трампа к Владимиру Путину и без того ходило немало слухов, однако запись их личной беседы на уже историческом саммите в Хельсинки отметает сомнения даже у самых сдержанных. На ней Трамп обещает, что США не станут вмешиваться, если Россия начнет вторжение в какую-либо из стран НАТО.
Как нетрудно догадаться, никакого такого разговора в действительности не было, и это – лишь один из примеров того, как с помощью алгоритмов глубинного обучения можно создать реалистичные фейковые аудио- и видеозаписи, о которых в своей недавней статье для Council on Foreign Relations пишут исследователи Даниэла Сайтрон и Роберт Чесни.
О так называемых глубоких фейках – deep fakes – мир заговорил в конце прошлого года. Мы живем еще в допрецендентную эпоху, однако представьте будущее, в котором в уста каждого мирового лидера можно будет вложить любое послание. Уже сейчас в твиттере простая фейковая новость достигает критической массы аудитории в шесть раз быстрее, чем правдивая. Какой виральный эффект ожидает нас в случае с видео?
"как радикальная угроза демократии"
Серьезно? На выбор какого процента избирателей это влияет? Одного, может двух? Люди не так глупы, как кажется, и обмануть их (если нет цензуры) не так просто. Человек не будет проверять фейк, только если он уже подтверждает его взгляды. И такой фейк, во-первых, не влияет на его выбор, во-вторых, живет недолго.
Меня несколько удивило, что кто-то купился на первое видео. Второе, по крайней мере на мой неподготовленный взгляд, куда лучше. И наверняка дальше будет ещё лучше.
Про моргание напомнило одну серию TNG, где Data распознал другого андроида по паттерну моргания.
Скорее всего часть решения будет технологической. Какой-то вариант личной электронной подписи. Тут написано что-то похожее, но я думаю уклон будет не столько на место и время создания, сколько на подтверждение действительности записи автором с помощью своего приватного ключа. Для "профессионально снятых" видео, т.е. когда интервью берётся в явном виде, речь явно даётся - это должно подойти. Со сценарием "записи компромата тайком", конечно, сложнее. Тут даже если видео не фейковое, запечатлённый вряд ли добровольно его "подпишет".
Другая часть - на настоящем видео надо постоянно делать что-то необычное. Тактика уже нарабатывается учёными, решающимися давать интервью каналам типа хрен-тв (которые в монтаже так всё перенарезают, что нобелевские лауреаты чушь несут). Не дать себя, так сказать, разрезать и склеить. А сети будет сложнее это правдоподобно сымитировать.
Что ж. Всем дружно сдавать биометрию! Образцы голоса и видео банки уже хотят. Мессенджеры и опсосы наверняка уже собирают.
Н-да... очень даже крутая симуляция. Глаза правда выдают, ненатуральные, мутные какие-то, зомби-образные. У реального человека могут такие быть,
но под большой балдой. А если исходить из скоординированности всего остального, то балда должна быть какая-то очень специфическая — сильная наркота какая-нибудь. Ещё движения резиновые малость разбалансированные какие-то (чем сейчас вообще страдают все синтетические видео людей и животных). Но всё остальное очень похоже, и голос и темп речи и мимика.
--
Интересно, эта проблема с глазами и движениями преодолима более интесивными вычислениями, или это системная вещь неприодолимая для данной технологии вообще? Я склонен думать, что второе. Если эта нейронная сеть так замечательно выявила суть жестов и мимики Обамы, то эта вся суть сводится к какой-то серии инвариантов (типа сложных балетных движений). Далее этот чел поставляет канву (оцифрованные собственные движения) — своеобразный скелет всего видео, и на этом раскручиваются обамовских инварианты. Получается такое видео. Если его потом попытаться ужать, то маскимально его и возможно ужать в то же самое: цифровой скелет движений + навешанные на него инварианты. Всё это в итоге будет довольно жидкая последовательность цифр. Видео из реального мира никогда не будет сводимо к такой жидкой цифровой последовательности! Видимо это и чуствуется в неестественности глаз и движений — чего-то не достаёт...
Проблема преодолима, причем быстро преодолима. Достаточно всего навсего в функцию оценки качества модели заложить популярность готового видео (а более реалистичные будут, в среднем, более популярными, т.к. делиться очевидным фейком будет не так интересно) и тогда на достаточно большом количестве попыток алгоритм будет выдавать наиболее виральное видео (а значит и более реалистичное). С одной стороны, это страшно. С другой стороны, может до людей дойдет, что у источников информации должна быть репутация и проверка из нескольких источников это действительно необходимость. Для качественных СМИ это может стать положительной новостью.
+1. Фейки были и до телевидения с интернетом. Просто не стоит верить всему на слово.