Угадайте что? Я недавно наткнулся на очень странное видео с техасским сенатором, Тедом Крузом (Ted Cruz), где он поет и кружится под песню Тины Тернер. Его политические враги весьма позабавятся, показывая его во время промежуточных выборов, а Дональд Трамп назовет его “Танцующий Тед”.
Признаюсь — я сам сделал это видео. И вот что меня беспокоит: для этого потребовалось очень мало навыков по монтированию видео. Я загрузил и настроил программу, которая с помощью машинного обучения выполняет убедительную замену лиц. В получившемся видео глаза Круза привязаны к чертам актера Пола Радда, поющего в караоке. Конечно, в этом видео есть огрехи, однако кого-то оно может и одурачить.
Подделка фото — вещь привычная, однако искусственный интеллект может полностью изменить правила игры. До недавнего времени только крупные киностудии могли осуществлять замену лиц, и, наверное, это стоило миллионы долларов. Теперь ИИ позволяет любому человеку с нормальным компьютером и лишней парой часов сделать то же самое. Дальнейший прогресс машинного обучения сделает возможным даже более сложный обман, отчего фейки будет ещё труднее заметить.
Подобный прогресс угрожает еще больше размыть границу между истиной и вымыслом в политике. Интернет уже ускоряет и усиливает распространение дезинформации через поддельные аккаунты в соцсетях. “Альтернативные факты” и конспирологические теории распространяются все больше, и верят им все больше людей. За последние годы лже-новости, помимо возможного влияния на последние президентские выборы в США, разожгли этническое насилие в Мьянме и Шри-Ланке. Теперь представьте, что в подобный микс добавятся видео-фейки с политиками, которые якобы болтают чушь, выкрикивают этнические оскорбления или ведут себя неподобающим образом.
“Видео-фальшивки в потенциале могут разрушить политический дискурс”, — утверждает профессор Нью-Йоркского университета и автор книги “Virtual Unreality: Just Because the Internet Told You, How Do You Know It’s True?” (Виртуальная нереальность: только потому что интернет так сказал, как тебе понять, что это правда?) Чарльз Сайф (Charles Seife). Сайф с удивлением признает, как быстро прогрессируют технологии с тех пор, когда в 2014 году была опубликована его книга. “Технология ошеломительными темпами меняет наше восприятие реальности”, — говорит он.
Неужели мы входим в эру, когда ничему нельзя доверять, даже кажущимся подлинными видео, которые показывают реальные “новости”? Как понять, чему можно верить? Кому доверять?
Реальная подделка
Несколько технологий слились воедино, чтобы сотворить подделку можно было легче, причем к этому легко получить доступ: смартфоны позволяют снимать качественное видео, а мощные инструменты компьютерной графики становятся все дешевле. Добавьте к этому сложные программы искусственного интеллекта, позволяющие невероятным образом искажать, смешивать и синтезировать видео.
Я создал видео с Крузом, используя OpenFaceSwap — одну из нескольких бесплатных программ по замене лиц. Для этого необходим компьютер с продвинутой графической картой, который стоит несколько тысяч баксов и может оказаться вам не по карману. Однако с помощью облачной платформы машинного обучения типа Paperspace вы можете за несколько центов в минуту арендовать виртуальный компьютер. Затем вам остается просто загрузить оба видеоклипа и несколько часов ждать, пока алгоритм вычислит, как выглядит каждое лицо, и поменяет их так, чтобы они точно накладывались друг на друга. Чтобы все заработало, необходим креатив: если вы выберете слишком отличающиеся клипы, то в результате получите кошмарную мешанину из носов, ушей и подбородков.
Однако сам процесс достаточно легкий.
Неудивительно, что замена лиц сперва была использована в индустрии порнографии. В 2017 году анонимный пользователь Reddit под ником Deepfakes использовал машинное обучение, чтобы заменить лица порноактис в фильмах для взрослых на лица знаменитостей, а затем запостить это как утечку порно о звездами. Другой пользователь Reddit выпустил готовую программу для замещения лиц, что привело к распространению подобного рода порнографии, а также породило бесчисленное количество клипов с актером Николасом Кейджем из фильмов, в которых он никогда не снимался. Даже сайт Reddit, известный своей вольностью, запретил подобную “насильственную” порнографию. Однако в темных уголках интернета этот феномен все еще продолжает существовать.
Программа OpenFaceSwap использует искусственную нейросеть, которая теперь стала незаменимым инструментом ИИ. Очень широкие или “глубинные” нейросети, которым скармливают огромное количество данных для обучения, могут выполнять множество полезных вещей, включая поиск лица человека среди миллионов изображений. Их также используют для манипуляции и синтезирования изображений.
OpenFaceSwap тренирует глубинные сети “декодировать” лицо (этот процесс похож на компрессию данных), создавая таким образом репрезентацию, которую можно декодировать для реконструкции всего лица. Задача в том, чтобы “скормить” раскодированные данные одного лица декодеру другого. Затем нейросеть зачастую с удивительной точностью создает лицо, подражающее выражениям и движениям другого лица. Получившееся видео может показаться кривоватым, однако OpenFaceSwap автоматически заглаживает края и подстраивает цвета так, чтобы “трансплантированное” лицо выглядело как можно более естественно.
Похожая технология также может быть использована для того, чтобы воссоздать чей-либо голос. Стартап под названием Lyrebird опубликовал убедительные демо-записи Барака Обамы и Дональда Трампа, говорящих абсолютно выдуманные вещи. Представители Lyrebird утверждают, что в будущем они ограничат свои голосовые дубликаты только теми людьми, которые дали свое разрешение, однако не все будут настолько скрупулезными.
Существуют давно устоявшиеся методы идентификации поддельных изображений и видео. Один вариант — поискать в Сети изображения, которые могли смешать. Более техничное решение — найти характерные изменения в цифровом файле или в пикселях изображений или видеокадров. Эксперт может обнаружить визуальные несовпадения — тень, которой быть не должно, или объект неправильного размера.
Один из главных мировых экспертов, Хани Фарид (Hany Farid) из Университета Дартмута, показал, как можно реконструировать сцену в 3D, чтобы обнаружить физические аномалии. Он также доказал, что маленькие изменения в пиксельной интенсивности на видео, указывающие на пульс человека, можно использовать, чтобы заметить разницу между реальным человеком и персонажем, сгенерированным компьютером. Недавно один из бывших студентов Фарида, а теперь профессор Государственного университета Нью-Йорка в Олбани, показал, что нерегулярное моргание выдает лицо, обработанное с помощью ИИ.
И все же большинство людей не способно проводить подобную детективную работу и не располагает достаточным количеством времени, чтобы изучать каждое изображение или клип в Facebook. Поэтому, по мере того как визуальные подделки распространяются все больше, возникает необходимость автоматизировать анализ информации. И тогда оказывается, что глубинное обучение хорошо справляется не только с созданием фальшивок, но также идеально подходит для анализа изображений и видео на следы подделки. Подобное применение данных технологий лишь начинается, однако в конечном итоге ему может помешать возрастающее качество реалистичности подделок.
Сети обмана
Одна из последних идей в исследовании ИИ заключается в противопоставление нейросетей, чтобы они могли создавать еще более реалистичные подделки. “Генеративно-состязательная сеть” или GAN, использует две глубинные нейросети: одна научена распознавать реальные видео или изображения, а другая тренируется со временем обходить свою противоположность. Сети GAN можно обучить создавать невероятно реалистичные фейковые изображения и видео.
Помимо копирования и замены лиц, GAN могут синтезировать целые сцены и людей, выглядящих совершенно реально, превращать сцены дня в ночь, и выдумывать воображаемых звезд. Пока что работа этих сетей далека от идеала, но они все время совершенствуются, что делает данную сферу весьма актуальной для исследований.
Большинство специалистов беспокоится, что данная техника может быть использована в том числе чтобы обойти цифровую криминалистику. Этим летом Управление перспективного планирования оборонных научно-исследовательских работ США пригласило исследователей принять участие в соревновании, в ходе которого некоторые разрабатывали поддельные видео с помощью GAN, а другие пытались их вычислить. “Сети GANs представляют для криминалистов особую трудность, потому что они могут быть использованы против наших технологий”, — сказал Фарид. — “Пока неясно, какая сторона победит”.
Это конец
Если мы не будем осторожны, то это может привести к концу света — по крайней мере, так кажется.
В апреле канал BBC якобы сообщил о начале ядерного конфликта между Россией и НАТО. Клип, запущенный на платформе WhatsApp, показывал съемки разрывающихся ракет, в то время как репортер сообщал, что уже разрушен немецкий город Майнц, а также части Франкфурта.
Конечно данное видео было абсолютной подделкой, и представители ВВС быстро опровергли эти новости. Хотя искусственный интеллект не использовался в создании этого клипа, он показал силу фальшивых видео, и того, как они разносят сплетни со скоростью света. Распространение программ с ИИ упростит создание подобных видео, а также сделает их более убедительными.
Даже если нас не одурачат фальшивые новости, для политических дебатов они могут иметь катастрофические последствия. Также как сейчас мы привыкли сомневаться, не обработано ли изображение с помощью Photoshop, подделки, созданные ИИ, могут сделать нас более подозрительными в отношении событий, распространяемых онлайн, что приведет к дальнейшей эрозии рациональных политических дебатов.
В своей книге The Death of Truth (Смерть истины), опубликованной в этом году, литературный критик Мичико Какутани (Michiko Kakutani) утверждает, что альтернативные факты, лже-новости и общее безумие современной политики представляют собой кульминацию культурных течений, которые тянутся десятилетиями. Какутани считает гиперреалистичные фейки ИИ последним тяжелым ударом по концепту объективной реальности.
“Еще до того, как технология станет качественной, тот факт, что она вообще существует и является способом разрушить доверие к материалу”, — говорит Рене ДиРеста (Renee DiResta), исследователь сообщества Data for Democracy и одна из первых людей, которые определили феномен политически кампаний по дезинформации в Twitter.
Возможно самым большим риском подобных новых технологий является не то, что их могут использовать хакеры, политические диверсанты или анонимы, а то, что они еще больше подорвут доверие к самой истинности и объективности информации. Если вы не можете отличить подделку от реальности, тогда поставить под сомнение истинность чего угодно становится проще простого. Политики уже используют это как способ уйти от ответственности.
В Мьянме и России были приняты новые законы, которые запрещают фейковые новости, однако в обоих случаях эти законы могут быть просто использованы как способ цензуры критики правительства.
По мере того как власти все больше осознают мощь подделок, сотворенных искусственным интеллектом, им становится все легче отмахиваться даже от явных видео-доказательств различных нарушений, заявляя, что это цифровой обман, созданный с помощью сетей GAN.
Истина никуда не денется. Но узнаем ли мы ее в лицо?
Автор: Will Knight
Источник: MIT Technology Review