Ученые из Европы создали нейросеть, которая научилась определять подмену лиц на видео. Для этого им понадобилось обучить ее на обширной базе из 500 тысяч лиц, которые были взяты из видео, сделанных с помощью алгоритма face2face. Этот алгоритм, основанный на системах распознавания лиц, позволяет с высокой долей точности подменить одно лицо на видео другим. Препринт исследования доступен по ссылке. Face2face Алгоритм Face2Face, созданный не так давно, позволяет соединять мимику одного актера с лицом другого. Говоря проще, можно взять любую знаменитость и наложить её лицо на любого человека. При этом если тот человек, на которого накладывается изображение, будет хмуриться или улыбаться, то «наложенная» знаменитость будет все повторять за ним. Такой алгоритм — настоящий клад для тех, кто делает поддельные видео и компроматы. Если хорошо подобрать актера, на которого будут накладывать лицо, то склейки будет почти не видно, и смонтированный образ могут принять за чистую монету. Так, с помощью face2face уже создавали фейковые видео с Обамой и Трампом, а на американском сайте reddit до недавнего времени существовал целый раздел с пользовательскими видео категории «18+», где актрисам «взрослого» жанра подставляли лица Эммы Уотсон, Меган Фокс, Эмилии Кларк и других голливудских див. Впрочем, этот раздел недавно закрыли. Боремся с фейками Чтобы противостоять плодящимся поддельным видео, ученые из Мюнхенского технологического университета во главе с Маттиасом Ниссером решили создать нейросеть. Для обучения любой нейросети нужен датасет — база данных с примерами, на которых программа будет выявлять взаимосвязи. Исследователи взяли для своей программы датасет из лиц, перенесенных на чужие тела с помощью face2face, а также скопированную на лица других людей мимику. Всего в их базу вошло около полумиллиона примеров, а называется этот датасет FaceForensic. На данный момент он самый обширный из всех баз данных для борьбы с видеофейками. Затем специалисты представили FaceForensic своей нейросети XceptionNet для тренировки. Чем лучше сети будут распознавать поддельные видео, тем лучше будет качество у таких подделок, поэтому ученые добавили функцию автоматического улучшения картинки.
Источник: