В куче информации и без того тяжело разобраться, где правда, а где ложь – сейчас сюда еще добавились ложные видеовыступления известных людей.
Обратите внимание! Все приведенные ниже видео – фальшивка. Мы их даем только для примера.
В последние дни украинцы столкнулись с несколькими дипфейками, имитирующими выступления главных лиц страны. Например, сымитировали обращение Главнокомандующего ВСУ Валерия Залужного к народу с объявлением государственного переворота. Или дипфейк-видео спикера Министерства обороны Украины Юрия Игната, где проскакивает непечатное словцо после рассказа о сбитых российских ракетах. А сколько было лживых видео с «президентом Украины» – то объявляющим об отставке, то страшно ругающимся…
Все это нас дезориентирует. Мы уже с трудом понимаем, где правда, а где вымысел – вот же ж правильные слова говорит на видео наш официальный представитель, а что с матерком – так жизнь такая… И вроде понятно, кому выгодно и кто это делает, враг не стесняется применять любые грязные технологии. Вот только пока не понятно, как же отличать реальное событие от вброса. Особенно, если тебе показывают видео, на котором известный человек с узнаваемым голосом…
Дипфейк – «глубокая подделка/обман» - технология подмены лица одного человека другим с помощью алгоритмов машинного обучения. Проще говоря, искусственный интеллект все сильнее захватывает нас, заставляя верить в то, чего не существует, выдавая полную дезинформацию.
Конечно, в идеале эта система могла бы работать только в плюс: представьте, «ожившего» Ван Гога, который рассказывает о своих картинах, или красотку «Одри Хепберн», играющую главную роль в современном фильме (к слову, именно из-за опасения, что их заменят дипфейками, и бастовали голливудские актеры в этом году. Ниже ролик, как заменили лицо Хавьера Бардема в фильме «Старикам здесь не место» - на лицо Роуэна Аткинсона).
А помните мартовский скандал на нашем ТВ, когда один из телеканалов решил заменить в сериале российского актера Прохора Дубравина украинским Дмитрием Саранским? Причем в уже снятом сериале, просто наложив лицо одного артиста на другого? Сериал после скандала решили отложить, но прецедент-то остался!
И, конечно, же дипфейк - это не только сомнительное развлечение или способ заработка. Это еще и составляющая информационных атак.
Дипфейки не берутся из ниоткуда. Специальные программы (они уже есть в широком доступе) анализируют изображения людей, слитые в интернет. Все ваши фотографии с отдыха, в кафе, на работе, с детьми и собаками – все это изучается искусственными мозгами и анализируется.
Затем все до ужаса просто. Работают два алгоритма: один создает видео на основании этих данных, второй «критикует», указывая на недостатки в попытках отличить оригинал от подделки. Затем снова создается видео… И так до тех пор, пока оба алгоритма не решат, что вот теперь-то видео достаточно реалистично.
Если кому-то интересно, то эту технологию разработал в 2014 году студент Стэнфордского университета Ян Гудфэллоу. В 2017-м на интернет-форуме Reddit некто с ником deepfake заменил лица порноактрис лицами знаменитостей. И понеслось! К слову, сейчас 96% дипфейков – именно те самые, «только для взрослых».
Тяжело, особенно если вы не имеете отношения к IT, программированию, инженерии. Программы, распознающие поддельные лица и голоса, уже есть, но будет ли пенсионер запускать, скажем, Microsoft Video Authenticator, чтобы понять, кто просит у него денег по Вайберу – дочь или мошенница, «надевшая» ее лицо. Самого Марка Цукерберга, основателя Facebook, уже «сдипфейчили», и сейчас он вместе с Мичиганским университетом разрабатывает детектор фальшивых изображений.
Но если вы твердо намерены разобраться и помочь разобраться ближнему, воспользуйтесь этими программами, с помощью которых можно обнаружить дипфейки:
Для неспециалистов существуют другие признаки фальшивых фото и видео, но придется быть очень внимательным, распознавая подделку.
1. Простая логика. Если персонаж видео говорит немыслимые для себя, своего статуса или окружения вещи, - это подделка. Не может главком ВСУ или президент в своем видеообращении использовать нецензурные выражения. Не могут Брюс Уиллис или Роуэн Аткинсон – популярные персонажи дипфейков – бегло говорить на любом другом языке, кроме своего родного. Хотя с Брюсом Уиллисом сложнее – из-за болезни актер уже не может сниматься в кино, но он продал права на использование своего цифрового образа компании Deepcake. И вот его лицо – без съемок вживую – уже мелькает в рекламных роликах (в российских, между прочим). Брюс Уиллис – пока первый такой актер, но, увы, не последний.
Посмотреть эту публикацию в Instagram
Но вернемся к логике. Например, глава банка не будет «дарить деньги по ссылке». Если публичная персона захочет сделать важное заявление, она воспользуется официальными каналами связи, а не малоизвестным аккаунтом. И так далее. К слову, официальные каналы, как бы мы их ни критиковали, остаются эдаким островком реальности.
2. Обычно с помощью дипфейков меняют именно лицо. Если речь идет о политиках и нужно быстро склепать фальшивку на злобу дня, то исполнители довольно коряво монтируют лицо к телу. Да и не только о политиках речь – чтобы все было естественно, нужно немало потрудиться, а на это не все готовы. Так что стоит сравнить телосложение персонажа с его изображением в других источниках.
3. Неестественно гладкая кожа. Таковая в реальности может быть у хорошо ухоженных женщин или любительниц «фильтров» в Инстаграме. У всех остальных будут морщинки, складки, вмятинки, неравномерный цвет лица из-за игры света. Мы все живые люди. Но когда с экрана вещает пожилой персонаж и на лице его ни единого проблеска хотя бы микрогримасы плюс абсолютно гладкая молодая кожа – это с высокой долей вероятности будет фейк.
4. В области глаз и бровей могут быть неестественные тени, которые не совпадают с жестами и мимикой персонажа. Кстати, глаза у него будут «мертвые» - смотреть в одну точку или двигаться чисто механически, неестественно, в них не будет бликов, искорок, перепадов света, а также реакции на слова или ситуацию. Улыбающийся персонаж, в глазах которого застыло строгое выражение или недоумение, это стопроцентный фейк. Иногда глаза не совпадают по цвету или размеру. А еще дипфейки слишком редко или слишком часто моргают.
5. На очках, если они имеются, блики как раз и будут, только непонятно откуда. Очки вообще могут быть сгенерированы, как маска в FaceApp, например. Одна сторона носа может быть темнее или светлее другой, ноздри могут различаться по форме. Это результат неумелого наложения маски дипфейка.
6. С волосами тоже беда - пока у искусственного интеллекта не получается сделать фальшивые волосы идентичные настоящим. Присмотритесь к границе волос и кожи, она будет «гулять» либо располагаться не там, где обычно. У дипфейк-мужчин могут появиться бакенбарды.
7. Зубы у дипфейк-персонажа не прорисованы и выглядят как единое белое пятно, которое еще и не всегда двигается в такт губам. А губы не совпадают с тем, что человек говорит.
8. И опять – глаза. Эксперты сравнивают свет, отраженный в роговицах. На фотографии реального человека, сделанной камерой, отражение в двух глазах будет одинаковым, потому что они видят одно и то же. У дипфейка в глазах будет непонятно что и разное.
9. Если попросить собеседника на видео повернуться в профиль, то лицо дипфейка сразу же «поплывет». Пока еще ни одна маска не в состоянии создать правдоподобный профиль человека, повернувшего лицо на 90 градусов. Маска «уплывает», начинают проявляться черты реального человека. Все дело в том, что ИИ анализирует фотографии в соцсетях, а там люди изображены преимущественно анфас. Корректно «повернуть» голову программа не может – мало данных…
10. Также если дипфейк помашет рукой перед лицом, то можно без особого напряжения увидеть проблемы наложения реального объекта на сгенерированный. Рука, проходящая через микрофон на одной из прошлогодних якобы офлайн-встреч лидера страны-агрессора, - это оно и было.
К слову, из свеженького. 14 декабря на прямой линии к Путину обратился его двойник, созданный по технологии дипфейк. Спрашивал тоже о двойниках.
11. Чтобы на удочку попались не самые внимательные, мошенники часто записывают видео низкого качества, чтобы скрыть помехи, описанные выше. Мы живем в XXI веке, и в самом дешевом смартфоне уже достаточно высокое качество записи видео и фото. Так что и этот дипфейк может быть быстро развенчан.
12. Антураж дипфейка. Сообщение, в котором используется сгенерированное с целью обмана изображение, обычно имеет броский заголовок (кликбейт), который может даже шокировать. Чаще всего на темы:
Еще раз: вся реальная информация находится на официальных сайтах или идет от уполномоченных лиц. В сообщениях с дипфейком могут быть грамматические и орфографические ошибки, много восклицательных знаков, капслок, фразы «Не хотелось в это верить, но САМ сказал» или «Срочное сообщение ко всем!» Все реальные срочные сообщения идут по всем каналам, в том числе по телевидению и радио. Можно сверить, сличить, понять, что в данном сообщении – дипфейк.
13. Не стоит забывать о существовании юмористических сайтов, которые большими буквами на первой странице пишут, что их новости являются сатирическим вымыслом. Там дипфейки могут быть частично оправданы. Жаль, что иногда эти новости перепечатывают серьезные СМИ, не заботясь о проверке фактов.