Как проверить видео на фейк приложение
В понедельник, 6 сентября в сети появилось рекламное видео, на котором миллиардер и основатель Тинькофф Банка Олег Тиньков обещал подарить деньги. «Давайте бегом за бонусом. Мы дарим +50% к вашей сумме вложений. Например, вы инвестируете 20 000 рублей, а на счет для работы получаете 30 000 рублей, а там с нашим экспертом и все 70 000 за месяц можно заработать. » — говорит в видео человек с лицом Тинькова. Обращение оказалось подделкой — его записали мошенники с использованием технологии дипфейк. Представитель Тинькофф сообщил тогда Forbes, что видео — подделка и компания работает над его блокировкой.
В тот же день Forbes обнаружил еще одно видео, на котором рэпер Моргенштерн обещал подарить от 10 000 до 100 000 рублей всем, кто перейдет по ссылке. Пройдя по указанному адресу, пользователь попадает на баннер, на котором написано «Осталось три часа. Забирай свои 100 000 рублей скорее». Причем, отсчет в три часа не меняется — даже если зайти через шесть часов. Если подобный трюк с Тиньковым мошенники проделывают впервые, то с Моргенштерном похожая ситуация произошла в марте этого года. Тогда музыкант якобы предлагал получить денежные выплаты, но у тех, кто решил это сделать, начали пропадать деньги с банковских счетов.
Дипфейк (deepfake) — это технология создания и замены элементов на существующих видео при помощи искусственного интеллекта и нейронных сетей. Дипфейк можно использовать в качестве безобидной шутки, например, поместив свое лицо вместо лица любимого актера из фильма, или же использовать в более корыстных целях. Количество дипфейков растет стремительно. Если в декабре 2019 года исследовательская компания Sensity AI обнаружила около 24 000 подделок, то к концу 2020 года — уже 85 047 фейковых видео, созданных с использованием этой технологии.
В России мошенники пока неактивно используют дипфейки для обмана. Во втором квартале 2021 года они украли с банковских счетов россиян более 3 млрд рублей, совершив свыше 236 000 денежных переводов без согласия клиентов, говорится в отчете Центробанка. Для хищения денег злоумышленники в основном использовали телефонные звонки «служб безопасности» банков или создавали поддельные интернет-ресурсы.
Но популярность этой технологии у киберпреступников будет только расти, поскольку она уже широко доступна и продолжает постоянно совершенствоваться и упрощаться, считает руководитель отдела специальных проектов департамента Digital Risk Protection Group-IB Владимир Калугин. Помимо такого мошенничества, как в случае с дипфейком Тинькова, технология может применяться для получения конфиденциальных сведений с помощью распознавания лица, добавляет он.
Как обезопасить себя от дипфейка?
Легко ли сделать дипфейк
Для создания дипфейк-видео могут использоваться развлекательные приложения, например, RefaceAI (более 100 млн скачиваний в Google Store), или более продвинутые программы с готовыми библиотеками, такие как DeepFaceLab и SimSwap, говорит Калугин. SimSwap, по словам эксперта, требует минимальных технических навыков, обладает невысокими требованиями к мощности системы и распространяется с предобученной моделью, позволяя создавать дипфейк-видео на основании одного лишь фото.
Сегодня, чтобы создать дипфейк, не нужно владеть инструментами редактуры видео на очень высоком уровне, соглашается старший исследователь данных в «Лаборатории Касперского» Владислав Тушканов. С другой стороны, по его мнению, самые известные дипфейки — например, «альтернативное поздравление» от королевы Великобритании или дипфейк с Томом Крузом, играющим в гольф, — были сделаны профессионалами в области видеоэффектов, а в последнем случае — еще и с помощью профессионального актера-двойника.
Как распознать дипфейк
Сейчас существуют автоматизированные системы, которые распознают дипфейк. Одну из таких систем разработали в Университете Буффало, она определяет подделку по ошибочным отражениям в глазах.
В целом, мошеннические видео несложно распознать. Как в случае с «поддельным» Тиньковым: человека в ролике, при внимательном изучении, легко отличить от реального, звучит другой голос, качества видео плохое, и распространяется оно в соцсетях — то есть предназначено для просмотра с небольших экранов мобильных устройств, говорит Тушканов. На это и рассчитывают мошенники: в ленте соцсети пользователя убедит даже просто примерно похожий персонаж и логотип известного банка рядом.
Несмотря на то, что технологии становятся все реалистичнее, они пока не смогли преодолеть так называемый эффект «зловещей долины» (uncanny valley) — явление, при котором малейшая неестественность во внешнем виде и поведении робота или объекта, выглядящего и действующего как человек, вызывает у наблюдателя тревогу и неприязнь, говорит Калугин. Он советует обратить внимание на пять основных моментов:
- на излишнюю пикселизацию, дефекты, нечеткое и смазанное изображение, дублирование элементов;
- на неестественную мимику, особенно при моргании, движении бровей и губ;
- на низкое качество видео, за которым нередко пытаются скрыть некорректную работу нейросетей;
- на отличия в телосложении, прическе и голосе. Злоумышленники нередко подбирает похожих по типажу актеров, а голос может быть также скорректирован с помощью технологии дипфейк, например, в программах RealTimeVoiceCLoning, Resemble и Descript;
- в наиболее популярных решениях заменяется только лицо, поэтому можно заметить границу замененного лица, различие в тенях, освещенности и оттенке кожи.
Но самое эффективное действие — обращать внимание на то, кто, где и как распространяет видео, не нужно доверять видео с непроверенных и сомнительных сайтов или видео, опубликованных третьими лицами без подтверждения в официальных источниках, советует Калугин.
Плохая новость в том, что между исследователями, которые создают алгоритмы генерации дипфейков, и теми, кто исследует способы их обнаружения, идет своего рода гонка: когда обнаруживается несовершенство дипфейка, на его основе создают способ обнаружения, но следующее поколение алгоритмов для генерации уже учится обходить этот способ, говорит Тушканов.
Как избежать обмана
Основной способ борьбы со злоумышленниками, использующими дипфейки для зловредных целей — это повышение осведомленности пользователей о подобном явлении и базовых правилах кибербезопасности, говорит Тушканов.
Нужно критически относиться к крайне щедрым предложениям, только мошенники обещают много денег просто так, продолжает он. Не нужно верить предложениями, где известная личность предлагает поучаствовать в беспроигрышной лотерее или совершить какое-либо сомнительное действие в интернете. Нужно проверять данные на официальном сайте компании или организации, от имени которой предлагается выплата, прежде чем предпринимать какие-то действия.
Легко ли найти мошенников, которые делают дипфейки
Дипфейк-видео могут стать дополнительной зацепкой при проведении расследования, например, если в качестве базы используется фотография, доступ к которой имело ограниченное количество людей, или, если было использовано специально отснятое видео, то можно предположить где и когда оно снималось видео, на какую аппаратуру и кто участвовал, говорит Калугин.
Основная проблема в том, что интернет — это сеть, не имеющая границ, и более длительный период времени занимает не сам процесс установления и поиска «создателя», а организация процесса фактического взаимодействия с ним правоохранителей, считает адвокат дистанционного юридического сервиса «Амулекс.ру» Любовь Шебанова.
Руководитель юридической практики компании «Интерцессия» Кирилл Стус считает, что найти создателей дипфейка простому пользователю практически невозможно, так как мало кто знает и может отследить цифровой след создателя файла.
Что делать, если вы стали жертвой мошенников
Пользователь может подать заявление о блокировке информационного ресурса и обратиться с иском к регистратору доменного имени, на котором распространяется дипфейк, либо подать заявку на блокировку интернет-ресурса в Роскомнадзор, сказал Стус.
Создателей дипфейков можно привлечь к ответственности, если будет доказано создание и использование дипфейков для, например, вымогательства или мошенничества, говорит Шебанова. Для таких случаев подходит, к примеру, статья 159 УК РФ (мошенничество) или же статья 152 ГК РФ, позволяющая человеку, чье изображение было использовано в дипфейке, обратиться с иском о защите чести достоинства и деловой репутации, говорит Стус. Правда, сложившейся судебной практики по дипфейкам ни в России, ни в других странах, не существует, громкие случаи из СМИ нельзя назвать массовыми, а решения по ним единообразными, добавила Шебанова.
В соцсетях часто постят поддельные видео - не только вирусные ролики, но и политические фейки. Проверить такие записи поможет инструкция DW.
Как отличить фейковое видео
Старые видео в новом контексте
Часто юзеров обманывают, даже не подделывая видео. Один из самых распространенных приемов - выдать старые съемки за новые или вырезать из них отдельные сцены и показать их в другом контексте. Таких примеров было много в начале российско-украинского конфликта, когда за кадры военных действий в Украине выдавали записи из Чечни.
Поэтому важно убедиться, что вы смотрите оригинал. Проверить это можно при помощи скриншотов - их нужно прогнать через обратный поиск по картинкам в поисковике, воспользоваться сервисом YouTube Data Viewer от Amnesty International или плагином InVid. В результатах поиска появятся все похожие видео, среди которых будет и исходник.
Посмотрите на дату первой публикации, могло ли произойти событие именно в это время? По вывескам, номерам машин, названиям улиц и одежде героев нередко можно понять, где на самом деле сняли это видео.
Фейковое видео выдают детали
Детали в подозрительных видео тоже стоит проверять. Если тени отсутствуют или не совпадают, то, вероятно, в видео были вставлены объекты из другого ролика.
Обратите внимание на зернистость, шумы и резкость. Предметы и фигуры по качеству изображения отличаются от фона? Вероятно, видео поддельное. Если ролик размещен в низком качестве и картинка размытая, доверять ему не стоит.
Профессиональные подделки в интернете
Сомнения вызывал только один момент - сюжеты были не очень реалистичными: сноубордистку на склоне преследовал медведь, парень делал селфи на фоне торнадо, нападение акулы было зафиксировано на GoPro. Так что всегда нужно задаваться вопросом, могли ли события в кадре произойти на самом деле.
Новейшие технологии позволяют записать видео с любым героем - его мимику, жесты и тембр голоса воссоздает специальная программа. Изменить можно даже погоду в кадре. Такие фейки отличить сложнее всего.
Так что самое важное - критически оценивать видео и не верить всему, что на экране.
Другие выпуски проекта DW "Как выжить в соцсетях" смотрите здесь.
Итак, вам попалось видео. Эмоциональное, шокирующее, о текущих событиях или давящее на болевые точки общества. Прежде чем делать репост или оставлять комментарий, проверьте, не вводят ли вас в заблуждение.
Шаг 1. Оригинальное ли это видео или нет?
Подобное могли выложить в интернете ранее, вполне возможно в ином контексте. Проверить это можно через поиск заглавного кадра видео с помощью Google Image Search или TinEye, которые как раз ищут в базе схожие изображения. Еще может пригодиться инструмент от Amnesty International – Youtube Data Viewer, который сам генерирует отдельные кадры из ролика и ищет в Google Image Search. Результаты выдадут список ссылок с аналогичными или схожими видео. Таким образом можно будет сравнить даты залитых видео.
Другой способ: найти заголовок, описание, теги, комментарии видео и попробовать вбить их в поиск Youtube, нажав при этом в фильтрах поиска параметр «Дата публикации». Вполне возможно, что его двойники существовали уже давно.
Казахстанский кейс:
Сошедший 23 июля 2015 года сель в Наурызбайском районе Алматы стал поводом к распространению видео в мессенджерах и социальных сетях, где бурные потоки сносили все на своем пути. Видео, конечно, вызвало панику.
Ищем схожее видео без логотипа через поиск Youtube. Так будет проще найти оригинал. Находим.
Проверяем видео через Amnesty International Youtube Data Viewer, которое генерирует нам несколько кадров из него со ссылками на Google Image Search.
Переходим по ссылкам.
В потоке ссылок о катаклизме в Казахстане выделяется ссылка на материал о сели в Карачаево-Черкеском районе России, граничащим с Краснодарским краем, который прошел там тремя неделями раннее, а именно 2 июля 2015 года. Проверяем, писали ли о катаклизме другие издания.
Да, такой катаклизм действительно прошел в Карачаево-Черкесии в 2015 году. Оригинал видео найден? (Не найден, см. апдейт).
ОБНОВЛЕНО 13 марта 2021: дальнейший поиск привёл нас к ролику, залитому ещё раньше — в 2014 году. Это даже не Карачаево, а Сербия.
Шаг 3. Где оно было снято?
Ищите визуальные зацепки в видео: дорожные, автомобильные и прочие знаки, дома, одежда, отличительные пейзажи, мосты, наличие гор или их отсутствие. С помощью этих зацепок, текста, комментариев к видео попробуйте пробить месторасположение через Google Maps. Включите опцию Street View, настройте угол обзора как в видео. Если Street View не работает, включите опцию «Фотографии», возможно фото в этом разделе, помеченные геолокационной меткой, дадут следующие зацепки. Геолокация также есть в расширенных настройках Twitter, Instagram, Flickr и Picasa.
В помощь геолокации есть также ресурс Wikimapia, где на картах отмечены здания, промышленные зоны и военные объекты, но следует помнить, что как и все Wiki-проекты, в нем может быть неверная информация. Более достоверный, но полезный только в ряде случаев сервис Google Earth, который предоставляет снимки со спутников. Это может пригодиться, если ландшафт, запечатленный в видео, изменился со временем.
Всматривайтесь в другие детали: к примеру солнце и тени могут подсказать время съемок. Если в видео есть речь, подумайте, на какой язык или диалект она похожа. Не забывайте про силу Google Translate, однако помните, что он дает осечки. Если в вашем окружении есть носитель языка, лучше посоветоваться с ним.
Казахстанский кейс:
В феврале 2016 года в Казахстане распространение получил ролик о якобы свершенном теракте в Шымкенте.
Сомнительных зацепок в нем достаточно: во-первых, речь – русский напополам с языком явно не казахским, во-вторых, номерные знаки машин.
Шаг 4. Когда было снято видео?
Ответить на этот вопрос сложно из-за частого отсутствия metadata, т.е. выходных данных видео. Остается только изучать момент самого раннего появления ролика в интернете: на Youtube, например, дата и время видео ставится с начала времени заливки на ресурс, причем в стандартном Тихоокеанском времени.
Еще один способ – проверить погоду в тот день. Wolphram Alfa хранит информацию о погоде в любой точке планеты.
DeepFake — это "народное" название нейросетевой технологии face swap , которая позволяет путём соединения изображений и видео с разными людьми создавать ролики, на которых человек делает и говорит то, чего никогда в жизни не делал и не говорил.
Например, комбинируя видео выкрикивающего нецензурную брань на улице неизвестного алкоголика и видео выступающего на трибуне Дональда Трампа, можно создать видео на котором бывший президент США своим же собственным голосом выкрикивает нецензурную брань на улице.
4 апреля 2016 года на канале Quartz было опубликовано видео, в котором молодые учёные из Станфордского университета показывает как с помощью созданной в их исследовательской группе технологии face swap (работа над которой началась еще в 2014 году) им удается заставлять Владимира Путина и Дональда Трампа повторять сказанные ими слова и копировать их мимику.
В 2017-м году технология стала доступна за пределами Стандфорда и случился бум "дипфейков" на Reddit. Пользователь с ником Deepfakes (ныне уже заблокированный) начал массово создавать "видео для взрослых", в которых лица звезд мирового масштаба "накладывались" на лица малоизвестных женщин.
Технология DeepFake часто используется для создания поддельных выступлений мировых лидеров и глав крупнейших корпораций. Примеры:
Дональд Трамп, выступающий на французском языке с обращением к жителям Бельгии с призывом не признавать Парижские соглашения по климатическому урегулированию.
Марк Цукерберг, признающийся в том, что Facebook смогла достичь такого успеха благодаря помощи "тайной организации".
Илон Маск, поющий "Землю в иллюминаторе".
Технология также используется для замены актеров в популярных фильмах и певцов в музыкальных клипах.
Сегодня сделать свой DeepFake может каждый у кого есть мощный компьютер, свободное время и бесплатное приложение DeepFaceLab (доступно на GitHub).
С каждым днём количество таких подделок растёт. И очень важно уметь отличать их от "обычных" видео. Ведь в ближайшие годы ожидается широкое применение технологии для мошенничества (например, фейковые видео-просьбы перевести деньги на счёт от коллег и членов семьи).
Большинство "дипфейков" делаются наспех и их качество настолько низкое, что с первых же кадров зритель чувствует подвох и четко видит, что с лицом у человека на видео происходит что-то не то.
Даже самые тщательно проработанные и кропотливо подготовленные DeepFake-видео содержат определенные "шероховатости", которые могут быть незаметны человеку, но легко распознаются с помощью специальных программ-сканеров.
Читайте также: