Фейки в Интернете.

Фейк — это действие или заявление, направленное на введение в заблуждение; преднамеренная ложь; новости, которые включают дезинформацию.

Например, вы знакомитесь по телефону с красивой и умной девушкой Ангелиной. По ее рассказам, рост у нее 170, вес – 55, 25 лет, она голубоглазая блондинка, работающая в банке, у которой есть своя машина, квартира и богатые родители. После того, как вы узнаете ее получше – решаетесь встретиться с вашей мечтой. Но на свидание неожиданно приходит брюнетка Фатима, ростом 155, весом 100 кг, 40 лет, без образования, нигде не работающая. Девушка Ангелина – это человек-фейк, а Фатима - суровая реальность.

Фейки запускаются в интернет со следующими целями:

  • успешные знакомства с противоположным полом;
  • посещение чужих страниц и присутствие в соцсетях инкогнито;
  • продвижение какого-либо товара или услуги в соцсетях, накрутка лайков, комментариев и т.п.;
  • фейковый профиль знаменитости для накрутки подписчиков;
  • создание “видимости” движений на сайтах, в форумах, комментариях;
  • мошенничество в Интернете: “липовая” продажа или покупка товаров и услуг;
  • психологические проблемы создателей: представление себя как другого героя.

 

Особенности фейкового аккаунта

  • Существует недавно.
  • Может прикрываться известной личностью.
  • Анкета заполнена не полностью, нет индивидуальности.
  • Странное имя (часто к нему добавляется продвигаемый товар или услуга).
  • Мало фотографий.
  • Спам на стене.
  • Человек может редко заходить на страницу.

С фейками постоянно борется администрация социальных сетей. Введена попытка верификации пользователей и штрафы за спам.

 

Как проверить фото в интернете на фейк?

Установить подлинность картинки очень легко, но многие пользователи верят каждому фото без проверки.

 

Быстрый способ

В браузере Google Chrome кликните по изображению правой кнопкой мыши подозрительной и выберите «Найти картинку в Google». Или перетащите картинку в поисковую строку Google для изображений. Поисковик выдаст дубликаты и похожие изображения, и вы увидите, было ли «дорисовано» сомнительное фото. Оцените дату публикаций дублей. Если вам прислали новость с сомнительным фото, а дата публикации дубля – намного ранее, значит, фото – фейк. И подобная новость также может им являться.

 

Специальные сервисы и программы

Findexif, Foto Forensics, TinEye – сервисы в Интернете, JPEGSnoop – ПО под Windows. Последнее может изучить также видео-форматы и многие другие.

 

Как проверить фотографию:

  • Установить первоисточник при помощи ПО или сервисов. Как правило, если вы найдете изображение с максимальными высотой и шириной - оно и будет первоисточником.
  • Рассмотрите фото. Обратите внимание на качество, цвета, наложение теней, брызги, облака и все то, что трудно подделать.
  • Проанализируйте погоду. Если в день создания фото был дождь, а на фото его нет, то это подделка.
  • Установите гео-локацию фото. Вам помогут Google Maps, Panoramio или Wikimapia. Есть также платный Geofeedia, который выдает результаты по географической привязке.
  • Проверьте личность, которая поставляет фейковые изображения. Для этого в Яндексе есть интересный сервис People.

 

Для создания фейков в интернете есть множество причин. Поэтому вам нужно научиться отличать правду от вымысла. А вот догадываться о целях создания какого-либо фейка – занятие неблагодарное.

 

Дипфейки: новые технологии обмана

 

Слово дипфейк (Deepfake) является составным и происходит от deep learning (глубинное обучение) и fake (фейк, подделка). Глубинное обучение – это сложный метод на базе искусственного интеллекта, который использует многоуровневые алгоритмы машинного обучения для извлечения все более сложных характеристик из необработанных входных данных. При этом ИИ способен обучаться на неструктурированных данных – таких как изображения лиц. Например, ИИ может собрать данные о движениях вашего тела.

Затем эти данные могут быть обработаны для создания дипфейк-видео при помощи так называемой генеративно-состязательной сети (Generative Adversarial Network, или GAN). Это еще одна специализированная система машинного обучения. В ней задействовано две нейросети, которые состязаются друг с другом, изучая характеристики учебных наборов данных (например, фотографий лиц) и создавая новые данные на базе этих характеристик (то есть новые «фотографии»).

Поскольку такая сеть постоянно сверяет создаваемые образцы с исходным учебным набором, поддельные изображения выглядят все более и более правдоподобно. Именно поэтому угроза, которую представляют дипфейки, постоянно растет. Кроме того, сети GAN могут создавать и другие поддельные данные помимо фотографий и видео. Например, дипфейк-технологии могут использоваться для имитации голоса.

 

Примеры дипфейков

 

Качественные дипфейки с участием знаменитостей найти несложно. Один из примеров – фейковое видео, выложенное актером Джорданом Пилом. Он записал небольшую речь голосом Барака Обамы, которая затем была совмещена с видеосъемкой реального выступления этого политика. Затем Пил продемонстрировал, как выглядят обе составляющие этого видео, и призвал своих зрителей критически относиться ко всему, что они видят.

Видео с руководителем Facebook Марком Цукербергом, в котором тот якобы говорит о том, как Facebook «управляет будущим» с помощью украденных данных пользователей, появилось в Instagram. На оригинальном видео запечатлена его речь в связи со скандалом о «русском следе» в выборах президента США – для создания фейка оказалось достаточно фрагмента длиной всего в 21 секунду. Однако голос Цукерберга был сымитирован не так хорошо, как в пародии Джордана Пила на Обаму, и фальшивку было легко распознать.

Впрочем, даже менее качественные подделки могут вызвать живой отклик. Видео с «пьяной» Нэнси Пелоси, спикером Палаты представителей США, набрало миллионы просмотров на YouTube – а это был всего лишь фейк, сделанный с помощью замедления реального видео, чтобы создать видимость невнятной речи. Кроме того, немало известных женщин внезапно обнаружили себя в роли порнозвезд – их лица были вмонтированы в порнографические ролики и изображения.

 

Мошенничество и шантаж с использованием дипфейков

 

Дипфейк-видео неоднократно использовались в политических целях, а также как способ мести. Однако сейчас к этим технологиям все чаще стали прибегать для шантажа и проворачивания крупных афер.

У генерального директора британской энергетической компании мошенники смогли выманить 220 000 евро с помощью дипфейковой имитации голоса руководителя головной компании, якобы запросившего срочно перевести указанную сумму. Подмена была настолько натуралистичной, что обманутый директор не стал перепроверять информацию, хотя средства переводились не в головной офис, а на сторонний счет. Только когда «босс» запросил еще один трансфер, его собеседник заподозрил неладное, но переведенные деньги уже бесследно исчезли.

Во Франции недавно прогремела афера, в которой, правда, технология дипфейков не использовалась, – мошенник по имени Жильбер Шикли выдавал себя за министра иностранных дел Франции Жана-Ива Ле Дриана, с большой точностью воссоздав не только его внешность, но и обстановку рабочего кабинета. Аферист от имени министра обращался к состоятельным частным лицам и руководителям компаний с просьбой выделить средства на выкуп французских граждан, оказавшихся в заложниках террористов в Сирии. Таким образом ему удалось выманить несколько миллионов евро. Сейчас это дело рассматривается в суде.

Авторы дипфейков могут шантажировать руководителей крупных компаний, угрожая опубликовать фейковое видео, способное подорвать их репутацию, если те не заплатят отступные. Также мошенники могут, например, проникнуть в вашу сеть, сымитировав звонок от IT-директора и обманом заставив сотрудников предоставить пароли и привилегии доступа, после чего ваши конфиденциальные данные окажутся в полном распоряжении хакеров.

Фейковые порноролики уже использовались с целью шантажа женщин-репортеров и журналисток, как, например, произошло в Индии с Раной Айюб, которая занималась разоблачением злоупотреблений властью. Технологии производства дипфейков дешевеют, так что можно прогнозировать рост их использования в целях шантажа и мошенничества.

 

Как защититься от дипфейков?

 

Проблему дипфейков уже пытаются начать решать на законодательном уровне. Так, в штате Калифорния в прошлом году было принято два закона, ограничивающих использование дипфейков: законопроект AB-602 запретил использование технологий синтеза изображений человека для изготовления порнографического контента без согласия изображаемых, а AB-730 – подделку изображений кандидатов на государственные посты в течение 60 дней перед выборами.

Но окажутся ли эти меры достаточными? К счастью, компании в сфере безопасности постоянно разрабатывают все более совершенные алгоритмы распознавания. Они анализируют видеоизображения и замечают незначительные искажения, возникающие в процессе создания фальшивки. Например, современные генераторы дипфейков моделируют двумерное лицо, а затем искажают его для встраивания в трехмерную перспективу видеоролика. По тому, куда направлен нос, легко распознать подделку.

Пока что технологии создания дипфейков еще недостаточно совершенны, и признаки подделки зачастую видны невооруженным глазом. Обращайте внимание на следующие характерные признаки:

  • неровное движение;
  • перемены освещения в соседних кадрах;
  • различия в оттенках кожи;
  • человек на видео моргает как-то странно или не моргает вообще;
  • плохая синхронизация движения губ с речью;
  • цифровые артефакты в изображении.

Однако по мере совершенствования технологий ваши глаза все реже будут распознавать обман – а вот хорошее защитное решение обмануть будет куда сложнее.

 

 

Уникальные антифейковые технологии

Некоторые развивающиеся технологии уже помогают создателям видеоконтента защищать его аутентичность. С помощью специального шифровального алгоритма в видеопоток с определенными интервалами встраиваются хеши; если видео будет изменено, хеши также изменятся. Создавать цифровые сигнатуры для видео также можно, используя ИИ и блокчейн. Это похоже на защиту документов водяными знаками; в случае с видео, правда, трудности заключаются в том, что хеши должны оставаться неизменными при сжатии видеопотока различными кодеками.

Еще один способ борьбы с дипфейками – использовать программу, вставляющую в видеоконтент специальные цифровые артефакты, маскирующие группы пикселей, по которым ориентируются программы для распознавания лиц. Этот прием замедляет работу дипфейк-алгоритмов, и в результате качество подделки будет более низким, что, в свою очередь, снизит вероятность успешного использования дипфейка.

Читать далее...