Содержание

Что такое фейк. Фейк в соцсетях, как отличить фейк


В русском разговорном языке присутствует множество иностранных заимствований, о значении которых догадываются не все, хотя слышат и даже употребляют их многие. Одно из них — «фейк».

Что такое фейк, что означает это слово?

Фейком — принято в интернете называть подделку или фальсификацию. Примерно так и переводится на русский английское слово fake. С фейком мы встречаемся не только в интернете, но и в реальной повседневной жизни. Кто не видел батарейки TOSHIHBA, спортивную одежду Adibas? А кто-то видел телефон Nokla? Таких примеров можно привести сотню и все они — примеры «фейка».

Живет и здравствует это явление и в интернете. Ненастоящие аккаунты на форумах и в соцсетях, специально созданные с мошеннической целью страницы, в точности повторяющие главные страницы популярных сайтов – все это фейк.

Фейковые страницы в социальных сетях (вк, facebook и т.

д.) и на форумах

Общаясь в социальной сети или на форуме с человеком, которого в жизни ни разу не встречал, невозможно быть уверенным в том, что он — именно тот, за кого себя выдает. В этом может и не быть ничего страшного — так чаще всего и происходит.

«Неправильные» аккаунты могут создаваться просто для расширения общения или для создания уникального виртуального образа — исключительно для интереса. Бывают необходимы такие аккаунты и для продвижения сайтов, услуг или созданных в той же соцсети группы.

Но этой же возможностью пользуются и мошенники, например, с целью заманить доверчивого пользователя на специально созданный сайт, посещение которого может принести немало неприятностей, вплоть до потери собственных денег. Мошенники посредством фейковых аккаунтов могут также проследить перемещения пользователей, неосторожно оставляющих во всеобщем доступе приватные сведения. Результат — квартирные кражи и ограбления…

«Левый» аккаунт в социальной сети можно вычислить — например, по отсутствию альбома с разными фотографиями самого пользователя. С такими «друзьями» лучше не общаться.

Как отличить фейк и не пострадать от фейка

О том, как определить фейковый аккаунт в социальной сети, мы уже говорили. Чтобы не нарваться на неприятности в интернете вообще — тоже есть средства:

  • Имеет смысл проверять правильность ссылки, по которой предлагается пройти — некоторые из них очень похожи на адреса популярных сайтов;
  • Не стоит на незнакомых сайтах и даже в интернет-магазинах вводить в поля предлагаемой формы конфиденциальные данные — паспортные, данные банковской карты, и так далее.

Фейк в интернете — опасен. Чаще всего он приводит к заражению компьютера пользователя и даже потере денег, в случае кражи паролей. Поэтому во время пользования интернетом и ввода данных следует проявлять осторожность.

iPipe – надёжный хостинг-провайдер с опытом работы более 15 лет.

Мы предлагаем:

Как распознать фейковые новости | Лаборатория Касперского

Что такое фейковые новости?

Фейковые новости – это ложная или вводящая в заблуждение информация, выдаваемая за реальные новости. Как правило, фейковые новости делятся на две категории:

  1. Заведомо ложная информация – автор, публикующий материал, знает, что в нем содержатся недостоверные сведения. Целью таких действий может быть манипулирование общественным мнением или увеличение посещаемости определенного веб-сайта.
  2. В целом неточная информация, но содержащая достоверные данные. В этом случае автор мог проверить не все факты или преувеличить некоторые аспекты, чтобы подчеркнуть конкретную точку зрения.

Дезинформация – это не новое явление. Термин «фейковые новости» появился еще в XIX веке, но интернет и социальные медиа изменили способы создания и распространения фейковых новостей. До появления интернета люди, как правило, получали новости из надежных источников в СМИ, журналисты которых были обязаны соблюдать строгие нормы профессиональной этики. С распространением интернета появились новые способы публикации, обмена и потребления новостей и информации, а стандарты контроля и редакционные нормы значительно снизились. Многие теперь читают новости в социальных сетях и других онлайн-источниках. Однако не всегда легко определить, какие истории являются достоверными, а какие – нет.

Типы фейковых новостей

Существуют разные типы фейковых новостей. Они зависят от мотивации тех, кто их создает. Например:

Кликбейтные заголовки

Сенсационность продает – возмутительные и необычные истории или искаженные изображения увеличивают количество просмотров и распространение публикаций в интернете. Кликбейтные заголовки используются специально для привлечения посетителей на сайт и увеличения доходов владельцев сайта от рекламы. Однако часто это делается в ущерб правдивости и точности информации.

Пропаганда

В целях пропаганды используется ложная информация или искаженные факты, задача которых – ввести аудиторию в заблуждение и продвигать политическую программу или предвзятую точку зрения.

Журналистика низкого качества

Иногда у журналистов нет времени проверить все факты перед публикацией, в результате чего обычные ошибки порождают фейковые новости. Однако в обновленных доверенных источниках таких ошибок не будет, и читатели смогут получить достоверную информацию.

Вводящие в заблуждение заголовки

Иногда сама новость может быть в целом правдивой, но чтобы побудить читателей открыть ее, используется сенсационный или вводящий в заблуждение заголовок. Это может привести к появлению фальшивых новостей, поскольку в социальных сетях – основном месте распространения новостей, обычно отображается только заголовок и небольшой фрагмент статьи.

Подставной контент

В этом случае ложные, выдуманные истории выдаются за сведения из подлинных источников новостей, с целью ввести аудиторию в заблуждение.

Сатира и пародия

Некоторые фейковые новости публикуются с целью развлечения. Это сатирические истории на основе актуальных новостей или об известных личностях, с юмором, иронией и элементами преувеличения. Такие истории не пытаются ввести аудиторию в заблуждение, их не следует воспринимать всерьез. Известные примеры сатирических сайтов: The Onion и The Daily Mash.

Известно, что высокопоставленные политики опровергают и называют «фейковыми новостями» информацию, с которой они не согласны, несмотря на то, что это фактически подтвержденные сведения. «Фейковые новости» – это широкое понятие, означающее разные вещи в понимании разных людей, и его значение может вызвать разногласия. В 2018 году британское правительство запретило использовать этот термин в официальных документах, заявив, что он не имеет четкого содержательного определения. Вместо этого для описания ложных историй предпочтительно использовать термины ложные сведения и дезинформация

.

  • Дезинформация – поддельная или вводящая в заблуждение информация, создаваемая и распространяемая преднамеренно, часто с финансовыми или политическими мотивами.
  • Ложные сведения – это также поддельная или вводящая в заблуждение информация, но в этом случае ее целью не является преднамеренный обман.

Как распространяются фейковые новости

Фейковые новости обычно распространяются через фальшивые новостные сайты, которые часто копируют внешний вид подлинных источников новостей с целью вызвать доверие пользователей. Согласно исследованиям, через социальные сети ложная информация распространяется быстрее, чем настоящие новости. Причиной быстрого распространения фейковых новостей является их обращение к эмоциям, поэтому они часто содержат странные утверждения или вызывают гнев или страх.

Ленты социальных сетей приоритизируют контент по показателям вовлеченности, то есть на основании того, как часто пользователи делятся и лайкают определенный пост, а не того, насколько он точен или основательно подготовлен. Такой подход приводит к широкому распространению новостей с кликбейтными заголовками, преувеличенных данных и дезинформации. Компании, представляющие социальные сети, рассматриваются как платформы, а не как издатели, а значит, не несут такой же юридической ответственности, как традиционные СМИ. Однако по мере развития политических и правовых аспектов ситуация может измениться.

В социальных сетях фейковые новости могут распространяться ботами, массово выпускающими и распространяющими статьи, независимо от надежности их источников. Боты могут создавать поддельные аккаунты, которые впоследствии зарабатывают подписчиков, признание и авторитет. Некоторые такие аккаунты используются для распространения ложной информации.

Тролли – это пользователи, цель которых – провоцировать споры и выводить из себя других пользователей. Они также играют определенную роль в распространении фейковых новостей. Иногда им могут платить за такие действия по политическим причинам. Термины «ферма троллей» или «фабрика троллей» иногда используются для обозначения организованных групп троллей, пытающихся вмешиваться в процесс принятия политических решений.

В фейковых новостях иногда используются дипфейки. Это фальшивые видеоролики, созданные с помощью цифрового программного обеспечения, машинного обучения и замены лиц. Изображения объединяются в новые видеоролики, показывающие никогда не происходившие в реальности события или действия. Результаты могут оказаться весьма убедительными, не позволяющими идентифицировать их как ложные.

Примеры фейковых новостей

Фейковые новости о коронавирусе

Пандемия Covid-19 является благодатной почвой для распространения ложной информации в интернете. На всем протяжении кризиса возникало множество фейковых новостей. Одним из примеров фейковых новостей в социальных сетях стала информация о том, что технология 5G связана с распространением вируса. Якобы потому, что 5G подавляет иммунную систему, в то время как вирус передается через радиоволны. Хотя эти утверждения не соответствуют действительности и неоднократно опровергались официальными источниками, они по-прежнему широко распространены.

Президентские выборы в США в 2016 году

Фальшивые новости и дезинформация повлекли серьезные проблемы во время выборов в США в 2016 году. Ложные и вводящие в заблуждение заявления касались всех политических вопросов. По результатам одного из исследований значительная часть фейковых новостей, имеющих отношение к выборам, была создана подростками из Македонии. Они обнаружили, что чем больше историй, касающихся политических партий, они будут выпускать, тем больше пользователей будут просматривать и делиться этими историями, и тем больше денег это принесет авторам в конечном итоге.

Взрыв на Бостонском марафоне

После теракта на Бостонском марафоне в 2013 году в сети распространились ложные сведения о том, что взрыв был тщательно продуманной операцией правительства США. На фоне многочисленных террористических операций по всему миру часто возникают теории заговора – распространяются сведения об «операциях под чужим флагом», осуществляемых государством или тайной группой заговорщиков, с целью возложить вину на других или прикрыть иные действия.

Ким Чен Ын – самый сексуальный мужчина

В 2012 году агентство сатирических новостей The Onion опубликовало статью, в которой утверждалось, что северокорейский диктатор Ким Чен Ын признан самым сексуальным мужчиной в мире. Также говорилось, что «сердцеед из Пхеньяна – это мечта каждой женщины». Примером того, что в разных культурах сатира воспринимается по-разному, стали публикации в китайских СМИ, в том числе в онлайн-версии газеты Коммунистической партии Китая, где эта новость освещалась так, как если бы она была правдой.

Чем опасны фейковые новости?

Люди часто принимают важные решения, например, за кого голосовать на выборах или какое лечение принимать, на основе информации, полученной из новостей, поэтому достоверность новостей настолько важна. Фейковые новости несут в себе следующие опасности:

  • Когда люди не могут отличить реальные новости от фейковых, создается путаница и непонимание по важным социальным и политическим вопросам. У людей возникает общее ощущение, что «нельзя верить всему, что вы читаете». Это подрывает общее доверие к серьезным источникам новостей.
  • Фейковая и вводящая в заблуждение информация о лечении серьезных заболеваний, таких как рак или Covid-19, может привести к тому, что люди примут неверные решения касательно своего здоровья.
  • Многие фейковые новости нацелены на разжигание и обострение социальных конфликтов. У сторонников каждой точки зрения имеются собственные «факты», что ведет к росту поляризации общества и может повлиять на результаты выборов.
  • Студенты университетов и колледжей должны использовать надежные источники информации для выполнения заданий. Учащиеся, использующие источники с недостоверной или вводящей в заблуждение информацией, могут получить более низкие оценки.

Как распознать фейковые новости

Так как же определить фейковые новости в Facebook и других социальных сетях? Как, будучи студентом, избежать фейковых новостей? Как не участвовать в случайном распространении ложной информации в интернете? Ниже приведены десять советов, как выявлять ложную информацию, распознавать поддельные новостные сайты и оценивать данные, прежде чем ими делиться.

  1. Проверьте источник
    Проверьте веб-адрес страницы, которую вы просматриваете. Иногда в веб-адресах сайтов фейковых новостей содержатся орфографические ошибки или используются редкие доменные расширения, такие как .infonet или .offer. Если вы не знакомы с сайтом, перейдите в раздел «О компании».
  2. Оцените автора
    Найдите информацию об авторе, чтобы понять, заслуживает ли он доверия: реальный ли это человек, какая у него репутация, относятся ли его статьи к конкретной области знаний и освещает ли он определенные вопросы? Оцените, в чем может быть мотивация автора.
  3. Проверьте другие источники
    Сообщают ли об этом факте другие авторитетные новостные источники или СМИ? Цитируются ли в статье достоверные источники? Профессиональные мировые новостные агентства в соответствии с редакционными правилами обязаны проверять достоверность фактов, кроме того, они имеют для этого обширные ресурсы, поэтому, если они также сообщают об этом факте, это хороший признак.
  4. Сохраняйте критическое мышление
    Многие фейковые новости составлены с целью спровоцировать сильные эмоциональные реакции, например, страх или гнев. Сохраняйте критический настрой, спросите себя: с какой целью написана эта статья? Продвигает ли она определенные взгляды или вопросы? Возможно, в статье предпринимается попытка заставить пользователя перейти на другой веб-сайт?
  5. Проверьте факты
    Достоверные новости включают множество фактов: данные, статистику, цитаты экспертов и прочие. Если все это отсутствует, задайтесь вопросом – почему. Отчеты с ложной информацией часто содержат неверные даты или измененные сроки, поэтому рекомендуется проверить дату публикации статьи. Это актуальная или устаревшая новость?
  6. Оцените комментарии
    Даже реальная статья или видео может не иметь комментариев. Часто ссылки и комментарии к статье могут автоматически создаваться ботами или пользователями, нанятыми для размещения вводящей в заблуждение информации.
  7. Оцените собственные убеждения
    У всех нас есть убеждения. Способны ли они повлиять на нашу реакцию на статью? Социальные сети могут создавать эхо-камеры, предлагая статьи, соответствующие вашим поисковым запросам, интересам и мнениям. Чем больше информации из разных источников и с разных точек зрения вы получаете, тем больше вероятность того, что удастся сделать правильные выводы.
  8. Проверьте, не является ли статья шуточной
    Сайты сатирических новостей весьма популярны, однако не всегда понятно, является ли новость шуточной или реальной. Перейдите на сам веб-сайт, чтобы понять, типично ли для него публиковать сатирические и смешные истории.
  9. Проверьте подлинность изображений
    Изображения в социальных сетях могли быть отредактированы или изменены. Возможные признаки редактирования изображений включают деформацию (прямые линии на заднем фоне выглядят изогнутыми), странные тени, неровные края, нереально идеальный оттенок кожи. Кроме того, изображение может быть реальным, но использоваться в рамках вводящего в заблуждение контекста. Обратный поиск изображений в Google позволяет проверить, откуда было взято изображение и было ли оно изменено.
  10. Используйте сайты проверки фактов

Ниже перечислены самые известные сайты:

Фейковые новости распространяются благодаря тем, кто им верит: они публикуют, ретвитят и распространяют ложную информацию всеми возможными способами. Если вы не уверены в подлинности стати, остановитесь и подумайте, прежде чем поделиться. Чтобы сохранить безопасность в интернете, используйте антивирусное решение, такое как Kaspersky Total Security, способное защитить вас от злоумышленников, вирусов, вредоносных программ и других сетевых угроз.

Статьи по теме:

Как распознать фейковые фотографии | События в мире — оценки и прогнозы из Германии и Европы | DW

Поддельные фотографии — один из самых распространенных видов фейков в Сети. Как распознать подделки?

Проще всего проверить подозрительный снимок через обратный поиск. Такую опцию предлагают многие онлайн-ресурсы (Who stole my pictures, Tineye) и поисковики. В Google.Картинки или Yandex.Images можно вставить ссылку на изображение, перетянуть или загрузить снимок с компьютера. В некоторых браузерах это делается еще проще: например, в Chrome достаточно кликнуть по снимку правой кнопкой мыши и выбрать «найти это изображение».

Определить оригинал среди других картинок несложно: обычно он лучшего качества и большего размера, чем копии. По исходному фото можно понять, когда и где оно было впервые опубликовано. Это важно, так как часто старые фотографии выдают за актуальные или показывают их в совершенно другом контексте.

Фейковые фото выдают детали

Чтобы обнаружить подделку, часто достаточно присмотреться к деталям: теням, отражениям, пропорциям и резкости разных элементов. Все ли с ними в порядке? По номерам машин, вывескам магазинов, названиям улиц, попавшим в кадр, можно определить страну и город, где был сделан снимок. Если на фото есть необычные здания, уточните их расположение по картам с панорамным просмотром улиц.

Перепроверка прогноза погоды в конкретном месте помогает понять, когда произошло событие, изображенное на снимке. Если в этот холодный осенний день шел дождь, а на фотографии солнце и люди в легкой одежде, доверять снимку не стоит.

Был ли использован Photoshop

Если исходник не нашелся, а примечательных деталей на снимке нет, можно прогнать фото через Findexif или FotoForensics. Эти программы не нужно устанавливать на компьютер, достаточно скопировать ссылку на снимок в строку поиска. После загрузки фото проявятся отредактированные элементы — эти сервисы определяют количество слоев на изображении. 
Findexif и Jeffrey’s Image Metadata Viewer отображают метаданные (EXIF-данные): в каком месте, когда и на какую модель камеры было сделано фото.

Другие выпуски проекта DW «Как выжить в соцсетях» смотрите здесь.

Смотрите также:

4 причины привлекательности фейков | Turnitin

Пока существуют новости, есть и дезинформация, умышленная или случайная. Одним из наиболее ярких взлетов (или падений) фейковых новостей был момент на рубеже двадцатого века, когда желтая журналистика ― термин, введенный в 1895 году для обозначения журналистики, которая ставила продажи выше достоверности ― подтолкнула Соединенные Штаты к войне с Испанией.

Хотя дезинформация и низкокачественная журналистика существовали всегда, в эпоху социальных сетей все стало намного хуже. Недавнее исследование Pew Research Center показало, что американцы считают фальшивые новости и дезинформацию даже более серьезной проблемой, чем расизм, нелегальную иммиграцию и терроризм.

Так в чем опасность? И еще вопрос: если столько людей считают дезинформацию проблемой, почему же мы сами читаем, распространяем и продвигаем фейки? Беда в том, что такие новости ― это не только ложная информация, а еще и инструмент, формирующий убеждения и симпатии.

Причина №1: Фейки распространяются через знакомых 

Самый популярный вектор распространения фейковых новостей ― социальные сети. Когда информация передается от человека к человеку, это не только обеспечивает скорость, а еще и порождает доверие. 

Чаще всего в соцсетях мы следим за людьми, которые нам симпатичны, которым мы доверяем ― полностью или частично. Соответственно, мы склонны верить информации, которую они распространяют. Проще говоря, наше доверие фейковым новостям рождается из доверия друзьям и семье.

Шестая часть респондентов одного британского исследования призналась: они верят всему, что распространяют в социальных сетях их друзья. То же исследование доказало, что информация из Facebook воспринимается как более надежная, чем экспертные материалы.

Причина №2: Фейки укрепляют наши предрассудки


Большую часть времени в социальных сетях мы общаемся с людьми, с которыми согласны. Добавьте к этому алгоритмы, которые предоставляют нам контент, с которым мы согласны, и вот мы уже оказываемся запертыми в мыльном пузыре единого мнения.

Это напрямую влияет на нашу предвзятость. Чем меньше мы контактируем с носителями других мнений и ценностей, тем уже наш кругозор. Фактически, тем увереннее мы ищем и верим в то, что поддерживает наши мнения и убеждения. Люди не любят ошибаться, а социальные сети сводят к минимуму контакт человека с информацией, которая не соответствует его взглядам.

Когда мы сталкиваемся с фейковыми новостями в социальных сетях, это, вероятно, укрепляет нашу субъективность. А значит, мы не будем проверять информацию так внимательно, как если бы она противоречила нашим убеждениям. Существует большая вероятность, что мы примем фейк как истину и даже поделимся им с друзьями.

Причина №3: Предвзятость публикации


Предвзятостью публикации в академических кругах называют проблему, когда исследования с нулевым результатом не принимаются в печать научными журналами. Хотя на самом деле, отсутствие результата бывает не менее важным, чем его наличие.

В случае с фейком, новость становится сама себе доказательством: кто-то это напечатал (опубликовал), значит, наверное, кто-то это проверил? Даже если информация в фейковой новости полностью сфабрикована, мы, вероятно, поверим ей, если доверяем ресурсу, который ее опубликовал.

Причина №4: сенсационность и простота

Многие важные новости имеют приземленный характер. Такие вещи, как слушания в городском совете или дебаты по поводу налоговой политики, могут оказывать большое влияние на нашу жизнь, но их очень скучно смотреть или читать.

Фейки почти всегда сенсационны. Они всегда рассказывают историю, причем удивительную. Одна из уловок фейковых новостей состоит в том, чтобы взять относительно приземленное событие и сенсационализировать его с помощью преувеличенных формулировок и дезинформации.

Самые популярные темы фейковых новостей имеют шокирующий или даже оскорбительный характер. Это вызывает эмоциональный отклик и побуждает нас распространять информацию, не проверяя ее.

Чтобы поддержать распространение фейков, нужно всего лишь поддаться эмоциям и перестать думать.

Подведем итоги


Не существует секретной формулы, по которой происходит распространение фейков. Дезинформация полагается на предубеждения, которые есть в каждом из нас. Учитывая, что читателям часто приходится принимать поспешные решения о достоверности информации, оказывается на удивление легко протолкнуть в массы интересную ложь, которая затем распространится со скоростью лесного пожара.

Единственная защита от фейковых новостей ― бдительность. Нужно владеть двумя навыками: проверять информацию, прежде чем делиться ею, и распознавать фейковые новости. Наш сервис Newsguard поможет выявить достоверные источники, избавляя вас от необходимости тратить на это время.

К сожалению, правда обычно не имеет преимущества в виде предубеждений. Факты не трудятся над тем, чтобы возбуждать определенные зоны коры головного мозга, поэтому мы часто пропускаем их мимо ушей.

Как писал Джонатан Свифт в 1710 году: «Ложь летит, а Истина хромает вслед за ней». Это особенно ярко проявляется в Интернете.

Как отличить фейковую новость от настоящей — Российская газета

1. Смотрите на источник новости. Если вы видите шокирующий заголовок в социальной сети, «Яндекс.Дзене» — это не всегда означает, что так и есть на самом деле. Обязательно перепроверьте новость в сети. Цель таких публикаций — собрать как можно больше кликов и просмотров.

2. Смотрите на заголовок. Обычно «желтые» новости видно сразу — они буквально кричат о своей важности, и вы непременно должны на нее кликнуть. Заголовки в духе «Что случилось с Аллой Пугачевой» ведут на малоизвестный сайт, который таким образом набирает себе кучу просмотров.

3. Критически относитесь к фотографиям и видео. В настоящее время мастера «Фотошопа» способны сделать любой фейк за пару минут. Поэтому если вы увидели на фотографии инопланетян, которые высаживаются прямо в центре Москвы, то это 100% фейк.

4. Внимательно посмотрите на веб-адрес страницы. Сейчас создаются целые сайты-подделки, которые имитируют крупные новостные ресурсы. Поэтому если вы увидели шокирующую новость, обязательно проверьте такой контент через любую поисковую систему.

5. Оцените грамотность автора. Если новость буквально изобилует опечатками, ошибками в пунктуации и орфографии, то с большой долей вероятностью она является фейком. Цель таких журналистов — как можно быстрее придумать «фейк» и написать его, а не следить за грамотностью.

6. Посмотрите, когда была опубликована новость. Недавний пример с WhatsApp говорит о том, что даже крупные издания могут просто перепечатать новость, не обратив внимание на дату публикации. Именно это и произошло с британским изданием Mirror — оно просто перепечатало информацию о том, что WhatsApp якобы перестанет работать на миллионах устройств с 1 января 2021 года и этот «фейк» буквально разлетелся по Сети. И абсолютно никто не залез на сайт мессенджера, чтобы это проверить. Внимательно стоит относиться и к новостям, публикуемым первого апреля.

Обманываться рады: фейки как единственная реальность

Что такое фейк? Этот вопрос только на первый взгляд кажется дурацким и имеющим простой и очевидный ответ. Стоит перебрать разные кейсы, фигурирующие в информационной среде как эпизоды «фейка» или манипуляции, как выясняется: существующие определения не способны претендовать на какую-то конечность. Они появляются «по случаю», могут не гармонировать и даже вступать в противоречие друг с другом. Фишинг имеет мало общего с производством «дипфейков», а поклонники последнего жанра не обязательно являются сторонниками производства фейковых политических новостей. Это не означает, что крестовый поход против фейка, объявленный экспертами из мира медиа, бессмысленен. Напротив, в следовании этому курсу или в борьбе с морализаторством и/или техноцентризмом, политизированностью его сторонников только и могут быть определены возможные стратегии грамотного потребления контента. Да, договориться о терминах вряд ли получится. Зато есть шанс обнаружить парадоксальность самого бытования онлайн публичного пространства, обитатели которого осведомлены о его иллюзорности, но всерьез сражаются против «неправды».

Фейк как этическая категория

Фейк — категория не гносеологическая, не «знаниевая», а описываемая посредством обращения к этике наблюдателя. Уже самое банальное, первое приходящее на ум объяснение — фейк равно неправда — погружает нас в пучину толкований, что есть невыносимая ложь, а что — святая истина. И позиций в этом споре, особенно, если в нем участвуют не только представители интеллектуального «фундаментализма», может быть предостаточно. Ложь — это дезинформация (читай — злостная пропаганда), непроверенный и не установленный точно факт или некий конструкт, не совпадающий с конвенциональным, закрепленным в культуре определенного сообщества мнением? Правда — это корректное в данных обстоятельствах высказывание, мысль, соответствующая предмету описания, или попросту непреложная истина? Можно ли вообще говорить о фейке как нарушении, попрании истин, без учета их контекстуальности? Если нельзя (что, кажется, очевидно), тогда к чему этот негативизм, предубеждение в отношении фейка?

Видеть в чем-то (или даже в ком-то) фейк — значит прозревать обман, нечто принципиально, злонамеренно или случайно некорректное, противоречащее «правильным», краеугольным — в том или ином контексте — убеждениям. Называть что-то (или кого-то) фейком — значит обозначать себя как эксперта, способного в конкретной ситуации опознать опасную фальсификацию и авторитетно доложить об этом всему окружающему миру. Бороться с фейком – значит предлагать методы и меры, способные защитить определенное жизненное пространство от вторжения угрожающих его существованию подделок. Забавно, но современная медиа индустрия, представители которой сражаются за выработку принципов противодействия производству фейков, нередко забывает, что актуальная этика стоит на возможности парадоксальности, столкновении позиций. Значит, категорию, использование которой предполагает некую договоренность о нравственных принципах («это — хорошо, а вот это — не очень»), в условиях конкуренций «моралей» сложно применять каким-то очевидно функциональным образом.

Другое возможное толкование, основанное на уподоблении фейка — fake news, грешит нарушением границы феномена: фейковые новости — лишь частный пример более масштабного явления. Да, именно fake news и близкие форматы стали источником публичных дискуссий о качестве верификации информации, необходимости медиаграмотности. Но, строго говоря, все медиумы (в том числе, фотография, кинематограф) построены на производстве иллюзий. Значит, уже изобретатели волшебного фонаря, проекционных аппаратов, диорам могут быть записаны в список злостных манипуляторов? Возможно, и кинорежиссеры вместе с операторами и специалистами по аудиальным и визуальным эффектам работают над злокозненным принуждением зрителя к определенному восприятию? В конце концов, даже принятые способы публичной демонстрации фильмов могут выглядеть как злоупотребление доверием зрителя. Вы приходите в зал, свет гаснет, остается только немигающее яркое окно в мир картины, придуманной съемочной группой, и в идеале вы погружаетесь в созерцание транслируемых образов и сопереживания изображенным персонажам. Насколько, что в какой-то момент оказываетесь полностью поглощены сюжетом. Вероятно, в процессе просмотра вы помните, что наблюдаете за сконструированной историей, но это не мешает испытывать вполне истинные переживания.

Тогда, может, то, что мы сейчас именуем фейком, всего лишь свидетельство развития таких технологий, по отношению к которым мы не выработали привычки потребления? Мы же научились смотреть кино и ТВ-передачи и видеть за парадом сменяющихся картинок более или менее связное повествование. Да, кто-то еще способен всерьез обсуждать, настоящему ли утенку отрезал Ларс фон Триер лапку в своем последнем фильме, и успокаиваться только после заявлений зоозащитников из PETA. Но, кажется, это связано с недоверием не медиуму, а конкретному режиссеру. А вот в случае, например, инструмента типа FakeApp, позволяющего играть с визуальным контентом, даже заинтересованные и погруженные в проблему сообщества не выработали единогласного мнения. А с другой стороны, регуляции вырабатываются часто после появления феномена, требующего дисциплинирования. Можно было сколько угодно запрещать порноместь или «недобровольную порнографию», но с появлением конкретного сервиса, новым образом обыгрывающего эти явления, требуются новые этические и правовые решения.

Вообще-то можно даже предположить, что мы в каком-то смысле живем в ситуации сбывшегося пророчества Рея Курцвейла о «технологической сингулярности». Только реальность его такова, что не технический прогресс оказывается недоступным пониманию человека. Сегодня конкретные инструменты производства смыслов становятся источником чрезмерно качественного контента, который люди не способны трактовать как сконструированный. В мире «постправды» (по крайней мере, по версии Оксфордского словаря) наблюдается масса прецедентов недооценки способности цифровых алгоритмов программировать, собирать и создавать реальность. В результате социальные расширения цифровых инфраструктур — например, воплощенные в выходе Великобритании из ЕС и избрании Дональда Трампа на пост президента США — превращают в «правду» то, что еще недавно выглядело фантазмом.

Фейк многиликий и вездесущий

В таком случае задумаемся, что еще, кроме fake news может быть примером бытования фейка в этих новых реалиях? Конечно, интересно наблюдать за тем, как эксперты из области медиа через одного пытаются выявить фейкньюс, а фактчекинг становится рутиной для все большего количества пользователей. Или любоваться тем, как представители властных структур апеллируют к фейку, разыгрывая свои карты в национальном или мировом политическом пространстве. Однако тотальный феномен очевидно должен иметь множество воплощений.

Так, поскольку содержание контента тесно связано с форматными ограничениями, то даже некоторые жанры представления информации вполне стоит считать опытом производства фейка. Скажем, мокьюментари как способ создания ироничного, нередко издевательского по отношению к ничего не подозревающему зрителю повествования служит прекрасным примером осознанного изготовления подделок. И хотя жанр впервые получил массовое признание после радиопостановки «Войны миров», осуществленной Орсоном Уэллсом в 1938 году, а закреплен успех был Сашей Бароном Коэном в 2000-е годы, лучшие образцы мокьюментри до сих пор считаются своего рода террористическим актом в адрес аудитории. А как еще стоит оценивать фильмы, телевизионные и радиопередачи, где злобно, исподтишка и при этом не всегда очевидно высмеиваются любые культурные нормы, договоренности и даже герои? Владимир Ильич Ленин объявляется грибом, ковры становятся провокаторами алкоголизма, а любой инфоповод трикстерски обыгрывается так, будто медиа — это сплошное озорство, приуроченное к Дню смеха? Правда, тут стоит оговориться: сегодня жанр, преимущественно бытовавший в «старых» медиа, явно переживает упадок и уже не представляется таким опасным и этически амбивалентным способом научения зрителя рефлексивному отношению к медийным конструктам. Его место в качестве жупела, угрозы превалирования «псевдоконтента» над «правдой» заняли продукты, являющиеся результатом применения цифровых технологий.

Проблема в том, что последние с определенного момента стали источником образов такого качества, которое непредставимо в реальной жизни. Еще 17 лет назад Лев Манович в книге «Язык новых медиа» демонстрировал читателям курьезность ситуации: технологии не просто конструируют иллюзию, но создают картинки или любые другие объекты, более реальные и натуралистичные, чем может себе представить потребитель. Так, Манович писал, что режиссеру фильма «Парк юрского периода» пришлось сознательно ухудшить качество графики (тех самых нарисованный на компьютере динозавров), чтобы оно соответствовало качеству отснятого на площадке видеоматериала. Так что попытки «подбить» несовершенную реальность под совершенство графики имели место уже в 1993 году.

И сегодня эта проблема различения реального и виртуального никуда не исчезла. На смену простейшим инструментам создания и редактирования цифровых изображений приходят технологии машинного обучения, результаты которых на наших глазах меняют, скажем, фотоиндустрию. Любая фотография легко обретает облик, более подходящий для конвенционального произведения искусства (и можно даже угадать, чьему перу оно «принадлежит»). Чуть ли не ежедневно пользователи обнаруживают новости об ошеломляющих успехах генерационных нейросетей: они создают шедевры изобразительного искусства, превращают Галь Гадо в порноактрису, пишут музыку в стиле гранж (спойлер: и не только). Не говоря уже о том, что алгоритмы начинают здорово разбираться в породах собак или марках автомобилей. Все это машины делают подчас лучше людей. А результаты их «труда» несколько вторичные, и потому мнимые в своей оригинальности все сложнее отличить от уникальной действительности арт-объектов, скажем. Так что у современного пользователя остается все меньше зацепок, помогающих отличить «реальное» от «иллюзорного». Вспомним, например, какие эффекты шлемы виртуальной реальности до сих производят на людей. Да, как и в случае с кинематографом, пользователи прекрасно понимают, что происходящее перед их глазами далеко не тождественно реальности. Однако их эмоции, реакции и телодвижения говорят сами за себя.

Мы не можем между собой прийти к этическому компромиссу о том, что есть «правда», «настоящее», а что как минимум «конструкт», а как максимум «неправда» и «фейк» — абсолютные или относительные. Но есть и большая проблема: наша смешанная онлайн-оффлайн реальность построена на совмещении разных переживаний, и далеко не все из них без применения специальных профессиональных средств мы физически можем поместить в рамки бинарной оппозиции «ложь»–«истина». И вот здесь возникает сомнение. Конечно, epistola non erubescit — в том смысле, что цифровая среда действительно стерпит любые нравственно амбивалентные эксперименты. Но какие человек сочтет морально (не)приемлемыми?

В России предложили маркировать фейки в интернете

Крупнейшие российские интернет-платформы и СМИ в четверг, 7 октября, подпишут меморандум о фактчекинге, рассказал «Ведомостям» источник, знакомый с ходом разработки документа, и подтвердили два собеседника в компаниях-подписантах. Одно из предложений, которое будет обсуждаться с подписантами соглашения, – маркировка фейкового контента пользователей, утверждают два источника среди подписантов соглашения.

Как следует из копии меморандума, с которой ознакомились «Ведомости», подписать документ планируют медиагруппы РБК, ТАСС, РИА, Rambler & Co, «Интерфакс», «Ведомости» и The Bell. Именно эти СМИ могут быть привлечены для проверки информации на площадках интернет-компаний, в числе которых «Яндекс.Дзен» и Mail.Ru Group, а также Rutube и Avito. Также роль фактчекера будет выполнять АНО «Диалог». Держателем меморандума станет Региональная общественная организация «Центр интернет-технологий» (РОЦИТ). Срок действия документа – 1 год с возможностью пролонгации.

Rambler & Co и Avito присоединятся к меморандуму, сообщили «Ведомостям» представители этих компаний, не уточнив детали. Представители «Яндекса» и Mail.ru Group отказались от комментариев. Информацию о подписании также подтвердили в РИА и «Интерфаксе». В пресс-службе ТАСС и представитель РБК не ответили на запрос. Также поступила основатель The Bell Елизавета Осетинская.

На момент подписания меморандума соглашение будет носить рамочный характер, но после его участники должны будут договориться, как именно будет осуществляться мониторинг фейковой информации, маркироваться такой контент и т. п., рассказал «Ведомостям» собеседник, знакомый с ходом разработки этих предложений, и подтвердил источник в одной из интернет-компаний.

В соответствии с этими предложениями выявлять потенциально недостоверную информацию должны будут сами интернет-площадки – в ходе мониторинга либо по обращению пользователей или фактчекеров. Итогово признать ту или иную информацию фейковой может только сама платформа. В случае положительного решения на свое усмотрение она должна будет промаркировать, опровергнуть фейк или совсем удалить такую информацию. Крайняя мера – временная или постоянная блокировка пользователя, разместившего фейк, а также снижение возможности рекламировать или монетизировать такой аккаунт.

Приоритет в проверке информации на достоверность отдается сообщениям о количестве погибших (например, во время ЧС), и коронавирусе и исторических событиях, а также сведениям, провоцирующим ажиотажный спрос на тот или иной продукт или рост его цены, разжигающим межнациональную рознь. Как утверждает один из собеседников «Ведомостей», сообщения на эти темы чаще других при проверке оказываются недостоверными.

В документе нет четкой трактовки, о каком именно контенте идет речь – пользовательском или сообщениях СМИ. При этом, по словам двух источников среди подписантов-фактчекеров, маркировать предполагается именно пользовательский контент, а не контент СМИ. Как отмечает один из них, у крупных интернет-площадок, разумеется, есть агрегаторы публикаций СМИ, но со стороны того же «Яндекса» в соглашении как платформа участвует именно «Яндекс.Дзен», а не «Яндекс.Новости». Со стороны Mail.Ru Group – крупнейшие в России социальные сети «В контакте» и «Одноклассники», от Rambler & Со – LiveJournal как площадка с UGC и «Лента.ру» как фактчекер.

Законом уже предусмотрена ответственность за публикацию фейков, поэтому включать средства массовой информации в список площадок, где предполагается маркировка недостоверного контента, излишне, добавляет один из собеседников «Ведомостей». По его словам, алгоритм может работать так: «Если, предположим, в одной из соцсетей появляется сообщение, которое может быть фейком, площадка имеет возможность обратиться к одному из подписавших меморандум фактчекеров. И если подтвердится, что это фейк, площадка в зависимости от технических возможностей маркирует, пессимизирует в выдаче или удаляет сообщение». Но главная задача – предупредить пользователя о потенциально ложной информации, добавляет собеседник.

На крупных платформах с пользовательским контентом множество публикаций с ложной информацией и ни у кого нет сомнений, что с этим необходимо что-то делать, говорит директор Института современных медиа Кирилл Танаев. «Очевидно, что крупные зарубежные платформы к такому соглашению не присоединятся. Facebook, к примеру, в принципе ни с кем никогда не договаривается», – отмечает он.

Один из последних ярких кейсов с фейк-ньюс был связан именно с этой соцсетью, напоминает глава Ассоциации профессиональных пользователей социальных сетей и мессенджеров Владимир Зыков. «Во время недавней президентской кампании в США оба кандидата – Дональд Трамп и Джо Байден – и их команды активно использовали соцсети. Но после ряда критических постов Трампа в адрес Байдена Facebook, ссылаясь на распространение фейк-ньюс, заблокировал аккаунт Трампа. Под предлогом фейков эта соцсеть модерировала и удаляла критические сообщения про Байдена и от других пользователей».

Отсутствие среди подписантов зарубежных соцсетей, считает Зыков, создает неравные конкурентные условия для площадок, а у пользователя может создаться впечатление, что фейки публикуются только в отечественных соцсетях. Сама по себе инициатива о саморегулировании в борьбе с распространением фейков позитивна, но к реализации конкретных положений меморандума есть вопросы, добавляет он: «Например, как поступать с информацией, правдивость которой в моменте невозможно проверить? Такое происходит при каких-либо катастрофах, трагедиях, когда противоречивая информация поступает неконтролируемыми потоками из разных источников, ее невозможно однозначно причислить ни к истинной, ни к ложной».

Что такое дипфейки и как их распознать? | Интернет

Что такое дипфейк?

Вы видели, как Барак Обама называл Дональда Трампа «полным дураком», или Марк Цукерберг хвастался «полным контролем над миллиардами украденных данных», или были свидетелями трогательных извинений Джона Сноу за мрачный финал Игры престолов? Ответьте «да», и вы видели дипфейк. Ответ 21 века на фотошоппинг: дипфейки используют форму искусственного интеллекта, называемую глубоким обучением, для создания изображений фейковых событий, отсюда и название дипфейка.Хотите сказать что-то новое политику, сняться в любимом фильме или потанцевать как профессионал? Тогда пора сделать дипфейк.

Для чего они нужны?

Многие из них порнографические. В сентябре 2019 года компания Deeptrace, занимающаяся искусственным интеллектом, обнаружила в Интернете 15000 дипфейк-видео, что почти вдвое больше, чем за девять месяцев. Ошеломляющие 96% были порнографическими, и 99% из них были сопоставлены лица знаменитостей и порнозвезд. Поскольку новые методы позволяют неквалифицированным людям делать дипфейки с горсткой фотографий, фейковые видео, вероятно, распространятся за пределы мира знаменитостей, чтобы подпитывать порнографию мести.Как говорит Даниэль Ситрон, профессор права Бостонского университета: «Технология Deepfake используется против женщин». Помимо порнографии существует множество обманов, сатиры и шалостей.

Это только видео?

Нет. Технология Deepfake позволяет создавать убедительные, но полностью вымышленные фотографии с нуля. Несуществующая журналистка Bloomberg «Мэйзи Кинсли», у которой был профиль в LinkedIn и Twitter, вероятно, была дипфейком. Другая подделка LinkedIn, «Кэти Джонс», утверждала, что работает в Центре стратегических и международных исследований, но считается дипфейком, созданным для иностранной шпионской операции.

Аудио также может быть подделано для создания «голосовых скинов» или «голосовых клонов» общественных деятелей. В марте прошлого года глава британского филиала немецкой энергетической компании внес почти 200 000 фунтов стерлингов на счет в венгерском банке после того, как ему позвонил мошенник, имитирующий голос немецкого генерального директора. Страховщики компании считают, что голос был подделкой, но доказательства неясны. Сообщается, что в аналогичных махинациях использовались записанные голосовые сообщения WhatsApp.

Сравнение оригинального и deepfake видео исполнительного директора Facebook Марка Цукерберга.Фотография: The Washington Post через Getty Images

Как они сделаны?

Университетские исследователи и студии спецэффектов давно раздвинули границы возможностей обработки видео и изображений. Но сами дипфейки родились в 2017 году, когда одноименный пользователь Reddit разместил на сайте поддельные порнографические ролики. В роликах лица знаменитостей — Галь Гадот, Тейлор Свифт, Скарлетт Йоханссон и других — менялись на порно-исполнителей.

Чтобы создать видео со сменой лица, нужно выполнить несколько шагов.Сначала вы запускаете тысячи снимков лиц двух людей с помощью алгоритма искусственного интеллекта, называемого кодировщиком. Кодировщик находит и изучает сходство между двумя лицами и сводит их к их общим чертам, сжимая изображения в процессе. Затем второй алгоритм ИИ, называемый декодером, обучается восстанавливать лица из сжатых изображений. Поскольку лица разные, вы обучаете один декодер для восстановления лица первого человека, а другой декодер — для восстановления лица второго человека.Чтобы выполнить замену лица, вы просто загружаете закодированные изображения в «неправильный» декодер. Например, сжатое изображение лица человека A загружается в декодер, обученный на человеке B. Затем декодер восстанавливает лицо человека B с учетом выражений и ориентации лица A. Для получения убедительного видео это нужно делать на каждом Рамка.

Сравнение оригинальных и deepfake видео президента России Владимира Путина. Фотография: Александра Робинсон / AFP через Getty Images

Другой способ создания дипфейков использует так называемую генеративную состязательную сеть, или Gan.Ган противопоставляет два алгоритма искусственного интеллекта. Первый алгоритм, известный как генератор, подает случайный шум и превращает его в изображение. Затем это синтетическое изображение добавляется к потоку реальных изображений — скажем, знаменитостей — которые вводятся во второй алгоритм, известный как дискриминатор. Сначала синтетические изображения не будут похожи на лица. Но повторяйте процесс бесчисленное количество раз с обратной связью о производительности, и дискриминатор и генератор улучшатся. При наличии достаточного количества циклов и обратной связи генератор начнет создавать совершенно реалистичные лица совершенно несуществующих знаменитостей.

Кто делает дипфейки?

Все, от академических и промышленных исследователей до энтузиастов-любителей, студий визуальных эффектов и производителей порно. Правительства также могут баловаться этой технологией в рамках своих онлайн-стратегий, чтобы дискредитировать и разрушить экстремистские группы или, например, установить контакты с целевыми лицами.

Какая технология вам нужна?

Сделать хороший дипфейк на стандартном компьютере сложно. Большинство из них создается на высокопроизводительных настольных компьютерах с мощными видеокартами или, что еще лучше, с вычислительной мощностью в облаке.Это сокращает время обработки с дней и недель до часов. Но для того, чтобы подправить готовые видеоролики, чтобы уменьшить мерцание и другие визуальные дефекты, также требуется опыт. Тем не менее, сейчас доступно множество инструментов, которые помогают людям создавать дипфейки. Несколько компаний сделают их для вас и сделают всю обработку в облаке. Существует даже приложение для мобильных телефонов Zao, с помощью которого пользователи могут добавлять свои лица в список героев телешоу и фильмов, на которых обучалась система.

Китайское приложение для смены лиц Zao вызвало проблемы с конфиденциальностью.Фотография: Imaginechina / SIPA USA / PA Images

Как определить дипфейк?

По мере совершенствования технологий становится все труднее. В 2018 году американские исследователи обнаружили, что лица deepfake не мигают нормально. В этом нет ничего удивительного: большинство изображений показывают людей с открытыми глазами, поэтому алгоритмы никогда не узнают о моргании. Сначала это казалось серебряной пулей для проблемы обнаружения. Но как только исследование было опубликовано, появились дипфейки с морганием. Такова природа игры: как только слабость обнаруживается, она устраняется.

Дипфейки плохого качества обнаружить легче. Синхронизация губ может быть плохой, а оттенок кожи неоднородным. По краям транспонированных лиц может наблюдаться мерцание. А мелкие детали, такие как волосы, особенно сложно для дипфейков, особенно там, где видны пряди на челке. Плохо обработанные украшения и зубы также могут быть подарком, как и странные световые эффекты, такие как непоследовательное освещение и отражения на радужной оболочке.

Правительства, университеты и технологические фирмы финансируют исследования для выявления дипфейков.В прошлом месяце стартовал первый конкурс Deepfake Detection Challenge при поддержке Microsoft, Facebook и Amazon. В него войдут исследовательские группы со всего мира, которые будут соревноваться за превосходство в игре по обнаружению дипфейков.

Facebook на прошлой неделе запретил дипфейк-видео, которые могут ввести зрителей в заблуждение, заставив думать, что кто-то «сказал слова, которых они на самом деле не сказали», в преддверии выборов в США 2020 года. Однако политика распространяется только на дезинформацию, созданную с использованием ИИ, что означает, что на платформе все еще разрешены «мелкие подделки» (см. Ниже).

Женщина смотрит дипфейк видео с Дональдом Трампом и Бараком Обамой. Фотография: Роб Левер / AFP через Getty Images

Разрушат ли дипфейки?

Мы можем ожидать больше дипфейков, которые беспокоят, запугивают, унижают, подрывают и дестабилизируют. Но вызовут ли дипфейки серьезные международные инциденты? Здесь ситуация менее ясна. Дипфейк, когда мировой лидер нажимает на большую красную кнопку, не должен вызывать армагедон. Дипфейк-спутниковые снимки войск, сосредоточенных на границе, также не вызовут больших проблем: у большинства стран есть свои собственные надежные системы визуализации безопасности.

Впрочем, поводов для шалостей еще достаточно. В прошлом году акции Tesla рухнули, когда Илон Маск выкурил косяк на онлайн-шоу. В декабре Дональд Трамп рано улетел домой со встречи НАТО, когда появились подлинные кадры, на которых другие мировые лидеры, по всей видимости, издеваются над ним. Смогут ли правдоподобные дипфейки изменить цены на акции, повлиять на избирателей и спровоцировать религиозную напряженность? Кажется, беспроигрышный вариант.

Подорвут ли они доверие?

Более коварное влияние дипфейков, наряду с другими синтетическими СМИ и фейковыми новостями, заключается в создании общества с нулевым доверием, в котором люди не могут или больше не заботятся о том, чтобы отличить правду от лжи.А когда доверие подрывается, легче усомниться в конкретных событиях.

В прошлом году министр связи Камеруна назвал фальшивой новостью видео, на котором, по мнению Amnesty International, показано, как солдаты Камеруна убивают мирных жителей.

law

Дональд Трамп, который признался, что хвастался захватом женских гениталий в записанном разговоре, позже предположил, что запись была ненастоящей. В интервью принца Эндрю Эмили Мейтлис для Би-би-си принц поставил под сомнение подлинность фотографии, сделанной с Вирджинией Джуффре, снимок, который, по утверждению ее адвоката, является подлинным и неизменным.

«Проблема может быть не столько в фальсифицированной реальности, сколько в том, что реальная реальность становится правдоподобно опровергнутой», — говорит профессор Лилиан Эдвардс, ведущий эксперт в области интернет-права в Университете Ньюкасла.

По мере того, как технология становится все более доступной, дипфейки могут создавать проблемы для судов, особенно в битвах за опеку над детьми и трибуналах по трудовым спорам, где фальшивые события могут быть использованы в качестве доказательства. Но они также представляют угрозу для личной безопасности: дипфейки могут имитировать биометрические данные и потенциально могут обмануть системы, которые полагаются на распознавание лица, голоса, вен или походки.Возможность мошенничества очевидна. Позвоните кому-нибудь неожиданно, и они вряд ли переведут деньги на неизвестный банковский счет. Но что, если ваша «мать» или «сестра» установит видеозвонок в WhatsApp и сделает тот же запрос?

Какое решение?

Как ни странно, ответом может быть ИИ. Искусственный интеллект уже помогает обнаруживать фальшивые видео, но у многих существующих систем обнаружения есть серьезный недостаток: они лучше всего работают со знаменитостями, потому что они могут тренироваться на часах свободно доступных отснятых материалов.Технические фирмы сейчас работают над системами обнаружения, которые нацелены на обнаружение подделок всякий раз, когда они появляются. Другая стратегия фокусируется на происхождении СМИ. Цифровые водяные знаки не являются надежными, но онлайн-бухгалтерская система блокчейнов может хранить защищенные от несанкционированного доступа записи видео, изображений и аудио, поэтому их происхождение и любые манипуляции всегда можно проверить.

Всегда ли дипфейки злонамеренны?

Вовсе нет. Многие из них занимательны, а некоторые полезны. Дипфейки с клонированием голоса могут восстанавливать голоса людей, потерявших их из-за болезней.Видео Deepfake могут оживить галереи и музеи. Во Флориде в музее Дали есть дипфейк художника-сюрреалиста, который представляет свое искусство и делает селфи с посетителями. В индустрии развлечений технологии могут быть использованы для улучшения дублирования фильмов на иностранном языке и, что еще более спорно, для воскрешения мертвых актеров. Например, покойный Джеймс Дин должен сыграть главную роль в фильме о войне во Вьетнаме «В поисках Джека».

А мелкие подделки?

Мелкие фейки, придуманные Сэмом Грегори из правозащитной организации Witness, представляют собой видеоролики, которые либо представлены вне контекста, либо обработаны простыми инструментами редактирования.Они грубые, но, несомненно, действенные. Мелкая подделка видео, которая замедлила выступление Нэнси Пелоси и заставила спикера Палаты представителей США звучать невнятно, достигла миллионов людей в социальных сетях.

Во время другого инцидента корреспонденту CNN Джиму Акосте временно запретили участвовать в брифингах для прессы в Белом доме во время горячего разговора с президентом. Позже было опубликовано небольшое поддельное видео, на котором видно, как он вступает в контакт с практикантом, который пытался отобрать у него микрофон. Позже выяснилось, что видео было ускорено в решающий момент, что сделало ход агрессивным.Позже пропуск Косты для прессы был восстановлен.

Консервативная партия Великобритании использовала аналогичную тактику мелкой подделки. В преддверии недавних выборов консерваторы подделали телеинтервью с депутатом от лейбористской партии Кейром Стармером, чтобы создать впечатление, что он не может ответить на вопрос о позиции партии в отношении Брексита. С дипфейками шалости, скорее всего, только увеличатся. Как сказал Генри Эйдер, глава отдела разведки угроз в Deeptrace: «Мир становится все более синтетическим. Эта технология никуда не денется.”

Что такое дипфейки и как они создаются?

Машинное обучение существует уже давно, но в последнее время глубокое обучение обрело самостоятельную жизнь. Причина этого в основном связана с растущими объемами вычислительной мощности, которые стали широко доступными, а также с растущими объемами данных, которые можно легко собрать и использовать для обучения нейронных сетей.

Количество вычислительной мощности, доступной людям, начало расти семимильными шагами на рубеже тысячелетий, когда графические процессоры (GPU) начали появляться на рынке. используются для неграфических расчетов — тенденция, которая за последнее десятилетие стала все более распространенной.Но вычислительные потребности глубокого обучения растут еще быстрее. Эта динамика подтолкнула инженеров к разработке электронных аппаратных ускорителей, специально предназначенных для глубокого обучения, например, Tensor Processing Unit (TPU) Google.

Здесь я опишу совершенно другой подход к этой проблеме — использование оптических процессоров для выполнения нейросетевых вычислений с фотонами вместо электронов. Чтобы понять, как здесь может служить оптика, вам нужно немного узнать о том, как компьютеры в настоящее время выполняют вычисления в нейронных сетях.Так что терпите меня, когда я обрисовываю, что происходит под капотом.

Почти всегда искусственные нейроны конструируются с использованием специального программного обеспечения, работающего на каком-либо цифровом электронном компьютере. Это программное обеспечение предоставляет данному нейрону несколько входов и один выход. Состояние каждого нейрона зависит от взвешенной суммы его входов, к которым применяется нелинейная функция, называемая функцией активации. Результат, выход этого нейрона, затем становится входом для различных других нейронов.

Снижение энергопотребления нейронных сетей может потребовать вычислений со светом.

Для вычислительной эффективности эти нейроны сгруппированы в слои, при этом нейроны связаны только с нейронами в соседних слоях. Преимущество такой организации вещей, в отличие от возможности соединения между любыми двумя нейронами, состоит в том, что это позволяет использовать определенные математические приемы линейной алгебры для ускорения вычислений.

Хотя это еще не все, эти вычисления линейной алгебры являются наиболее требовательной к вычислениям частью глубокого обучения, особенно по мере роста размера сети.Это верно как для обучения (процесс определения, какие веса применять к входам для каждого нейрона), так и для вывода (когда нейронная сеть обеспечивает желаемые результаты).

Что это за загадочные вычисления линейной алгебры? На самом деле они не такие уж и сложные. Они связаны с операциями на матрицы, которые представляют собой просто прямоугольные массивы чисел — электронные таблицы, если хотите, за вычетом описательных заголовков столбцов, которые вы можете найти в типичном файле Excel.

Это отличная новость, потому что современное компьютерное оборудование было очень хорошо оптимизировано для матричных операций, которые были основой высокопроизводительных вычислений задолго до того, как глубокое обучение стало популярным.Соответствующие матричные вычисления для глубокого обучения сводятся к большому количеству операций умножения и накопления, при которых пары чисел умножаются вместе, а их произведения складываются.

С годами для глубокого обучения требовалось постоянно увеличивать количество операций умножения и накопления. Учитывать LeNet, новаторская глубокая нейронная сеть, предназначенная для классификации изображений. В 1998 году было показано, что он превосходит другие машинные методы распознавания рукописных букв и цифр.Но к 2012 году нейронная сеть AlexNet, которая выполняла примерно в 1600 раз больше операций умножения и накопления, чем LeNet, смогла распознавать тысячи различных типов объектов на изображениях.

Переход от первоначального успеха LeNet к AlexNet потребовал почти 11-кратного увеличения вычислительной производительности. В течение 14 лет закон Мура обеспечил большую часть этого увеличения. Задача заключалась в том, чтобы сохранить эту тенденцию сейчас, когда закон Мура исчерпал себя. Обычное решение — просто направить на проблему больше вычислительных ресурсов, а также времени, денег и энергии.

В результате обучение современных крупных нейронных сетей часто оказывает значительное влияние на окружающую среду. Один Например, исследование 2019 года показало, что обучение определенной глубокой нейронной сети для обработки естественного языка дает в пять раз больше выбросов CO 2 , обычно связанных с вождением автомобиля в течение его срока службы.

Усовершенствования в цифровых электронных компьютерах , безусловно, позволили глубокому обучению расцвести. Но это не значит, что единственный способ выполнять нейросетевые вычисления — использовать такие машины.Десятилетия назад, когда цифровые компьютеры были еще относительно примитивными, некоторые инженеры вместо этого брались за сложные вычисления, используя аналоговые компьютеры. По мере совершенствования цифровой электроники аналоговые компьютеры отошли на второй план. Но, возможно, пришло время снова реализовать эту стратегию, в частности, когда аналоговые вычисления могут быть выполнены оптически.

Давно известно, что оптические волокна могут поддерживать гораздо более высокие скорости передачи данных, чем электрические провода. Вот почему с конца 1970-х годов все линии дальней связи стали оптическими.С тех пор оптические каналы передачи данных заменили медные провода для более коротких и коротких участков, вплоть до связи между стойками в центрах обработки данных. Оптический обмен данными быстрее и потребляет меньше энергии. Оптические вычисления обещают те же преимущества.

Но есть большая разница между передачей данных и вычислением с ними. И здесь аналогово-оптические подходы наталкиваются на препятствие. Обычные компьютеры основаны на транзисторах, которые являются очень нелинейными схемными элементами — это означает, что их выходы не просто пропорциональны их входам, по крайней мере, когда они используются для вычислений.Нелинейность — это то, что позволяет транзисторам включаться и выключаться, что позволяет превратить их в логические вентили. Это переключение легко осуществить с помощью электроники, для которой нелинейности пруд пруди. Но фотоны подчиняются уравнениям Максвелла, которые раздражающе линейны, а это означает, что выход оптического устройства обычно пропорционален его входам.

Хитрость заключается в том, чтобы использовать линейность оптических устройств для того, на что больше всего полагается глубокое обучение: линейной алгебры.

Чтобы проиллюстрировать, как это можно сделать, я опишу здесь фотонное устройство, которое в сочетании с простой аналоговой электроникой может умножать две матрицы вместе. Такое умножение объединяет строки одной матрицы со столбцами другой. Точнее, он умножает пары чисел из этих строк и столбцов и складывает их произведения вместе — операции умножения и накопления, которые я описал ранее. Я и мои коллеги из Массачусетского технологического института опубликовали статью о том, как это можно сделать. в 2019 году.Сейчас мы работаем над созданием такого оптического матричного умножителя.

Оптический обмен данными быстрее и потребляет меньше энергии. Оптические вычисления обещают те же преимущества.

Базовым вычислительным блоком в этом устройстве является оптический элемент, называемый Разделитель луча. Хотя его макияж на самом деле сложнее, вы можете представить его как полупрозрачное зеркало, установленное под углом 45 градусов. Если вы направите в него луч света сбоку, светоделитель позволит половине этого света проходить прямо через него, в то время как другая половина отражается от наклонного зеркала, заставляя его отражаться под углом 90 градусов от входящего луча. .

Теперь направьте второй луч света, перпендикулярный первому, в этот светоделитель, чтобы он упал на другую сторону наклонного зеркала. Половина этого второго луча будет передаваться аналогичным образом, а половина — отражаться под углом 90 градусов. Два выходных луча объединятся с двумя выходными лучами первого луча. Итак, этот светоделитель имеет два входа и два выхода.

Чтобы использовать это устройство для матричного умножения, вы генерируете два световых луча с напряженностями электрического поля, которые пропорциональны двум числам, которые вы хотите умножить.Назовем эти интенсивности поля x и y . Посветите этими двумя лучами светоделитель, который объединит эти два луча. Этот конкретный светоделитель делает это таким образом, чтобы формировать два выхода, электрические поля которых имеют значения ( x + y ) / √2 и ( x y ) / √2.

Помимо светоделителя, этот аналоговый умножитель требует двух простых электронных компонентов — фотодетекторов — для измерения двух выходных лучей.Однако они не измеряют напряженность электрического поля этих лучей. Они измеряют мощность луча, которая пропорциональна квадрату напряженности его электрического поля.

Почему это отношение важно? Чтобы понять это, требуется немного алгебры — но ничего, кроме того, чему вы научились в старшей школе. Вспомните, что когда вы квадрат ( x + y ) / √2 вы получите ( x 2 + 2 xy + y 2 ) / 2. А если возвести в квадрат ( x y ) / √2, вы получите ( x 2 -2 xy + y 2 ) / 2.Вычитание последнего из первого дает 2 xy .

Сделайте паузу, чтобы поразмышлять над значением этой простой математики. Это означает, что если вы кодируете число как луч света определенной интенсивности, а другое число как луч другой интенсивности, отправляете их через такой светоделитель, измеряете два выхода с помощью фотодетекторов и инвертируете один из результирующих электрических сигналов. перед их суммированием вы получите сигнал, пропорциональный произведению двух ваших чисел.

Моделирование интегрированного интерферометра Маха-Цендера, установленного в нейросетевом ускорителе Lightmatter, демонстрирует три различных состояния, при которых свет, движущийся в двух ветвях интерферометра, претерпевает различные относительные фазовые сдвиги (0 градусов по a, 45 градусов по b и 90 градусов по вертикали). в). Световая материя

Мое описание звучит так, как будто каждый из этих световых лучей должен быть устойчивым. Фактически, вы можете на короткое время подать импульс свету в двух входных лучах и измерить выходной импульс.Еще лучше, вы можете подать выходной сигнал на конденсатор, который затем будет накапливать заряд до тех пор, пока длится импульс. Затем вы можете снова подать импульс на входы в течение той же продолжительности, на этот раз кодируя два новых числа, которые нужно умножить. Их продукт добавляет конденсатору немного больше заряда. Вы можете повторять этот процесс сколько угодно раз, каждый раз выполняя новую операцию умножения и накопления.

Использование импульсного света таким образом позволяет выполнять множество таких операций в быстрой последовательности.Самая энергоемкая часть всего этого — считывание напряжения на этом конденсаторе, для чего требуется аналого-цифровой преобразователь. Но вам не обязательно делать это после каждого импульса — вы можете дождаться конца последовательности, скажем, Н импульсов. Это означает, что устройство может выполнять операции умножения и накопления N , используя одно и то же количество энергии для считывания ответа, является ли N малым или большим. Здесь N соответствует количеству нейронов на слой в вашей нейронной сети, которое легко может исчисляться тысячами.Таким образом, эта стратегия использует очень мало энергии.

Иногда можно сэкономить энергию и на вводе. Это потому, что одно и то же значение часто используется в качестве входных данных для нескольких нейронов. Вместо того, чтобы это число многократно преобразовывалось в свет, каждый раз потребляя энергию, его можно преобразовать только один раз, а создаваемый световой луч можно разделить на множество каналов. Таким образом, затраты на преобразование энергии на входе амортизируются по многим операциям.

Для разделения одного луча на множество каналов не требуется ничего более сложного, чем линза, но линзы бывает сложно установить на чип.Таким образом, устройство, которое мы разрабатываем для выполнения нейросетевых оптических вычислений, вполне может оказаться гибридом, сочетающим высокоинтегрированные фотонные чипы с отдельными оптическими элементами.

Я обрисовал здесь стратегию, которой придерживались мои коллеги и я, но есть и другие способы снять шкуру с оптической кошки. Другая многообещающая схема основана на так называемом интерферометре Маха-Цендера, который объединяет два светоделителя и два полностью отражающих зеркала. Его также можно использовать для оптического умножения матриц.Два стартапа из Массачусетского технологического института, Lightmatter и Lightelligence, разрабатывают оптические нейросетевые ускорители на основе этого подхода. Lightmatter уже построил прототип, в котором используется изготовленный ею оптический чип. И компания планирует начать продажи платы оптического ускорителя, использующей этот чип, в конце этого года.

Еще один стартап, использующий оптику для вычислений, — это Optalysis, который надеется возродить довольно старую концепцию. Одним из первых применений оптических вычислений еще в 1960-х годах была обработка радиолокационных данных с синтезированной апертурой.Ключевой частью задачи было применение к измеренным данным математической операции, называемой преобразованием Фурье. Цифровые компьютеры того времени боролись с такими вещами. Даже сейчас применение преобразования Фурье к большим объемам данных может потребовать больших вычислительных ресурсов. Но преобразование Фурье может быть выполнено оптически с помощью ничего более сложного, чем линза, которая в течение нескольких лет использовалась инженерами для обработки данных с синтетической апертурой. Optalysis надеется обновить этот подход и применить его более широко.

Теоретически фотоника может ускорить глубокое обучение на несколько порядков.

Еще есть компания под названием Luminous, созданный в Принстонском университете, который работает над созданием нейронных сетей с пиками на основе того, что он называет лазерным нейроном. Пикирование нейронных сетей более точно имитирует работу биологических нейронных сетей и, как и наш собственный мозг, может выполнять вычисления, потребляя очень мало энергии. Аппаратное обеспечение Luminous все еще находится на ранней стадии разработки, но обещание объединения двух энергосберегающих подходов — пиковой и оптики — весьма впечатляюще.

Конечно, еще предстоит преодолеть множество технических проблем. Один из них заключается в повышении точности и динамического диапазона аналогово-оптических вычислений, которые далеко не так хороши, как то, что может быть достигнуто с помощью цифровой электроники. Это связано с тем, что эти оптические процессоры страдают от различных источников шума, а также потому, что цифро-аналоговые и аналого-цифровые преобразователи, используемые для ввода и вывода данных, имеют ограниченную точность. Действительно, сложно представить оптическую нейронную сеть, работающую с точностью более 8-10 бит.Хотя существует 8-битное электронное оборудование для глубокого обучения (хороший пример — Google TPU), эта отрасль требует более высокой точности, особенно для обучения нейронных сетей.

Также существует сложность интеграции оптических компонентов в микросхему. Поскольку эти компоненты имеют размер в десятки микрометров, они не могут быть упакованы так же плотно, как транзисторы, поэтому требуемая площадь кристалла быстро увеличивается. В 2017 году исследователи Массачусетского технологического института продемонстрировали этот подход с использованием чипа с номером 1.5 миллиметров со стороны. Даже самые большие микросхемы имеют размер не более нескольких квадратных сантиметров, что накладывает ограничения на размеры матриц, которые могут обрабатываться таким образом параллельно.

Со стороны компьютерной архитектуры есть много дополнительных вопросов, которые исследователи фотоники склонны замалчивать. Однако ясно то, что, по крайней мере теоретически, фотоника может ускорить глубокое обучение на несколько порядков.

Основываясь на технологии, которая в настоящее время доступна для различных компонентов (оптических модуляторов, детекторов, усилителей, аналого-цифровых преобразователей), разумно полагать, что энергоэффективность вычислений нейронных сетей может быть в 1000 раз лучше, чем у современных электронных процессоров. .Если сделать более агрессивные предположения о новых оптических технологиях, этот фактор может достигать миллиона. А поскольку электронные процессоры имеют ограниченную мощность, эти улучшения энергоэффективности, вероятно, приведут к соответствующему повышению скорости.

Многим концепциям аналоговых оптических вычислений уже несколько десятилетий. Некоторые даже предшествовали кремниевым компьютерам. Схемы умножения оптических матриц и даже для оптических нейронных сетей, были впервые продемонстрированы в 1970-х годах.Но этот подход не прижился. Будет ли на этот раз иначе? Возможно, по трем причинам.

Во-первых, сейчас глубокое обучение действительно полезно, а не только академическое любопытство. Второй, мы не можем полагаться только на закон Мура, чтобы продолжать совершенствовать электронику. И, наконец, у нас есть новая технология, недоступная предыдущим поколениям: интегрированная фотоника. Эти факторы предполагают, что на этот раз оптические нейронные сети появятся в реальном мире — и будущее таких вычислений действительно может быть фотонным.

Что такое глубокие подделки и как они делаются?

Обычный размер текстаБольше размер текстаОчень большой размер текста

Поддельные изображения и видео — не новость. С тех пор, как существуют фотографии и пленки, люди фабрикуют подделки, предназначенные для обмана или развлечения, и это только ускорилось с момента массового распространения Интернета. Но теперь вместо того, чтобы просто изменять изображения с помощью программного обеспечения для редактирования, такого как Photoshop, или обманчиво редактировать видео, появилось новое поколение машинных подделок, которые в конечном итоге могут лишить нас возможности отличить факты от вымысла.

Глубокие подделки — наиболее распространенная форма того, что называется «синтетическими носителями»: изображения, звук и видео, которые, кажется, были созданы традиционными средствами, но на самом деле созданы сложным программным обеспечением. Глубокие фейки существуют уже много лет, и, несмотря на то, что на сегодняшний день они чаще всего используются для трансплантации голов знаменитостей на тела актеров в порнографических видеороликах, они могут создать убедительные кадры, на которых любой человек делает что-либо и в любом месте.

Возможно, вы недавно видели историю о популярном аккаунте в Твиттере, где рассказывается о приключениях симпатичной любительницы мотоциклов, которая оказалась 50-летним мужчиной. Или женщина в США, которой было предъявлено уголовное обвинение, когда одноклассник ее дочери обвинил ее в создании глубокого фейка о вейпинге девушки. Эта история стала общенациональной новостью, и женщина подверглась насилию в социальных сетях, но эксперты пришли к выводу, что видео, скорее всего, было подлинным, а вовсе не фальшивым. Прокуратура сняла обвинение.

Итак, в мире, уже наводненном дезинформацией и неправдой, каковы могут быть последствия глубоких фейков для отдельных лиц и для политической сферы? И, эээ, как вы узнаете, когда смотрите на него?

Эми Адамс в фильме «Человек из стали» и дипфейк, созданный derpfakes на YouTube-канале, в котором лицо актера Николаса Кейджа накладывается на лицо Адамса.

Что отличает глубокую подделку от подделки садового сорта?

Глубокие подделки — это, в их наиболее распространенной форме, видео, в которых лицо одного человека убедительно заменено созданным компьютером лицом, которое часто напоминает лицо второго человека.Они приобрели известность в 2017 году в онлайн-сообществе под названием r / deepfakes subreddit, участники которого начали публиковать порнографические видео, в которых, по всей видимости, фигурировали популярные женщины-знаменитости. Было ясно, что знаменитости не принимали участия в создании видеороликов, но использованные методы означали, что они были гораздо более убедительными, чем традиционные подделки, которые просто переносят лицо из одного видео на тело из другого.

Слово «глубокий» в слове «deep fake» относится к «глубокому обучению». Именно этот элемент и тот факт, что лица полностью создаются компьютером, делает глубокие подделки отличными от подделок, созданных людьми вручную, и потенциально более опасными.

Глубокое обучение — это метод обучения компьютеров и программного обеспечения, основанный на способах обучения органического мозга. Он включает в себя системы, обрабатывающие определенные задачи снова и снова, иногда совершенно без присмотра людей, чтобы научиться наилучшим образом превратить определенные входные данные в желаемый результат. В глубоких подделках это означает изменение лица одного человека на лицо другого таким образом, о котором редактор-человек может не подумать или не сможет обнаружить.

После обмена у вас должно остаться лицо, имеющее черты, характерные для Кейджа, но с оригинальными манерами Адамса.

Причина, по которой смена лиц является основной категорией глубокой подделки, заключается в том, что все лица имеют общие черты, даже среди людей с очень разной внешностью, и до тех пор, пока эти элементы согласованы, наш мозг склонен верить в то, что они видят. Если вы, например, накладываете лицо Николаса Кейджа на Эми Адамс — как в приведенном выше примере — программа узнает, какие части исходных лиц были характерны для каждого актера и должны быть изменены (цвет глаз, форма рта), а какие были частью сцены и должны быть сохранены (чтобы брови поднимались, а рот открывался).После обмена у вас должно остаться лицо, которое имеет черты, характерные для Кейджа, но с оригинальными манерами Адамса.

Нет ничего, что конкретно препятствовало бы созданию глубокого фальшивого движка, из-за которого создается впечатление, будто у людей было оружие в руках, когда они его не держали, или заставляет их выглядеть выше, чем они есть на самом деле, но это не влияет на сильные стороны глубокого обучения и вероятно, будет легче достичь другими способами.

Следует также отметить, что, хотя технология очень впечатляет, идея о том, что глубокая подделка может быть в буквальном смысле неотличима от реальных отснятых материалов, остается лишь теоретической.Примеры, подобные приведенному выше, явно фальшивые и несочетаемые, в то время как попытка на самом деле обмануть с помощью глубоких фейков потребует невероятно продвинутого программного обеспечения, тщательных данных и способа имитировать голос объекта, а также его лицо.

Какие глубокие фейковые видео снимаются?

По большей части для создания глубоких подделок требуется много данных о лице в виде изображений и видео, поэтому неудивительно, что почти все они связаны со знаменитостями.

В сентябре 2019 года амстердамская компания Deeptrace, организация, «занимающаяся исследованием развивающихся возможностей и угроз глубоких подделок», опубликовала исследование почти 15 000 глубоких подделок, циркулирующих в сети в то время.Было обнаружено, что 96 процентов из них были порнографическими, причем 99 процентов из них изображали лица знаменитостей.

Исследование также показало, что четыре ведущих веб-сайта, посвященных глубокой поддельной порнографии, самый ранний из которых был запущен в феврале 2018 года, уже привлек почти 135 миллионов просмотров видео, что подчеркивает тревожный спрос на формат без согласия.

Продвинутые технологии обещают создавать более убедительные видеоролики, чем когда-либо, с еще меньшими усилиями.

Большинство популярных сайтов, включая Reddit, запретили фейковую порнографию, а в нескольких штатах США уже приняты законы, запрещающие фейки с изображением обнаженного тела, сделанные без согласия. Популярные непорнографические глубокие фейки включают в себя переделку фильмов для развлечения, например, когда создается впечатление, будто Николас Кейдж играет всех ролей в каждом фильме.

Поскольку глубокие подделки обычно не меняют голоса и звуки видео, также часто можно изменить клипы комиков, производящих впечатления, чтобы они выглядели как человек, которого имитируют.Посмотрите это видео импрессиониста Джима Мескимена и художника глубоких фейков Sham00k:

Глубокие подделки — или аналогичные техники — использовались в фильмах. В недавних фильмах «Звездные войны » использовались компьютерные версии Кэрри Фишер и Питера Кушинга, как они появились в оригинальном фильме 1977 года, в то время как в нескольких фильмах Marvel есть «пожилые» актеры, включая Майкла Дугласа и Роберта Дауни-младшего. Традиционные техники спецэффектов, такие как захват движения, помогают сделать их намного более последовательными, чем ваши обычные интернет-фейки, хотя в некоторых случаях они менее правдоподобны.

Насколько сложно сделать глубокую подделку?

Обычно для создания убедительной глубокой подделки требуется много данных и много дорогостоящих вычислительных мощностей, хотя технологический прогресс означает, что эти методы становятся доступными гораздо более широкой группе создателей контента, чем просто энтузиастам и профессионалам. Короткий ответ: да, это сложно, но, возможно, этого не произойдет в будущем.

Один из самых популярных методов включает сбор видеоданных двух людей, которых вы обмениваете, и их обработку с помощью очень мощного компьютера, к которому у вас есть физический доступ или (что более вероятно) аренда с использованием облачной службы.Сравнивая различные фрагменты видео, программа пытается научиться воссоздавать лицо со всех сторон.

Многие глубокие подделки приводят к неубедительным видео, где, например, оттенки кожи получаются пятнистыми или на лицах обоих людей одновременно видны четкие элементы. Но опытный фейкер может это объяснить, выбрав конкретных людей и видео. В приведенном ниже клипе, который является неудачным вариантом с YouTube-канала AsArt, вы можете увидеть, что лицо актера Адама Драйвера не совсем слилось с лицом актера Алана Рикмана в этой попытке глубоко подделать фильм о Гарри Поттере.Обратите внимание, как отсутствуют верхние зубы, и как программа, похоже, не заметила несовпадающий лоб.

В другом клипе того же канала эта попытка вставить Мерил Стрип в фильм не увенчалась успехом, возможно, из-за мрачного освещения в исходном клипе. Программа не понимает, как должно быть раскрашено лицо Стрипа.

Но передовые технологии обещают создавать более убедительные видеоролики, чем когда-либо, с еще меньшими усилиями. Специальные двухкомпонентные системы глубокого обучения, называемые генеративными состязательными сетями (GAN), стали популярными благодаря тому, что они могут создавать что угодно, от оригинальных сценариев до картин полностью изобретенных ландшафтов.Система, по сути, ведет игру против самой себя, критикуя и оценивая свой собственный результат в сравнении с тем, что, по ее мнению, люди примут за реальный. В глубоких подделках это может быть синтетическое видео без заметных изъянов.

Загрузка

Также был достигнут прогресс в создании общих алгоритмов для производства глубоких подделок. Это требует огромного количества времени и вычислительной мощности, но после завершения алгоритм потенциально может позволить вам создать мгновенное глубокое поддельное видео, просто загрузив два клипа в приложение или веб-браузер.Конечно, как и в случае с вирусами и антивирусами, любая технология, которая может обнаруживать или предотвращать глубокие фальшивые видео, скорее всего, будет только временной, особенно потому, что подделками управляет ИИ, который призван обмануть восприятие людей.

Как глубокие фейки стали «вирусными»?

Хотя многие люди выражают озабоченность по поводу того, что политики выдают себя за политиков для разжигания дезинформации и влияния на выборы, на сегодняшний день наиболее широко распространенными, непорнографическими примерами являются мемы о знаменитостях.

В августе 2019 года на YouTube-канал Ctrl-Shift-Face актера Билла Хадера из ночного телешоу Дэвида Леттермана было загружено глубокое фейковое видео.Вот как он выглядел в оригинальном интервью, выдавая себя за Тома Круза:

Но в потрясающем фальшивом ролике лицо Хадера трансформируется, чтобы напоминать знаменитостей, которых он изображает. Посмотрите, что происходит, когда он имитирует Круза:

Клип сразу стал вирусным, как из-за его тонкого творчества, так и из-за его взгляда на изменяющий восприятие потенциал глубокой поддельной формы.

В интервью The Guardian, создатель видео, назвавшийся гражданином Словакии в Чешской Республике, который работает 3D-художником в кино и игровой индустрии, сказал, что хочет повысить осведомленность о подрывном потенциале глубокие подделки.

«Людям нужно научиться быть более критичными. Широкая публика знает, что фотографии могут быть отфотошоплены, но они понятия не имеют, что это можно сделать с помощью видео», — сказал он.

Том Круз с тех пор оказался популярным предметом глубоких подделок. Есть популярный аккаунт в TikTok, которым управляет бельгийский художник по визуальным эффектам, который не публикует ничего, кроме тщательно продуманных фейков с участием актера.

Актер Стив Бушеми также оказался втянутым в дебаты о новой технологии после того, как его лицо на теле Дженнифер Лоуренс было снято за кулисами «Золотого глобуса», обсуждая телешоу Настоящие домохозяйки — стало вирусным.

Собственная реакция Бушеми — «Мне грустно, что кто-то потратил на это столько времени», — сказал он поздно вечером ведущему Стивену Колберту — повторила более широкий отклик в Интернете. Как гласит один из самых популярных комментариев на странице видео на YouTube: «И все опасались, что Интернет будет использовать фальшивые технологии для терроризма».

Но можно ли использовать его для широко распространенной дезинформации?

Общую озабоченность вызывает то, что глубокие подделки могут быть использованы для дестабилизации демократии или иного вмешательства в политику.Это правда, что политики были целью многих подделок. По мере того, как США приближались к выборам 2020 года, лица Дональда Трампа и Джо Байдена оказались особенно популярными.

Глубокие фейки почти всегда используются для создания комического эффекта или для того, чтобы аудитория воспринимала видео как подделку. Технология еще не в том месте, где можно было бы реалистично заявлять о подлинности. На данный момент глубокие политические фейки обычно принимают форму сатиры, как, например, в этой версии Better Call Saul с участием Дональда Трампа, которая снова взята из Ctrl-Shift-Face:

Однако Джейкоб Уоллис, старший аналитик Австралийской Институт стратегической политики заявляет, что синтетическим СМИ не обязательно попадать в наихудший сценарий президентских подделок, чтобы вызывать беспокойство.«В игре уже есть приложения с более низким пороговым уровнем, которые интегрированы в операции влияния и различную дезинформацию, которая в настоящее время распространяется в среде социальных сетей», — говорит он. «Синтетические медиа охватывают весь спектр медиа-ландшафта, с которым мы взаимодействуем, когда находимся в сети: текст, аудио, изображения, видео».

Например, для государственных и негосударственных субъектов стандартной практикой является создание синтетических лиц с использованием техник, аналогичных тем, которые используются в глубоких подделках, которые можно использовать в качестве изображений профиля в Интернете, чтобы злонамеренные учетные записи выглядели подлинными.

Уже одного того факта, что существуют глубокие подделки, было достаточно, чтобы вызвать некоторые политические проблемы.

Между тем, известно, что иностранные актеры генерируют синтетические голоса с помощью ИИ, что позволяет им добавлять закадровый голос к видео, не теряя акцента.

Загрузка

«Мы видим эти низкоуровневые приложения разработанного искусственным интеллектом контента в открытом доступе, это происходит сейчас», — говорит Уоллис, добавляя, что те, у кого есть возможность делать убедительные глубокие подделки видео прямо сейчас, вероятно, не склонны к используй их.

«Если бы государственный субъект использовал глубокую подделку значительного качества, достаточного для изменения геополитических событий, я думаю, это привело бы к серьезным последствиям. Таким образом, государственные субъекты будут осторожно думать о порогах и развертывании этих технологий».

Однако по мере того, как технология становится более демократичной, негосударственные субъекты, возможно, не будут так сопротивляться. И уже одного того факта, что существуют глубокие подделки, было достаточно, чтобы вызвать некоторые политические проблемы.

В Бразилии и Малайзии политики дистанцировались от компрометирующих видеодоказательств, утверждая, что они являются глубокой подделкой, созданной оппонентами.

В аналогичном случае в 2018 году президент Габона выступил с телеобращением в ответ на слухи о своей смерти, и правительство это скрыло. Его политические оппоненты заявили, что видео было подделкой, и военные устроили переворот. Президент оказался жив-здоров.

За пределами политической сферы основное беспокойство вызывает использование технологии глубоких фейков против обычных людей, поскольку повсеместное распространение видеоконтента в социальных сетях может создать совершенно новые возможности для глубоких фейков, не относящихся к знаменитостям.

Существуют большие последствия для киберзапугивания, если у каждого человека есть, скажем, учетная запись TikTok или что-то подобное, заполненное сотнями часов селфи-видео, и если технологии будущего позволят кому-то легко превратить некоторые из этих материалов в глубокая подделка. Знаменитости и политики могут быть защищены своим статусом и вниманием, но у обычного человека могут возникнуть проблемы с доказательством своей невиновности, если его коллеги получат видео, которое, как представляется, показывает, что они делают что-то отвратительное.

Что такое «дипфейки» и чем они могут быть опасны

Сравнение оригинального и дипфейкового видео генерального директора Facebook Марка Цукерберга.

Elyse Samuels | Вашингтон Пост | Getty Images

Приложения для камеры становятся все более изощренными. Пользователи могут удлинить ноги, удалить прыщи, добавить уши животных, а теперь некоторые могут даже создавать фальшивые видеоролики, которые выглядят очень реалистично. Технологии, используемые для создания такого цифрового контента, быстро стали доступны широким массам, и их называют «дипфейками».«

Deepfakes — это обработанные видео или другие цифровые изображения, созданные сложным искусственным интеллектом, которые создают сфабрикованные изображения и звуки, которые кажутся реальными.

Такие видео« становятся все более сложными и доступными », — написал Джон Вилласенор, старший иногородний научный сотрудник Центра технологических инноваций Вашингтонского института государственной политики, Brookings Institution. «Deepfakes поднимает ряд сложных политических, технологических и юридических вопросов.«

Фактически, любой, у кого есть компьютер и доступ к Интернету, может технически производить дипфейк-контент, — сказал Вилласенор, который также является профессором электротехники в Калифорнийском университете в Лос-Анджелесе.

Что такое дипфейки?

Слово deepfake объединяет термины «глубокое обучение» и «фальшивка» и представляет собой форму искусственного интеллекта.

Говоря упрощенно, deepfake — это фальсифицированные видеоролики, созданные с помощью глубокого обучения, — сказал Пол Барретт, адъюнкт-профессор права в New Йоркский университет.

Глубокое обучение — это «подмножество искусственного интеллекта» и относится к расположению алгоритмов, которые могут обучаться и принимать разумные решения самостоятельно.

Но опасность заключается в том, что «технологию можно использовать, чтобы заставить людей поверить в реальность, когда это не так», — сказал Питер Сингер, стратег и старший научный сотрудник аналитического центра New America, специализирующийся на кибербезопасности и защите.

Певец — не единственный, кто предупрежден об опасности дипфейков.

Вилласенор сказал CNBC, что технология «может использоваться для подрыва репутации политического кандидата, заставляя кандидата делать вид, будто он говорит или делает то, чего на самом деле никогда не было».«

« Это новый мощный инструмент для тех, кто может захотеть (использовать) дезинформацию, чтобы повлиять на выборы », — сказал Вилласенор.

Как работают дипфейки?

фотографии и видео с изображением целевого человека с разных ракурсов, а затем имитирование его поведения и речевых моделей.

Барретт объяснил, что «после создания предварительной подделки метод, известный как GAN, или генеративные состязательные сети, делает ее более правдоподобной.Процесс GAN направлен на обнаружение недостатков в подделке, что приводит к улучшениям, устраняющим недостатки ».

И после нескольких раундов обнаружения и улучшения, дипфейк-видео завершается, сказал профессор.

Согласно технологическому отчету Массачусетского технологического института, устройство, которое позволяет дипфейки. тела порнозвезд и вкладывают слова в уста политиков », — написал в своем отчете Мартин Джайлс, руководитель бюро MIT Technology Review в Сан-Франциско.

Он сказал, что сети GAN не создавали этой проблемы, но они только усугубят ее.

Как обнаружить подделанные видео?

Хотя ИИ можно использовать для создания дипфейков, его также можно использовать для их обнаружения, написал Вилласенор из Брукингса в феврале. Поскольку технология становится доступной для любого пользователя компьютера, все больше и больше исследователей сосредотачиваются на обнаружении дипфейка и ищут способ его регулирования.

Крупные корпорации, такие как Facebook и Microsoft, выступили с инициативами по обнаружению и удалению deepfake-видео.Обе компании объявили ранее в этом году, что они будут сотрудничать с ведущими университетами США для создания большой базы данных поддельных видео для исследований, согласно Reuters.

«В настоящее время есть небольшие визуальные аспекты, которые исчезают, если вы присмотритесь, все — от ушей или глаз, не совпадающих с нечеткими границами лица или слишком гладкой кожи, до освещения и теней», — сказал Сингер из New America.

Но он сказал, что обнаруживать «теллы» становится все труднее и труднее, поскольку технология дипфейка становится все более продвинутой, а видео выглядят более реалистично.

Несмотря на то, что технология продолжает развиваться, Вилласенор предупредил, что методы обнаружения «часто отстают от самых передовых методов создания». Поэтому лучший вопрос: «Будут ли люди более склонны поверить в дипфейк или алгоритм обнаружения, который помечает видео как сфабрикованное?»

Обновление: эта история была изменена, чтобы отразить обновленную цитату Джона Вилласенора из Института Брукингса.

Дипфейки собираются нанести ущерб обществу. Мы не готовы.

Ни одного из этих людей не существует. Эти изображения были созданы с использованием технологии deepfake.

thispersondoesnotexist.com

В прошлом месяце в рамках популярного документального сериала ESPN Последний танец State Farm дебютировал в телевизионной рекламе, которая стала одной из самых обсуждаемых рекламных роликов за последнее время. Судя по всему, это были кадры 1998 года, на которых аналитик ESPN делал потрясающе точные прогнозы относительно 2020 года.

Как выяснилось, клип не был подлинным: он был создан с использованием передового искусственного интеллекта.Ролик удивил, повеселил и обрадовал зрителей.

Но зрители должны были испытывать глубокую озабоченность.

Реклама «Совхоз» была наглядным примером нового важного и опасного явления в искусственном интеллекте: дипфейков. Технология Deepfake позволяет любому, у кого есть компьютер и подключение к Интернету, создавать реалистичные фотографии и видеоролики, на которых люди говорят и делают то, чего они на самом деле не говорили или не делали.

Сочетание словосочетаний «глубокое обучение» и «подделка», дипфейки впервые появились в Интернете в конце 2017 года благодаря инновационному новому методу глубокого обучения, известному как генеративные состязательные сети (GAN).

Несколько дипфейк-видео за последнее время стали вирусными, благодаря чему миллионы людей во всем мире впервые познакомились с этой новой технологией: президент Обама использовал ругательство, чтобы описать президента Трампа, Марк Цукерберг признал, что истинная цель Facebook — манипулировать и эксплуатировать своих пользователей, Билл Хейдер трансформировался. в Аль Пачино в ночном ток-шоу.

Количество дипфейков в Интернете стремительно растет. Согласно отчету стартапа Deeptrace, в начале 2019 года в сети было 7964 deepfake-видео; всего девять месяцев спустя эта цифра подскочила до 14 678 человек.Без сомнения, с тех пор он продолжал расти.

Несмотря на то, что сегодняшняя технология дипфейка впечатляет, она все же не совсем соответствует подлинным видеоматериалам — если присмотреться, обычно можно сказать, что видео является дипфейком. Но технологии улучшаются с головокружительной скоростью. Эксперты прогнозируют, что в ближайшее время дипфейки будут неотличимы от реальных изображений.

«В январе 2019 года глубокие подделки были глючными и мерцающими», — сказал Хани Фарид, профессор Калифорнийского университета в Беркли и эксперт по дипфейкам.«Девять месяцев спустя я никогда не видел ничего похожего на то, как быстро они движутся. Это верхушка айсберга ».

Сегодня мы стоим на переломном этапе. В ближайшие месяцы и годы дипфейки могут вырасти из интернет-диковинки в разрушительную политическую и социальную силу. Обществу нужно действовать сейчас, чтобы подготовиться.


Когда смотришь — не веришь

Первый вариант использования, в котором широко применяется технология deepfake, как это часто бывает с новыми технологиями, — это порнография.Согласно отчету Deeptrace, по состоянию на сентябрь 2019 года 96% онлайн-видео deepfake были порнографическими.

Появилось несколько веб-сайтов, посвященных дипфейк-порнографии, которые в совокупности собрали сотни миллионов просмотров за последние два года. Дипфейк-порнография почти всегда бывает без согласия, подразумевая искусственный синтез откровенных видеороликов с участием известных знаменитостей или личных контактов.

Из этих темных уголков сети использование дипфейков начало распространяться на политическую сферу, где вероятность хаоса еще больше.

Не требуется большого воображения, чтобы осознать вред, который может быть нанесен, если целым группам населения будут показаны сфабрикованные видео, которые, по их мнению, реальны. Представьте себе дипфейк, на котором политик занимается подкупом или сексуальным насилием прямо перед выборами; или солдат США, совершающих зверства против мирных жителей за границей; или о том, что президент Трамп объявил о запуске ядерного оружия против Северной Кореи. В мире, где существует даже некоторая неуверенность в подлинности таких клипов, последствия могут быть катастрофическими.

Из-за широкой доступности технологии такие кадры мог создавать кто угодно: спонсируемые государством субъекты, политические группы, одинокие люди.

В недавнем отчете Институт Брукингса мрачно резюмировал спектр политических и социальных опасностей, которые создают дипфейки: «искажение демократического дискурса; манипулирование выборами; подрыв доверия к институтам; ослабление журналистики; обострение социальных разногласий; подрыв общественной безопасности; и нанесение трудно поддающегося возмещению ущерба репутации выдающихся личностей, включая выборных должностных лиц и кандидатов на должности.”

Учитывая ставки, американские законодатели начали обращать внимание.

«Раньше, если вы хотели угрожать Соединенным Штатам, вам требовалось 10 авианосцев, ядерное оружие и ракеты большой дальности», — сказал недавно сенатор США Марко Рубио. «Сегодня … все, что вам нужно, это возможность создать очень реалистичное фальшивое видео, которое могло бы подорвать наши выборы, которое могло бы ввергнуть нашу страну в ужасный внутренний кризис и глубоко ослабить нас».

Технологи согласны.По словам Хани Фарида, одного из ведущих мировых экспертов по дипфейкам: «Если мы не можем поверить видео, аудио, изображениям, информации, собранной со всего мира, это серьезный риск для национальной безопасности. ”

Этот риск больше не является чисто гипотетическим: есть первые примеры дипфейков, влияющих на политику в реальном мире. Эксперты предупреждают, что это канарейки в угольной шахте.

В прошлом месяце политическая группа в Бельгии выпустила дипфейк-видео, на котором премьер-министр Бельгии произносит речь, в которой связывает вспышку COVID-19 с экологическим ущербом и призывает к решительным действиям по борьбе с изменением климата.По крайней мере, некоторые зрители считали, что речь была настоящей.

Еще более коварно то, что простая возможность того, что видео может быть дипфейком, может вызвать путаницу и способствовать политическому обману независимо от того, действительно ли использовалась технология дипфейка. Самый яркий пример этого — Габон, небольшая страна в центральной Африке.

В конце 2018 года президента Габона Али Бонго не видели на публике несколько месяцев. Ходили слухи, что он уже недостаточно здоров для должности или даже что он умер.Пытаясь развеять эти опасения и восстановить лидерство Бонго в стране, его администрация объявила, что он выступит с общенациональным телеобращением в день Нового года.

В видеообращении (которое стоит проверить собственными глазами) Бонго выглядит напряженным и неестественным, с неестественной речью и мимикой лица. Видео сразу же вызвало подозрения, что власть что-то скрывает от общественности. Политические оппоненты Бонго заявили, что отснятый материал является дип-фейком, а президент выведен из строя или мертв.Слухи о заговоре дипфейка быстро распространились в социальных сетях.

Политическая ситуация в Габоне стремительно дестабилизируется. В течение недели военные организовали переворот — первый в стране с 1964 года, — сославшись на новогоднее видео как на доказательство того, что с президентом что-то не так.

По сей день эксперты не могут однозначно сказать, было ли новогоднее видео подлинным, хотя большинство полагает, что это так. (Переворот оказался неудачным; с тех пор Бонго появлялся на публике и остается у власти по сей день).

Но было ли видео настоящим — почти неважно. Главный урок состоит в том, что появление дипфейков будет все более затруднять обществу различение того, что реально, а что фальшиво, — ситуация, которую неизбежно будут использовать политические субъекты — с потенциально разрушительными последствиями.

«Люди уже используют тот факт, что существуют дипфейки, чтобы дискредитировать подлинные видеодоказательства», — сказал профессор Университета Южной Калифорнии Хао Ли. «Даже если есть кадры, на которых вы что-то делаете или говорите, вы можете сказать, что это был дипфейк, и очень сложно доказать обратное.”

В двух недавних инцидентах политики в Малайзии и Бразилии пытались избежать последствий компрометации видеозаписей, утверждая, что эти видеозаписи были дипфейками. В обоих случаях никто не смог окончательно установить иное, и общественное мнение осталось разделенным.

Исследователь Авив Овадья предупреждает о том, что она называет «апатией к реальности»: «Слишком много усилий, чтобы выяснить, что реально, а что нет, поэтому вы с большей готовностью будете просто придерживаться своих прежних связей.”

В мире, где видеть больше не значит верить, способность большого сообщества прийти к соглашению о том, что является правдой, а тем более участвовать в конструктивном диалоге об этом, внезапно кажется ненадежной.

Игра в технологические кошки-мышки

Основная технология, делающая возможными дипфейки, — это ветвь глубокого обучения, известная как генеративные состязательные сети (GAN). Сети GAN были изобретены Яном Гудфеллоу в 2014 году, когда он учился в докторантуре Монреальского университета, одного из ведущих мировых исследовательских институтов искусственного интеллекта.

В 2016 году великий ИИ Янн ЛеКун назвал GAN «самой интересной идеей в машинном обучении за последние десять лет».

До появления GAN нейронные сети умели классифицировать существующий контент (например, понимать речь или распознавать лица), но не создавали новый контент. Сети GAN дали нейронным сетям возможность не только воспринимать, но и создавать.

Концептуальный прорыв

Гудфеллоу заключался в том, чтобы спроектировать GAN с использованием двух отдельных нейронных сетей — одну, известную как «генератор», а другую — как «дискриминатор», — и сопоставить их друг с другом.

Начиная с заданного набора данных (скажем, коллекции фотографий человеческих лиц), генератор начинает генерировать новые изображения, которые с точки зрения пикселей математически аналогичны существующим изображениям. Между тем, на дискриминатор поступают фотографии без указания того, взяты ли они из исходного набора данных или из выходных данных генератора; его задача — определить, какие фотографии были созданы синтетическим путем.

Поскольку две сети итеративно работают друг против друга — генератор пытается обмануть дискриминатор, дискриминатор пытается разобраться в творениях генератора — они оттачивают возможности друг друга.В конце концов, вероятность успешной классификации дискриминатора упала до 50%, что не лучше, чем случайное предположение, а это означает, что синтетически сгенерированные фотографии стали неотличимы от оригиналов.

Одной из причин распространения дипфейков является идеология открытого исходного кода сообщества машинного обучения: начиная с оригинальной статьи Гудфеллоу, всякий раз, когда происходят исследования в области генеративного моделирования, технология обычно предоставляется бесплатно для всех в мире для загрузки и использования. .

Учитывая, что дипфейки в первую очередь основаны на ИИ, некоторые рассматривают ИИ как решение для вредоносных приложений дипфейков. Например, исследователи создали сложные системы обнаружения дипфейков, которые оценивают освещение, тени, движения лица и другие особенности, чтобы отмечать сфабрикованные изображения. Другой инновационный защитный подход — добавить фильтр к файлу изображения, который делает невозможным использование этого изображения для создания дипфейка.

Появилось несколько стартапов, предлагающих программное обеспечение для защиты от дипфейков, включая Truepic и Deeptrace.

Однако вряд ли такие технологические решения остановят распространение дипфейков в долгосрочной перспективе. В лучшем случае они приведут к бесконечной динамике в кошки-мышки, подобной той, что существует сегодня в кибербезопасности, в которой прорывы в области обнаружения дипфейков стимулируют дальнейшие инновации в генерации дипфейков. Открытый исходный код исследований ИИ делает это тем более вероятным.

Приведу один пример: в 2018 году исследователи из Университета Олбани опубликовали анализ, показывающий, что нарушение мерцания часто является верным признаком того, что видео было подделкой.Это был полезный прорыв в борьбе с дипфейками — до тех пор, пока в течение нескольких месяцев не стали появляться новые видео дипфейков, которые исправляли это мигающее несовершенство.

«У нас меньше вооружения, — сказал Фарид. «Количество людей, работающих на стороне видеосинтеза, в отличие от детектора, составляет 100: 1».


Путь вперед

Помимо чисто технических средств защиты, какие законодательные, политические и социальные меры мы можем предпринять, чтобы защититься от опасностей дипфейков?

Заманчивое и простое решение — принять законы, запрещающие создание или распространение дипфейков.Штат Калифорния экспериментировал с этим подходом, приняв в прошлом году закон, запрещающий создание или распространение дипфейков политиков в течение 60 дней после выборов. Но общий запрет на дипфейки имеет как конституционные, так и практические проблемы.

Первая поправка к Конституции США закрепляет свободу слова. Любой закон, запрещающий онлайн-контент, особенно политический, рискует нарушить эти конституционные меры защиты.

«Политическая речь пользуется наивысшим уровнем защиты при У.S. Law, — сказала профессор права Джейн Кертли. «Желание защитить людей от вводящего в заблуждение контента в преддверии выборов очень сильное и очень понятное, но я скептически отношусь к тому, смогут ли они обеспечить соблюдение [закона Калифорнии]».

Помимо конституционных проблем, запреты на дипфейки, вероятно, окажется неосуществимым из-за анонимности и безграничности Интернета.

Другие существующие правовые рамки, которые могут быть использованы для борьбы с дипфейками, включают авторское право, клевету и право на гласность.Но, учитывая широкую применимость доктрины добросовестного использования, полезность этих юридических средств может быть ограничена.

В краткосрочной перспективе наиболее эффективное решение может исходить от крупных технологических платформ, таких как Facebook, Google и Twitter, которые добровольно предпримут более строгие меры для ограничения распространения вредоносных дипфейков.

Доверие частных компаний к решению широких политических и социальных проблем по понятным причинам вызывает у многих чувство глубокого дискомфорта. Тем не менее, как говорят правоведы Бобби Чесни и Даниэль Ситрон, соглашения об условиях обслуживания этих технологических платформ являются «самым важным документом, регулирующим цифровую речь в современном мире.В результате политика этих компаний в отношении контента может быть «наиболее заметным механизмом ответа из всех» на дипфейки.

Соответствующий законодательный вариант — внести поправки в спорную статью 230 Закона о порядочности в общении. Написанный на заре коммерческого Интернета, Раздел 230 дает Интернет-компаниям почти полный гражданский иммунитет в отношении любого контента, размещенного на их платформах третьими сторонами. Отказ от этой защиты возложит на такие компании, как Facebook, юридическую ответственность за ограничение распространения вредоносного контента на своих сайтах.Но такой подход вызывает серьезные опасения относительно свободы слова и цензуры.

В конце концов, одного решения не хватит. Важный первый шаг — просто повысить осведомленность общественности о возможностях и опасностях дипфейков. Информированные граждане — важная защита от широко распространенной дезинформации.

Недавний рост количества фейковых новостей привел к опасениям, что мы входим в мир «постправды». Дипфейки угрожают усилить и ускорить эту траекторию. Следующая важная глава в этой драме, вероятно, не за горами: выборы 2020 года.Ставки вряд ли могут быть выше.

«Человек перед танком на площади Тяньаньмэнь переместил мир», — сказал профессор Нью-Йоркского университета Насир Мемон. «Никсон по телефону стоил ему президентского срока. Образы ужаса из концлагерей наконец подтолкнули нас к действию. Если идея неверия в то, что вы видите, подвергается нападкам, это огромная проблема. Нужно восстановить истину в видении снова ».

Что такое дипфейки и как их обнаружить?

Мы много слышим об искусственном интеллекте и машинном обучении, используемом во благо в мире кибербезопасности — обнаружении злонамеренного и подозрительного поведения и реагировании на них для защиты предприятия — но, как и многие технологии, ИИ можно использовать как во зло, так и во благо .Одна из областей, которая привлекла все большее внимание в последние пару лет, — это возможность создавать «дипфейки» аудио- и видеоконтента с использованием генеративных состязательных сетей или GAN. В этом посте мы рассмотрим Deepfake и спросим, ​​стоит ли нам по этому поводу беспокоиться.

Что такое Deepfake?

Deepfake — это использование машины (« deep »), которая обучается создавать своего рода фальшивый медиа-контент — обычно видео со звуком или без него — который был «подделан» или сфабрикован, чтобы создать впечатление, будто кто-то или люди сделали или сказали то, чего на самом деле не сделали.

Выйдя за рамки старых методов достижения того же эффекта, таких как расширенное редактирование аудио-видео и склейка, Deepfake использует преимущества компьютерной обработки и машинного обучения для создания реалистичного видео и аудиоконтента, отображающего события, которых никогда не было. В настоящее время это более или менее ограничивается «сменой лица»: помещением головы одного или нескольких человек на тела других людей и синхронизацией губ для желаемого звука. Тем не менее, эффекты могут быть довольно ошеломляющими, как видно на этой дипфейке лица Стива Бушеми, нанесенного на тело Дженнифер Лоуренс.



Источник

Все началось в 2017 году, когда пользователь Reddit «deepfakes» произвел грязные Deep Fakes знаменитостей, занимающихся сексом, перенося лица известных людей на тела актеров из фильмов для взрослых. Вскоре многие люди начали публиковать похожие видео, пока модераторы полностью не запретили дипфейки и сабреддит.

Конечно, это было только начало. После того, как технология вышла из рук ученых и превратилась в пригодный для использования код, который не требовал глубокого понимания концепций и методов искусственного интеллекта, многие другие смогли начать с ней экспериментировать.Политические деятели, актеры и другие общественные деятели вскоре обнаружили, что их «поменяли лицом», и они стали появляться на Youtube и других видеоплатформах. Сам Reddit содержит другие, непорнографические Deep Fake, такие как субреддит Deepfakes «Safe For Work» r / SFWdeepfakes.

Насколько легко создавать глубокие подделки?

Хотя это и нетривиально, это не так уж и сложно для любого со средним уровнем владения компьютером. Как мы видели, там, где раньше требовались огромные ресурсы и навыки, доступные лишь нескольким специалистам, теперь на github доступны инструменты, с которыми любой может легко экспериментировать и создавать свои собственные Deep Fake, используя стандартное компьютерное оборудование.

Как минимум, вы можете сделать это с помощью нескольких URL-адресов Youtube. Как Гаурав Оберой объяснил в этом посте в прошлом году, любой может использовать автоматизированный инструмент, который берет список из полдюжины или около того видео Youtube продолжительностью несколько минут каждое, а затем извлекает кадры, содержащие лица цели, и заменяет их.

Программа проверяет различные атрибуты оригинала, такие как оттенок кожи, выражение лица объекта, угол или наклон головы и окружающее освещение, а затем пытается восстановить изображение с лицом заменяющего в этом контексте.Ранние версии программного обеспечения могли занять несколько дней или даже недель, чтобы обработать все эти детали, но в эксперименте Обероя потребовалось всего около 72 часов с готовым графическим процессором (NVIDIA GTX 1018 TI), чтобы произвести реалистичную замену.

Хотя методы, использующие менее сложные методы, могут быть столь же разрушительными, как недавно было засвидетельствовано в подделанном видео журналиста CNN Джима Акосты и фальшивом видео о пьяном виде Нэнси Пелоси, настоящие Deep Fakes используют метод, называемый генеративными состязательными сетями (GAN).Это предполагает использование двух конкурирующих алгоритмов машинного обучения, в которых один создает изображение, а другой пытается его обнаружить. Когда обнаружено обнаружение, первый ИИ улучшает вывод, чтобы обойти обнаружение. Второй ИИ теперь должен улучшить свое принятие решений, чтобы обнаружить подделку и улучшить ее обнаружение. Этот процесс повторяется несколько раз, пока ИИ, производящий Deep Fake, не превзойдет ИИ обнаружения или не создаст изображение, которое создатель считает достаточно хорошим, чтобы обмануть зрителей.

Доступ к GAN больше не ограничен теми, у кого огромный бюджет и есть суперкомпьютеры.

Как глубокие подделки влияют на кибербезопасность?

Deep Fakes — это новый поворот в старой уловке: манипуляции со СМИ. От старых времен соединения аудио- и видеокассет до использования фотошопа и других наборов для редактирования — GAN предлагают нам новый способ работы с мультимедиа. Тем не менее, мы не уверены, что они открывают специально для злоумышленников канал , новый , и статьи, подобные этой, похоже, усиливают их доверие, когда они пытаются преувеличить связь между Deep Fakes и обычными фишинговыми угрозами.

Конечно, у Deep Fakes есть потенциал , чтобы привлекать много внимания, распространять и распространять вирус, поскольку люди восхищаются фальшивыми СМИ, изображающими какой-то маловероятный поворот событий: политик с невнятной речью, знаменитость в компрометирующей позиции, неоднозначный цитаты общественного деятеля и тому подобное. Создавая контент с возможностью привлечения большого количества акций, вполне возможно, что хакеры могут использовать Deep Fakes так же, как и другой фишинговый контент, заманивая людей нажимать на то, что содержит вредоносный компонент, скрытый внутри, или скрытно перенаправляя пользователей на вредоносные веб-сайты при отображении контента.Но, как мы уже отмечали выше для подделок Джима Акосты и Нэнси Пелоси, вам действительно не нужно углубляться в на , чтобы добиться такого эффекта.

Единственное, что мы знаем о преступниках, — это то, что они не любят тратить время и силы на сложные методы, когда есть множество совершенно хороших и простых. Нет недостатка в людях, попадающихся на всю обычную, гораздо более простую фишинговую приманку, которая циркулирует годами и до сих пор явно очень эффективна. По этой причине в настоящее время мы не рассматриваем Deep Fakes как особо серьезную угрозу для такого рода киберпреступлений.

Тем не менее, имейте в виду, что было зарегистрировано небольшое количество случаев мошенничества с голосовой связью Deep Fake в попытках убедить сотрудников компании переводить деньги на мошеннические счета. Похоже, это новый поворот в тактике фишинга для компрометации корпоративной электронной почты, когда мошенники используют Deep Fake аудио, в котором старший сотрудник издает инструкции по оплате. Это просто показывает, что преступники всегда будут экспериментировать с новой тактикой в ​​надежде на получение зарплаты, и вы никогда не можете быть слишком осторожными.

Возможно, большее беспокойство вызывают использование Deepfake-контента в личных клеветнических атаках, попытки дискредитировать репутацию людей, будь то на рабочем месте или в личной жизни, а также широкое использование поддельного порнографического контента. Так называемое «порно из мести» может быть очень неприятным, даже если оно широко признано фальшивкой. Возможность использования Deep Fakes для дискредитации руководителей или предприятий конкурентами также не выходит за рамки возможного. Однако, возможно, наиболее вероятная угроза исходит от информационной войны во время чрезвычайного положения в стране и политических выборов — вот и наступает 2020 год! — с такими событиями, которые, как широко считается, созрели для кампаний дезинформации с использованием контента Deepfake.

Как определить глубокую подделку?

В зависимости от сложности используемого GAN и качества окончательного изображения, в Deep Fake можно обнаружить недостатки таким же образом, как при внимательном рассмотрении часто можно выявить резкие контрасты, странное освещение или другие несоответствия в «фотошопе». картинки. Однако генерирующие состязательные сети обладают способностью производить изображения чрезвычайно высокого качества, которые, возможно, сможет обнаружить только другая генерирующая состязательная сеть.Поскольку вся идея использования GAN заключается в том, чтобы в конечном итоге обойти обнаружение другой генеративной враждебной сетью, это тоже не всегда возможно.


Источник

Однако лучший судья о фейковом контенте — это наша способность смотреть на вещи в контексте. Отдельные события или артефакты, такие как видео- и аудиозаписи, могут быть — или стать — неотличимы от реального объекта в отдельности, но обнаружение — это вопрос оценки чего-либо в свете других свидетельств. Возьмем тривиальный пример. Чтобы убедить нас в том, что такие животные действительно существуют, потребуется нечто большее, чем просто видео с летающей лошадью.Нам нужно не только независимое подтверждение (например, видео из другого источника), но и подтверждающие доказательства. Кто был свидетелем его взлета? Где он приземлился? Где он сейчас находится? и так далее.

Нам нужно быть столь же осмотрительными при просмотре расходных материалов, особенно когда они делают неожиданные или странные заявления. Оценка правдивости в контексте — не новый подход. Та же идея, что и многофакторная аутентификация; это стандарт уголовных расследований; он лежит в основе научных методов и, по сути, лежит в основе контекстного обнаружения вредоносных программ, используемых в SentinelOne.

Возможно, нововведением является то, что нам, возможно, придется начать применять более строгие суждения в отношении медиаконтента, изображающего надуманные или противоречивые действия и события. Возможно, мы все равно должны этим заняться. Возможно, рост Deepfake побудит всех нас стать лучше в этом.

Заключение

Поскольку доступные инструменты для создания Deep Fake теперь доступны каждому, понятно, что следует беспокоиться о возможности использования этой технологии в гнусных целях.Но это верно практически для всех технологических инноваций; Всегда найдутся люди, которые найдут способы использовать это во вред другим. Тем не менее, технология Deepfake является результатом тех же достижений, что и другие инструменты машинного обучения, которые неизмеримо улучшают нашу жизнь, включая обнаружение вредоносных программ и злоумышленников.

Хотя создание фальшивого видео для целей информационной войны не выходит за рамки возможностей или даже вероятности, мы вполне можем распознать дезинформацию, оценивая ее в контексте других вещей, которые, как мы знаем, являются правдивыми, разумными или правдоподобными. вероятно.Стоит ли нам беспокоиться о Deep Fakes? Как и в случае с любыми другими критическими рассуждениями, нам следует побеспокоиться о том, чтобы принять в доверительное управление по исключительным искам , которые не поддерживаются огромным количеством других достоверных доказательств.


Понравилась статья? Подпишитесь на нас в LinkedIn, Twitter, YouTube или Facebook, чтобы видеть контент, который мы публикуем.

Подробнее о кибербезопасности

Мнение: Люди могут обнаружить фейковые новости. Так почему же теории заговора процветают в социальных сетях?

Уильямс — политолог, родом из долины Кармел.Зимент — специалист по анализу государственной политики, родом из 4S Ranch. Оба учатся в колледже Помона в Клермонте.

Новая теория заговора набирает обороты: Omicron — это вариант, изобретенный демократами для того, чтобы помочь им на промежуточных выборах. Пит Хегсет, комментатор Fox News, предположил, что вы можете «рассчитывать на вариант примерно каждый октябрь, каждые два года». Естественно задаться вопросом, кто поверит таким нелепым теориям заговора. Возможно, это не обязательно внезапно повсеместная вера в достоверность заговоров, а скорее новый цифровой мир, который позволяет им распространяться и процветать.

Этот цифровой мир возглавляют социальные сети, которые являются основным виновником роста поддержки теорий заговора, приводя к неточному обмену информацией и заставляя обработку информации оставаться на поверхностном уровне.

Мы бесплатно предоставляем эту платформу для комментариев сообщества. Спасибо всем подписчикам Union-Tribune, поддержка которых делает возможной нашу журналистику.Если вы не являетесь подписчиком, подумайте о том, чтобы стать им сегодня.

Многие полагают, что политическая идеология стимулирует веру в фальшивые новости и теории заговора, и, хотя это правда, что пристрастие имеет значение, это не так важно, как многие считают. Дело также не в том, что люди не могут отличить достоверные новости от ложных. Хотя люди с большей вероятностью верят партийным политическим взглядам, с которыми они согласны, исследования показывают, что, когда людей просят оценить правдивые заголовки, их оценки верны.Возможно, они даже лучше оценят точность взглядов тех, кто придерживается политики, аналогичной их.

Так что же на самом деле движет этим явлением?

Все сводится к эвристике (ментальным ярлыкам) и степени аналитического мышления. Идея «подобное сочетается с подобным» заставляет людей верить в теории заговора, потому что ваш мозг инстинктивно полагает, что серьезные причины должны иметь серьезные последствия.

«Эффект иллюзорной правды» — еще одна эвристика, описывающая, как предыдущее знакомство с фальшивым заголовком новости увеличивает веру в дальнейшем.Продолжительность контакта со СМИ может быть чрезвычайно важным фактором в убеждении. Исследователи психологии Гордон Пенникук и Дэвид Дж. Рэнд подчеркивают, что вероятность того, что люди поверит фейковому новостному контенту, снижается, если они больше размышляют и могут отличать правду от лжи. Самоуверенность препятствует рефлексивному мышлению, что ведет к усилению веры в теории заговора.

В условиях борьбы между интуитивной и рациональной системами социальные сети помогают ускорить процесс обработки информации на интуитивном уровне.Путем обхода более глубокой обработки поддержка теорий заговора возрастает, потому что они не полностью обрабатываются для обеспечения их точности. Необязательно, чтобы люди не заботились о точности того, что они читают и делятся. Вместо этого социальные сети помогают сосредоточить их внимание на других факторах, которые отвлекают от необходимой более глубокой обработки, чтобы различить, что является правдой, а что нет.

Недавнее исследование показало, что отвлекающие факторы в социальных сетях и их желание привлечь подписчиков способствуют увеличению вероятности распространения дезинформации.Для теорий заговора более широкое распространение СМИ, независимо от их правдивости, означает более плодотворное послание и более широкую основу для роста этих ложных историй. И чем больше подписчиков, тем больше эти истории приобретают достоверность, а самовоспроизводящийся цикл, управляемый социальными сетями, подпитывает огонь распространения дезинформации.

В основе этой новой разработки лежит открытие того факта, что форма цифровых носителей влияет на то, как обрабатывается информация. Изображения или текстовые размытия, обычно встречающиеся на таких платформах, как Twitter, обрабатываются быстро и автоматически.Таким образом, теории заговора, представленные в этом формате и на этих платформах, обрабатываются быстрее, менее контролируемым и основанным на точности способом.

Эти недавние открытия, касающиеся влияния типа носителя на обработку данных в сочетании с ростом популярности лаконичных и доступных медиа-платформ, таких как Twitter и TikTok, создают среду, в которой теории заговора находят все большее распространение и в настоящее время процветают. чем когда-либо.

Учитывая все это, неудивительно, что исследования Сичжу Сяо из китайского университета Циндао и Порисмиты Бора и Янь Су из Университета штата Вашингтон показывают, что «использование новостей в социальных сетях было связано с более высокими убеждениями в заговоре, а доверие к новостям в социальных сетях было оказался важным модератором взаимосвязи между использованием новостей в социальных сетях и убеждениями о заговоре.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *