Содержание

Coцсети: Интернет и СМИ: Lenta.ru

С начала 2020 года в России заблокировали более одной тысячи недостоверных материалов по коронавирусу. Об этом «Известиям» рассказали в пресс-службе Роскомнадзора.

Самыми популярными фейками о пандемии в федеральной службе назвали умышленное распространение вируса через процедуры тестирования и вакцинации и ложную статистику о числе заражений и смертей. Также Роскомнадзор часто блокировал рекламу поддельных лекарств для лечения коронавируса и мошеннические сайты, предлагающие населению справки и пропуска.

«На самом деле цифра больше в разы. По нашим данным, с октября по 10 декабря был выявлен 6631 фейк о COVID-19, из них 1476 — о вакцине. Если говорить о первой волне (апрель — конец мая), то это 8206 фейков. Получается, более 14,5 тысячи примеров недостоверной информации», — уточнила член Общественной палаты Екатерина Мизулина.

В соцсети «Одноклассники» отметили, что ограничивают доступ к очевидных фейкам. Неподтвержденная, но и не опровергнутая информация остается. «ВКонтакте» заявили о постоянном мониторинге и блокировке ботов, которые устраивают массовые рассылки однотипных сведений. «Мы ограничиваем доступ к информации, которая вводит в заблуждение — в том числе и по теме коронавируса. Помимо этого, мы оперативно реагируем на сигналы пользователей и регуляторов», — сообщили в соцсети.

Член Общероссийского народного фронта (ОНФ) Павел Савчук счел одним из самых вредных заблуждений то, что маски не помогают в борьбе с пандемией. Член комитета Совфеда по социальной политике Владимир Круглый в свою очередь отметил множество фейковых новостей об опасности российской вакцины.

В мае Мизулина указала, что в интернете растет количество фейков о коронавирусе, с начала апреля выявлено более шести тысяч ложных сообщений. По ее словам, чаще всего фейки распространяются через мессенджеры WhatsApp, Viber, Telegram, через страницы социальных сетей, а также через видеохостинг YouTube. Речь идет об организованных выбросах, в том числе с территории иностранных государств, пояснила она.

Не только почитать, но и посмотреть — у нас в Instagram

Путин объяснил необходимость наказания за фейки в интернете :: Политика :: РБК

Владимир Путин (Фото: kremlin.ru)

Президент Владимир Путин не согласен с тем, что граждан страны могут наказать за критику власти в интернете. Об этом он заявил в интервью ТАСС.

Путин пояснил, что в России запрещено поругание символов государства — флага, герба, гимна, поскольку это «задевает каждого гражданина». «Это просто защита интересов общества, и так делают в любой цивилизованной стране», — заявил президент. «Критика власти у нас не запрещена», — отметил он.

В интернете должны действовать правила и нормы поведения, поскольку в Сети можно распространить «какой угодно контент», считает Путин. По его словам, наказание необходимо за распространение информации о способах совершения самоубийства, детской порнографии либо «фейков и вранья, которые могут вызвать всеобщую панику». «Это может нанести ущерб нашим людям», — отметил он.

Предыдущие фрагменты интервью Путина журналисту ТАСС Андрею Ванденко выходили в феврале и марте, однако затем их выпуск прервали из-за пандемии. Заключительный выпуск приурочен ко дню рождения президента, которому 7 октября исполнилось 68 лет.

Правозащитники нашли 200 случаев преследования за фейки о COVID-19

«Эра фальшивых новостей»: фейки беспокоят 83% жителей России

  • Андрей Сошников
  • Русская служба Би-би-си

Автор фото, Getty Images

Подпись к фото,

Соцсети на Западе борются с фейками. Facebook предупреждает пользователей, если новость, которой они делятся, оспаривается с точки зрения достоверности

Пользователей интернета по всему миру все больше беспокоят фальшивые новости (fake news). При этом они против того, чтобы государство регулировало интернет. Россия — не исключение.

Это следует из результатов опроса, который компания GlobeScan провела по заказу Всемирной службы Би-би-си в 2017 году. В опросе приняли участие 16,5 тысяч респондентов из 18 стран мира.

Мир против фейков

Вопрос о том, что в интернете правда, а что ложь, волнует 78% респондентов. Особенно обеспокоены размытием границы между правдой и ложью в Бразилии — об этом заявили 92% опрошенных жителей этой страны.

Проблема фейков в интернете сильнее беспокоит жителей развивающихся стран: об этом говорили 90% опрошенных в Индонезии, 88% — в Нигерии и 85% — в Кении.

В России таких оказалось 83%, в то время как 15% опрошенных сказали, что не видят проблемы с фейками.

«Мы живем в эпоху, когда люди стали более критично относиться к информации, которую они получают, — говорит заведующий кафедрой новых медиа и теории коммуникации факультета журналистики МГУ Иван Засурский. — Существование новой среды — интернета — привело к инфляции представлений, насколько вообще можно верить медиа. Если в обычных медиа существует баланс между враньем разных источников, то в интернете бывает совсем наглая ложь — порнобаннеры, вводящие в заблуждение заголовки… Это замечательно, когда люди не бросаются сразу верить в то, что они прочитали в интернете».

Германия — единственное из включенных в опрос государств, где большинство (51%) не интересуется этой проблемой. В преддверии парламентских выборов 24 сентября немецкие партии договорились не использовать ботов в социальных медиа, а местное отделение Facebook увеличило штат для борьбы с «троллями» и фейками.

По словам Засурского, немецкий предвыборный опыт борьбы с фейками неприменим в России. «В европейских странах люди более образованы, — считает эксперт. — Единственное спасение — это повышение уровня образования. Чем сложнее обмануть людей, тем сильнее стараются издатели говорить правду».

Государство, уходи?

Против государственного регулирования интернета высказались 60% опрошенных. В 2010 году Всемирная служба Би-би-си уже проводила подобный опрос, и тогда против регулирования интернета высказались 51% респондентов.

В 2017 году против государственного вмешательства в интернет высказались 58% россиян. А одобрили его только в Китае и Великобритании (67% и 53% соответственно).

Страны, более других настроенные против вмешательства правительства в сетевые сообщения, — Греция и Нигерия (84% и 82% соответственно).

«Результаты исследования наводят на мысль, что эра фальшивых новостей приведет к такому же снижению доверия к сетевой информации, как разоблачение Эдвардом Сноуденом слежки, проводимой Агентством национальной безопасности США, снизило желание людей выражать свое мнение в сети», — заявил директор GlobeScan Дуг Миллер.

Небезопасное место

Люди все более опасаются открыто высказываться в интернете. В 2010 году 49% пользователей сказали, что они при этом не чувствуют себя в безопасности, в 2017-м таких ответов было 52%.

В России опасаются открыто высказываться в интернете 53% пользователей, причем за семь лет тренд резко сменился в сторону опасений.

Между развитыми и развивающимися странами выявлена заметная разница. Не боятся высказывать свое мнение в Нигерии, Перу и Китае. В Европе и Северной Америке люди более напряжены; менее всего склонны к свободным высказываниям пользователи интернета во Франции и Греции.

53% опрошенных согласны с тем, что доступ к интернету должен стать базовым правом, большинство из тех, кто так считает — жители Бразилии, Греции и Индии.

Подпись к фото,

В 2017 году по сравнению с 2010-м к опросу присоединились Индия, Греция и Перу. В России по телефону было опрошено более 1000 человек

Опрос выявил некоторые различия в отношении к интернету мужчин и женщин. Мужчинам больше нравится им пользоваться, 78% сказали, что были в интернете в последние шесть месяцев, по сравнению с 71% женщин.

Женщины несколько меньше чувствуют себя в безопасности при высказывании в интернете своих взглядов — особенно это выражено в развитых странах. Во Франции чувствуют себя в безопасности только 14% женщин-пользователей, в Великобритании — 36%, в США — 35%. Британских женщин сильнее, чем мужчин беспокоит фальшивый контент, они более склонны к тому, чтобы интернет регулировался.

МВД разоблачило очередные фейки в интернете

25 июля, Минск /Корр. БЕЛТА/. Министерство внутренних дел продолжает разоблачать фейки, распространяемые в интернете, сообщает БЕЛТА со ссылкой на Telegram-канал пресс-секретаря МВД Ольги Чемодановой.

Так, в сеть попало видео, снятое с балкона высотки в Витебске во время «Славянского базара». «Сегодня открытие, все оцеплено милицией», — комментируют в Telegram-канале. Двое милиционеров общаются с девушкой, затем вместе с ребенком она уходит с детской площадки в сопровождении патрульных. Комментатор ролика пришел к выводу, что девушку с ребенком выгоняют со двора.

Как выяснилось, девушка играла с дочкой на детской площадке во дворе дома, а затем увидела патрульных. Один из них оказался ее давним знакомым, они поговорили, вместе прогулялись и разошлись.

«К слову, видео посмотрели уже больше 45 тыс. подписчиков. Хорошо, если хотя бы у половины из них включилось критическое мышление для фильтрации фейковых сенсаций», — отметили в МВД.

Дезинформацией в МВД также назвали распространяемые данные о голодовке задержанного за призыв к участию в несанкционированном массовом мероприятии. Интернет-издание со ссылкой на страницу его супруги в соцсетях сообщило, что жизнь и здоровье мужчины находятся в опасности, ему становилось плохо, но сотрудники учреждения отказались вызвать скорую.

Как пояснили в МВД, мужчина получил административный арест за призыв к участию в несанкционированном массовом мероприятии и сейчас находится в изоляторе временного содержания. «Отсутствием аппетита правонарушитель явно не страдает. В подтверждение того есть видео, где он охотно берет свежую прессу и обед, с которым быстро расправляется, — отметили в пресс-службе, уточнив, что если гражданин будет не против, это видео может быть опубликовано. Что касается состояния здоровья, то никаких жалоб не поступало, следовательно, необходимость оказания медпомощи тоже отсутствовала, добавили в МВД.

Пресс-служба также разоблачает информацию о политической подоплеке переписи номеров велосипедов на Гомельщине. «Комментаторы приплели политику, «узнали» на фото участников велопробега. Видимо, они не в курсе передовой практики региона и истинной причины переписи велотранспорта. Поставить велосипед на учет в Гомельской области можно прямо на улице буквально за несколько минут. Для этого достаточно сообщить ФИО владельца и место его проживания. Такая работа уже дает результаты — в случае кражи обнаруженный велосипед без труда возвращается к хозяину», — пояснили в пресс-службе.

Фейком МВД назвало и текст в одном из Telegram-каналов якобы от имени сотрудника РОВД Докшицкого района. В нем сообщается, что представители местного подразделения Департамента охраны торгуют самогоном в промышленных масштабах. «Для пущей убедительности приводятся количество алкодилеров в погонах и цена за литр. Вывести на чистую воду предпринимателей захотели и в самом ведомстве. Сотрудники собственной безопасности сразу же провели тщательную проверку, но самогонщиков так и не нашли. Не подтвердились и факты приобретения алкоголя у охрановцев. К слову, милицейская специфика в послании описана совсем не профессионально. Напрашивается вывод, что это творение человека, далекого от службы в органах внутренних дел», — констатировали в МВД.-0-

Что такое фейк и как с ним бороться

«Партнер» №5 (224) 2016г.

Осторожно, фейк!

С.Мучник (Дортмунд)

 

 

В фильме Г.Данелия «Осенний марафон» датский профессор-славист восторженно говорит после посещения вытрезвителя: «Столько новых слов узнал!» Когда мы, оторванные от родины, особенно люди уже немолодые, тоже «протрезвели», то оказалось, что и для нас в родном языке появилось множество новых слов. Одни связаны с новыми понятиями (всякие там ипотеки), другие – из молодежного сленга, а то и из блатного, но очень многие – из Интернета. Среди последних – слово «фейк» и его производные. Это английское слово

fake, оно означает фальшивка, обман, подделка, мистификация…

 

Когда-то так называли послания по электронной почте с фальшивым отправителем или файлы с фальшивым именем, потом это слово стало употребляться применительно к содержанию Интернета, телевидения, радио, прессы. В общем, сегодня фейком называют любую недостоверную информацию. По-русски еще говорят – вброс, тоже слово из новояза.

 

Сегодня производство фейков поставлено на поток. Этим грешат не только отдельные блогеры или журналисты, но целые информационные агентства, общественные деятели, политики, партии… Пользуясь современным жаргоном, нас разводят как лохов, т.е. вешают лапшу на уши.

 

Наиболее типичные фейки – это:

  • · Новости и материалы об исторических событиях, которых не было.
  • · Фотографии, на которых запечатлено то, чего не было.
  • · Фальшивые интернет-сайты, созданные от чьего-то имени.

 

Изредка фейк – это шутка, розыгрыш вроде первоапрельского, чаще же – злонамеренная провокация, в которой, по заветам мастера пропаганды Геббельса, смешивается правда с ложью, чтобы привести читателя или зрителя к ложным умозаключениям. Особенно легко распространяются фейки по Интернету, чему способствует его всеохватность, анонимность, а потому почти полная неуязвимость изготовителей фейков.

 

В былые времена, когда газета публиковала фейк (газетную утку), было сразу ясно, откуда ноги растут, кто редактор, кто издатель, кого привлекать к ответственности. Сейчас же они почти безнаказанны.

 

Есть даже специальные фейковые сайты, но они достаточно прозрачны и не маскируются. Это сайты-розыгрыши, приколы, пародии. Тем курьезнее, если на их очередной хитрый фейк клюет серьезная пресса. В качестве примера таких явных фейк-сайтов можно назвать infa100.ru («Леонардо Ди Каприо досрочно получил премию «Оскар»»). Этот сайт сейчас не обновляется, видимо, фейков в окружающей жизни и без него хватает. Или сайт fognews.ru – как бы юмористический, его отчасти вымышленные новости выглядят зачастую не более чем вялой пародией на действительность. Забавно, что иногда откровенные фейки всё-таки воспринимаются СМИ всерьез и вызывают волну слухов и опровержений к вящей радости мистификаторов. Например, «Михаил Саакашвили в интервью BBC заявил, что Pussy Riot получили гражданство Грузии», «Юрий Лужков баллотируется в мэры Лондона».

 

Фальшивые сайты – это опасная разновидность фейка. Их создатели руководствуются политическими или финансовыми интересами. Например, появился сайт якобы от имени оппозиционера Навального, где тот поливает грязью оппонентов и по сути сам себя разоблачает.

 

Немецкая полиция предупредила недавно о фальшивых интернет-магазинах («FakeShops, also gefälschte InternetVerkaufsplattformen, sind auf den ersten Blick schwer zu erkennen): они выглядят как настоящие, предлагают товары по весьма привлекательным ценам, но… получив деньги, ничего не высылают покупателю. В этом случае вам поможет лишь бдительность, сбор предварительной информации в сети, да еще специальные программы типа «Abzockschutz».

 

 

 

Излюбленные темы создателей фейков: чудеса, таинственные явления, пришельцы, заговоры. Самый знаменитый фейк на эту тему был создан задолго до возникновения Интернета и цифровых технологий, это – якобы документальный фильм о вскрытии тела инопланетянина, корабль которого потерпел крушение в Розуэлле (США) в 1947 году. Эта тема была развита в огромном количестве публикаций и фильмов, например, в сериале «Секретные материалы» (The X-Files, Akte X) или в фильме«День независимости» (Independence Day). Невероятно, но в этот давно уже разоблаченный фейк о Розуэлльском инциденте верит огромное количество людей, а огромное количество жуликов по-прежнему зарабатывает на нем деньги. И не переводятся всё новые и новые «факты» о НЛО, снежном человеке, Бермудском треугольнике…

 

 

Знаменитый фейк – фильм «Вскрытие инопланетянина»

 

 

Да, были великаны, вот доказательство

 

Теория заговоров – это и вовсе фейковая тема. Есть более десятка таких теорий, известных всему миру, а число их сторонников – многие миллионы, причем это не только обыватели, но и интеллектуалы, и политики. Тут каждый утверждает, что истина именно на его стороне, а то, что отстаивает противоположная версия, – фейк. Власти Ирана, например, официально отрицают Холокост, истребление евреев, у них это фейк и излюбленная тема карикатуристов. 100-процентный фейк. Так называемые «Протоколы сионских мудрецов» в большинстве мусульманских стран – уважаемый документ.

 

Любимейшая тема конспирологов – якобы сфальсифицированный полет американцев на Луну. Не счесть фейковых материалов на эту тему. Особенно полюбился этот фейк в нынешней России.

 

Конечно, главная сфера появления фейков – это политика, а также история, известные личности («малинка»). Обострилась фейковая война. Именно война, потому что все стороны конфликта не пренебрегают фальшивками. А в последние годы, и особенно – вокруг конфликта России и Украины. Наиболее известные фейки, легко локализуемые из всего мутного потока пропаганды, у всех в памяти. Они наверняка войдут в историю жанра. Это, во-первых, мальчик, распятый «укрофашистами» в Славянске, мальчик, которого не было, то есть фейк в чистом виде.

 

Далее, это знаменитый «спутниковый снимок», предъявленный журналистом Леонтьевым в передаче «Однако», на котором украинский самолет якобы сбивает ракетой малазийский «боинг! Несмотря на трагизм темы, уже через час после сообщения Интернет содрогался от хохота, доверчивые же телезрители так ничего и не уловили.

 

Наиболее свежий фейк, сотворенный у нас, в Германии российским тележурналистом – жуткая история девочки Лизы, которую похитили, изнасиловали и избили восточные люди в Берлине. Это была прицельная провокация, причем самого крупного калибра, даже Лавров лично поучаствовал, не побрезговал этой грязи.

 

Уже несколько лет крутится в Интернете фейк, изображающий якобы советский плакат 1940-го года, на котором советские и немецкие летчики рука об руку бомбят Лондон. В действительности же это переделанный плакат Кукрыниксов от 1941-го года, и бомбят на нем советские и английские летчики не Лондон, а Берлин. В тексте Маршака на плакате в фейке тоже поменяли Германию на Британию. Кто-то, наверное, усердствовал, полагая, что таким образом вносит вклад в борьбу со сталинизмом, на самом же деле это – откровенная подлость.

 

 

Оригинал Фейк

 

Бывают, впрочем, вполне безобидные и веселые фейки-розыгрыши. Шутник выставил на продажу в eBay маленькую мумифицированную фею, показав ее снимок, и когда у него ее чуть не купили, вынужден был признать фейк. Но не все ему поверили(!), нашлись защитники знаменитой с тех пор «Феи из Дербишира». Известны фейки, на которых Джон Леннон играет на гитаре с Че Геварой, обнимаются Мерлин Монро и Джон Кеннеди, президент Буш читает книжку верх ногами, известны фейковые голубой арбуз и радужная сова…

 

 

Фея из Дербишира

 

Основным инструментом изготовления фотофейков является профессиональная программа Фотошоп (Photoshop). Вот типичный пример его применения: во время последнего конфликта Израиль наносит удары по позициям Хизбалы в Бейруте, там, естественно, подымался столб дыма. Корреспонденту показалась, что одного дыма на целый Бейрут недостаточно, он «добавил» еще несколько. И пошел по всем каналам гулять снимок горящего и задымленного разбомбленного Бейрута… Фотофейки легко изготавливаются, но их не так уж сложно разоблачать, даже не будучи специалистом по фотошoпу. Если вам попался в Интернете сомнительный снимок, достаточно перетащить его мышкой в окно Google Bilder. И Google тут же выдает все такие же и похожие снимки, как бы они ни назывались. В большинстве случаев сразу же становится ясно, где оригинал, а где фальшивка.

 

У некоторых посетителей интернет-сайтов в итоге развилась настоящая фейкофобия. Они принимают за фейки достоверную информацию, отказываются верить фактам.

 

Доказано, главным средством выявления фейков любого рода является всё-таки ясная голова и непредвзятый взгляд. Именно исходя из собственного здравого смысла, не замутненного злокачественной телепропагандой, следует включать здоровый скепсис, когда вы сталкиваетесь с сомнительной, но непременно «жареной» информацией.

 

Всё можно проверить, Google вам в помощь.


В интернете много сомнительных новостей о коронавирусе. Как отличить фейк от правды? Памятка «Бумаги»

На фоне пандемии коронавируса в соцсетях и мессенджерах массово распространяются фейковые новости. Facebook объявила, что старается снизить количество дезинформации в соцсети и направлять пользователей на надежные источники, например сайты ВОЗ или министерств здравоохранения. Сообщение с призывом не доверять фейкам опубликовали и «ВКонтакте».

«Бумага» составила памятку, которая поможет отличить реальную новость от фейковой и разобраться, каким сообщениям не стоит доверять и как проверить противоречивую информацию.

  1. Проверяйте, указан ли источник информации — и какой именно. Фейки, как правило, ссылаются на анонимных лиц либо не ссылаются вообще ни на кого.
  2. Проверяйте, насколько надежен эксперт. Если новость написана по словам авторизованного источника, поищите информацию о нем.
  3. Обращайте внимание на ресурс, который публикует новость. Авторитетные СМИ зачастую более серьезно подходят к проверке информации, чем блоги, паблики или подозрительные сайты (хотя это верно не во всех случаях).
  4. Не доверяйте массовым рассылкам панических сообщений в соцсетях и мессенджерах. Если нет надежных подтверждений этой информации, она может оказаться фейком.
  5. Сравните, что о событии пишут разные ресурсы. Так у вас будет более полная картина происходящего.
  6. Дождитесь подтверждения или опровержения от официальных лиц — если источник противоречивой новости вызывает сомнения. 
  7. Дождитесь развития сюжета. Если новость опубликована только в одном источнике (или все ссылаются исключительно на него), проследите, как эта тема будет освещаться дальше.
  8. Обращайте внимание на стилистику и язык. Фейки часто содержат эмоциональные обороты, общие слова вместо конкретных, упрощения и сленг вместо терминов. 
  9. Критически оцените содержание сообщения. Реальные новости описывают факты и приводят аргументы, фейки — воздействуют на эмоции и ассоциативные связи. 
  10. Посмотрите на структуру сообщения: фейковые и реальные новости могут отличаться. Реальные новости строятся по принципу «перевернутой пирамиды»: от наиболее важной информации — к менее значимой. В фейках это правило зачастую нарушено.
  11. Проверяйте фотографии по поиску. Фейки могут быть проиллюстрированы снимками, которые вообще не имеют отношения к событию, о котором идет речь.

 Вот список источников, публикующих достоверную информацию о коронавирусе.

theRunet » Путин поддерживает наказание за фейки в интернете

Владимир Путин заявил, что не против критики власти в сети. При этом за распространение фейков и заведомо ложной информации наказание уместно и даже необходимо. Об этом заявил президент России в интервью для проекта ТАСС «20 вопросов Владимиру Путину».

«Критика власти у нас не запрещена, запрещено поругание символов государства — флага, герба, гимна», — напомнил глава государства. По его словам, «издевательства над символами государства задевают каждого гражданина». Поэтому наказание — это просто защита интересов общества, которая есть в “любой цивилизованной стране”.

Президент пояснил, что в интернете должны действовать такие же общечеловеческие правила и нормы, которые действуют и в обществе людей, так как интернет позволяет распространять «какой угодно контент». Именно поэтому Путин считает наказание необходимым, когда речь идет о распространении «фейков и вранья, которые могут вызвать всеобщую панику», ведь это “может нанести ущерб людям”, — пояснил глава государства.

Глава “Лиги безопасного интернета” Екатерина Мизулина поддерживает мнение главы государства, что за распространение недостоверной информации должно следовать наказание.

— Такая информация под видом достоверной распространяется очень быстро. Иногда в течении двух часов такой фейк способен покрыть весь регион, как мы видели весной на примере фейка, о заражении в медицинском центре в Якутии. Тогда эта информация через мессенджер вотсап распространилась на территории почти всего региона очень быстро, и это повлекло за собой волнение и панику людей, — отметила эксперт.

По словам Мизулиной, ложная информация имеет огромное влияние на общественное мнение и спокойствие среди народа. Если молодой человек может перенести такого роду информацию довольно скептично, то совершенно иные последствия могут вызвать такие новости среди пожилых людей. Любая фейковая громкая новость может вызвать стресс и панику, ведь
фейки дестабилизируют ситуацию в целом и провоцируют людей на различного рода протестные действия. Такие действия также были зафиксировано в этом году.

— Весной этого года вступил в силу новый закон, в соответствии с которым у нас в России есть, и административная, и уголовная ответственность за распространение такой недостоверной информации. В основном за фейковую информацию предусмотрено административное наказание в виде штрафа, — напоминает эксперт.

Что такое дипфейки и как их распознать? | Интернет

Что такое дипфейк?

Вы видели, как Барак Обама называл Дональда Трампа «полным дураком», или Марк Цукерберг хвастался тем, что «полностью контролирует миллиарды людей, украденных данными», или были свидетелями трогательных извинений Джона Сноу за мрачный финал Игры престолов? Ответьте «да», и вы видели дипфейк. Ответ 21 века на фотошоппинг: дипфейки используют форму искусственного интеллекта, называемую глубоким обучением, для создания изображений фальшивых событий, отсюда и название дипфейка.Хотите сказать что-то новое политику, сняться в любимом фильме или потанцевать как профессионал? Тогда пора сделать дипфейк.

Для чего они нужны?

Многие порнографические. В сентябре 2019 года компания Deeptrace, занимающаяся искусственным интеллектом, обнаружила в Интернете 15000 дипфейков, что почти вдвое больше, чем за девять месяцев. Ошеломляющие 96% были порнографические и 99% тех, сопоставляются лица от знаменитостей женского пола на порнозвезд. Как новые технологии позволяют неквалифицированным людям делать deepfakes с горсткой фотографий, поддельное видео, скорее всего, распространились за пределами мира знаменитости на топливо порноместь.Как говорит Даниэль Ситрон, профессор права Бостонского университета: «Технология Deepfake используется против женщин». За порно есть много обмана, сатира и озорство.

Это только видео?

Нет. Технология Deepfake позволяет создавать убедительные, но полностью вымышленные фотографии с нуля. Несуществующая журналистка Bloomberg, «Мэйзи Кинсли», у которой был профиль в LinkedIn и Twitter, вероятно, была дипфейком. Другая подделка LinkedIn, «Кэти Джонс», утверждала, что работает в Центре стратегических и международных исследований, но считается дипфейком, созданным для иностранной шпионской операции.

Аудио также может быть подделано для создания «голосовых скинов» или «голосовых клонов» общественных деятелей. В марте прошлого года глава британского филиала немецкой энергетической компании внес почти 200 000 фунтов стерлингов на счет в венгерском банке после того, как ему позвонил мошенник, имитирующий голос немецкого генерального директора. Страховщики компании считают, что голос был подделкой, но доказательства неясны. Сообщается, что аналогичные мошенничества использовали записанные голосовые сообщения WhatsApp.

Сравнение оригинального и deepfake видео исполнительного директора Facebook Марка Цукерберга.Фотография: The Washington Post через Getty Images

Как они сделаны?

Университетские исследователи и студии спецэффектов давно раздвинули границы возможностей обработки видео и изображений. Но deepfakes сами родились в 2017 году, когда пользователь Reddit с одноименным названием Написал лечил порно клипы на сайте. Видео поменялись лица знаменитостей — Гадот, Taylor Swift, Скарлетт Йоханссон и другие — на порно исполнителей.

Чтобы создать видео со сменой лица, нужно выполнить несколько шагов.Сначала вы запускаете тысячи снимков лиц двух людей с помощью алгоритма искусственного интеллекта, называемого кодировщиком. Кодировщик находит и изучает сходства между двумя лицами и сводит их к их общим чертам, сжимая изображения в процессе. Затем второй алгоритм ИИ, называемый декодером, обучается восстанавливать лица из сжатых изображений. Поскольку лица разные, вы обучаете один декодер для восстановления лица первого человека, а другой декодер — для восстановления лица второго человека.Чтобы выполнить замену лица, вы просто загружаете закодированные изображения в «неправильный» декодер. Например, сжатое изображение лица человека A загружается в декодер, обученный на человеке B. Затем декодер восстанавливает лицо человека B с учетом выражений и ориентации лица A. Для получения убедительного видео это нужно делать на каждом Рамка.

Сравнение оригинальных и deepfake видео президента России Владимира Путина. Фотография: Александра Робинсон / AFP через Getty Images

Другой способ создания дипфейков использует так называемую генеративную состязательную сеть, или Gan.Ган противопоставляет два алгоритма искусственного интеллекта. Первый алгоритм, известный как генератор, обрабатывает случайный шум и превращает его в изображение. Затем это синтетическое изображение добавляется к потоку реальных изображений — скажем, знаменитостей — которые вводятся во второй алгоритм, известный как дискриминатор. Сначала синтетические изображения не будут похожи на лица. Но повторяйте этот процесс бесчисленное количество раз с обратной связью о производительности, и дискриминатор и генератор улучшатся. При наличии достаточного количества циклов и обратной связи генератор начнет создавать совершенно реалистичные лица совершенно несуществующих знаменитостей.

Кто делает дипфейки?

Каждый из академических и промышленных исследователей самодеятельных энтузиастов, визуальных эффектов студии и порно производителей. Правительства также могут баловаться этой технологией в рамках своих онлайн-стратегий, чтобы дискредитировать и разрушить экстремистские группы или, например, установить контакты с целевыми лицами.

Какая технология вам нужна?

Сделать хороший дипфейк на стандартном компьютере сложно. Большинство из них создается на высокопроизводительных настольных компьютерах с мощными видеокартами или, что еще лучше, с вычислительной мощностью в облаке.Это сокращает время обработки с дней и недель до часов. Но для того, чтобы подправить готовые видеоролики, чтобы уменьшить мерцание и другие визуальные дефекты, также требуется опыт. Тем не менее, сейчас доступно множество инструментов, которые помогают людям создавать дипфейки. Несколько компаний сделают их для вас и сделают всю обработку в облаке. Существует даже приложение для мобильных телефонов Zao, с помощью которого пользователи могут добавлять свои лица в список героев телешоу и фильмов, на которых обучалась система.

Китайское приложение для смены лиц Zao вызвало проблемы с конфиденциальностью.Фотография: Imaginechina / SIPA USA / PA Images

Как определить дипфейк?

По мере совершенствования технологии становится все труднее. В 2018 году американские исследователи обнаружили, что лица deepfake не мигают нормально. В этом нет ничего удивительного: большинство изображений показывают людей с открытыми глазами, поэтому алгоритмы никогда не узнают о моргании. Сначала это казалось серебряной пулей для проблемы обнаружения. Но как только исследование было опубликовано, появились дипфейки с морганием. Такова природа игры: как только слабость обнаруживается, она устраняется.

Дипфейки плохого качества обнаружить легче. Синхронизация губ может быть плохой, а оттенок кожи неоднородным. По краям транспонированных лиц может наблюдаться мерцание. А мелкие детали, такие как волосы, особенно трудно для дипфейков хорошо отрисовывать, особенно там, где видны пряди на челке. Плохо обработанные украшения и зубы также могут быть подарком, как и странные световые эффекты, такие как непоследовательное освещение и отражения на радужной оболочке.

Правительства, университеты и технологические компании финансируют исследования для выявления дипфейков.В прошлом месяце стартовал первый конкурс Deepfake Detection Challenge при поддержке Microsoft, Facebook и Amazon. В него войдут исследовательские группы со всего мира, которые будут бороться за превосходство в игре по обнаружению дипфейков.

Facebook на прошлой неделе запретил дипфейк-видео, которые могут ввести зрителей в заблуждение, заставив их думать, что кто-то «сказал слова, которых они на самом деле не сказали», в преддверии выборов в США 2020 года. Однако политика распространяется только на дезинформацию, созданную с использованием ИИ, что означает, что на платформе все еще разрешены «мелкие подделки» (см. Ниже).

Женщина смотрит дипфейк видео с Дональдом Трампом и Бараком Обамой. Фотография: Роб Левер / AFP через Getty Images

Разрушат ли дипфейки?

Мы можем ожидать больше дипфейков, которые беспокоят, запугивают, унижают, подрывают и дестабилизируют. Но вызовут ли дипфейки серьезные международные инциденты? Здесь ситуация менее ясна. Дипфейк, когда мировой лидер нажимает на большую красную кнопку, не должен вызывать армагеддон. Дипфейк-спутниковые снимки войск, сосредоточенных на границе, также не вызовут больших проблем: у большинства стран есть свои собственные надежные системы визуализации безопасности.

Впрочем, поводов для шалостей еще достаточно. В прошлом году акции Tesla рухнули, когда Илон Маск выкурил косяк на онлайн-шоу. В декабре Дональд Трамп рано улетел домой со встречи НАТО, когда появились подлинные кадры, на которых другие мировые лидеры явно издеваются над ним. Смогут ли правдоподобные дипфейки изменить цены на акции, повлиять на избирателей и спровоцировать религиозную напряженность? Кажется, беспроигрышный вариант.

Подорвут ли они доверие?

Более коварное воздействие дипфейков, наряду с другими синтетическими СМИ и фейковыми новостями, заключается в создании общества с нулевым доверием, в котором люди не могут или больше не заботятся о том, чтобы отличить правду от лжи.А когда доверие подрывается, легче усомниться в конкретных событиях.

В прошлом году министр связи Камеруна назвал фальшивой новостью видео, на котором, по мнению Amnesty International, показано, как солдаты Камеруна убивают мирных жителей.

Дональд Трамп, который признался, что хвастался захватом женских гениталий во время записанного разговора, позже предположил, что запись была ненастоящей. В интервью принца Эндрю Эмили Мейтлис для Би-би-си принц поставил под сомнение подлинность фотографии, сделанной с Вирджинией Джуффре. Ее адвокат настаивает на подлинности и неизменности фотографии.

«Проблема может быть не столько в подделке реальности, сколько в том, что реальная реальность становится правдоподобно опровергнутой», — говорит профессор Лилиан Эдвардс, ведущий эксперт в области интернет-права в Университете Ньюкасла.

По мере того, как технология становится все более доступной, дипфейки могут создавать проблемы для судов, особенно в битвах за опеку над детьми и трибуналах по трудовым спорам, где фальшивые события могут быть использованы в качестве доказательства. Но они также представляют угрозу для личной безопасности: дипфейки могут имитировать биометрические данные и потенциально могут обмануть системы, которые полагаются на распознавание лица, голоса, вен или походки.Возможность мошенничества очевидна. Позвоните кому-нибудь неожиданно, и они вряд ли переведут деньги на неизвестный банковский счет. Но что, если ваша «мама» или «сестра» установит видеозвонок в WhatsApp и сделает тот же запрос?

Какое решение?

Как ни странно, ответом может быть ИИ. Искусственный интеллект уже помогает обнаруживать фальшивые видео, но у многих существующих систем обнаружения есть серьезный недостаток: они лучше всего работают со знаменитостями, потому что они могут тренироваться на часах свободно доступных отснятых материалов.Технические фирмы сейчас работают над системами обнаружения, которые нацелены на обнаружение подделок всякий раз, когда они появляются. Другая стратегия фокусируется на происхождении СМИ. Цифровые водяные знаки не являются надежными, но онлайн-бухгалтерская система блокчейна может хранить защищенные от несанкционированного доступа записи видео, изображений и аудио, поэтому их происхождение и любые действия всегда можно проверить.

Всегда ли дипфейки злонамеренны?

Вовсе нет. Многие из них занимательны, а некоторые полезны. Дипфейки с клонированием голоса могут восстанавливать голоса людей, потерявших их из-за болезней.Видео Deepfake могут оживить галереи и музеи. Во Флориде в музее Дали есть дипфейк художника-сюрреалиста, который представляет свое искусство и делает селфи с посетителями. Для индустрии развлечений, технология может быть использована для улучшения перезаписи на иноязычных фильмах, и более спорно, воскрешать мертвые актер. Например, покойный Джеймс Дин должен сыграть главную роль в фильме о войне во Вьетнаме «В поисках Джека».

А мелкие подделки?

Мелкие фейки, придуманные Сэмом Грегори из правозащитной организации Witness, представляют собой видеоролики, которые либо представлены вне контекста, либо обработаны простыми инструментами редактирования.Они грубые, но, несомненно, действенные. Мелкая фальшивка, которая замедлила выступление Нэнси Пелоси и заставила спикера Палаты представителей США звучать невнятно, достигла миллионов людей в социальных сетях.

В другом случае корреспонденту CNN Джиму Акосте временно запретили посещать брифинги для прессы в Белом доме во время жаркого разговора с президентом. Позже было опубликовано небольшое поддельное видео, на котором видно, как он вступает в контакт с практикантом, который пытался отобрать у него микрофон. Позже выяснилось, что видео было ускорено в решающий момент, что сделало ход агрессивным.Позже пропуск Косты для прессы был восстановлен.

Консервативная партия Великобритании использовала аналогичную тактику мелкой подделки. В преддверии недавних выборов консерваторы подделали телеинтервью с депутатом от лейбористской партии Кейром Стармером, чтобы создать впечатление, что он не может ответить на вопрос о позиции партии в отношении Брексита. С дипфейками шалости, скорее всего, только увеличатся. Как сказал Генри Эйдер, глава отдела разведки угроз в Deeptrace: «Мир становится все более синтетическим. Эта технология никуда не денется.”

Какая часть Интернета является фальшивкой?

Фото: работа Аятгали Тулеубека.

В конце ноября министерство юстиции обнародовало обвинительные заключения против восьми человек, обвиняемых в краже у рекламодателей 36 миллионов долларов в ходе двух крупнейших когда-либо раскрытых операций по мошенничеству с цифровой рекламой. Цифровые рекламодатели, как правило, хотят двух вещей: людей, которые смотрят их рекламу, и «премиальных» веб-сайтов — i.е., официальные и законные публикации — на которых их можно разместить.
Обе схемы, о которых идет речь в этом деле, названные обнаружившими их исследователями безопасности Methbot и 3ve, фальсифицировали обе. Торговцы заразили 1,7 миллиона компьютеров вредоносным ПО, которое удаленно направило трафик на «поддельные» веб-сайты — «пустые веб-сайты, предназначенные для трафика ботов», которые показывали видеорекламу, купленную на одной из обширных программных бирж рекламы в Интернете, но которые, согласно обвинительные заключения, «чтобы обмануть рекламодателей, заставив думать, что показ их рекламы был размещен на сайте издателя премиум-класса», например, в Vogue или The Economist.Между тем, просмотры были сфальсифицированы зараженными вредоносным ПО компьютерами с использованием изумительно сложных методов имитации людей: боты «подделывали клики, движения мыши и информацию для входа в социальные сети, чтобы маскироваться под вовлеченных людей». Некоторые из них были отправлены для просмотра Интернета для сбора отслеживающих файлов cookie с других веб-сайтов, так же, как обычный посетитель сделал бы это при обычном поведении. Поддельные люди с поддельными файлами cookie и поддельными учетными записями в социальных сетях, поддельные перемещения своих поддельных курсоров, поддельные нажатия на поддельные веб-сайты — мошенники, по сути, создали симулякр Интернета, где единственной реальной вещью была реклама.

Сколько в Интернете фальшивых? Исследования обычно показывают, что из года в год менее 60 процентов веб-трафика приходится на людей; В некоторые годы, по мнению некоторых исследователей, здоровое большинство из них — боты. В течение некоторого периода времени в 2013 году, согласно сообщению Times в этом году, полную половину трафика YouTube составляли «боты, маскирующиеся под людей», причем доля настолько высока, что сотрудники опасались точки перегиба, после которой начнут работать системы YouTube для обнаружения мошеннического трафика. рассматривать бот-трафик как реальный, а человеческий — как фальшивый.Они назвали это гипотетическое событие «инверсией».

В будущем, когда я оглянусь из тюрьмы для высокотехнологичных геймеров, в которой меня заключил президент PewDiePie, я вспомню 2018 год как год, когда Интернет прошел инверсию, не в строгом численном смысле, поскольку количество ботов уже превышает количество людей. онлайн больше лет, чем нет, но в смысле восприятия. Интернет всегда принимала в своих темных углах школ сомы и посольства нигерийских принцев, но темнота в настоящее время пронизывает каждый его аспект: Все, что когда-то казалось, окончательно и бесспорно реальные теперь кажется немного подделки; все, что когда-то казалось немного фальшивым, теперь имеет силу и присутствие настоящего.«Подделка» интернета после инверсии — это не столько вычислимая ложь, сколько особенное качество опыта — жуткое ощущение того, что то, с чем вы сталкиваетесь в Интернете, не «реально», но также, несомненно, не «подделка», и действительно может быть и сразу или последовательно, по мере того, как вы прокручиваете его в голове.

Возьмем что-нибудь столь же простое, как измерение веб-трафика. Метрики должны быть наиболее реальными в Интернете: они могут быть счетными, отслеживаемыми и проверяемыми, и их существование лежит в основе рекламного бизнеса, который является движущей силой наших крупнейших социальных и поисковых платформ.Но даже Facebook, крупнейшая в мире организация по сбору данных, похоже, не может дать достоверные цифры. В октябре мелкие рекламодатели подали иск против гиганта социальных сетей, обвинив его в сокрытии в течение года значительного завышения времени, которое пользователи тратили на просмотр видео на платформе (на 60-80 процентов, по данным Facebook; на 150 — 900 процентов, утверждают истцы). Согласно исчерпывающему списку в MarketingLand, за последние два года Facebook признал, что неверно сообщал об охвате публикаций на страницах Facebook (двумя разными способами), о скорости, с которой зрители завершают рекламные видеоролики, о среднем времени, затраченном на чтение его «Мгновенных статей». , »Объем реферального трафика с Facebook на внешние веб-сайты, количество просмотров видео, полученных через мобильный сайт Facebook, и количество просмотров видео в мгновенных статьях.

Можем ли мы по-прежнему доверять метрикам? Какой в ​​этом смысл после Инверсии? Даже когда мы верим в их точность, в них есть что-то не совсем реальное: моей любимой статистикой в ​​этом году было заявление Facebook о том, что 75 миллионов человек смотрели хотя бы минуту видео Facebook Watch каждый день — хотя, как признал Facebook, 60 секунды в этой одной минуте не нужно было смотреть последовательно. Реальные видео, реальные люди, фальшивые минуты.

И, может быть, не стоит даже предполагать, что люди настоящие.На YouTube бизнес по покупке и продаже просмотров видео «процветает», как напомнил читателям газета Times в ходе длительного расследования в августе. Компания заявляет, что только «крошечная часть» ее трафика является поддельной, но поддельные подписчики — это достаточно большая проблема, чтобы сайт провел чистку «спам-аккаунтов» в середине декабря. В наши дни, как обнаружил Times , вы можете купить 5000 просмотров на YouTube — 30 секунд видео считаются просмотром — всего за 15 долларов; Часто клиентов заставляют поверить, что просмотры, которые они покупают, исходят от реальных людей.Скорее всего, они исходят от ботов. На некоторых платформах просмотры видео и загрузки приложений могут быть сфальсифицированы в рамках прибыльных операций по промышленной подделке. Если вы хотите получить представление о том, как выглядит Inversion, найдите видео «фермы кликов»: сотни отдельных смартфонов, расположенных рядами на полках или стойках в профессиональных офисах, каждый из которых смотрит одно и то же видео или загружает одно и то же приложение. .

Никогда не устаю смотреть видео китайских клик-ферм. Это так сюрреалистично — видеть, как сотни телефонов воспроизводят одно и то же видео с целью фальшивого вовлечения.pic.twitter.com/bHAGLqRqVb

— Мэтью Бреннан (@mbrennanchina) 10 декабря 2018 г.

Это явно не настоящая торговля людьми. Но как будет выглядеть реальный трафик людей? Инверсия порождает некоторые странные философские затруднения: если российский тролль, использующий фотографию бразильского мужчины, чтобы маскироваться под сторонника американского Трампа, смотрит видео на Facebook, является ли эта точка зрения «реальной»? У нас есть не только боты, маскирующиеся под людей, и люди, маскирующиеся под других людей, но также иногда люди, маскирующиеся под ботов, притворяющиеся «личными помощниками искусственного интеллекта», такими как «M» Facebook, чтобы помочь технологическим компаниям, похоже, обладать ультрасовременный ИИ.У нас даже есть то, что Лил Микела является влиятельным лицом в Instagram: фальшивый человек с настоящим телом, фальшивым лицом и реальным влиянием. Даже люди, которые не маскируются, могут искажать себя через слои убывающей реальности: The Atlantic сообщает, что люди, влияющие на людей, не использующие компьютерную графику, публикуют фальшивый спонсируемый контент, то есть контент, который должен выглядеть как контент, который должен выглядеть аутентичным, для бесплатно — чтобы привлечь внимание представителей бренда, которые, как они надеются, будут платить им реальные деньги.

Деньги обычно настоящие.Не всегда — спросите кого-нибудь, кто с энтузиазмом увлекся криптовалютой в это время в прошлом году — но достаточно часто, чтобы стать двигателем Инверсии. Если деньги настоящие, зачем еще что-то? Ранее в этом году писательница и художница Дженни Оделл начала искать реселлера Amazon, который покупал товары у других реселлеров Amazon и перепродавал их снова на Amazon по более высоким ценам. Оделл обнаружил тщательно продуманную сеть поддельных предприятий по завышению цен и кражи авторских прав, связанных с культовой евангелической церковью, чьи последователи воскресили Newsweek в 2013 году как спам-ферму, оптимизированную для зомби.Она посетила странный книжный магазин, управляемый торговыми посредниками в Сан-Франциско, и обнаружила чахлую конкретную копию ослепительно фальшивых витрин, которые она видела на Amazon, в беспорядке разбросанных с книгами-бестселлерами, пластиковыми безделушками и косметическими товарами, очевидно, купленными у оптовиков. «В какой-то момент мне стало казаться, что я во сне», — написала она. «Или что я был полусонным, неспособным отличить виртуальное от реального, локальное от глобального, продукт от изображения Photoshop, искреннее от неискреннего.”

Единственный сайт, который вызывает у меня головокружительное ощущение нереальности так часто, как это делает Amazon, — это YouTube, на котором неделями размещается перевернутый, бесчеловечный контент. Телевизионные эпизоды, которые были перевернуты зеркалом, чтобы избежать нарушений авторских прав, транслируются рядом с торговцами-влогерами, порвавшими товары, которые транслируются рядом с анонимно созданными видео, которые якобы предназначены для детей. Анимационное видео Человека-паука и Эльзы из Frozen на тракторах — это не , а не : какая-то бедняжка оживила его и озвучила его актеров, и я не сомневаюсь, что какое-то количество (десятки? Сотни) «Миллионы? Конечно, почему бы и нет?») Детей сидели и смотрели его и находили в нем какое-то загадочное, оккультное наслаждение.Но это, конечно, не «официальный», и, глядя на него на экране взрослым, сложно понять, откуда он взялся и что означает, что количество просмотров под ним постоянно увеличивается.

По крайней мере, это в основном контрафактные видео популярных вымышленных персонажей, то есть поддельная нереальность. Подделка , реальность найти еще труднее — пока. В январе 2018 года анонимный редактор Redditor создал относительно простую в использовании реализацию настольного приложения «дипфейков», ныне печально известной технологии, которая использует обработку изображений с искусственным интеллектом для замены одного лица в видео другим — например, политик закончился порно звездой.Недавняя научная статья исследователей из компании Nvidia, производящей видеокарты, демонстрирует похожую технику, используемую для создания изображений компьютерных «человеческих» лиц, которые шокирующе похожи на фотографии реальных людей. (В следующий раз, когда русские захотят кукловодить группу выдуманных американцев на Facebook, им даже не нужно будет воровать фотографии реальных людей.) Вопреки тому, что вы могли ожидать, мир, наполненный дипфейками и другими искусственно созданными фотографическими изображениями, не будет быть тем, в котором «поддельные» изображения обычно считаются настоящими, но тем, в котором «настоящие» изображения обычно считаются поддельными — просто потому, что после Инверсии, кто сможет отличить?

Такая потеря какой-либо привязки к «реальности» только заставляет нас тосковать по ней еще больше.Наша политика была перевернута вместе со всем остальным, проникнута гностическим чувством, что нас обманывают, обманывают и лгут, но что «настоящая правда» все еще где-то скрывается. Подростки глубоко увлечены видеороликами на YouTube, которые обещают показать суровую реальность, скрытую за «мошенничеством» феминизма и разнообразия — процесс, который они называют «красным пиллингом» после сцены в Матрица , когда компьютерная симуляция исчезает и появляется реальность . Политические аргументы теперь включают в себя обвинения в «демонстрации добродетели» — идею о том, что либералы подделывают свою политику ради социального вознаграждения — против обвинений в том, что они являются российскими ботами.Единственное, с чем можно согласиться, — это то, что все в сети лгут и фальсифицируют.

Что, ну. Куда бы я ни заходил в Интернет в этом году, меня просили доказать, что я человек. Вы можете перепечатать это искаженное слово? Вы можете расшифровать этот номер дома? Можете ли вы выбрать изображения, на которых изображен мотоцикл? Я обнаруживал, что каждый день падаю ниц у ног роботов-вышибал, отчаянно демонстрируя свои высокоразвитые навыки сопоставления с образцом — может ли Vespa вообще считаться мотоциклом? — чтобы я мог ходить в ночные клубы, я даже не уверен, что хочу туда.Оказавшись внутри, я был направлен петлями дофаминовой обратной связи, чтобы пролистать мимо любой здоровой точки, манипулировал эмоционально заряженными заголовками и сообщениями, чтобы нажимать на вещи, которые меня не заботили, и нервничал, раздражал и сладко разговаривал с аргументами, покупками и отношения были настолько алгоритмически детерминированы, что их было трудно назвать реальными.

Что это нам остается? Я не уверен, что решение состоит в том, чтобы найти некоторую подлинность до инверсии, чтобы вернуть себя в «реальность».В конце концов, из Интернета ушел не «правда», а доверие: ощущение того, что люди и вещи, с которыми мы сталкиваемся, — это то, чем они себя представляют. Годы роста, основанного на показателях, прибыльных манипулятивных систем и нерегулируемых торговых площадок, создали среду, в которой имеет больше смысла быть фальшивым в Интернете — быть лицемерным и циничным, лгать и обманывать, искажать и искажать — чем это делает будь реальным. Чтобы исправить это, потребуются культурные и политические реформы в Кремниевой долине и во всем мире, но это наш единственный выбор.В противном случае мы все окажемся в бот-Интернете, состоящем из фальшивых людей, фальшивых кликов, фальшивых сайтов и фальшивых компьютеров, где единственная реальная вещь — это реклама.

* Версия этой статьи опубликована в журнале New York Magazine от 24 декабря 2018 г. Подпишитесь сейчас!

дипфейков нанесут серьезный ущерб обществу. Мы не готовы.

Ни одного из этих людей не существует.Эти изображения были созданы с использованием технологии deepfake.

thispersondoesnotexist.com

В прошлом месяце во время популярного документального сериала ESPN Последний танец , State Farm дебютировал в телевизионной рекламе, которая стала одной из самых обсуждаемых рекламных роликов за последнее время. Судя по всему, это были кадры 1998 года, на которых аналитик ESPN делал поразительно точные прогнозы относительно 2020 года.

Как выяснилось, клип не был подлинным: он был создан с использованием передового искусственного интеллекта.Ролик удивил, развеселил и обрадовал зрителей.

Но зрители должны были испытывать глубокую озабоченность.

Реклама «Совхоз» была наглядным примером важного и опасного нового явления в искусственном интеллекте: дипфейков. Технология Deepfake позволяет любому, у кого есть компьютер и подключение к Интернету, создавать реалистичные фотографии и видеоролики, на которых люди говорят и делают то, чего они на самом деле не говорят или не делают.

Сочетание словосочетаний «глубокое обучение» и «подделка», дипфейки впервые появились в Интернете в конце 2017 года благодаря инновационному новому методу глубокого обучения, известному как генеративные состязательные сети (GAN).

В последнее время стало вирусным несколько deepfake-видео, благодаря которым миллионы людей во всем мире впервые познакомились с этой новой технологией: президент Обама использовал ругательство, чтобы описать президента Трампа, Марк Цукерберг признал, что истинная цель Facebook — манипулировать и эксплуатировать своих пользователей, Билл Хейдер трансформировался. в Аль Пачино в ночном ток-шоу.

Количество дипфейков в Интернете стремительно растет. Согласно отчету стартапа Deeptrace, в начале 2019 года в сети было 7964 deepfake-видео; всего девять месяцев спустя эта цифра подскочила до 14 678 человек.Без сомнения, с тех пор он продолжал расти.

Несмотря на то, что сегодняшняя технология дипфейка впечатляет, она все еще не совсем соответствует подлинным видеоматериалам — присмотревшись, обычно можно сказать, что видео является дипфейком. Но технологии улучшаются с головокружительной скоростью. Эксперты прогнозируют, что в ближайшее время дипфейки будут неотличимы от реальных изображений.

«В январе 2019 года глубокие подделки были глючными и мерцающими», — сказал Хани Фарид, профессор Калифорнийского университета в Беркли и эксперт по дипфейкам.«Девять месяцев спустя я никогда не видел ничего похожего на то, как быстро они движутся. Это верхушка айсберга ».

Сегодня мы стоим на переломном этапе. В ближайшие месяцы и годы дипфейки грозят вырасти из интернет-диковинки в разрушительную политическую и социальную силу. Обществу нужно действовать сейчас, чтобы подготовиться.


Когда смотришь — не веришь

Первый случай использования, к которому deepfake технология широко применяется, как это часто бывает с новыми технологиями, порнография.По состоянию на сентябрь 2019 года, 96% из deepfake видео онлайн были порнографическими, согласно отчету Deeptrace.

Несколько сайтов, посвященных специально deepfake порнографии появились, коллективно собирая сотни миллионов просмотров в течение последних двух лет. Deepfake порнография почти всегда несогласованная, включая искусственный синтез явных видео, которые показывают известные знаменитости или личные контакты.

Из этих темных уголков сети использование дипфейков начало распространяться на политическую сферу, где вероятность хаоса еще больше.

Не требуется большого воображения, чтобы осознать вред, который может быть нанесен, если целым группам населения будут показаны сфабрикованные видеоролики, которые, по их мнению, реальны. Представьте себе дипфейк, на котором политик занимается подкупом или сексуальным насилием прямо перед выборами; или солдат США, совершающих зверства против мирных жителей за границей; или о том, как президент Трамп объявил о запуске ядерного оружия против Северной Кореи. В мире, где существует даже некоторая неуверенность в подлинности таких клипов, последствия могут быть катастрофическими.

Из-за широкой доступности технологии такие кадры мог создавать кто угодно: спонсируемые государством субъекты, политические группы, одинокие люди.

В недавнем отчете Институт Брукингса мрачно резюмировал спектр политических и социальных опасностей, которые создают дипфейки: «искажение демократического дискурса; манипулирование выборами; подрыв доверия к институтам; ослабление журналистики; обострение социальных разногласий; подрыв общественной безопасности; и нанесение трудно поддающегося возмещению ущерба репутации выдающихся личностей, включая выборных должностных лиц и кандидатов на должности.”

Учитывая ставки, американские законодатели начали обращать внимание.

«Раньше, если вы хотели угрожать Соединенным Штатам, вам требовалось 10 авианосцев, ядерное оружие и ракеты большой дальности», — сказал недавно сенатор США Марко Рубио. «Сегодня … все, что вам нужно, это возможность создать очень реалистичное фальшивое видео, которое могло бы подорвать наши выборы, которое могло бы ввергнуть нашу страну в ужасный внутренний кризис и глубоко ослабить нас».

Технологи согласны.По словам Хани Фарида, одного из ведущих мировых экспертов по дипфейкам: «Если мы не можем поверить видео, аудио, изображениям, информации, собранной со всего мира, это серьезный риск для национальной безопасности. ”

Этот риск больше не является чисто гипотетическим: есть первые примеры дипфейков, влияющих на политику в реальном мире. Эксперты предупреждают, что это канарейки в угольной шахте.

В прошлом месяце политическая группа в Бельгии опубликовала дипфейк-видео, на котором премьер-министр Бельгии произносит речь, в которой связывает вспышку COVID-19 с экологическим ущербом и призывает к решительным действиям в отношении изменения климата.По крайней мере, некоторые зрители считали, что речь была настоящей.

Еще более коварно то, что простая возможность того, что видео может быть дипфейком, может вызвать путаницу и способствовать политическому обману независимо от того, действительно ли использовалась технология дипфейка. Самый яркий пример этого — Габон, небольшая страна в центральной Африке.

В конце 2018 года президента Габона Али Бонго не видели на публике несколько месяцев. Ходили слухи, что он уже недостаточно здоров для должности или даже что он умер.Пытаясь развеять эти опасения и подтвердить лидерство Бонго в стране, его администрация объявила, что он выступит с общенациональным телеобращением в день Нового года.

В видеообращении (которое стоит проверить воочию) Бонго выглядит напряженным и неестественным, с неестественной речью и манерой лица. Видео сразу же вызвало подозрения в том, что власть что-то скрывает от общественности. Политические оппоненты Бонго заявили, что отснятый материал является фальшивкой, а президент выведен из строя или мертв.Слухи о заговоре дипфейка быстро распространились в социальных сетях.

Политическая ситуация в Габоне стремительно дестабилизируется. В течение недели военные организовали переворот — первый в стране с 1964 года, — сославшись на новогоднее видео как на доказательство того, что с президентом что-то не так.

По сей день эксперты не могут однозначно сказать, было ли новогоднее видео подлинным, хотя большинство полагает, что это так. (Переворот оказался неудачным; с тех пор Бонго появлялся на публике и остается у власти по сей день).

Но было ли видео настоящим — почти неважно. Главный урок состоит в том, что появление дипфейков будет все труднее отличать общественность от того, что реально, а что фальшиво, — ситуация, которую неизбежно будут использовать политические субъекты — с потенциально разрушительными последствиями.

«Люди уже используют тот факт, что существуют дипфейки, чтобы дискредитировать подлинные видеодоказательства», — сказал профессор Университета Южной Калифорнии Хао Ли. «Даже если есть кадры, на которых вы что-то делаете или говорите, вы можете сказать, что это был дипфейк, и очень трудно доказать обратное.”

В двух недавних инцидентах политики в Малайзии и Бразилии пытались избежать последствий компрометации видеозаписей, утверждая, что эти видеозаписи были дипфейками. В обоих случаях никто не смог окончательно установить иное, и общественное мнение осталось разделенным.

Исследователь Авив Овадья предупреждает о том, что она называет «апатией к реальности»: «Слишком много усилий, чтобы выяснить, что реально, а что нет, поэтому вы с большей готовностью будете просто придерживаться своих прежних связей.”

В мире, где видеть больше не значит верить, способность большого сообщества прийти к соглашению о том, что является правдой, а тем более участвовать в конструктивном диалоге об этом, внезапно кажется ненадежной.

Игра в технологические кошки-мышки

Основная технология, делающая возможными дипфейки, — это ветвь глубокого обучения, известная как генеративные состязательные сети (GAN). Сети GAN были изобретены Яном Гудфеллоу в 2014 году, когда он учился в докторантуре Монреальского университета, одного из ведущих мировых исследовательских институтов искусственного интеллекта.

В 2016 году великий ИИ Янн ЛеКун назвал GAN «самой интересной идеей в машинном обучении за последние десять лет».

До разработки GAN нейронные сети умели классифицировать существующий контент (например, понимать речь или распознавать лица), но не создавали новый контент. Сети GAN дали нейронным сетям возможность не только воспринимать, но и создавать.

Концептуальный прорыв

Гудфеллоу состоял в том, чтобы спроектировать GAN с использованием двух отдельных нейронных сетей — одну, известную как «генератор», а другую — как «дискриминатор», — и сопоставить их друг с другом.

Начиная с заданного набора данных (скажем, коллекции фотографий человеческих лиц), генератор начинает генерировать новые изображения, которые с точки зрения пикселей математически аналогичны существующим изображениям. Между тем в дискриминатор поступают фотографии без указания того, взяты ли они из исходного набора данных или из выходных данных генератора; его задача — определить, какие фотографии были созданы синтетическим путем.

Поскольку две сети итеративно работают друг против друга — генератор пытается обмануть дискриминатор, дискриминатор пытается разобраться в творениях генератора — они оттачивают возможности друг друга.В конце концов, вероятность успешной классификации дискриминатора упала до 50%, что не лучше, чем случайное предположение, а это означает, что синтетически сгенерированные фотографии стали неотличимы от оригиналов.

Одной из причин распространения дипфейков является идеология открытого исходного кода сообщества машинного обучения: начиная с оригинальной статьи Гудфеллоу, всякий раз, когда происходят исследования в области генеративного моделирования, технология обычно предоставляется бесплатно для всех в мире для загрузки и использования. .

Учитывая, что дипфейки в первую очередь основаны на ИИ, некоторые рассматривают ИИ как решение для вредоносных приложений дипфейков. Например, исследователи создали сложные системы обнаружения глубоких подделок, которые оценивают освещение, тени, движения лица и другие особенности, чтобы отмечать сфабрикованные изображения. Другой инновационный защитный подход — добавить фильтр к файлу изображения, который делает невозможным использование этого изображения для создания дипфейка.

Появилось несколько стартапов, предлагающих программное обеспечение для защиты от дипфейков, включая Truepic и Deeptrace.

Но вряд ли такие технологические решения в долгосрочной перспективе остановят распространение дипфейков. В лучшем случае они приведут к бесконечной динамике «кошки-мышки», подобной той, что существует сегодня в кибербезопасности, в которой прорывы в области обнаружения дипфейков стимулируют дальнейшие инновации в генерации дипфейков. Открытый исходный код исследований ИИ делает это тем более вероятным.

Приведу один пример: в 2018 году исследователи из Университета Олбани опубликовали анализ, показывающий, что неправильное мигание часто является верным признаком того, что видео было подделкой.Это был полезный прорыв в борьбе с дипфейками — до тех пор, пока в течение нескольких месяцев не стали появляться новые видео дипфейков, которые исправляли это мигающее несовершенство.

«У нас меньше вооружения, — сказал Фарид. «Количество людей, работающих на стороне видеосинтеза, в отличие от детектора, составляет 100 к 1».


Путь вперед

Помимо чисто технических средств защиты, какие законодательные, политические и социальные меры мы можем предпринять для защиты от опасностей дипфейков?

Заманчивое и простое решение — принять законы, запрещающие создание или распространение дипфейков.Штат Калифорния экспериментировал с этим подходом, приняв в прошлом году закон, запрещающий создание или распространение дипфейков политиков в течение 60 дней после выборов. Но общий запрет на дипфейки имеет как конституционные, так и практические проблемы.

Первая поправка к Конституции США закрепляет свободу слова. Любой закон, запрещающий онлайн-контент, особенно политический, рискует нарушить эти конституционные меры защиты.

«Политическая речь пользуется наивысшим уровнем защиты при У.S. Law, — сказала профессор права Джейн Кертли. «Желание защитить людей от вводящего в заблуждение контента в преддверии выборов очень сильное и очень понятное, но я скептически отношусь к тому, смогут ли они обеспечить соблюдение [закона Калифорнии]».

Помимо конституционных проблем, запреты на дипфейки, вероятно, окажется неосуществимым из-за анонимности и безграничности Интернета.

Другие существующие правовые рамки, которые могут быть использованы для борьбы с дипфейками, включают авторское право, клевету и право на гласность.Но, учитывая широкую применимость доктрины добросовестного использования, полезность этих юридических средств может быть ограничена.

В краткосрочной перспективе наиболее эффективное решение может исходить от крупных технологических платформ, таких как Facebook, Google и Twitter, которые добровольно предпримут более строгие меры для ограничения распространения вредоносных дипфейков.

Опора на частные компании в решении широких политических и социальных проблем, по понятным причинам, заставляет многих чувствовать себя очень неуютно. Тем не менее, как говорят правоведы Бобби Чесни и Даниэль Ситрон, соглашения об условиях обслуживания этих технологических платформ являются «единственным наиболее важным документом, регулирующим цифровую речь в современном мире.В результате политика этих компаний в отношении контента может быть «наиболее заметным механизмом ответа из всех» на дипфейки.

Соответствующий законодательный вариант — внести поправки в спорную статью 230 Закона о порядочности в коммуникациях. Написанный на заре коммерческого Интернета, Раздел 230 дает Интернет-компаниям почти полный гражданский иммунитет в отношении любого контента, размещенного на их платформах третьими сторонами. Отказ от этой защиты возложит на такие компании, как Facebook, юридическую ответственность за ограничение распространения вредоносного контента на своих сайтах.Но такой подход вызывает сложные проблемы со свободой слова и цензурой.

В конце концов, одного решения не хватит. Важный первый шаг — просто повысить осведомленность общественности о возможностях и опасностях дипфейков. Информированные граждане — важная защита от широко распространенной дезинформации.

Недавний рост количества фейковых новостей привел к опасениям, что мы входим в мир «постправды». Дипфейки угрожают усилить и ускорить эту траекторию. Следующая крупная глава в этой драме, вероятно, не за горами: выборы 2020 года.Ставки вряд ли могут быть выше.

«Человек перед танком на площади Тяньаньмэнь переместил мир», — сказал профессор Нью-Йоркского университета Насир Мемон. «Никсон по телефону стоил ему президентского срока. Образы ужаса из концлагерей наконец подтолкнули нас к действию. Если идея неверия в то, что вы видите, подвергается нападкам, это огромная проблема. Нужно восстановить истину в видении снова ».

интернет-компаний готовятся к борьбе с будущим «дипфейков»

САН-ФРАНЦИСКО. Несколько месяцев назад Google нанял десятки актеров, чтобы они сидели за столом, стояли в коридоре и шли по улице, разговаривая в видеокамеру.

Затем исследователи компании, используя новый вид программного обеспечения искусственного интеллекта, поменяли местами лица актеров. Люди, которые шли пешком, внезапно оказались за столом. Актеры, которые были в коридоре, выглядели так, как будто они были на улице. На тела женщин накладывались мужские лица. На тела мужчин накладывались женские лица. Со временем исследователи создали сотни так называемых дипфейк-видео.

Создавая эти видео с цифровой обработкой, ученые Google считают, что они учатся распознавать дипфейки, которые, как опасаются исследователи и законодатели, могут стать новым коварным методом распространения дезинформации в преддверии президентских выборов 2020 года.

Для интернет-компаний, таких как Google, поиск инструментов для обнаружения дипфейков стал актуальным. Если кто-то хочет распространить фальшивое видео повсюду, Google YouTube или социальные сети Facebook будут отличным местом для этого.

Представьте себе фальшивую сенатор Элизабет Уоррен, практически неотличимую от реальной, которая вступает в кулачный бой на подделанном видео. Или фальшивый президент Трамп, делающий то же самое. Технология, способная на такой обман, приближается к реальности.

«Даже при современных технологиях некоторым людям трудно отличить, что реально, а что нет», — сказал Суббарао Камбхампати, профессор компьютерных наук в Университете штата Аризона.

В еженедельнике A.I. Инженеры создают Deepfake Video

[ Воскресенье, 22:00 на FX и Streaming Monday на Hulu. ]

Дипфейки — термин, который обычно описывает видео, обработанные с помощью передового искусственного интеллекта — уже поставили под сомнение наши предположения о том, что реально, а что нет.

В последние месяцы видеодоказательства были в центре громких инцидентов в Бразилии, Габоне в Центральной Африке и Китае. Каждый был окрашен одним и тем же вопросом: реально ли видео? Например, президент Габона уехал из страны для оказания медицинской помощи, и его правительство опубликовало так называемое видео с подтверждением жизни. Противники утверждали, что это было сфальсифицировано. Эксперты называют это заблуждение «дивидендами лжеца».

«Вы уже можете увидеть существенный эффект, который оказали дипфейки», — сказал Ник Дюфур, один из инженеров Google, наблюдающих за исследованием дипфейков в компании.«Они позволили людям утверждать, что видеодоказательства, которые в противном случае были бы очень убедительными, являются подделкой».

На протяжении десятилетий компьютерное программное обеспечение позволяло людям манипулировать фотографиями и видео или создавать поддельные изображения с нуля. Но это был медленный и кропотливый процесс, обычно предназначенный для специалистов, обученных капризам программного обеспечения, такого как Adobe Photoshop или After Effects.

Теперь технологии искусственного интеллекта оптимизируют процесс, сокращая затраты, время и навыки, необходимые для обработки цифровых изображений.Эти A.I. системы самостоятельно учатся создавать поддельные изображения, анализируя тысячи реальных изображений. Это означает, что они могут справиться с той частью рабочей нагрузки, которая когда-то выпадала на долю обученных специалистов. А это значит, что люди могут создавать гораздо больше фейков, чем раньше.

Технологии, используемые для создания дипфейков, все еще довольно новы, и результаты часто легко заметить. Но технологии развиваются. Хотя инструменты, используемые для обнаружения этих поддельных видеороликов, также развиваются, некоторые исследователи опасаются, что они не успеют за ними.

Google недавно заявил, что любой академический или корпоративный исследователь может загрузить свою коллекцию синтетических видео и использовать их для создания инструментов для выявления дипфейков. Видеоколлекция — это, по сути, программа цифровых уловок для компьютеров. Анализируя все эти изображения, А.И. системы учатся следить за подделками. Facebook недавно сделал нечто подобное, используя актеров для создания фейковых видеороликов, а затем предоставив их сторонним исследователям.

Инженеры канадской компании Dessa, специализирующейся на искусственном интеллекте, недавно протестировали детектор дипфейков, созданный с использованием синтетических видео Google.Он мог идентифицировать видео Google с почти идеальной точностью. Но когда они протестировали свой детектор на дипфейк-видео, взятых из Интернета, более чем в 40% случаев он терпел неудачу.

В конечном итоге они устранили проблему, но только после восстановления своего детектора с помощью видео, найденных «в дикой природе», а не созданных с помощью платных актеров — доказывая, что детектор хорош ровно настолько, насколько хороши данные, используемые для его обучения.

Их тесты показали, что борьба с дипфейками и другими формами онлайн-дезинформации потребует почти постоянного переосмысления.Несколько сотен синтетических видеороликов недостаточно для решения проблемы, потому что они не обязательно имеют характеристики поддельных видеороликов, распространяемых сегодня, а тем более в ближайшие годы.

«В отличие от других проблем, эта постоянно меняется», — сказал Рагаван Турайратнам, основатель Dessa и руководитель отдела машинного обучения.

В декабре 2017 года люди, называющие себя «дипфейками», начали использовать искусственный интеллект. технологии прививать головы знаменитостей на обнаженные тела в порнофильмах.Поскольку эта практика распространилась по таким сервисам, как Twitter, Reddit и PornHub, термин deepfake вошел в популярный лексикон. Вскоре это стало синонимом любого фальшивого видео, размещенного в Интернете.

Технология улучшилась со скоростью, удивляющей А.И. экспертов, и нет оснований полагать, что это замедлится. Deepfakes должен извлечь выгоду из одной из немногих аксиом технологической индустрии, которая сохранялась на протяжении многих лет: компьютеры всегда становятся мощнее, а данных всегда больше. Это делает так называемое программное обеспечение для машинного обучения, которое помогает создавать дипфейки, более эффективным.

«Становится легче, и дальше будет легче. В этом нет никаких сомнений », — сказал Маттиас Нисснер, профессор информатики в Техническом университете Мюнхена, который работает с Google над исследованием дипфейков. «Эта тенденция сохранится в течение многих лет».

Вопрос: какая сторона будет улучшаться быстрее?

Такие исследователи, как доктор Нисснер, работают над созданием систем, которые могут автоматически определять и удалять дипфейки. Это обратная сторона медали.Как и создатели дипфейков, детекторы дипфейков осваивают свои навыки, анализируя изображения.

Детекторы также могут улучшаться не по дням, а по часам. Но для этого требуется постоянный поток новых данных, представляющих новейшие методы дипфейка, используемые в Интернете, — сказали д-р Нисснер и другие исследователи. Сбор и обмен правильными данными может быть трудным. Соответствующих примеров мало, а из соображений конфиденциальности и защиты авторских прав компании не всегда могут делиться данными с внешними исследователями.

Хотя активисты и художники время от времени выпускают дипфейки, чтобы показать, как эти видео могут изменить политический дискурс в Интернете, эти методы широко не используются для распространения дезинформации.Они в основном используются для распространения юмора или поддельной порнографии, в соответствии с Facebook, Google и другие, которые отслеживают ход deepfakes.

Прямо сейчас дипфейк-видео имеет тонкие недостатки, которые могут быть легко обнаружены автоматизированными системами, если не невооруженным глазом. Но некоторые исследователи утверждают, что улучшенная технология будет достаточно мощной, чтобы создавать поддельные изображения без этих крошечных дефектов. Такие компании, как Google и Facebook, надеются, что до того, как это произойдет, у них появятся надежные детекторы.

«В краткосрочной перспективе обнаружение будет достаточно эффективным», — сказал г-н Камбхампати, профессор штата Аризона. «В долгосрочной перспективе, я думаю, будет невозможно отличить настоящие изображения от поддельных».

Deepfakes и новая гонка вооружений по созданию фальшивых медиа, созданных искусственным интеллектом

Фальсифицированные видео, созданные искусственным интеллектом, в частности глубокими нейронными сетями (DNN), — недавний поворот к сбивающей с толку проблеме онлайн-дезинформации. Хотя изготовление цифровых изображений и видео и манипулирование ими не новость, быстрое развитие технологии искусственного интеллекта в последние годы сделало процесс создания убедительных поддельных видео намного проще и быстрее.AI генерироваться поддельные видео первым привлекли внимание общественности в конце 2017 года, когда Reddit счет с Deepfakes имени размещено порнографическое видео, созданное с помощью алгоритма лица с перестановкой на DNN основе. Впоследствии термин deepfake стал использоваться в более широком смысле для обозначения всех типов имитирующих видео, созданных искусственным интеллектом.

Хотя есть интересные и творческие применения дипфейков, они также могут быть использованы в качестве оружия. Мы были одними из первых, кто отреагировал на это явление, и разработали первый метод обнаружения дипфейка, основанный на отсутствии реалистичного моргания глаз в ранних поколениях дипфейк-видео в начале 2018 года.Впоследствии наблюдается всплеск интереса к разработке методов обнаружения дипфейков.

ЗАДАЧА ОБНАРУЖЕНИЯ

Кульминацией этих усилий является конкурс Deepfake Detection Challenge в этом году. В целом, выигрышные решения представляют собой образец продвинутых DNN (средняя точность 82,56% у лучших исполнителей). Они предоставляют нам эффективные инструменты для выявления дипфейков, которые автоматизированы и производятся серийно с помощью алгоритмов ИИ. Однако мы должны быть осторожны при чтении этих результатов.Хотя организаторы приложили все усилия, чтобы смоделировать ситуации, в которых видео Deepfake используются в реальной жизни, все еще существует значительное расхождение между производительностью набора оценочных данных и более реальным набором данных; при тестировании на невидимых видео точность наиболее эффективного исполнителя снизилась до 65,18%.

Кроме того, все решения основаны на продуманном дизайне DNN и дополнений данных, но не дают ничего, кроме алгоритмов классификации типа «черный ящик».Кроме того, эти результаты обнаружения не отражают фактическую производительность алгоритма обнаружения на одном видео с дипфейком, особенно на видео, которое было обработано вручную и усовершенствовано после генерации с помощью алгоритмов ИИ. Такие «искусственно созданные» дипфейк-видео с большей вероятностью нанесут реальный ущерб, а тщательная ручная постобработка может уменьшить или удалить артефакты, на которых основаны алгоритмы обнаружения.

ГЛУБОКИЕ ФЕЙКИ И ВЫБОРЫ

Технология создания дипфейков находится в распоряжении обычных пользователей; на GitHub имеется довольно много программных инструментов, в том числе FakeApp, DFaker, Faceswap-GAN, Faceswap и DeepFaceLab, поэтому нетрудно представить, что эту технологию можно использовать в политических кампаниях и других значимых социальных мероприятиях.Однако то, увидим ли мы какую-либо форму дипфейков на предстоящих выборах, во многом будет зависеть от соображений нетехнического характера. Одним из важных факторов является стоимость. Создание дипфейков, хотя и намного проще, чем когда-либо прежде, по-прежнему требует времени, ресурсов и навыков.

По сравнению с другими, более дешевыми подходами к дезинформации (например, перепрофилирование существующего изображения или видео в другом контексте) дипфейки по-прежнему являются дорогой и неэффективной технологией. Другой фактор заключается в том, что дипфейк-видео обычно легко раскрывается с помощью проверки фактов из разных источников и, следовательно, не могут создавать долгосрочные эффекты.Тем не менее, мы по-прежнему должны быть начеку для созданных deepfake видео, используемых в обширной кампании дезинформации или развернутых в определенное время (например, в течение нескольких часов после голосования), чтобы вызвать краткосрочный хаос и путаницу.

ОБНАРУЖЕНИЕ БУДУЩЕГО

Конкуренция между созданием и обнаружением дипфейков не закончится в обозримом будущем. Мы увидим дипфейки, которые легче сделать, они более реалистичны и труднее различимы. Текущее узкое место из-за отсутствия деталей в синтезе будет преодолено путем объединения с моделями GAN.Время обучения и генерации будет сокращено с развитием аппаратного обеспечения и более легких структур нейронных сетей. В последние несколько месяцев мы видим новые алгоритмы, которые могут обеспечить гораздо более высокий уровень реализма или работать почти в реальном времени. Последняя форма дипфейк-видео выйдет за рамки простого обмена лицами, до синтеза всей головы (кукольное представление головы), совместного аудиовизуального синтеза (говорящие головы) и даже синтеза всего тела.

Кроме того, оригинальные дипфейки предназначены только для того, чтобы обмануть человеческий глаз, но в последнее время были приняты меры, чтобы сделать их также неотличимыми от алгоритмов обнаружения.Эти меры, известные как контр-криминалистика, используют в своих интересах хрупкость глубоких нейронных сетей, добавляя целевой невидимый «шум» к сгенерированному Deepfake-видео, чтобы ввести в заблуждение детектор на основе нейронной сети.

Чтобы обуздать угрозу, исходящую от все более изощренных дипфейков, технологиям обнаружения также необходимо не отставать. Поскольку мы пытаемся улучшить общую производительность обнаружения, следует также сделать акцент на повышении устойчивости методов обнаружения к сжатию видео, отмыванию средств в социальных сетях и другим распространенным операциям постобработки, а также к преднамеренным операциям противодействия криминалистике.С другой стороны, учитывая скорость распространения и охват онлайн-СМИ, даже самый эффективный метод обнаружения будет в значительной степени работать посмертным способом, применимым только после появления дипфейк-видео.

Таким образом, мы также увидим развитие более активных подходов к защите людей от того, чтобы стать жертвами таких атак. Этого можно достичь путем «отравления» потенциальных обучающих данных, чтобы саботировать процесс обучения моделей дипфейк-синтеза. Технологии, которые аутентифицируют исходные видео с помощью невидимых цифровых водяных знаков или управляют захватом, также будут активно развиваться, чтобы дополнить методы обнаружения и защиты.

Излишне говорить, что дипфейки — это не только техническая проблема, и, поскольку ящик Пандоры открыт, они не исчезнут в обозримом будущем. Но с техническими улучшениями в нашей способности обнаруживать их и повышением осведомленности общественности о проблеме, мы можем научиться сосуществовать с ними и ограничивать их негативное воздействие в будущем.

Что такое «дипфейки» и чем они могут быть опасны

Сравнение оригинального и дипфейкового видео генерального директора Facebook Марка Цукерберга.

Elyse Samuels | Вашингтон Пост | Getty Images

Приложения для камеры становятся все более изощренными. Пользователи могут удлинить ноги, удалить прыщи, добавить уши животных, а теперь некоторые могут даже создавать фальшивые видеоролики, которые выглядят очень реалистично. Технология, используемая для создания такого цифрового контента, быстро стала доступной для масс, и их называют «дипфейками».

Deepfakes — это обработанные видео или другие цифровые изображения, созданные сложным искусственным интеллектом, которые создают сфабрикованные изображения и звуки, которые кажутся реальными.

Такие видео «становятся все более изощренными и доступными», — написал Джон Вилласенор, старший научный сотрудник Центра технологических инноваций Центра технологических инноваций Вашингтонского института государственной политики, Институт Брукингса. «Deepfakes поднимает ряд сложных политических, технологических и юридических вопросов».

Фактически, любой, у кого есть компьютер и доступ к Интернету, может технически производить дипфейк-контент, сказал Вилласенор, который также является профессором электротехники в Калифорнийском университете в Лос-Анджелесе.

Что такое дипфейки?

Слово deepfake объединяет термины «глубокое обучение» и «фальшивка» и является разновидностью искусственного интеллекта.

Говоря упрощенно, дипфейки — это фальсифицированные видеоролики, созданные с помощью глубокого обучения, — сказал Пол Барретт, адъюнкт-профессор права Нью-Йоркского университета.

Глубокое обучение — это «подмножество искусственного интеллекта» и относится к расположению алгоритмов, которые могут обучаться и принимать разумные решения самостоятельно.

Но опасность заключается в том, что «технологию можно использовать, чтобы заставить людей поверить в реальность, когда это не так», — сказал Питер Сингер, стратег и старший научный сотрудник аналитического центра New America, специализирующийся на кибербезопасности и обороне.

Зингер — не единственный, кто предупрежден об опасности дипфейков.

Вилласенор сказал CNBC, что технология «может использоваться, чтобы подорвать репутацию политического кандидата, заставляя кандидата делать вид, будто он говорит или делает то, чего на самом деле никогда не было».

«Это новый мощный инструмент для тех, кто может захотеть (использовать) дезинформацию, чтобы повлиять на выборы», — сказал Вилласенор.

Как работают дипфейки?

Система глубокого обучения может производить убедительную подделку, изучая фотографии и видео целевого человека под разными углами, а затем имитируя его поведение и образцы речи.

Барретт объяснил, что «после создания предварительной подделки метод, известный как GAN, или генеративные состязательные сети, делает ее более правдоподобной. Процесс GAN направлен на обнаружение недостатков в подделке, что приводит к улучшениям, устраняющим недостатки».

И после нескольких раундов обнаружения и улучшения видео deepfake готово, — сказал профессор.

Согласно технологическому отчету Массачусетского технологического института, устройство, позволяющее делать дипфейки , может быть «идеальным оружием для распространителей фейковых новостей, которые хотят влиять на все, от цен на акции до выборов.»

На самом деле,„инструменты AI уже используются, чтобы положить фотографии лица других людей на телах порнозвезд и поставить слова в устах политиков“, пишет Мартин Джайлс, Сан-Франциско глава бюро MIT Technology Review в а отчет.

Он сказал, что сети GAN не создавали эту проблему, но они усугубят ее.

Как обнаружить манипулируемые видео?

Хотя ИИ можно использовать для создания дипфейков, его также можно использовать для их обнаружения, Вилласенор из Брукингса написал в феврале.Поскольку технология становится доступной для любого пользователя компьютера, все больше и больше исследователей сосредотачиваются на обнаружении дипфейков и ищут способ его регулирования.

Крупные корпорации, такие как Facebook и Microsoft, выступили с инициативами по обнаружению и удалению deepfake-видео. Обе компании объявили ранее в этом году, что они будут сотрудничать с ведущими университетами США для создания большой базы данных поддельных видео для исследований, сообщает Reuters.

«В настоящее время есть небольшие визуальные аспекты, которые исчезают, если вы присмотритесь, все, от ушей или глаз, не совпадающих с нечеткими границами лица или слишком гладкой кожи, до освещения и теней», — сказал Сингер из New America.

Но он сказал, что обнаруживать «жесты» становится все труднее и труднее, поскольку технология дипфейка становится все более продвинутой, а видео выглядят более реалистично.

Несмотря на то, что технология продолжает развиваться, Вилласенор предупредил, что методы обнаружения «часто отстают от самых передовых методов создания». Поэтому лучший вопрос: «Будут ли люди более склонны поверить в дипфейк или алгоритм обнаружения, который помечает видео как сфабрикованное?»

Обновление: эта история была изменена, чтобы отразить обновленную цитату Джона Вилласенора из Института Брукингса.

6 глубоких подделок | Влияние искусственного интеллекта на кибербезопасность: материалы семинара

Возможные методы обнаружения

Стоукс выделил три возможных способа обнаружения глубоких подделок: ручное расследование , алгоритмическое обнаружение и происхождение контента . Однако он отметил, что исследований по любому из этих методов недостаточно, и масштабировать их будет сложно. Ручное расследование использует людей для обнаружения подделок.Например, несколько новостных агентств создали целевые группы по глубоким подделкам, которые обучают редакторов и репортеров распознавать подделки и создавать руководящие принципы для редакций. К сожалению, технический прогресс может вскоре сделать невозможным ручное расследование.

В статье, опубликованной в прошлом году, указывалось, что глубокие фейковые видео редко показывают мигание, и поэтому человек может сделать вывод, что видео без моргания является фальшивым. 3 Однако теперь, когда это обнаружено, Стоукс предположил, что разработчики создадут более совершенные методы для генерации мигания, и этот контрольный знак скоро перестанет быть надежным способом обнаружения подделки.

Алгоритмическое обнаружение использует компьютеры для анализа синтетических носителей. Facebook, в частности, работает над несколькими методами искусственного интеллекта в этой сфере, не только для выявления глубоких подделок, но и для борьбы с дезинформацией в целом, включая контент, представленный вне контекста, и ложные утверждения в тексте и аудио. В частности, это сканирование изображений для оптического распознавания символов или расшифровка звука для генерации текста, который затем можно найти, чтобы узнать, развенчал ли их кто-нибудь.Однако, как отметил Стоукс, это очень сложно сделать в масштабе.

Источник контента — это цифровая подпись или криптографическая проверка аудио или видео, относящаяся к конкретной камере или микрофону, используемым для их записи. Например, Стоукс описал усилия израильского стартапа по вставке хэшей в видеофайл в зависимости от устройства и загрузке их в общедоступную последовательность блокчейнов; Затем сравнение видео со значением, хранящимся в блокчейне, может затем показать, используя простую цветовую схему, какие части видео являются реальными.Происхождение контента также может быть гарантировано с помощью цифровых подписей, которые прямо аналогичны сертификатам, используемым для аутентификации веб-страниц. Стоукс назвал один инструмент под названием Proof Mode, 4 , который встраивает подписи метаданных в видео или изображения, чтобы обеспечить цепочку хранения и вселить уверенность в подлинности собранного контента. Это приложение было разработано с целью обеспечения достоверности документации о нарушениях прав человека.

Однако происхождение контента и надежность цифрового контента не являются новыми идеями, и некоторые эксперты в предметной области уже давно скептически относятся к их эффективности.Скептики отмечают, что, хотя такие методы могут быть технически осуществимы, их чрезвычайно сложно реализовать. Например, если сертификат украден, он должен быть отозван у всех камер и выпущен новый — дорогостоящее и хрупкое решение, которое трудно реализовать в масштабе Интернета, сказал Стоукс.

Заглядывая в будущее

Хотя никакого федерального законодательства для решения этой проблемы не было принято, в Конгресс был внесен законопроект, криминализирующий злонамеренное создание и распространение глубоких подделок.В штате Нью-Йорк был предложен закон, предусматривающий наказание лиц, создающих без согласия других лиц, но кинокомпании сопротивляются, ссылаясь на права Первой поправки. Некоторые считают, что глубокие подделки, хотя и используются в определенных сообществах, вряд ли будут широко распространены или причинят серьезный ущерб, и что опасения преувеличены — в частности, потому, что публикация глубоких подделок может на самом деле привлечь внимание к злоумышленнику, что не оправдывает риска .

Таким образом, Стоукс подчеркнул, что технологии развиваются невероятно быстро, глубокие подделки причиняют реальный вред реальным людям, и их использование для политических манипуляций — лишь вопрос времени.В этом контексте Стоукс призвал научные круги, промышленность и правительство воспользоваться этим кратким окном возможностей для поиска решений.

Делип Рао, AI Foundation

Рао рассказал об усилиях AI Foundation по разработке методов обнаружения синтетического цифрового контента. Эта работа проводится с целью улучшения того, что фонд называет информационной безопасностью, цели, состоящей из трех компонентов: образование (программы получения степени, обучение сотрудников и кампании по общественной безопасности), обеспечение соблюдения (создание и обеспечение соблюдения

___________________

3 Ю.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *