Содержание

фейк — это… Что такое фейк?

  • фейк — 1. [40/3] Об интернет контенте: подделка, фикция. Это видео – Фейк! Интернет сленг 2. [39/10] Фейк – второй или более зарегестрированный на ресурсе аккаунт, является недостоверной копией аккаунта какого либо пользователя, зарегестрировавшегося… …   Cловарь современной лексики, жаргона и сленга

  • Фейк — Виртуал (от англ. virtual  виртуальный; другие названия: «фейк», «мульт», «клон», сокпаппет)  неологизм, появившийся в русском языке с распространением Интернета, обычно означает «фиктивную личность», когда пользователь Интернета начинает… …   Википедия

  • фейк — сущ. подделка, нелегальная копия …   Универсальный дополнительный практический толковый словарь И. Мостицкого

  • Драфт НБА 1996 года — Основная Информация Дата 26 июня 1996 года Время 7:30 pm (EDT) Место Нью Джерси, штат Нью Йорк ТВ (США) TNT Первый выбор Аллен Айверсон, Philadelphia 76ers …   Википедия

  • Кулхацкер — Компьютерный сленг разновидность сленга, используемого как профессиональной группой IT специалистов, так и другими пользователями компьютеров. История Появление терминов Бурный рост со второй половины XX века компьютерных технологий, и, в… …   Википедия

  • Дискография Мадонны — Мадонна Релизы …   Википедия

  • Виртуал — Проверить информацию. Необходимо проверить точность фактов и достоверность сведений, изложенных в этой статье. На странице обсуждения должны быть пояснения …   Википедия

  • Айверсон, Аллен — Аллен Айверсон Allen Iverson …   Википедия

  • Золотой ключик, или Приключения Буратино

    — У этого термина существуют и другие значения, см. Золотой ключик. Золотой Ключик, или Приключения Буратино Издание 1950 г. Художник А. Каневский Автор …   Википедия

  • Корни (группа) — У этого термина существуют и другие значения, см. Корни. Корни …   Википедия

  • Фейк — что это такое в интернете и в жизни

    Обновлено 24 июля 2021 Просмотров: 53 884 Автор: Дмитрий Петров
    1. Фейк — это не только интернет-термин
    2. Что такое фейк в социальных сетях (Вконтакте) или форумах
    3. Еще примеры фейка в интернете

    Здравствуйте, уважаемые читатели блога KtoNaNovenkogo.ru. Мы все привыкли употреблять и слышать от других слово «фейк», даже не особо задаваясь вопросом что это такое и что буквально оно означает. Почему?

    Да потому что даже из контекста, не обращаясь к Википедии, можно понять, что такое фейк и что означает означает это какую-то фальсификацию, выдавание одного за другое или, проще говоря, подделку. Именно этот смысл и заложен в прародителе данного распространенного словечка — английском слове fake (фальшивка, липа, подделка, плутовство, подлог).

    Фейк — это не только интернет-термин

    Видите сколько в русском языке нашлось для него определений (велик он все-таки) и это только существительные. Ведь fake может использоваться и в качестве глагола, тогда оно будет означать мошенничать, обжуливать, прикидываться, подделывать, фальсифицировать, прикидываться, фабриковать и т.д.

    В отличии от ИМХО это слово получило распространение и в разговорной речи, ибо имеет довольно много вариаций, как в реальном мире, так и в его онлайн вариации.

    Например, в «лихие девяностые» многие из нас покупали магнитофоны «Панафоник» или спортивные костюмы «Адибас». Это был самый настоящий фейк, когда фальсифицировали брендовую одежду или товары.

    Если перенестись в современность, ярким примером могут служить китайские Айфоны, одежда и аксессуары якобы от известных брендов, гаджеты, игровые приставки и прочие популярные и модные вещи, подделка которых способна приносить прибыль.

    Продукты питания и медикаменты ведь тоже подделывают, а значит и тут без фейка не обошлось. Маргарин вместо масла, плацебо (что это?) вместо дорогостоящего лекарства… Что уж говорить про интернет…

    Хотя именно в интернете этот термин актуален как нигде. Тут вам и фейковые аккаунты на форумах или социальных сетях, фэйковые сайты для «ловли рыбки в мутной воде» (это так называемый фишинг). И даже таким областям, как распространение нелицензионной продукции и «сайты для взрослых» хорошо знакомо это словечко.

    Очень часто снимают видеоролики, которые с чистой совестью можно отнести к подделке, но которые собирают массу просмотров и вокруг которых ведутся горячие споры (правда это или очередной фейк). Даже фильмы для взрослых не обошел стороной сей термин — там головы персонажей заменяют на лица знаменитостей.

    Ну, подобные примеры я выкладывать не буду, но один замечательный ролик все же выложу, ибо он наглядно показывает, как подобные вещи реализуются путем видеомонтажа (ловкость рук и никакого мошенства) — прямо-таки россыпь фейков:

    Давайте пробежимся по основным инкарнациям слова fake, чтобы твердо понимать в будущем, что оно может означать в том или ином контексте на просторах интернета.

    Что такое фейк в социальных сетях (Вконтакте) или форумах

    Давайте начнем с фейковых аккаунтов и посмотрим, что это такое и как их используют обычные люди и всяческие редиски (мошенники).

    Есть социальная сеть В контакте. Там все замечательно, есть огромная армия пользователей, есть возможность зарабатывать, а значит есть интерес и у мошенников.

    Одним из примеров того, что же такое фейк во Вконтакте может служить поддельный сайт, доменное имя которого близко по написанию к оригиналу, ну или хотя бы заканчивается привычными знаками.

    Внешне такой сайт очень трудно отличить от оригинала. Переходите по ссылке, ничего не подозреваете, а там… Также вам его могут подсунуть и через электронную почту, например, прислав фэйковое письмо с сообщением, что у вас в аккаунте все плохо и нужно срочно все спасать. Там же будет приведена и ссылка на фейковый сайт с формой авторизации один в один похожей на Вконтакте.

    Вы введете свои логин и пароль… Ну, дальше вы и сами понимаете, что ваш аккаунт станет рассылать спам, а вам придется долго и упорно восстанавливать доступ к нему. Но это не единственный пример фейка во Вконтакте.

    Довольно часто специально создается (не воруется, а именно создается) фейковый аккаунт в Контакте. Чаще всего он якобы принадлежит очаровательной девушке, которая готова на все, только бы удержать вас на своей странице, чтобы вы за нее голосовали, тем самым повышая репутацию.

    Это позволяет данному фэйковому аккаунту подниматься в результатах поиска по этой социальной сети и, следовательно, будет расти посещаемость у этой странички. А что такое посещаемость? При наличии рекламы, которую можно будет там размещать, это живые деньги. И тем их будет больше, чем больше данный фейк будет вызывать интерес у пользователей сети (мужеского полу, в основном, конечно же).

    Есть бездарные фейки во Вконтакте, которые делают «школьники» на коленке, а есть серьезные ребята, которые платят девушкам за фотосесcии, ведут переписку в личке, обновляют страничку, т.е. создают полную иллюзию реальности происходящего. Такие аки живут долго и счастливо, принося владельцам весомый доход.

    Но кроме Вконтакте у нас ведь есть и другие социальные сети. Все тот же Твиттер, которым пользуются практически все. Что вам стоит создать там аккаунт под именем известного человека, политика, знаменитости? Ну, в общем-то, администрация Твиттера, наверное, старается этого не допускать, но фейки все равно пролазят, собирают огромные аудитории и, наверное, неплохо зарабатывают.

    Но не деньгами едиными… Причиной создания fake-аккаунтов может быть, например, бан на каком-либо форуме или желание поддержать себя же в завязавшемся споре путем перелогинивания и написания постов в свою поддержку. В правилах это, обычно, запрещают, но мало кто их читает и считается с ними. Таких пользователей, заходящих не под своими аками, еще называют виртуалами или мультами.

    Еще примеры фейка в интернете

    Подделывают не только сайты социальных сетей, чтобы увести данные пользователей. Гораздо рентабельнее создавать fake копию ресурсов, откуда можно увести денежки. Это, например, различные системы электронных платежей, банков и подобных организаций. Данный метод имеет свое название — фишинг или по-русски рыбалка.

    Мошенники расставляют сети или закидывают удочку — создают сайты с фейковыми ссылками или ведется Емайл рассылка с поддельными сообщениями и предложениями немедленно зайти в свой аккаунт. Если у вас мало времени и вам некогда вникать в смысл каждого пришедшего к вам сообщения, или смотреть на адрес сайта в адресной строке при переходе по ссылке, то вероятность попасться на такую уловку у вас очень высока.

    Могу посоветовать одну превентивную меру, помогающую в борьбе с подобными фэйками (подставами). Никогда (слышите — никогда) не переходите по ссылкам (с сайтов или из писем) на подобные ресурсы, где у вас имеется то, что можно украсть. Что же делать? Откройте закладки своего браузера и найдите нужную. Такой переход будет стопроцентно защищен от фейка. Однако, мы бываем настолько замотаны, что…

    Иногда, поддельные сайты могут и не преследуют цель обобрать вас до нитки. Есть так называемые дорвеи (доры), которые очень часто маскируются под форумы или известные сервисы просто для того, чтобы оказавшись в привычном интерфейсе вы не ушли сразу, а перешли бы на другой сайт или дождались автоматического переброса на него, а владелец дора получил бы свою копеечку.

    Выглядеть такой фэйк может примерно так:

    Еще одной областью, где слово fake прижилось и вызывает негодование у многих пользователей — это файлообменные сети. Этим словом называют «пустышки», которые скачивают тысячи юзеров по всему миру, и не могут понять, что это такое и зачем было их называть так же, как нужная им программа или фильм.

    Есть мнение, что этим занимаются агенты (представители) правообладателей, чтобы дискредитировать те или иные сети в глазах их пользователей. С торентом этот фокус не очень-то и проходит (в отличии от ослика), да и скорости интернета сейчас такие, что скачав фейк пользователь и не особо огорчится, что потратил несколько лишних минут.

    Другое дело, что вместо вкусной «нямки» вам могут подсунуть какого-нибудь трояна или чего еще похлеще. Трудно приписать это тем же агентам правообладателей, но в наше время вряд ли кто-то сильно удивится, узнай, что это все так и было на самом деле. Все методы хороши, которые приносят результат (когда пользователи за программой или фильмом идут в магазин, пусть и виртуальный, а не в файлообменные сети).

    Ну и, конечно же, подделывают и программы. Часто встречаются фейки Вебмани Кипер Классик, а так же популярных онлайн мессенджеров Icq, Jimm или Скайпа. В первом случае мошенники крадут пароль от кипера и получают доступ к вашему счету, в во втором — у вас просто уводят аккаунт.

    По-любому, установка у себя на компьютере фэйка настоящей программы — это очень опасное дело, которое может закончиться очень даже плохо. Что же делать, чтобы избежать подделок? Скачивать данный софт только на официальных сайтах.

    Как их найти? Довольно просто. Открываете главную страницу Яндекса или поиск Гугла, вводите название программы, которую вам нужно скачать (можно и по-русски). В полученных результатах поиска первым будет стоять, скорее всего, именно официальный сайт программы.

    Оттуда ее можно будет загружать без всяких опасений напороться на очередной fake.

    Теперь вы знаете о том, что это за понятие и как с этим злом бороться по мере наших скромных сил.

    Удачи вам! До скорых встреч на страницах блога KtoNaNovenkogo.ru

    Эта статья относится к рубрикам:

    Как распознать фейк: пособие для журналистов и пользователей соцсетей | AdYummy! | Новости

    Фейки были всегда. Только раньше они назывались «газетной уткой», и скорость их распространения не была так велика, как сейчас, когда у всех под рукой есть интернет и возможность поделиться горячей новостью с окружающими

    Сегодня выросла не только скорость распространения фейков, иногда количество повторных публикаций носит вирусный характер. Но при всех минусах интернета есть и немалый плюс – сеть дает возможность проверить информацию. 

    Мы собрали советы, способные помочь как профессиональным журналистам, так и завсегдатаям социальных сетей, привыкшим радовать своих подписчиков острыми материалами. Итак, как узнать, подлинное ли сообщение вы прочитали?

    «Британские ученые установили» – фраза недаром стала интернет-мемом. Огромное количество новостей начинается с предложения «По сообщению такой-то зарубежной газеты». На недостоверность может указывать отсутствие прямой ссылки на оригинал. Или же линк есть, но ведет на страницу издания в целом, а не на конкретную новость. Чтобы проверить информацию, можно найти сайт упомянутого СМИ, вбить в поиск ключевые слова и ознакомиться с результатами. Нередко получается так, что публикация действительно была, но вынесенная в заголовок громкой новости фраза вырвана из контекста и смысл оригинала сильно отличается от перевода.

    Примерно так же проверяется подлинность цитат, которые используют как журналисты в своих статьях, так и блогеры при создании интересных постов. Скажем, многие встречали в сети душещипательное послание Джорджа Карлина, написанное им после смерти жены. Слова замечательные, но он их никогда не писал – они взяты из сборника молитв, проповедей и монологов «Точно сказанные слова» протестантского пастора Боба Мурхеда из Сиэтла. Сам же Карлин раздраженно обозвал приписываемые ему фразы «сопливой фигней». И таких примеров масса. Причем из-за тиражированности ложных цитат в первых строках результатов поиска постоянно оказываются ошибочные ссылки, и недоразумения продолжаются.

    Необходимо проверять и подлинность фотографий. Тут фейки бывают самых разных видов. Например, сообщение о наводнении – а в качестве иллюстрации взято фото затопленных улиц, находившихся в другом полушарии три года назад. Это может быть некачественная работа бильд-редактора или самого журналиста, поставившего первую попавшуюся иллюстрацию подходящей тематики. Как в случае с ураганом Сэнди, когда в Twitter распространялась фотография, которая была сделана за месяц до описываемых событий.

    Широко известен также случай с фейковым фото, одно время очень популярным в сети. На картинке матадор замер посреди боя рядом с быком. Надпись на фото гласила: «Окончание карьеры легендарного матадора Альваро Мунеро, также известного как Эль Пиларико. Он упал в раскаянии в середине боя, когда понял, что зверь не хочет с ним бороться». В действительности же на фото изображен неизвестный человек. Вероятнее всего, фотограф запечатлел момент, когда зверь был измучен, а матадор присел в ожидании его кончины. Альваро Мунеро на самом деле ушел из профессии после того, как был тяжело ранен быком и прикован к инвалидному креслу. После этого он стал яростным противником корриды.

    Существует немало ресурсов, способных помочь провести оперативную проверку изображений на «фейковость»:

    1. Findexif.com — бесплатный сервис, на который можно загрузить фотографию или дать ссылку на нее — он определит EXIF-данные (сведения, когда было сделано фото, каким устройством, параметры изображения, иногда можно определить и место съемки).

    2. FotoForensics — сайт, который может сделать Error Level Analysis (ELA), то есть найти «дорисованные» или вставленные в фотографию при редактировании фрагменты. После обработки программа выдает снимок, где измененные области будут выделяться на фоне других. Кроме того, программа также предоставит EXIF-данные.

    3. Google Search by Image, поиск в «картинках» «Яндекса» и программа TinEye – обратный поиск изображений, сюда можно загрузить фото, чтобы найти его оригинальный источник и посмотреть, где оно еще публиковалось.

    4. JPEGsnoop – программа для установки на компьютер, позволяет посмотреть метаданные не только JPEG, но и форматов AVI, DNG, PDF, THM. Ее можно использовать для многих целей, например, она позволяет увидеть, редактировалось ли изображение, выявить ошибки в поврежденном файле.

    5. Если метаданные фотографии по каким-то причинам недоступны, можно внимательно изучить снимок. Обычно в кадр попадает немало деталей, способных помочь идентифицировать место и время, – страна, погода, иногда даже сезон и другие тонкости, помогающие определить подлинность фото. Разобраться в местоположении можно с помощью Google Maps или Panoramio. Geofeedia – сервис, который обрабатывает посты Twitter, Flickr, YouTube, Instagram и Picasa с использованием GPS и затем представляет их в виде коллажа. Программа агрегирует результаты по заданному местоположению.

    Примечательно, что поддельные фотографии могут встретиться даже в самых авторитетных источниках, таких как Reuters. В 2006 году сотрудник этого агентства фотограф Аднан Хаджж фальсифицировал снимки из Бейрута – города в клубах дыма после бомбардировки израильской авиации. Когда опубликованное фото разошлось по крупнейшим изданиям, профессиональные фотографы и блогеры стали замечать, что снимок подвергся обработке в Photoshop. Обнаружилось, что Хаджж позаимствовал и обработал снимок Бена Кертиса из Associated Press. И хотя фальсификатора уволили, а снимки его удалили из банка агентства, не исключено, что немало его произведений продолжают гулять по сети.

     

     

    Можно также проверить личность человека, который распространяет информацию. Для этого есть несколько различных ресурсов, например Pipl.com – предназначен для поиска «интернет-следов» пользователя, помогает его идентифицировать и найти фотографии. Программа производит поиск во всех американских сетях (Facebook, LinkedIn, MySpace) – для этого нужно ввести имя и фамилию латиницей. Особенность сервиса в том, что поиск происходит в скрытом интернете (the deep Web), который игнорируется обычными системами.  Еще есть ресурс WebMii – ищет ссылку с именем человека, дает рейтинг «веб-видимости», с помощью которого можно установить фейковые аккаунты. Для поиска в Рунете можно использовать сервис people.yandex.ru.

    Если не все, то хотя бы некоторые из перечисленных в этом обзоре действий должны войти у нас в привычку, тогда в интернет-пространстве станет гораздо легче найти правдивую информацию.

     

    В обзоре использованы материалы http://lenta.ru, http://tech.obozrevatel.com, http://taho.diary.ru, http://www.bento.de, http://fakecontrol.org.

    риск для профессиональных стандартов журналистики – тема научной статьи по СМИ (медиа) и массовым коммуникациям читайте бесплатно текст научно-исследовательской работы в электронной библиотеке КиберЛенинка

    

    Данные журнала

    ISSN 2542-0038 (Online) ISSN 1996-7853

    УДК 070.16

    DOI: 10.21209/1996-7853-2018-13-5-70-76

    Сергей Николаевич Ильченко,

    доктор филологических наук, кандидат искусствоведения, Санкт-Петербургский государственный университет (Россия, 199034, г. Санкт-Петербург, Университетская наб., 7/9),

    e-mail: [email protected]

    Фейк как антиисточник информации: риск для профессиональных стандартов журналистики

    В статье рассматривается такое явление в практике современных СМИ, как фейк. В настоящее время сформировался сегмент профессиональной деятельности работников СМИ, именуемый как фейковая журналистика, равно имеющая в качестве «источников» как текстовые сообщения, так и видеоматериалы. Автор напрямую увязывает возникновение подобной ситуации с функционированием такого феномена, как шоу-цивилизация. Проблема касается доверия к журналистике как сфере трансляции текстов и смыслов.

    В подобной ситуации принципиальным моментом, свидетельствующим о необходимой квалификации журналиста, являются его навыки идентификации фейков, раскрытие их неадекватного характера по отношению к реальности, внедрение в профессиональную практику приёмов защиты и противостояния подобному типу информационного манипулирования. В статье предлагаются конкретные приёмы формирования профессиональных компетенций работников СМИ на основе активного анализа фейков как базового эмпирического материала. Автором не только даётся методическое обоснование возможной эффективности использования фейков, но и приводятся рекомендации относительно расширения экспериментальной базы за счёт активизации конкретных примеров из практики современных СМИ, а также из иных видов коммуникационного обмена информацией (например, кинематограф).

    Особое внимание обращается в процессе реализации предлагаемой методики на анализ возможностей и издержек сетевого информационного пространства, представляющего разнообразные варианты и модели фейковизации информации (как текстового, так и визуального характера).

    Ключевые слова: фейк, шоу-цивилизация, СМИ, обучение, журналистика, информация, правдивость

    Введение. В современной журналистской практике понятие «фейк» уже успело стать достаточно популярным. Оно всё чаще и чаще мелькает в ходе дискуссий, посвя-щённых проблемам нынешнего информационного противостояния, некорректного использования сведений, фактов, суждений, откровенной дезинформации и тому подобных примет интенсификации циркулирующих в медиапространстве начала XXI века информационных потоков.

    Границы фейковизации в деятельности медиа всех видов и типов порою настолько размыты, что происходит внедрение явочным порядком в теорию журналистики таких дискуссионных терминов, как «постправда». Можно утверждать, что один из главных онтологических принципов работы журналиста -«достоверность информации» — не только испытывает усиленное давление со стороны реальных профессиональных практик ныне функционирующих СМИ, но и находится на стадии критической ревизии. Её суть можно уподобить аналогии из теории физики, известной как «квантовая логика». Иными словами, изменяющийся контекст (в случае с журналистикой — событийный, политический,

    экономический, военный и т. п.), в рамках которого развивается какое-либо явление или ситуация, влияет как на их оценку, так и на принципы возможного анализа. То есть динамика «правил игры» коррелируется с тем, в каких конкретных условиях происходит сама «игра».

    Автор настоящей статьи уже неоднократно анализировал данную ситуацию в своих научных статьях, касающихся того, как развивается, институализируется фейковая журналистика в современном медиапространстве, как и почему у СМИ и журналистов возникает в этом потребность, следовательно, какие проблемы и угрозы несёт в себе подобная тенденция для профессионального сообщества.

    Методология и методы исследования. Нынешнее теоретическое исследование будет посвящено анализу тех ситуаций, которые складываются в процессе обучения журналистики в рамках вузовской системы профессионального образования. Это и является его главной темой, тогда как предметом описания и анализа станут те конкретные варианты использования фейков и принципов фейковизации журналистской деятель-

    70

    © Ильченко С. Н., 2018

    ности, с которыми приходится сталкиваться в современной медиапрактике. Фейк рассматривается нами как антиисточник информации, несущий в себе определённый риск для профессиональных стандартов журналистики. И заключается он в неадекватности эмпирической действительности и творимой медиа с помощью «картинки» и вербальных компонентов иной, отличной от предыдущей медиареальности.

    Важным обстоятельством данной методологии является вовлечённость обучающихся в процесс практической профессиональной деятельности. На основе многолетнего полученного опыта наблюдений в процессе академического обучения за тем, как студенты адаптируются в условиях профессионализации, можно сделать вывод о том, что значительная часть из них так или иначе стремится к самореализации в будущей профессии, как в ходе интенсивного прохождения предусмотренных стандартом обучения производственных практик, так и в совмещении учёбы с работой, которая так или иначе связана с получаемой в вузе специальностью.

    Об использовании данного обстоятельства мы скажем далее, а пока обратим внимание на цель нашей работы. Она заключается в том, чтобы обосновать важность и возможность контекстного применения ситуации фейковизации в современной журналистике для повышения эффективности профессионального обучения, с одной стороны. С другой — в наглядной демонстрации той методики, с помощью которой можно в значительной степени не только дезавуировать фейки как явление информационного пространства, псевдоисточники сведений и данных, но и предложить тот набор приёмов, средств, тактик и стратегий, коими возможно конструирование в профессиональной деятельности журналиста линии обороны от непроверенной, недостоверной, лживой, а порою и вовсе клеветнической информации, выводимой в публичный дискурс посредством СМИ всех видов и типов.

    Наша методология основывается на обобщении и анализе собственного практического преподавания ряда специальных дисциплин («Основы журналистской деятельности», «Теория и практика массовой информации», «Теория и практика СМИ», «Современная пресс-служба»), реализуемых в различных вузах Санкт-Петербурга и Российской Федерации. Кроме того, в течение последних лет автором данного исследования был написан ряд статей, посвящённых

    заявленной проблематике. Статьи были опубликованы в научных журналах, входящих в ведущие наукометрические базы изданий. Часть изложенных в них теоретических постулатов и выводов экстраполирована в данный текст, являющийся оригинальным и самостоятельным исследованием номинированной в его заголовке проблемы.

    Хронологические рамки данной статьи определяются логикой движения исследовательской мысли автора, который основывает свою теорию «фейковой журналистики» на тех фундаментальных выводах, которые происходят из трактовки такого явления, как «шоу-цивилизация». Оно и предопределяет логику появления практики использования фейков в современной журналистике.

    Корреляция здесь выстраивается следующим образом. Шоу-цивилизация как особый вариант организации информационных потоков в современном мире предполагает приоритет визуальных каналов распространения сведений в процессе коммуникации. «Картинка» доминирует в номенклатуре возможных факторов влияния на вероятное восприятие излагаемых фактов аудиторией. Известная поговорка «Лучше один раз увидеть, чем сто раз услышать» в данном контексте наших рассуждений может считаться верба-лизированной формулой манипулятивного воздействия со стороны СМИ на окружающий их социум. С точки зрения технологического обеспечения подобной ситуации, наглядным доказательством её возможностей является неоспоримое наличие в любом из нынешних 1Т-гаджетов дисплея, то есть экрана, на который и проецируется почти стопроцентно практически вся поступающая на данный прибор связи информация.

    Её форматирование определяется, прежде всего, характером исходного материала (фото, видео- или аудиозапись, текст, инфо-графика и т. д.), но определяющим вариантом зримого на дисплее изображения является для индивидуума (или группы индивидуумов) визуальный канал. Проще говоря, реципиент в любом из вариантов ВИДИТ информацию, даже если он её читает. В принципе современная теория информации допускает номинировать понятием «текст» любую сумму фиксированных и запечатленных сведений, цифр, событий и т. д., имеющую законченный, в зависимости от канала распространения, формат и вид.

    Подобная повсеместная ситуация в сфере массовых коммуникаций и позволяет нам утверждать, что визуальный канал восприя-

    тия информационных каналов не только доминирует и предопределяет характер эмоциональной и рациональной реакций адресата получаемых сведений, но и фактически «отсекает» от него иные, альтернативные пути доступа к информации. Последние чаще всего связаны с тем, что принято именовать «традиционной системой СМИ».

    Всё вышесказанное является тем объективным обстоятельством, которое не может не влиять на процесс профессионализации журналистов. Привычка постоянного использования уже упоминавшихся гаджетов в ходе занятий всех форматов и форм обучения (за исключением методов академического контроля), несомненно, усложняет работу преподавателя и при чтении теоретических курсов, и при проведении контактных форм обучения, ориентированных на прагматические аспекты профессии. Чаще всего в форме практических занятий и творческих студий.

    Некритическое восприятие буквально льющихся из гаджетов потоков информации (по преимуществу, избыточной и бесполезной) в сочетании с иллюзией возможности нахождения оперативного ответа на все возникающие по ходу конкретного занятия вопросы и проблемы — вот те альфа и омега нынешнего состояния студента как реципиента тех сведений, которые пытается донести до него преподаватель. Запретительными мерами, как и игнорированием данных бытовых примет процесса обучения, с подобными привычками обучающихся трудно справиться. Здесь-то и может сыграть свою методическую роль тот самый корпус фей-ковой информации, которая сегодня в изобилии наводнила пространство знаний. При этом суть метода заключается в априорном знакомстве с феноменом фейковизации как процесса внедрения антиисточника неадекватной информации.

    Опыт использования тех методов, которые будут изложены далее, показывает, что их применение предпочтительнее на старших курсах. То есть тогда, когда обучающийся уже имеет как теоретические, так и практические представления о будущей профессии, знаком с её особенностями, трудностями, проблемами, приобрёл первый опыт самостоятельной работы с информацией. Кроме того, стоит учитывать фактор социализации обучающегося, который, как правило, связан не только с приобретением знаний, но и с получением определённого жизненного опыта.

    Результаты исследования и их обсуждение. Первым шагом на пути использования

    фейков в обучении должно стать первичное знакомство как с самим термином, так и с его типологической интерпретацией. В данной статье мы сознательно обходим данный аспект, так как он уже излагался нами ранее. Для нас гораздо важнее указать на необходимость использования наглядного метода демонстрации вариантов присутствия фей-ков в практике СМИ всех статусов и видов. Обращаясь к конкретным примерам из эфирного и текстового контента печатных медиа, радио, телевидения и сетевых ресурсов, преподавателю стоит обратить внимание обучающихся на сомнительную достоверность тех или иных журналистских материалов, непроверенные факты и сведения, неточности в цитатах и датах, — словом, на всё то, что порождает недоверие большинства аудитории к деятельности как самих медиа, так и журналистов. Тем более, что обострившаяся за последние два-три года ситуация информационного противостояния даёт немало очевидных «иллюстраций». Доминирующий тренд здесь очевиден и должен быть доказательно продемонстрирован: фейк — это приём, применяемый в журналисткой профессиональной деятельности, основанный на недостоверной и неадекватной информации. Фактически дезавуирующий любой источник информации и трансформирующий его в антиисточник, формируя тем самым реальную угрозу для профессиональной деятельности сотрудников СМИ.

    В этом смысле перечень тематических трендов, которые могут быть использованы в процессе обучения, очевиден: проблемы терроризма и освещения террористических угроз и атак, события вокруг Юго-Востока Украины, Сирия и события в этой стране, связанные с борьбой с запрещённой в РФ группировкой ИГИЛ, тема присутствия беженцев в Западной Европе, псевдоинформация о влияния 1Т-специалистов нашей страны на политические процессы за рубежом, акции российской оппозиции, антидопинговая истерия в отношении российских спортсменов и т. д.

    Процесс погружения обучающихся в контекст фейковой журналистики лучше всего начинать самому преподавателю, который разъясняет и поясняет на конкретных примерах подлинную подоплеку того или иного события, факта, явления, деятельности конкретного политика и т. п. При этом комментарии для студентов должны обладать максимальной степенью доказательности и наглядности (вспомним ещё раз про шоу-цивилизацию!).

    Первичные впечатления стоит закрепить в сознании обучающихся с помощью приёмов аналитического разбора примеров. Затем необходимо от аналитики конкретного набора выявленных и отмеченных вниманием аудитории журналистских фейков перейти к теоретическому разъяснению социально-психологического фундамента подобного явления. Проще говоря, не подчёркивать наличие в деятельности сознательно культивируемого сегмента фейковой информации (он по умолчанию предполагается в реальности), а расширить в сознании студентов границы обозреваемого явления за счёт толкования таких категорий, как «ложь», «правда», «достоверность», «доверие».

    Эффективным приёмом демонстрации возможностей объективной оценки фактов, сведений, событий в медийном пространстве может стать совместный просмотр и последующее обсуждение игровых картин, посвящённых деятельности СМИ и журналистам. Особенно тех, при которых возникает ситуация использования или продвижения фейковой информации. Например, ставший уже хрестоматийным фильм американского режиссёра Барри Левинсона «Хвост виляет собакой»/«Плутовство» (1997). Можно обратиться и к примерам из практики отечественного кинематографа («День радио», 2008; дилогия «День выборов», 2007), в том числе из недавнего прошлого («Мисс миллионерша», 1988). Крайне полезным следует считать обязательный просмотр (возможно, и в индивидуальном порядке, в качестве домашнего задания) документальной картины известного российского режиссёра Феликса Соболева «Я и другие» (1971). В совокупности эта часть процесса знакомства с прежним и нынешним опытом фейковизации информации позволит усилить дидактический момент в обучении, продемонстрировав всю глубину и серьёзность проблематики, связанной с некорректной интерпретацией фактов, явлений, сведений, событий, происходящей от мани-пулятивных намерений тех, кто практикует «фейковую журналистику».

    В качестве обязательной контрольной работы по теме следует использовать знакомство с популярными книгами известных теоретиков и практиков журналистики, в которых постулируются принципиальные модели отношения работников СМИ с информацией. Например, с книгой Эрика Фихтелиуса «10 заповедей журналистики» или работой Дэвида Рэнделла «Универсальный журналист». Однако, как правило, изучение этих трудов про-

    исходит в рамках профильных дисциплин на ранних курсах. Поэтому мы позволим те книги, которые вошли (или входят) в теоретический оборот недавно. Например, работу Алена де Боттона «Новости [5]. Инструкция для пользователя». Полезным может быть знакомство с работами классиков современной медиало-гии, посвящёнными анализу и теоретическому осмыслению уже свершившихся грандиозных информационных манипуляций. Здесь стоит вспомнить работы Ж. Бодрийяра «Дух терроризма» и «Войны в заливе не было» [3].

    Дальнейшее развитие способностей обучающихся к критическому восприятию информации и статуса её источников может происходить с использованием журналистской практики в различных видах и типах СМИ. Проще говоря, для семинарского занятия студенты выполняют задание по поиску, выявлению, а главное — доказательству фейкового характера того или иного сообщения. Соответственно это могут быть печатные СМИ (газеты и журналы) независимо от типа и формата издания, информационные агентства. Особенно наглядными могут быть примеры из практики современного телевидения, ибо совершенно очевидно, что это именно его практика визуализации новостей, когда стандарты информационной деятельности касаются обязательного наличия видеоматериалов, аранжирующих любой материал, выходящий в эфир. Некомпетентность, недобросовестность и спешка — вот те обстоятельства работы тележурналистов, которые и приводят в конечном итоге к появлению значительного количества фейков, что порождает совершенно очевидное нынче недоверие к телеинформации со стороны значительной части потенциальной зрительской аудитории.

    Что же касается радиовещания, то это, пожалуй, тот вид СМИ, в котором выявление фактов недостоверной информации в эфире требует особой тщательности обучающихся в данном процессе, повышенного внимания и, если угодно, аудиальной интуиции, позволяющей выявлять в процессе прослушивания радиоинформации её неадекватность реальности за счёт речевых особенностей эфирных спикеров.

    Обязательным требованием к студентам при выполнении данного вида задания по разоблачению медийных фейков является принципиальное НЕИСПОЛЬЗОВАНИЕ сетевых ресурсов для выявления недостоверного характера того или иного сообщения. Контроль за выполнением подобного требования невозможен в технологических рамках совре-

    менных принципов академического обучения, и потому соблюдение его остаётся на совести обучающихся, что также является неким элементом борьбы с ложью в журналистской практике. Вспомним здесь название одной из новелл американского писателя Роберта Шекли «Честность — лучшая политика».

    Поиск фейков в сетевых ресурсах можно расценивать как наиболее наглядный и эффективный вариант работы с подобными некорректными и неадекватными принципами работы с исходной информацией. Однако в процессе использования данного сегмента медиасистемы стоит обратить внимание студентов на него именно как на источник недостоверной информации и выявить прямую связь между Сетью и «традиционными» СМИ, использующими интернет в качестве ресурса по добыче сведений, цифр, фактов, мнений, суждений из всего их обилия, наличествующего в мировых информационных потоках.

    Если же двигаться и далее, то стоит предложить обучающимся и одно из самых сложных заданий по выявлению фейков в современной журналистской практике. Заключается оно в том, что выявление недостоверного качества информации в Сети следует производить, используя альтернативные каналы распространения информации, но никоим образом не сами сетевые ресурсы. А для повышения возможной успешности в выполнении задания подобного характера следует, на наш взгляд, ознакомить обучающихся как с новейшими теоретическими разработками на тему «возможностей» интернета [2, с. 90-91; 6, с. 17-33], так и с выявлением манипулятивных возможностей медиа в принципе [16, с. 74-76]. При этом важно предложить будущим журналистам варианты критического анализа и выявления подобных некорректных методов работы с информацией [11, с. 179-235], а также элементарной защиты от подобного воздействия [14, с. 135-236].

    Логическим продолжением методики ан-тифейкового обучения может стать более сложное задание. Его суть состоит в следующем. В завершении процесса обучения (возможен вариант выполнения контрольного задания непосредственно к занятию в виде формы академического контроля) обучающимся предлагается составить список из 5-7 фейков исторического характера. При этом разрешается пользоваться всеми возможными источниками информации, вплоть до сетевых

    ресурсов. Но категорическим требованием к выполнению задания является обязательное указание на те источники, которые «помогли» обучающемуся как обнаружить фейк, так и «раскрыть» его. Выполненное задание представляется в письменном виде с обязательным публичным его обсуждением.

    Опыт использования вышеописанных методов обучения с использованием «фактора фейка» позволяет утверждать о повышении эффективности контактов с обучающимися, их заинтересованности в выполнении учебных заданий и освоении приёмов противостояния методам работы, используемым в некачественной журналистике. Автор этих строк во время одного из обсуждений вариантов исторических фейков, предложенных студентами, получил наглядный урок того, как важен аналитический подход ко всему, что мы знаем и узнаём. Один из студентов привёл в качестве фейка утверждение о том, что Советский Союз вступил во Вторую мировую войну 22 июня 1941 года. На первый взгляд, утверждение соответствует истине. Однако в ходе публичного обсуждения все присутствующие в аудитории пришли к консолидированному мнению: это дата — дата начала Великой Отечественной войны советского народа. А вступлением во Вторую мировую войну можно считать либо начало освободительного похода Красной Армии в Западную Белоруссию и Украину 17 сентября 1939 года, либо начало советско-финской войны 19391940 годов (30 ноября). Таким образом, было доказано, что тезис о фейковом характере первоначального суждения на историческую тему был выявлен.

    Выводы. Как видно из приведённого выше анализа, метод использования явления фейка в современной журналистике непосредственно в процессе обучения может иметь разные форматы. Но для нас сегодня очевидно: подобную методику необходимо и далее внедрять в структуру теоретических и практических занятий. Необходимо также учитывать и то обстоятельство, что непосредственная практическая деятельность самих СМИ и журналистов будет (по крайне мере, в ближайшей перспективе) поставлять всё более возрастающее количество «учебных» материалов в виде фейков всех видов и типов. Их надо не только знать и различать, но и уметь им противостоять. Однако это — тема наших последующих теоретических и практических разработок.

    Список литературы

    1.Байаржон Н. Краткий курс интеллектуальной защиты / пер. с фр. И. А. Кондаковой; под ред. О. Г Андреевой. М.: Кучково поле, 2015. 384 с.

    2. Барбук Ричард. Интернет-революция. М.: Ад Маргинем Пресс, 2015. 128 с.

    3. Бодрийяр Ж. Дух терроризма. Войны в заливе не было / пер. с фр. А. Качалова. М.: Рипол-классик, 2016. 224 с.

    4. Больц Норберт. Азбука медиа. М.: Европа, 2011. 136 с.

    5. Боттон Ален де. Новости. Инструкция для пользователя / пер. с англ. В. А. Вебера. М.: Э, 2016. 352 с.

    6. Вайнерчук Гари. Информационный удар. Как сделать, чтобы в шумном медиамире услышали именно тебя. СПб.: Питер, 2015. 240 с.

    7. Конец журнализма. Version 2.0. Индустрия, технология и политика: пер. с англ. / под ред. А. Чарльза. Харьков: Гуманитарный центр, 2016. 308 с.

    8. Луман Никлас. Реальность массмедиа / пер. с нем. А. Ю. Антоновского. М.: Праксис, 2005. 256 с.

    9. Николаев К., Абдуллаева Ш. Интеллектуальный инсульт. Как в мире роботов остаться человеком и не потерять себя. СПб.: Манн, Иванов и Фербер, 2015. 259 с.

    10. Распопова С. С., Богдан Е. Н. Фейковые новости: информационная мистификация. М.: Аспект Пресс, 2018. 112 с.

    11. Соловей В. Д. Абсолютное оружие. Основы психологической войны и медиаманипулирования. М.: Э, 2016. 320 с.

    12. Стивен-Давидовиц, Сет. Все лгут. Поисковики, Big Data и Интернет знают о вас все / пер. с англ. Л. И. Степановой. М.: Эксмо, 2018. 384 с.

    13. Трэски А. Теория видео. Онлайн-видео: эстетика или деградация видео / пер. с англ. Е. А. Кривошея, О. В. Гритчина. Харьков: Гуманитарный центр, 2017. 252 с.

    14. Фексеус Хенрик. Искусство манипуляции. Не дай себя обмануть / пер. с швед. Е. Хохловой. М.: ACT, 2015. 304 с.

    15. Шомова С. А. Мемы как они есть. М.: Аспект Пресс, 2018. 136 с.

    16. Энценсбергер Г. Индустрия сознания. Элементы теории медиа. М.: Ад Маргинем Пресс, 2016. 96 с.

    Статья поступила в редакцию 16.05.2018; принята к публикации 24.06.2018

    Библиографическое описание статьи-

    Ильченко С. Н. Фейк как антиисточник информации: риск для профессиональных стандартов журналистики // Гуманитарный вектор. 2018. Т. 13, № 5. С. 70-76. DOI: 10.21209/1996-7853-2018-13-5-70-76.

    Sergey N. Il’chenko,

    Doctor or Philology, Candidate of Art History Saint Petersburg State University (7/9 Universitetskaya emb., Saint Petersburg, 199034, Russia),

    e-mail: [email protected]

    Fake as an Anti-Source of Information: a Risk for Professional Standards of Journalism

    The article deals with such phenomenon in the practice of modern media as fake. At present, a segment of professional activities of media workers, fake journalism, has been formed, which has both text messages and video as «sources». The author directly links the emergence of such a situation with the functioning of such a phenomenon as show civilization. The problem directly concerns the credibility of journalism as a sphere of translation of texts and meanings. In such a situation, the principal point indicating the necessary qualifications of the journalist is his skills of identification of fakes, the disclosure of their inadequate nature in relation to reality, the introduction of professional practice of methods of protection and opposition to this type of information manipulation. The article offers specific methods of formation of professional competence of media workers based on active analysis of fakes as a basic empirical material. The author gives a methodological justification not only for the possible effectiveness of the use of fakes, but also provides recommendations for the expansion of the experimental base by activating concrete examples not only from the practice of modern media but also from other types of communication information exchange (for example, cinema). Particular attention is paid in the process of implementing the proposed methodology to the analysis of the possibilities and costs of network information space, which is a variety of options and models of information fake (both text and visual).

    Keywords: fake, show civilization, media, education, journalism, information, truthfulness

    References

    1. Baiarzhon, N. A short course in intellectual protection. Transl. from French by Kondakova, I. A., edited by Andreeva, O. G. M: Kuchkovo pole, 2015. (In Rus.)

    2. Barbuk, Richard . Internet revolution. M: Ad Marginem press, 2015. (In Rus.)

    3. Bodriyar, Zh. The spirit of terrorism. There was no Gulf war. M: Ripol klassik, 2016. (In Rus.)

    4. Bolc, Norbert. Alphabet of media. M: Izdatelstvo «Evropa», 2011. (In Rus.)

    5. Botton Alen de. Current events. User instruction. M: Izdatelstvo «E», 2016. (In Rus.)

    6. Vainerchuk, Gari. Information strike. How to be heard in a noisy media world. SPB: Piter, 2015. (In Rus.)

    7. End of journalism. Version 2.0. Industry, technology and policy. H: Izd-vo «Gumanitarnyj centr», 2016. (In Rus.)

    8. Luman Niklas. The reality of the mass media. M: Praksis, 2005. (In Rus.)

    9. Nikolaev, Kirill, Abdullaeva, Shekiya. Intellectual a stroke. How in the world of robots to stay human and not to lose yourself. SPB, 2015. (In Rus.)

    10. Raspopova, S. S., Bogdan E. N. Fake news: Information hoax. M: Izdatelstvo «Aspekt press», 2018. (In Rus.)

    11. Solovey, V. D. Ultimate weapon. Basics of psychological warfare and media manipulation. M: Izdatelstvo «E», 2016. (In Rus.)

    12. Stiven-Davidovic, Set. Everyone lies. Search engine, Big Data and Internet know everything about you. M: Ehksmo, 2018. (In Rus.)

    13. Trekhski, A. Video theory. Online video: aesthetics of aphid degradation video. H: Izd-vo «Gumanitarnyj centr», 2017. (In Rus.)

    14. Fekseus, Henrik. The art of manipulation. Don’t be fooled. M: Izdatelstvo ACT, 2015. (In Rus.)

    15. Shomova, S. A. Memes as they are. M: Izdatelstvo «Aspekt press», 2018. (In Rus.)

    16. Ehncensberger, Gans. Industry of consciousness. Elements of media theory. M: Ad Marginem press, 2016. (In Rus.)

    Received: May 16, 2018; accepted for publication June 24, 2018

    Reference to the article _

    Il’chenko S. N. Fake as an Anti-Source of Information: a Risk for Professional Standards of Journalism // Humanitarian Vector. 2018. Vol. 13, No. 5. PP. 70-76. DOI: 10.21209/1996-7853-2018-13-5-70-76.

    Фейковые новости как паразит социальных сетей

    %PDF-1.6 % 1 0 obj > endobj 5 0 obj /Author /Creator (pdftk 2.02 — www.pdftk.com) /Producer (itext-paulo-155 \(itextpdf.sf.net-lowagie.com\)) /ModDate (D:20190829142038+07’00’) /Title >> endobj 2 0 obj > stream 2019-07-08T07:55:32+03:00pdftk 2.02 — www.pdftk.com2019-08-29T14:20:38+07:002019-08-29T14:20:38+07:00itext-paulo-155 (itextpdf.sf.net-lowagie.com)uuid:55a70d2c-184a-4b8d-aaaf-c84ced5b4cf4uuid:795132e1-8130-4ca9-b0af-7149c88dc7deapplication/pdf

  • Фейковые новости как паразит социальных сетей
  • Публикации ТГУ
  • Юрий Михайлович Ершов
  • endstream endobj 3 0 obj > /Encoding > >> >> endobj 4 0 obj > endobj 6 0 obj > endobj 7 0 obj > endobj 8 0 obj > endobj 9 0 obj > endobj 10 0 obj > endobj 11 0 obj > endobj 12 0 obj > endobj 13 0 obj > stream H\Tn0mI»OY$’^%N+6͇ǵ5=M!9 RV\LBwf}Xy V^-,Hjl#Lk! V?=鎞q^q +FHE)Q^X?YKT(E J’,jJ;5

    Что такое фейк? | Простыми словами

    Нередко в комментариях к публикациям в социальных сетях, к новостям и статьям в СМИ, к видеороликам на YouTube Вы можете встретить слово фейк. В современном мире его употребляют в трёх случаях, о которых и пойдёт речь в данной публикации.

    Фейк (Fake – с англ. «подделка», «фальшивка», «обман», «ложь») – это ложная информация, которая намеренно подаётся в виде достоверной. Говоря простыми словами, фейк – это ложь, обман.

    Рассмотрим на примерах, кого или что сегодня называют фейком:

    1. Поддельные фото и видео в интернете или СМИ. За основу берётся реальное фото или видео, а при обработке добавляются иные элементы, позволяющие, как правило, дискредитировать какого-либо человека. Например, можно взять фотографию скинхеда и фото известного политика, вырезать лицо последнего в редакторе и подставить вместо лица скинхеда. С видео всё обычно сложнее, но умелые руки позволяют подделать и его. Но чаще всего в виде фейка выступает отрепетированная постановка.
    2. Недостоверные новости. Машина пропаганды никогда не дремлет, а это значит, что люди должны получать порцию определённой информации, даже если она не соответствует действительности. К правило, такие новости служат для обвинения или оправдания каких-либо людей или же просто ради хайпа. Чаще всего причиной появления фейковых новостей являются влиятельные лица, заинтересованные в распространении выгодной им информации.
    3. Ненастоящие аккаунты. Также фейками называют специально созданные аккаунты в социальных сетях. Обычно люди, создающие фейки преследуют одну из следующих целей: участие в конкурсах и розыгрышах (дополнительная возможность получить приз за счёт большего количества аккаунтов) или высказывание своего мнения в агрессивной манере, оскорбление участников сообщества, публикация информации, которая может повлечь за собой судебные разбирательства или даже уголовное преследование. В обоих случаях в фейках указываются ненастоящие данные (имя и фамилия, фотография). Это сделано для того, чтобы нельзя было связать этот фейковый аккаунт с другим (настоящим). Часто такие фейковые аккаунт называют ботами.

    Говоря простыми словами, фейк – это подделка того или иного рода, создание которой имеет определенную задачу: дезинформация, дискредитация, оправдание виновных, мошенничество, жульничество, оскорбления и противозаконные действия. В любом из случаев фейк – это плохо. Если Вам кажется, что представленная Вам информация — это фейк, то Вы можете потребовать пруфы.

    Фейковое цунами. Как распознавать фейки про спецоперацию на Украине → Roem.ru

    Предисловие

    Рунет захлестнула катастрофическая волна фейков о военной операции на Украине – как в соцсетях, телеграм-каналах и почте, так и в СМИ. Эти фейки появляются не просто так, не стихийно, как результат «свободы слова» и свободного выражения мнения массами пользователей, они – инструмент информационной войны. Их давление сейчас ощущает каждый, кто пытается что-то узнать о ходе военной операции России на Украине или просто заходит в Интернет, открывает приложение мессенджера или скачивает электронную почту. Чтобы не дать внешним манипуляторам «зохавать» свой мозг, нужно осознать, что мы находимся на поле информационной войны, постараться понять, как устроена индустрия фейков, кто их производит, научиться их распознавать и соблюдать информационную гигиену.

    Кто всё это делает?

    В 2015-2021 годах в Грузии, Прибалтике, на Балканах начали работу «Национальные центры цифровых расследований», развился центр «обучения гражданской журналистике» в Праге, мощные центры инфовойны в Польше и т.п. . Естественно, с 2014 года были созданы многочисленные, щедро финансируемые сетевые структуры информационной войны и на Украине.
    Эти структуры управляются из США, они открыто публикуют планы информационной войны против России, а госструктуры США и околоправительственные фонды «за развитие демократии» открыто публикуют свои бюджеты, выделенные на инфовойну с Россией. Эти центры нанимают эмигрантов, уехавших в Европу и США из России и СССР, а также русскоговорящих жителей бывших советских республик. Этим людям нужны работа и деньги, а Россию и русских они натуральным образом и давно не любят, то есть запас информационных рекрутов у противника практически бесконечный.

    Эти структуры неустанно производили и засевали фейки в нашем инфопространстве все последние годы, но сейчас у них – звёздный час. К ним присоединились несколько тысяч граждан Украины, которые раньше зарабатывали на российском рекламном рынке арбитражом трафика, копирайтерством, дизайнерством: они хорошо знают русский язык, умеют работать с креативами и рекламными инструментами. Им даны приказы работать день и ночь. И результаты все мы видим непосредственно в своём информационном окружении.

    Как это делается

    Для координации создания и распространения фейков и пропагандистских материалов в последние недели созданы десятки каналов в Телеграме. К производству и трансляции контента привлечены десятки украинских «арбитражников трафика» – людей, ранее профессионально занимавшихся рекламой, привлечением клиентов и рекламированием «грязных» продуктов и услуг, находящихся в «серой» зоне.

    Этими «арбитражниками» за неделю с начала военной операции созданы тысячи графических и видеоматериалов (только в одном выкачанном репозитории украинских «кибервоинов» содержится более пяти тысяч единиц визуального контента). Для распространения этих материалов привлекаются серьёзные бюджеты – так, отдельные активисты тратят до $100 в сутки на раскрутку только одного рекламного объявления, созданного на основе фейкового контента. Эти бюджеты им предоставлены не только ВСУ, но и самими интернет-платформами.

    Создаваемые материалы предназначены не только для психологической дестабилизации россиян. С самого начала деятельности этих центров существенная часть материалов ориентирована и на западного пользователя для создания на Западе ложной картины происходящего и формирования симпатий к украинскому режиму. В последние дни также резко активизировалась пропаганда, направленная на белорусскую аудиторию.

    Эти фейки предназначены не только для информационной войны, но и для заработка на трафике. Собираемый трафик направляется на «площадки приземления» – специально созданные сайты и каналы, которые помимо психологического давления и дезинформации активно собирают пожертвования, идущие на усиление ресурсов самих групп распространителей, а также на финансирование ВСУ.
    В этих же каналах производится вербовка технических аналитиков и ИТ-специалистов для ведения разведывательной деятельности в интересах ВСУ.

    Часть каналов прямо посвящена технологическим диверсиям, прежде всего массовым атакам (т.н. DDoS) на сайты российских государственных служб и ведомств, гражданские сервисы, банки и СМИ. В этих каналах постоянно публикуются списки целей, распространяется специализированное ПО для атак и координируются действия атакующих.

    В координационных каналах и чатах также распространяется программное обеспечение для совершения телефонных звонков с использованием подменных номеров. С его помощью сейчас проводятся массовые обзвоны россиян (преимущественно в ночное время), направляющие абонентов на те же целевые площадки или проигрывающие голосовые сообщения («обращение Зеленского», «заберите трупы ваших сыновей» и т.п.).

    В чём цель фейков? Фейки, конечно, призваны нагнетать истерию, стресс, возбуждение, но основная их цель, похоже, заключается в довольно своеобразном и прочном заблуждении западных политтехнологов и кремленологов: а именно, в идее, что нужно внести раскол в российское общество, максимально «напрячь» разные его слои и тогда удастся сменить режим в России. Чтобы наше общество наконец решило, что такая власть ему не нужна, и сбросило ненавистного Путина, который – как уверены эти «эксперты» – является единственной причиной никому не нужной и абсолютно беспричинной украинской войны.

    То есть эта довольно дикая идея заключается в том, чтобы создавать максимальное количество неприятностей для «простых россиян» и российской элиты, попутно рассказывая им сладкие утешительные байки, что так-то Запад им в целом-то не враг, а нужно просто избавиться от Путина и его режима, и наступит Щастье для всех и даром.

    Поэтому фейки разнообразны, часто узконаправленны, очень тщательно «заточены» на определённые страты и сегменты нашего общества – элиту и «элитку», родителей военнослужащих, креативный класс, программистов и т.п. Например, особенно мощный поток фейков и прокламаций направлен на матерей военнослужащих, которых запугивают неизбежным проигрышем ВС РФ и смертью их сыновей. На специалистов ИТ-индустрии (программистов, стартаперов, разработчиков, системных администраторов) массово посыпались «офферы» о работе, многие из которых – фальшивые, и имеют целью психологическое расшатывание и навязывание идеи «пора валить из Рашки».

    Украинские пропагандисты используют и оппозиционные настроения в России, пытаясь привлечь на свою сторону сторонников оппозиции. Ими продвигаются и рекламируются соответствующие ресурсы внутри в России с целью дестабилизировать социально-политическую обстановку и спровоцировать граждан на столкновения с силовыми структурами.

    Почему верят фейкам, а не объективным данным? Это просто. Объективные новости – даже с полей войны – гораздо скучнее фейков и пропаганды, они не содержат социально-психологических «крючков», не так бьют по нервам, не захватывают мозг, не стимулируют к дальнейшему распространению. Они не создают так называемой «дофаминово-эндорфиновой петли» ужаса, не создают зависимости. Они ещё и менее многочисленны.

    Ну и кроме того, фейки мощно продвигаются, раскручиваются, в том числе с помощью самих цифровых платформ, которые активно включились в войну. Фейсбук, Твиттер, Инстаграм, Гугл не только целенаправленно продвигают фейки, но и душат, блокируют, понижают в рейтингах российские официальные источники, уже не особенно озабочиваясь обоснованиями.

    Ну и, как известно, что фейки – скоропортящийся товар, они живут недолго, за день-два они пробегают сквозь медийное пространство, как лесной пожар, делают свою работу в умах, а опровержения – всегда запаздывающие – читает в 100-200 раз меньше читателей, чем сами фейки.

    Борьба с фейками.

    Казалось бы, если фейки – инструмент противника, то есть очевидное зло, то в воюющей стране с ними нужно бороться, как с изменой. Возникают очевидные вопросы:

      • Почему фейки нельзя распознать автоматически? Потому что фейк – это несоответствие сообщения реальной жизни. Никакой цифровой ИИ не может слетать на место военной операции и проверить соответствие сетевого сообщения реальным фактам. Можно автоматически оценивать и маркировать источники (СМИ и аккаунты), блокировать на 100% лживые и т.п. Но новый фейк распознать автоматически – практически нельзя.
      • Почему государство не разоблачает фейки? Государство даёт опровержения, публикует свои данные о ходе военной операции – но, как говорилось выше, испытывающая стресс и страх перед быстрыми изменениями публика жаждет ещё большего ужаса, эмоций или наоборот, успокоения и утешения; официальным СМИ массы не верят (а это один из основных психологических крючков фейка «власти скрывают, вам всё лгут, а мы скажем настоящую, обжигающую правду»).
      • Почему фейки не блокирует государство? Государство кое-что блокирует, Роскомнадзор занимается выявлением самых токсичных источников. Например, по требованию Генпрокуратуры заблокированы Дождь и Эхо Москвы, потому что они уже перешли все красные линии.
        Но, поскольку фейков – буквально миллионы, опровержений никто не читает, а официальным СМИ россияне привычно не верят, то наше общество и государство в борьбе с этим цунами фейков – пока проигрывают.
      • Почему за фейки не наказывают? Имеющийся закон о фейках, принятый два года назад в РФ, не наказывает за пропаганду и сообщение неверных сведений, а только за те фейки, которые могут вызвать опасные последствия (типа крика «пожар» в переполненном кинотеатре). Фейки, о которых мы говорим — не таковы, это просто оголтелая ложь и пропаганда противника.
        Видимо, нужно менять закон в условиях военной операции. Госдума уже одобрила законопроект о наказании за фейки о действиях ВС РФ на Украине.

    Специальные проекты по разоблачению и маркировке фейков (см. «Меморандум по противодействию фейкам», подписанный осенью 2021) пока не запущены в полную силу.

    Сказанное означает, что гражданам придётся и самим научиться отделять фейки от правды, усвоить и соблюдать правила элементарной ментальной гигиены.

    Как читателю распознавать фейки и получать объективную информацию

    Прежде всего в условиях информационной войны нужно обращать внимание на подбор источников.

    Источники

    Качество информации принципиально зависит от её источника. Вот простые соображения о том, какие источники следует и не следует «употреблять в пищу»:

    • Неизвестные аккаунты соцсетей. Не доверять в принципе. Многие из них были изначально созданы как «спящие» аккаунты, будущие сливные бачки, которые вместо вялой публикации годами котиков и пейзажей начинают в час Х бешено распространять фейки; другие – это внезапно впавшие в медийное бешенство пользователи, которые не знают куда броситься, чтобы снять стресс от ужаса перед шокирующим происходящим и неизвестным будущим, которым кажется, что распространение фейков – хоть какое-то действие.
    • «Френды» в соцсетях. Лучше просто не читать или читать очень дозированно, сейчас массы пользователей соцсетей перевозбуждены и не контролируют себя от стресса перед грозными тектоническими сдвигами в мире.
    • Западные СМИ. Им нельзя доверять совершенно, они все уже рекрутированы на информационную войну против России, они фактически занимаются «отмывкой» и легитимизацией украинских фейков для западной аудитории. Все публикуемые новости, фото, видео – только с одной, украинской стороны, подавляющая их часть – никакие не новости, а специально созданные фейки.
    • Западные цифровые платформы. То же самое – они активные участники инфовойны, они распространяют фейки, размещают рекламу фейковых и пропагандистских ресурсов, а также занимаются политической цензурой: блокируют российские официальные каналы и государственные СМИ безо всяких оснований, вообще, просто за то, что они русские.
      Роскомнадзор уже начал замедлять Фейсбук за прямое участие в инфовойне, не исключено, что западные цифровые платформы вообще будут заблокированы, как минимум, на время военной операции.
    • Западные «аналитические» службы и проекты. Как правило, это просто пиар-отделы американской и британской разведок (наподобие Bellingcat). Они продуцируют обычно стопроцентную ложь, оформленную в виде «журналистских расследований» или «гражданской журналистики» с массой как бы достоверных, сфабрикованных деталей.
    • Обращения в телеграм-каналах, мессенджерах, почтовый спам. Тут особых разъяснений не требуется, подавляющая часть этих обращений – профессиональная пропаганда центров инфовойны, остальное – классические цепочечные «Письма Щастья», то есть тоже посев мозговых вирусов и откровенная пропаганда, просто самодельная.
    • Русскоязычные «иноагенты». Дают достаточно умеренную и более-менее объективную картину событий в своих «онлайнах» и лентах о военной операции, однако редакторские материалы и авторские колонки – обычно полны антироссийской пропаганды. Новости, фото и видеоматериалы также имеют явный обвинительный уклон.
    • Официальные и государственные российские СМИ. Дают относительно взвешенную и сухую картину событий; ленты и «онлайны» – объективны. Редакционные материалы и колонки публицистов (даже имеющих «патриотическую» точку зрения), тем не менее, тоже читать не стоит – для сохранения душевного равновесия, как и вообще любые частные мнения о военной операции.
    • Российская «деловая пресса». В среднем объективна, «онлайновые» ленты содержат сухие факты, а вот авторские колонки и большие редакционные статьи также читать не стоит – для сохранения спокойствия и равновесия.

    Ключевые маркеры фейка в содержании

    Нагнетание эмоций, истерия. Фейки отличаются от сообщений СМИ прежде всего градусом истерии. Отличия по уровню эмоций настолько явные, что распознать эти перегретые сообщения нетрудно. А распознав, нужно пересиливать себя и не читать их.

    Неконкретность. Как правило, фейк имеет некоторую явную неконкретность: общие слова, преувеличения, отсутствие деталей – географических указаний, адресов, времени. Если при чтении даже длинного сообщения возникает желание узнать подробнее и больше, пробиться сквозь пелену какой-то неясности, неконкретности – это признак фейка.

    Отсутствие подтверждений в известных лентах и источниках. Если не удаётся найти следов «новости» в новостных лентах «настоящих» новостных агентств, официальных аккаунтах, государственных СМИ, тематических лентах и онлайн-трансляциях ТАСС, Коммерсанта, Ведомостей, Ленты.ру, даже в лентах иноагентов наподобие Медузы – скорее всего, это фейк.

    Требования действовать. В фейках сейчас практически всегда содержится побуждение зрителя к действию – распространить дальше, подписать петицию, выйти на улицу. Любой такой призыв – явный маркер фейка.

    Мат, брань, лексика и риторика ненависти. Фейковые новости и пропаганда сейчас легко отличимы по лексике. Любое матерное или бранное слово в «новости», что в СМИ, что в соцсетях, брань и инвективы в адрес России, её правительства, «олигархов», Путина – повод немедленно закрыть сообщение, это точно фейк или пропаганда.

    Сопли с сиропом. В большинстве русскоязычных СМИ-иноагентов и в западных СМИ идут косяком видео и фото, изображающие страдания беженцев из Украины. Обязательно с замотанными в шарфы женщинами, грустными глазами детей, грудными детьми на руках, с кошечкой в переноске и рыбкой в пакетике, и т.п. В сущности, это тоже фейки, даже если фото настоящие.
    Эта турбированная сентиментальность и давление на жалость – тоже маркер фейка. Здесь стоит помнить известную историю, как труп утонувшего в Средиземном море мальчика-мигранта западные корреспонденты многократно перекладывали по пляжу, чтобы получить наилучший ракурс фото, ведь дети и смерть – самая эффективная комбинация для пропаганды. Мы же помним, что ровно для тех же канальчиков и СМИ регулярные убийства детей в Горловке и Луганске в 2014-2022 годах – вовсе не были трагедией и даже не представляли собой инфоповод.

    Нелепости и алогичность. Любые нелепые выдумки типа «русские солдаты в обносках», «у них ржавая техника», «они массами дезертируют и сдаются в плен», «сотни их трупов валяются неубранные на улицах», «срочники», «ехали на учения», «сожгли сотни танков коктейлями», «сбили пять самолётов» – это мрии, неуклюжие фантазии украинских националистов и их пропагандистов, то есть явный маркер фейка.

    Упор на фото и видео, как на доказательство. Во многих фейках используются старые фото и видео, из совсем других времён и мест, из старых конфликтов. Например, видео пятилетней давности с разбитой техникой ВСУ в Луганске могут выдавать за современный ролик о российской технике под Харьковом. Часто это можно выяснить поиском по картинкам. Иногда на самих видео присутствуют явные признаки фейка (форма без знаков отличия, старая советская техника, остатки зенитной (а не артиллерийской) ракеты внутри разрушенной квартиры жилого дома, странная форма пехотинцев, неизвестное место, не то время года и т.п.).
    Будьте внимательны: фото и видео сейчас не могут служить доказательством чего-либо. Тем более, что сейчас широко доступны инструменты для фабрикации «дипфейков» – модифицированных фото и видео, в которых подделку невозможно отличить глазом или на слух.

    Прямые обращения к русским. Если в новости, сообщении, электронном письме, звонке есть прямые призывы к «населению России», «русским солдатам», «матерям русских солдат», «горячая телефонная линия», «вернись живым из Украины», «забирайте трупы» и т.п. – это гарантированно фейк и пропаганда.
    Это, по сути, точный аналог нацистских листовок «красноармеец, сдавайся, политрук тебе лжёт, а в немецком плену ты получишь горячую пищу».

    Информационная и ментальная гигиена

    Хотя наше государство делает всё возможное для того, чтобы отбить эту цунами фейков, каждый отвечает за сохранение своего здравого рассудка сам. Для этого нужно понимать и применять элементарные принципы ментальной гигиены.

    Нужно понимать, что мы являемся объектом атаки. Против нас работает могучая Империя лжи, она последние полвека производит ложь в сорока тысячах видов – пареную, вяленую пакетированную, строганую, шлифованную, кованую и т.п., это её главный продукт (даже не хаос, не Голливуд и не доллар). И этот продукт давно отравил Интернет и медии.
    Поэтому нужно наконец перестать воспринимать медийное пространство, особенно социальные сети, как пространство «правды». Это токсичное пространство многослойной лжи и манипуляции, а также неконтролируемой истерики интернет-хомячков. В нём нужно быть крайне осторожным, не подбирать с пола всякое и не тащить в голову.

    Не поддаваться медийной истерии. Нужно отойти на шаг и успокоиться. Основная задача медийной манипуляции – вызвать у нас панику, истерику и стресс, заставить что-то сделать в панике, наскоро, не думая. Нужно «досчитать до десяти».

    Не впадать в зависимость от потока новостей, снизить дозу. Ожидание новостей, особенно в условиях ведущихся страной боевых действий, может перерасти в зависимость. Ожидание сообщений – это даже не психологическая, а биохимическая зависимость, стресс ожидания, дофаминовая петля, как говорилось выше.
    Никакая зависимость не полезна. Борьба с ней всегда начинается со снижения уровня потребления, с умеренности. Уменьшайте дозу. Не читайте новости ежеминутно или ежечасно – самое важное вы в любом случае никак не пропустите.

    Выработать свой набор чистых источников. Нужно отобрать для себя источники, которым вы доверяете, и которые не попадались на публикации и распространении фейков. Это могут быть официальные СМИ, ленты Министерства обороны, какие-то более или менее солидные СМИ, наподобие ТАСС, Коммерсанта и Ведомостей. Практически все западные СМИ сейчас – инструмент пропаганды, как говорилось выше. Почти никакие аккаунты соцсетей сейчас не заслуживают доверия – если их владельцы и не работают прямо на Империю лжи, они могут быть жертвами информационных вирусов, захвативших мозг и требующих распространения.
    Лучше всего, если у вас есть родственники на Украине, которым можно позвонить или написать. Те, у кого они есть, описывают реальность на местах, разительно отличающуюся от виртуальной реальности фейков и истерии в соцсетях. При этом нужно не путать их пересказы украинских новостей и рассказ о том, что с ними реально происходит.

    Перепроверять. Нужно искать любую острую новость в нескольких источниках, в том числе в официальных. Если новость реальна и важна – она будет везде в течение нескольких часов, сначала в лентах «онлайнов», потом везде.
    Фейки, напротив, пробегают, как лесной пожар, а потом исчезают отовсюду. В ленты серьёзных новостных агентств, СМИ и в официальные источники они не попадают вообще никогда.

    Подождать полтора-два дня после события, прежде чем формировать мнение. Любой сюжет в сети и в СМИ имеет тенденцию «вилять», менять свой ход, совершать 1-3 сюжетных излома и поворота за полтора-два дня. Всегда появляются новые данные, разоблачения, опровержения, уточнения. Очень часто всё оказывается не совсем так или совсем не так.
    Не нужно бросаться выкрикивать в сети своё очень ценное мнение сразу же после прочтения бьющей по нервам новости – потом может быть очень неудобно.

    Не распространять и не поддерживать фейки

    Нужно помнить, что наша страна сейчас проводит военную операцию. На наших глазах меняется мировой порядок. Нам угрожают санкции, изоляция, на нас ведётся всесторонняя экономическая, политическая и медийная атака Западного мира, управляемого США.

    В нашей стране в результате происходит по сути окончательная национализация элиты, бизнеса, креативного класса, промышленности, финансовой сферы. В условиях войны многое из прежнего становится неважным, важно лишь, «в какую сторону ты стреляешь».

    В этих условиях распространение явных и топорных фейков, призывов, петиций – это работа на противника.

    На Западе, заметим, так никто и не делает: что бы ни творили их страны, они знают цену национальной солидарности. Они зачищают своё инфопространство железной рукой. Они не стыдятся за свои страны никогда. Например, только что канцлер Германии Олаф Шольц сказал публично, что ему не стыдно за немецкое историческое прошлое.

    Даже если вам не нравится эта война, её обоснования, причины, ход военных действий – это не повод сгоряча вычёркивать себя из русских. Когда всё «устаканится», придётся пересматривать свои мнения и высказывания — проверяли ведь уже в 2014-2015 на присоединении Крыма.

    Как сказала Маргарита Симоньян, «если вам стыдно быть русским – не волнуйтесь, вы не русские». Хотя на Госуслугах пока нет услуги «выписать себя из русских», распространение фейков и вешание на себя жовто-блакытной аватарки – это как раз оно и есть.

    Даже если до слёз обидно, что вот теперь из-за решения ввести войска весь мир против нас, теперь не дадут визы в Европу, не удастся «поесть нежнейшего сыра в горной деревушке недорого», «посидеть с изумительным кофе в уличном кафе на средневековой улочке древнего города» и т.п. – не стоит включаться в работу против своей страны.

    Не позволяйте управлять вами и вашей жизнью тому, на что вы всё равно сейчас повлиять не можете. Распространение фейков – точно не способ повлиять на руководство страны и ход военной операции.

    Что такое дипфейк? Все, что вам нужно знать

    • Дипфейки используют искусственный интеллект с глубоким обучением, чтобы заменить изображение одного человека другим в видео и других цифровых медиа.
    • Есть опасения, что технология дипфейка может использоваться для создания фальшивых новостей и вводящих в заблуждение поддельных видео.
    • Вот учебник по дипфейкам — что это такое, как это работает и как его можно обнаружить.
    • Посетите библиотеку технических справочников Business Insider, чтобы узнать больше.

    Компьютеры все лучше и лучше моделируют реальность. Современное кино, например, в значительной степени полагается на сгенерированные компьютером декорации, декорации и персонажей вместо реальных локаций и реквизита, которые когда-то были обычным явлением, и большую часть времени эти сцены практически неотличимы от реальности.

    В последнее время технология дипфейков попала в заголовки газет.Последняя итерация компьютерных изображений, дипфейки создаются, когда искусственный интеллект (ИИ) запрограммирован на замену сходства одного человека другим в записанном видео.

    Что такое дипфейк и как он работает?

    Термин «глубокое подделка» происходит от лежащей в основе технологии «глубокого обучения», которая является формой ИИ. Алгоритмы глубокого обучения, которые учатся решать проблемы при наличии больших наборов данных, используются для замены лиц в видео и цифровом контенте для создания реалистично выглядящих поддельных медиа.

    Существует несколько методов создания дипфейков, но наиболее распространенный из них основан на использовании глубоких нейронных сетей, включающих автокодировщики, использующие технику смены лица. Сначала вам нужно целевое видео, чтобы использовать его в качестве основы для дипфейка, а затем набор видеоклипов человека, которого вы хотите вставить в цель.

    Видео могут быть совершенно не связаны; целью может быть, например, клип из голливудского фильма, а видео человека, которого вы хотите вставить в фильм, могут быть случайными клипами, загруженными с YouTube.

    Автоэнкодер — это программа искусственного интеллекта для глубокого обучения, задачей которой является изучение видеоклипов, чтобы понять, как человек выглядит под разными углами и в различных условиях окружающей среды, а затем сопоставление этого человека с человеком в целевом видео путем поиска общих черт.

    К этой смеси добавляется еще один тип машинного обучения, известный как генеративно-состязательные сети (GAN), который обнаруживает и устраняет любые недостатки в дипфейках в течение нескольких раундов, что затрудняет их декодирование детекторами дипфейков.

    GAN также используются в качестве популярного метода для создания дипфейков, основанного на изучении больших объемов данных, чтобы «научиться» разрабатывать новые примеры, имитирующие реальные вещи, с мучительно точными результатами.

    Несколько приложений и программ упрощают создание дипфейков даже для новичков, например, китайское приложение Zao, DeepFace Lab, FaceApp (приложение для редактирования фотографий со встроенными методами искусственного интеллекта), Face Swap и уже удаленный DeepNude, особенно опасное приложение, которое генерировало поддельные обнаженные изображения женщин.

    Большое количество дипфейковых программ можно найти на GitHub, сообществе разработчиков программного обеспечения с открытым исходным кодом. Некоторые из этих приложений используются исключительно в развлекательных целях — поэтому создание дипфейков не запрещено законом — в то время как другие гораздо чаще используются злонамеренно.

    Многие эксперты считают, что в будущем дипфейки станут гораздо более изощренными по мере дальнейшего развития технологий и могут представлять более серьезные угрозы для общества, связанные с вмешательством в выборы, политической напряженностью и дополнительной преступной деятельностью.

    Как используются дипфейки?

    Хотя возможность автоматического переключения лиц для создания правдоподобного и реалистично выглядящего синтетического видео имеет несколько интересных полезных применений (например, в кино и играх), это, безусловно, опасная технология с некоторыми неприятными приложениями. Фактически одним из первых реальных применений дипфейков было создание синтетической порнографии.

     В 2017 году пользователь Reddit под ником «deepfakes» создал порнофорум, на котором были представлены актеры, меняющие лица.С тех пор порно (особенно порно мести) неоднократно появлялось в новостях, нанося серьезный ущерб репутации знаменитостей и видных деятелей. Согласно отчету Deeptrace, порнография составила 96% дипфейковых видео, найденных в Интернете в 2019 году. 

    Видео дипфейков также использовалось в политике. Например, в 2018 году бельгийская политическая партия опубликовала видео, на котором Дональд Трамп произносит речь, призывающую Бельгию выйти из Парижского соглашения по климату. Однако Трамп так и не выступил с этой речью — это был дипфейк.Это был не первый случай использования дипфейков для создания вводящих в заблуждение видеороликов, и технически подкованные политические эксперты готовятся к будущей волне фейковых новостей с убедительно реалистичными дипфейками.

    Конечно, не все дипфейки представляют угрозу для демократии. Нет недостатка в дипфейках, используемых для юмора и сатиры, таких как чипы, которые отвечают на вопросы, например, как бы выглядел Николас Кейдж, если бы он появился в «В поисках утраченного ковчега»?

    Дипфейки только видео?

    Дипфейки не ограничиваются только видео.Deepfake audio — это быстрорастущая область, имеющая огромное количество приложений.

    Реалистичные дипфейки теперь можно создавать с помощью алгоритмов глубокого обучения, используя всего несколько часов (или, в некоторых случаях, минут) аудио человека, чей голос клонируется, и как только модель голоса будет создана, этот человек может заставлять говорить что угодно, например, когда в прошлом году фальшивая аудиозапись генерального директора использовалась для совершения мошенничества.

    Deepfake audio имеет медицинское применение в виде замены голоса, а также в дизайне компьютерных игр — теперь программисты могут позволить внутриигровым персонажам говорить что угодно в реальном времени, а не полагаться на ограниченный набор сценариев, которые были записаны до игра была опубликована.

    Как обнаружить дипфейк

    Поскольку дипфейки становятся все более распространенными, обществу, скорее всего, придется адаптироваться к обнаружению видео с дипфейками точно так же, как онлайн-пользователи теперь настроены на обнаружение других видов фейковых новостей.

    Часто, как в случае с кибербезопасностью, необходимо появление новых технологий дипфейков, чтобы обнаружить и предотвратить их распространение, что, в свою очередь, может вызвать порочный круг и потенциально нанести больше вреда.

    Есть несколько индикаторов, которые выдают дипфейки:

    • Текущие дипфейки имеют проблемы с реалистичной анимацией лиц, и в результате получается видео, в котором субъект никогда не моргает, либо моргает слишком часто или неестественно. Однако после того, как исследователи из Университета Олбани опубликовали исследование, обнаружившее аномалию моргания, были выпущены новые дипфейки, в которых этой проблемы больше не было.
    • Ищите проблемы с кожей или волосами, или лица, которые кажутся более размытыми, чем окружающая среда, в которой они расположены.Фокус может выглядеть неестественно мягким.
    • Освещение выглядит неестественно? Часто алгоритмы дипфейка сохраняют освещение клипов, которые использовались в качестве моделей для поддельного видео, что плохо соответствует освещению в целевом видео.
    • Звук может не соответствовать человеку, особенно если видео было подделано, а оригинальный звук не был так тщательно обработан.

    Борьба с дипфейками с помощью технологий

    Хотя дипфейки со временем будут становиться все более реалистичными по мере совершенствования технологий, мы не совсем беззащитны, когда дело доходит до борьбы с ними.Ряд компаний разрабатывают методы обнаружения дипфейков, некоторые из них являются стартапами.

    Sensity, например, разработала платформу обнаружения, похожую на антивирус для дипфейков, которая предупреждает пользователей по электронной почте, когда они смотрят что-то, что несет контрольные отпечатки синтетических носителей, созданных искусственным интеллектом. Sensity использует те же процессы глубокого обучения, что и для создания поддельных видео.

    Operation Minerva использует более простой подход к обнаружению дипфейков.Алгоритм этой компании сравнивает потенциальные дипфейки с известным видео, которое уже было «цифровым образом снято». Например, он может обнаруживать примеры порнографии мести, распознавая, что дипфейк-видео — это просто модифицированная версия существующего видео, которое уже было каталогизировано Operation Minerva.

    А в прошлом году Facebook организовал конкурс Deepfake Detection Challenge, открытую совместную инициативу, направленную на поощрение создания новых технологий для обнаружения дипфейков и других видов манипулируемых медиа.В конкурсе были разыграны призы до 500 000 долларов.

    Дэйв Джонсон

    Внештатный писатель

    Что такое дипфейки? (Понимание и информация)

    Что такое дипфейки?

    Мы видим это почти каждый день в Facebook, Instagram, Snapchat и большинстве других популярных социальных сетей, даже на некоторых спортивных мероприятиях на больших мониторах вокруг стадиона.Некоторые из нас даже используют его ежедневно (если вам нравятся подобные вещи). Черт, только на этой неделе я видел, как несколько моих друзей использовали его, чтобы показать, как они будут выглядеть через 50 лет.

    О чем именно я здесь говорю? Эти фильтры; те, которые позволяют вам изменить то, как вы выглядите, просто глядя в камеру вашего телефона, применяя своего рода распознавание лиц в сочетании с некоторыми сложными алгоритмами искусственного интеллекта. Некоторые даже меняют то, как вы звучите. Когда я смотрю игру «Майами Дельфинс», бывает, что они изображают милые щенячьи мордочки на лицах болельщиков и показывают их на огромных телевизионных мониторах, установленных на стадионе во время игры.Эффект мгновенный, когда камера перемещается по лицам на трибунах.

    Однако то, что я собираюсь упомянуть, — это не фильтр как таковой, а форма технологии искусственного интеллекта, которая может иметь серьезные неблагоприятные глобальные последствия для общества.

    Тема этого месяца посвящена технологии, известной как DeepFakes.

    Так что же такое DeepFake? Это мощная технология искусственного интеллекта, которая может переносить лицо И голос другого человека на видеозапись, заменяя лицо исходного человека, сохраняя при этом все остальное, например, одежду и окружение, без изменений.

    Вот пример того, о чем я говорю:

    Все мы знаем оригинальный фильм «Терминатор», и все мы знаем актера, который был выбран на роль оригинального Терминатора, Арнольда Шварценеггера. Однако, если вы нажмете на ссылку выше и посмотрите видео, вы увидите, как лицо Сильвестра Сталлоне было перенесено на лицо Арнольда, в то время как все остальное осталось без изменений. На самом деле это один из лучших DeepFake, которые я видел.

    До сих пор DeepFake использовались только любителями-любителями в качестве шуток без злого умысла.

    Не нужно слишком много воображения, чтобы увидеть, как дипфейки могут усилить пропаганду фейковых новостей, которая уже распространяется по всему миру со скоростью лесного пожара.

    DeepFake привлекли внимание многих политиков и агентств кибербезопасности по всему миру и считаются серьезной потенциальной угрозой национальной безопасности.

    Цитируя сенатора-республиканца от Флориды Марко Рубио:

    «В прежние времена, если вы хотели угрожать Соединенным Штатам, вам нужно было и 10 авианосцев, и ядерное оружие, и ракеты большой дальности.Сегодня вам просто нужен доступ к нашей интернет-системе, к нашей банковской системе, к нашей электросети и инфраструктуре, и все чаще вам нужна возможность создать очень реалистичное фальшивое видео, которое может подорвать наши выборы, которое может разрушить нашу страну. в огромный внутренний кризис и глубоко ослабить нас».

    Технология искусственного интеллекта, от которой зависят DeepFake, все еще относительно нова. На данный момент вы можете различить транспонированные изображения лица на исходном видео. Тем не менее, по мере совершенствования технологий наступит момент, когда мы не сможем отличить оригинальное видео от DeepFake, и именно это беспокоит глав государств и наций.Это может не только повлиять на страны и бизнес, но и DeepFake, безусловно, может нанести ущерб жизни людей.

    То, как создаются DeepFake, само по себе очень интересно. Две модели ИИ используются для создания разных подделок видео, а другая пытается обнаружить эти подделки. Этот процесс продолжается до тех пор, пока модель, обнаруживающая подделки, не сможет сказать, что копия существует.

    С течением времени киберугрозы становятся все более опасными и легкими в использовании, а технологии совершенствуются.Многие страны даже спонсируют хакеров для ведения кибершпионажа в других странах и компаниях. Среднему потребителю технологий становится все труднее и труднее идти в ногу с этими повседневными достижениями в области киберугроз.

    Facebook и многие другие социальные сети и веб-сайты переполнены фейковыми новостями. Хотя фальшивые новости всегда были в бульварной прессе (сходите в местный круглосуточный магазин и взгляните на все эти журналы и газеты, обычно возле кассы, которые полны статей, похожих на «Королева Англии, наконец, раскрывает ее 6 детей с актером Томом Крузом»), их содержание в основном ограничено знаменитостями, и в большинстве случаев читатель может заметить нелепость заголовка.Не говоря уже о том, что некоторые из этих таблоидов уже хорошо известны как публикации «только для развлекательных целей».

    Однако сегодня, благодаря глобальному охвату Интернета, фальшивые новости (и вскоре они будут объединены с дипфейками) могут распространяться за считанные секунды. Темы ограничены всем, что выше и ниже Солнца. Они могут вызвать массовую панику и, возможно, даже войны и разрушения во всем мире, особенно когда кажется, что все на взводе и быстро верят всему, что видят и слышат, не задумываясь.

    Есть и мелкие фейки, в которых видео тоже редактируются, но не до степени видео DeepFake. Поверхностные фейки уже вызвали возмущение, как объясняется в этой статье, в которой также показано сфальсифицированное видео Джима Акосты, репортера CNN, предположительно нападающего на стажера Белого дома.

    Видео почти настолько похожи, что трудно сказать, есть ли разница, но статья говорит вам, на что обращать внимание.

    Видео

    Doctored Jim Acosta показывает, почему подделки не обязательно должны быть глубокими, чтобы быть опасными.

    Итак, что вы думаете? Считаете ли вы, что дипфейки могут быть такими опасными, как я описал в этой статье, или это все страхи и опасения напрасно?

    Хотите попробовать сами? Существует бесплатное приложение под названием FakeApp, разработанное пользователем Reddit и доступное для скачивания в Интернете. Просто будьте осторожны, откуда вы его скачиваете. Из того, что я прочитал, это не самое простое в использовании приложение, но если вы решите попробовать, пришлите мне ссылку на свое видео, чтобы мы могли вместе посмеяться и обсудить ваши новообретенные навыки редактирования видео или отсутствие из этого.

    Приверженность Forthright своим клиентам — это еще один способ повысить ценность их бизнеса. . Мы последовательно демонстрируем нашу приверженность нашим клиентам — настолько, что многие из наших клиентов сотрудничают с нами более 20 лет благодаря этому. Это то, что делает нас по-настоящему уникальными.

    В центре внимания науки и техники: Deepfakes

    Почему это важно

    Дипфейки — это мощные инструменты, которые можно использовать для эксплуатации и дезинформации.Дипфейки могут повлиять на выборы и подорвать доверие, но до сих пор в основном использовались для порнографии без согласия. Базовые технологии искусственного интеллекта (ИИ) широко доступны по низкой цене, а улучшения затрудняют обнаружение дипфейков.

    Технология

    Что это? Дипфейк — это видео, фото или аудиозапись, которые кажутся реальными, но были обработаны с помощью ИИ. Базовая технология может заменять лица, манипулировать выражениями лиц, синтезировать лица и синтезировать речь.Дипфейки могут изображать кого-то, кто якобы говорит или делает что-то, чего на самом деле никогда не говорил и не делал.

    Рис. 1. В дипфейковых видеороликах обычно меняют лица или манипулируют выражением лица. При замене лица лицо слева помещается на тело другого человека. При манипулировании лицом выражение лица слева имитируется лицом справа.

    Несмотря на то, что дипфейки имеют безобидное и законное применение в таких областях, как развлечения и коммерция, они обычно используются для эксплуатации.Согласно недавнему отчету компании Deeptrace, большая часть дипфейкового контента в Интернете носит порнографический характер, а дипфейковая порнография несоразмерно преследует женщин. Кроме того, есть опасения по поводу потенциального роста использования дипфейков для других целей, особенно для дезинформации. Дипфейки можно использовать для влияния на выборы или разжигания гражданских беспорядков, а также в качестве оружия психологической войны. Они также могут привести к игнорированию законных доказательств правонарушений и, в более общем плане, подорвать общественное доверие к аудиовизуальному контенту.

    Как это работает? Дипфейки основаны на искусственных нейронных сетях, которые представляют собой компьютерные системы, приблизительно смоделированные на основе человеческого мозга, которые распознают закономерности в данных. Разработка дипфейковых фото или видео обычно включает в себя передачу сотен или тысяч изображений в искусственную нейронную сеть, «обучение» ее идентифицировать и реконструировать шаблоны — обычно лица.

    Дипфейки используют различные базовые технологии искусственного интеллекта, в частности, автокодировщики и генеративно-состязательные сети (GAN).Автоэнкодер — это искусственная нейронная сеть, обученная восстанавливать входные данные из более простого представления. GAN состоит из двух конкурирующих искусственных нейронных сетей, одна из которых пытается создать подделку, а другая пытается ее обнаружить. Это соревнование продолжается в течение многих циклов, что приводит к более правдоподобному отображению, например, лиц на видео. GAN обычно производят более убедительные дипфейки, но их сложнее использовать.

    Исследователи и интернет-компании экспериментировали с несколькими методами обнаружения дипфейков.Эти методы обычно также используют ИИ для анализа видео на наличие цифровых артефактов или деталей, которые дипфейки не могут реалистично имитировать, например моргание или лицевые тики.

     

    Насколько он зрелый?   Любой, у кого есть базовые навыки работы с компьютером и домашний компьютер, может создать дипфейк. Компьютерные приложения открыто доступны в Интернете с учебными пособиями по созданию дипфейковых видео. Однако для разработки несколько реалистичного дипфейка этим приложениям обычно по-прежнему требуются сотни или тысячи обучающих изображений лиц, которые нужно поменять местами или манипулировать ими, что делает знаменитостей и государственных деятелей наиболее распространенными объектами.Более убедительные дипфейки, созданные с помощью GAN, требуют более продвинутых технических навыков и ресурсов. Поскольку технологии искусственных нейронных сетей быстро развивались параллельно с более мощными и многочисленными вычислениями, появилась возможность создавать реалистичные дипфейки.

    Возможности

    Есть несколько потенциально полезных или полезных применений этой технологии:

    ■          Развлечения. Голоса и образы могут использоваться в фильме для достижения творческого эффекта или поддержания связной истории, когда сами артисты недоступны.

    ■          Электронная коммерция. Розничные продавцы могли бы позволить покупателям использовать свое подобие для виртуальной примерки одежды.

    ■          Связь. Синтез речи и мимика могут создать впечатление, что человек действительно говорит на другом языке.

    Вызовы

    ■          Необходимы данные для обнаружения. Средства обнаружения дипфейков, как правило, должны быть обучены работе с большими и разнообразными наборами данных, чтобы надежно обнаруживать дипфейки.Технологические компании и исследователи выпустили наборы данных, чтобы помочь в обучении инструментов обнаружения, но текущих наборов данных самих по себе недостаточно. Инструменты обнаружения должны постоянно обновляться данными с возрастающей сложностью, чтобы гарантировать, что они продолжают быть эффективными при обнаружении манипулируемых носителей.

    ■          Обнаружение еще не автоматизировано. Существующие инструменты не могут выполнять полный и автоматический анализ, который надежно обнаруживает дипфейки. Исследовательские программы в настоящее время работают над средствами автоматического обнаружения дипфейков, предоставления информации о том, как они были созданы, и оценки общей целостности цифрового контента.

    ■          Адаптация к обнаружению. Методы, используемые для выявления дипфейков, как правило, ведут к разработке более сложных методов дипфейков. Эта ситуация «кошки-мышки» означает, что инструменты обнаружения должны регулярно обновляться, чтобы идти в ногу со временем.

    ■          Обнаружения может быть недостаточно. Даже идеальная технология обнаружения не может помешать фальшивому видео быть эффективным средством дезинформации, потому что многие зрители могут не знать о дипфейках или не тратить время на проверку достоверности просматриваемых видео.

    ■          Несоответствие стандартам социальных сетей. У крупных социальных сетей разные стандарты модерации дипфейков.

    ■          Юридические вопросы. Предлагаемые законы или постановления, касающиеся дипфейковых медиа, могут вызвать вопросы, касающиеся свободы слова и выражения мнений, а также прав на неприкосновенность частной жизни лиц, ложно изображенных в дипфейках. Более того, потенциальное федеральное законодательство, направленное на борьбу с дипфейками, может столкнуться с проблемами правоприменения.  

    Политический контекст и вопросы

    Любой политический ответ, направленный на борьбу с дипфейками, скорее всего, столкнется с конституционными и другими юридическими проблемами, а также с техническими проблемами обнаружения. Ключевые вопросы политики включают:

    ■          Насколько развита технология обнаружения дипфейков? Насколько продвинулись федеральные программы и государственно-частные партнерства в разработке таких технологий? Какой опыт потребуется, чтобы обнаружение не отставало от технологии дипфейков?

    ■          Какие права есть у людей на их частную жизнь и сходство? Какие права есть у создателей дипфейков согласно Первой поправке? Какие варианты политики существуют в отношении вмешательства в выборы? Какие варианты существуют в отношении эксплуатации и злоупотребления изображениями, например порнографии без согласия?

    ■          Что можно сделать, чтобы информировать общественность о дипфейках? Должны ли управляемые СМИ быть помечены или помечены? Должны ли СМИ быть отслежены до их происхождения, чтобы определить подлинность?

    ■          Каковы должны быть роли средств массовой информации и социальных сетей в обнаружении и модерации измененного или фальсифицированного контента?

    Для получения дополнительной информации свяжитесь с Карен Ховард по телефону 202-512-6888 или по электронной почте [email protected]правительство

    Видя все еще веришь? Глубокий вызов правде в политике

    25 ноября вышла статья под заголовком «Найди дипфейк. (Это становится все труднее.)» появилось на первой странице делового раздела The New York Times. 1 Год назад редакция не поместила бы этот материал на первую полосу. Если бы они были, мало кто понял бы, что означает его заголовок. Сегодня так делает большинство. Эта технология, один из самых тревожных плодов стремительного развития искусственного интеллекта (ИИ), позволяет тем, кто ее использует, создавать аудио- и видеоизображения реальных людей, говорящих и делающих выдуманные вещи.По мере развития этой технологии становится все труднее отличить настоящие аудио- и видеозаписи от мошеннических искажений, созданных путем манипулирования реальными звуками и изображениями. «В краткосрочной перспективе обнаружение будет достаточно эффективным», — говорит Суббарао Камбхампати, профессор компьютерных наук в Университете штата Аризона. «В долгосрочной перспективе, я думаю, будет невозможно отличить настоящие фотографии от поддельных». 2

    Более длинная гонка может состояться уже в конце этого года, как раз к президентским выборам.В августе 2019 года группа израильских исследователей объявила о новой технике создания дипфейков, которая позволяет создавать реалистичные видеоролики, заменяя лицо одного человека другим, который действительно говорит. В отличие от предыдущих методов, этот работает с любыми двумя людьми без интенсивного повторяющегося фокуса на их лицах, сокращая часы или даже дни по сравнению с предыдущими процессами дипфейков без необходимости в дорогостоящем оборудовании. 3 Поскольку израильские исследователи обнародовали свою модель — шаг, который они оправдывают как необходимый для защиты от нее, — распространение этой дешевой и простой технологии дипфейков кажется неизбежным.

    Чтобы проиллюстрировать вызов, связанный с этим развитием событий, я отмечаю предупреждение, содержащееся в незабываемой сцене в будуаре в классической комедии братьев Маркс «Утиный суп».

    Миссис Тисдейл (страшная Маргарет Дюмон) : Ваше Превосходительство! Я думал, ты ушел.

    Чиколини (Чико Маркс, замаскированный под президента Freedonia) : О, нет, я не ухожу.

    Миссис Тисдейл : Но я видела вас своими глазами!

    Чиколини : Ну, кому ты поверишь? Я или твои глаза?

    В преддверии выборов 2020 года Чиколини задал вопрос, с чем придется бороться кандидатам и американскому народу.Если ИИ достигнет точки, когда будет практически невозможно обнаружить аудио- и видеоизображения людей, говорящих то, чего они никогда не говорили (и даже делающие то, чего они никогда не делали), видение больше не будет верой, и нам придется решать самим. — без надежных доказательств — кому или чему верить. Хуже того, кандидаты смогут отклонить точные, но смущающие представления о том, что они называют фальшивкой, — уклонение, которое будет трудно опровергнуть.

    «Если ИИ достигнет уровня, когда будет практически невозможно обнаружить аудио- и видеоизображения людей, говорящих то, чего они никогда не говорили…, видение больше не будет верой.

    В 2008 году Барак Обама был записан на небольшом собрании, говоря, что жители сильно пострадавших районов часто цепляются за оружие и религию. В 2012 году было записано, как Митт Ромни говорил группе спонсоров, что 47% населения счастливы зависеть от правительства в удовлетворении основных жизненных потребностей. А в 2016 году Хиллари Клинтон назвала многих сторонников Дональда Трампа сборищем жалких людей. Точность этих записей не подвергалась сомнению. Однако в 2020 году у оперативников предвыборной кампании появятся технологические основания для оспаривания подлинности таких разоблачений, а конкурирующие показания участников частных мероприятий могут внести путаницу в такие споры.По словам Ника Дюфура, одного из ведущих инженеров-исследователей Google, дипфейки «позволили людям утверждать, что видеодоказательства, которые в противном случае были бы очень убедительными, являются подделкой». 4

    Даже если осенью 2020 года будут существовать надежные способы обнаружения дипфейков, они будут работать медленнее, чем генерация этих фейков, что позволит ложным представлениям доминировать в медиапространстве в течение нескольких дней или даже недель. «Ложь может обойти полмира, прежде чем правда наденет туфли», — предупреждает Дэвид Дерманн, директор Института искусственного интеллекта в Университете Буффало. 5 И если защитные методы приведут к результатам, далеким от уверенности, а это произойдет со многими, технологические компании не будут колебаться, чтобы назвать вероятные искажения фактов фальшивками.

    «Возможность генерировать дипфейки развивается намного быстрее, чем способность их обнаруживать».

    Способность генерировать дипфейки развивается намного быстрее, чем способность их обнаруживать. В кругах ИИ, как сообщает Дрю Харвелл из Washington Post, выявлению поддельных СМИ уже давно уделяется меньше внимания, финансирования и институциональной поддержки, чем их созданию.«Зачем вынюхивать чужие фантастические творения, если можно создать свое собственное?» — спрашивает Хани Фарид, профессор компьютерных наук и эксперт по цифровой криминалистике Калифорнийского университета в Беркли, — мы вооружены лучше». Фарид говорит: «Количество людей, работающих на стороне синтеза видео, в отличие от стороны детектора, составляет 100 к 1». 6 В результате технология совершенствуется с головокружительной скоростью. «В январе 2019 года дипфейки были глючными и мерцающими», — сказал Фарид The ​​Financial Times. «Девять месяцев спустя я никогда не видел ничего похожего на то, как быстро они движутся.Это верхушка айсберга». 7

    Как выразился Насир Мемон, профессор информатики и инженерии Нью-Йоркского университета:

    «Вследствие этого даже правде не поверят. Человек перед танком на площади Тяньаньмэнь потряс мир. Никсон по телефону стоил ему президентства. Картины ужасов из концлагерей, наконец, побудили нас к действию. Если идея… верить в то, что вы видите, подвергается нападкам, это огромная проблема. 8

    Столкнувшись с этой эпистемологической анархией, избиратели с большей вероятностью, чем когда-либо прежде, останутся внутри своих партийных пузырей, веря только тем политикам и деятелям СМИ, которые разделяют их политическую ориентацию. Основанное на фактах убеждение в противоречии с партийными и идеологическими взглядами будет еще более трудным, чем это было в последние десятилетия, поскольку средства массовой информации раздвоились по партийным линиям, а политическая поляризация усилилась.

    Ученые-правоведы Бобби Чесни и Даниэль Цитрон предлагают всесторонний обзор угроз, которые технологии дипфейков представляют для нашей политики и общества.Эти реалистичные, но вводящие в заблуждение изображения способны исказить демократический дискурс; манипулирование выборами; подрыв доверия к институтам; ослабление журналистики; обострение социальных разногласий; подрыв общественной безопасности; нанесение трудновосполнимого ущерба репутации видных деятелей, в том числе выборных должностных лиц и кандидатов на должности. 9

    Помимо внутренней политики, дипфейк-технологии представляют угрозу для американской дипломатии и национальной безопасности.Как утверждают исследователи Brookings Крис Месероле и Алина Полякова, США и их союзники «плохо подготовлены» к волне дипфейков, которую могут развязать российские дезинформационные кампании. 10 Чесни и Цитрон отмечают, что вместо твитов и постов в Facebook, которые сорвали президентскую кампанию в США в 2016 году, российская дезинформация в 2020 году может принять форму «фейкового видео, на котором белая полиция предлагает выкрикивать расистские оскорбления или Black Lives Matter активисты, призывающие к насилию.” 11 Фальшивое видео, на котором израильский чиновник говорит или делает что-то подстрекательское, может подорвать усилия Америки по наведению мостов между еврейским государством и его членами. Они предупреждают, что своевременная подделка может повлиять на ход выборов.

    «Своевременная подделка может повлиять на выборы».

    Это глобальная проблема. Уже подозреваемый дипфейк, возможно, способствовал попытке государственного переворота в Габоне и безуспешной попытке дискредитировать министра экономики Малайзии и отстранить его от должности.Есть данные, свидетельствующие о том, что дипломатическая конфронтация между Саудовской Аравией и Катаром могла быть спровоцирована фейковой новостью с выдуманными цитатами эмира Катара. Высокотехнологичная российская кампания по дезинформации, которая пыталась предотвратить избрание Эммануэля Макрона президентом Франции в 2017 году, была сорвана хорошо подготовленной командой Макрона, но могла бы добиться успеха против менее бдительного кандидата. В Бельгии политическая партия создала дипфейк-видео, на котором президент Дональд Трамп явно вмешивается во внутренние дела страны.«Как вы знаете, — на видео Трамп ложно изобразил слова, — у меня хватило смелости выйти из Парижского соглашения по климату, и вы тоже должны это сделать». Последовал политический шум, который утих только тогда, когда партийная команда СМИ признала высокотехнологичную подделку. 12 Дипфейк, изображающий президента Трампа, отдающего приказ о развертывании войск США против Северной Кореи, может спровоцировать ядерную войну.

    Что мы можем сделать с дипфейками?

    Что уже происходит

    Осведомленность о проблемах, связанных с технологиями дипфейков, постепенно распространяется по США.С. правительство. 19 июня 2019 года комитет Палаты представителей по разведке созвал слушание, на котором несколько уважаемых экспертов по искусственному интеллекту дали показания о возникающей угрозе. В официальном заявлении комитет выразил свою решимость изучить, «какую роль государственный сектор, частный сектор и общество в целом должны играть в противодействии потенциально мрачному будущему «постправды». В своем вступительном слове председатель комитета Адам Шифф предупредил о «кошмарном» сценарии предстоящих президентских кампаний и заявил, что «сейчас настало время для социальных сетей ввести политику защиты пользователей от дезинформации, а не в 2021 году после вирусных дипфейков». испортили выборы 2020 года. 13

    10 сентября 2019 г. Комитет Сената по внутренней безопасности и делам правительства одобрил Закон об отчете о дипфейках от 2019 г., который был принят Сенатом в полном составе с поправками единогласно 24 октября и передан в Комитет Палаты представителей по энергетике и торговле по 28 октября. Этот законопроект потребует от министра внутренней безопасности выпускать ежегодный отчет о состоянии того, что он называет «технологией подделки цифрового контента», включая достижения в области технологий и злоупотребление ими со стороны внутренних и иностранных субъектов. 14

    В исполнительной власти Агентство перспективных исследовательских проектов Министерства обороны США (DARPA) возглавило усилия по борьбе с вредоносными дипфейками. Объявленные программы включают Media Forensics (MediFor) и Semantic Forensics (SemaFor). Первый, согласно официальному заявлению, соберет вместе исследователей мирового класса, чтобы «уравнять игровое поле цифровых изображений, которое в настоящее время благоприятствует манипулятору, путем разработки технологий автоматической оценки целостности изображения или видео». 15 После успешной интеграции в сквозную систему MediFor сможет не только обнаруживать дипфейковые манипуляции, но и предоставлять подробную информацию о том, как они были созданы.

    SemaFor представляет собой усовершенствование этих усилий. Поскольку стратегии обнаружения, основанные на статистике, можно легко обмануть и сорвать, SemaFor сосредоточится на «семантических ошибках», таких как несоответствие сережек, которые позволят исследователям идентифицировать дипфейки, которые алгоритмы могут не заметить. Для этого DARPA планирует вложить значительные средства в машины, способные имитировать, но ускорять процессы здравого смысла и неформальной логики, используемые людьми. 16

    Обращаясь к частному сектору: в сентябре 2019 года Facebook объявила о новом конкурсе «Deepfake Detection Challenge» стоимостью 10 миллионов долларов США, партнерстве с шестью ведущими академическими учреждениями и другими компаниями, включая Amazon и Microsoft. 17 Чтобы ускорить процесс, Facebook обещает опубликовать набор данных лиц и видео от людей, давших согласие. 18

    Тем временем Google объединила усилия с DARPA, чтобы финансировать исследователей из Калифорнийского университета в Беркли и Университета Южной Калифорнии, которые разрабатывают новую технику цифровой криминалистики, основанную на индивидуальном стиле речи и движениях тела, называемую «мягкой биометрической подписью».«Хотя этот метод уже достиг 92% точности в экспериментальных условиях, этот успех может оказаться временным. Один из исследователей, профессор Хао Ли, характеризует нынешнюю ситуацию как «гонку вооружений между цифровыми манипуляциями и способностью обнаруживать [их]». Ли говорит: «Развитие алгоритмов на основе ИИ является катализатором обеих сторон». 19

    Усилия по борьбе с дипфейками выходят за рамки уже существующих компаний. Развитие в этой области уже породило один стартап, Deeptrace, чьи публикации о международном использовании этой технологии уже произвели фурор, и другой — Truepic — который предлагает клиентам проверенные источники данных, по которым можно проверить, возможно, мошеннические видео. 20

    Законодательные варианты

    Chesney и Citron всесторонне изучают возможные ответные меры законодательных органов на опасности, связанные с этой новой технологией, и их выводы менее чем обнадеживающие. Маловероятно, что прямой запрет на дипфейки пройдет конституционную проверку. Существующие элементы гражданского права, такие как защита от нарушения авторских прав и диффамации, скорее всего, будут иметь ограниченную полезность.

    «Маловероятно, что полный запрет дипфейков пройдет конституционную проверку.Существующие элементы гражданского права, такие как защита от нарушения авторских прав и диффамации, скорее всего, будут иметь ограниченную полезность».

    Более многообещающим является внесение поправок в раздел 230 Закона о приличии в коммуникациях, который должен был предоставить поставщикам онлайн-услуг безопасную гавань для экспериментов с различными способами фильтрации нежелательного контента. Чесни и Цитрон утверждают — на мой взгляд, убедительно, — что суды расширили это положение закона до практически полного иммунитета от гражданской ответственности, включая случаи, когда провайдер распространял контент, зная, что он нарушает закон.Ссылаясь на недавнее законодательство, возлагающее на платформы ответственность за сознательное содействие преступлениям, связанным с торговлей людьми в целях сексуальной эксплуатации, они рекомендуют защищать только тех поставщиков, которые предпринимают «разумные шаги для борьбы с незаконным использованием их услуг». Однако, как они признают, нынешние уголовные законы в большей степени защищают потенциальных жертв преследования, запугивания и подстрекательства, чем защищают честность политического процесса. А в рамках действующего законодательства такие административные органы, как Федеральная торговая комиссия, Федеральная комиссия по связи и Федеральная избирательная комиссия, тоже мало что могут сделать. 21 Еще неизвестно, переживут ли законы, которые прямо решают эту проблему, такие как недавно принятый в Калифорнии запрет на создание или распространение дипфейков в течение 60 дней после выборов, неизбежный конституционный вызов. 22

    Именно на этом фоне член палаты представителей Иветт Кларк (DN.Y.) представила Закон об ответственности DEEPFAKES в июне 2019 года. Этот законопроект сделает преступлением создание и распространение дипфейка без включения цифрового маркера модификации и текстового заявления. признание модификации.Это также дало бы жертвам право подать в суд на создателей этих искажений за ущерб, нанесенный их репутации.

    Как отмечают критики, широкие формулировки законопроекта затруднили бы различие между действительно злонамеренными дипфейками и использованием этой технологии для развлечения и сатиры, что вызывает опасения по поводу Первой поправки. Более того, хорошие парни с большей вероятностью добавят цифровые и вербальные идентификаторы, чем плохие актеры, которые пытаются посеять раздор и повлиять на выборы. 23 Перспективы принятия этого законопроекта не кажутся обнадеживающими.

    Заключение: Промежуточное предложение

    Кажется, что разрозненные технологические и законодательные усилия, о которых говорилось выше, вряд ли приведут к эффективному противодействию дипфейкам вовремя, чтобы защитить честность выборов 2020 года. Чтобы ускорить процесс, я бы порекомендовал сформировать беспристрастную группу спецназа по борьбе с дипфейками, состоящую из лучших ученых и исследователей из частного сектора, с горячей линией, работающей в любое время дня и ночи.Кандидаты на выборные должности могли отправлять предполагаемые дипфейки этой группе спецназа для анализа и оценки в течение 24 часов. Эта новая организация должна была установить отношения с максимально возможным количеством традиционных и социальных СМИ, по всему политическому спектру, с отдельными лицами в каждом СМИ, назначенными контактными лицами. Этим СМИ будет предложено подписать обязательство, обязывающее их маркировать как ложные и вводящие в заблуждение все аудио- или видеоизображения, которые команда считает дипфейковым продуктом, и — в случае интернет-платформ — удалять эти изображения со своих сайтов.Как показали предыдущие добровольные усилия, эффективность этого предложения будет зависеть от согласия как основных партий, так и их кандидатов. Если он заработает в 2020 году, его можно будет создать как постоянно действующую организацию, а не как временную чрезвычайную меру.

    «[Технологические и законодательные усилия… вряд ли приведут к эффективному противодействию дипфейкам вовремя, чтобы защитить честность выборов 2020 года».

    Как отмечают Чесни и Цитрон, политики платформ по проверке и удалению контента могут оказаться «наиболее заметным механизмом реагирования из всех», поскольку их соглашения об условиях обслуживания являются «единственным наиболее важным документом, регулирующим цифровую речь в сегодняшней Мир. 24 Поставщики интернет-платформ имеют возможность внести свой вклад — добровольно — в избирательный процесс 2020 года, в котором нормы правды соблюдаются больше, чем на недавних выборах. Если они не воспользуются этой возможностью — и если дипфейки бушуют на выборах в следующем году, оставляя за собой полосу лжи и искажений — Конгресс вполне может лишить платформы почти полного иммунитета, которым они пользовались в течение четверти года. столетие, и суды могут переосмыслить толкования Первой поправки, которые мешают законодателям защищать фундаментальные демократические процессы.

    Отказ Facebook удалить грубо измененное видео со спикером палаты представителей Нэнси Пелоси вызвало недовольство во многих кругах, как и объяснение того, что правила компании не запрещают размещать ложную информацию. Если бы я был Марком Цукербергом, я бы не ставил будущее своей компании на то, что бизнес будет продолжаться как обычно.


    Brookings Institution — некоммерческая организация, занимающаяся независимыми исследованиями и политическими решениями. Его миссия состоит в том, чтобы проводить высококачественные независимые исследования и на основе этих исследований предоставлять инновационные практические рекомендации для политиков и общественности.Выводы и рекомендации любой публикации Brookings принадлежат исключительно ее автору (авторам) и не отражают точку зрения Учреждения, его руководства или других ученых.

    Microsoft оказывает поддержку Инициативе Института Брукингса по искусственному интеллекту и новым технологиям (AIET), а Amazon, Facebook и Google предоставляют общую неограниченную поддержку Учреждению. На результаты, интерпретации и выводы в этом отчете не повлияло какое-либо пожертвование.Brookings признает, что ценность, которую она предоставляет, заключается в абсолютной приверженности качеству, независимости и влиянию. Мероприятия, поддерживаемые его донорами, отражают это обязательство.

    Глубокие фейки и преодоление следующего рубежа фейковых новостей и эрозии человеческой деятельности

    В современную технологическую эпоху компьютеры все лучше и лучше моделируют реальность. Среди других нововведений Deepfake, новаторская альтернатива покупкам фотографий в 21 веке, в последнее время выходит на первые полосы.

    Проще говоря, дипфейк — это сочетание «подделки» и «глубокого обучения», в котором используется искусственный интеллект с глубоким обучением для создания синтетических медиа (изображений, аудио и видео) нереальных событий. Типичные примеры приложений дипфейка могут включать в себя замену лица персонажем фильма или синтетическое создание аудиоконтента.

    Помимо прочего, технология дипфейков превратила дебаты о фейковых новостях в новую волну дезинформации, которая включает не только вводящие в заблуждение или откровенно ложные новостные сообщения, но и распространяющиеся на аудио- и визуальный контент.Страны по всему миру борются с проблемой искажения фактов, основанной на лживых речах и поведении, которое может быть дешево создано с помощью этой технологии.

    Администрация киберпространства Китая, в дополнение к своему набору инструментов для контроля над передовыми технологиями, недавно выпустила проект правила об информационных интернет-сервисах Deep Synthesis для регулирования технологий, использующих алгоритмы генеративного секвенирования для создания текста, изображений, аудио, видео, виртуальных сцен. или другую информацию, представленную глубоким обучением и виртуальной реальностью.В соответствии с проектом правила поставщики дипфейков обязаны проверять личность каждого пользователя и создавать базу данных характеристик, используемых для выявления незаконной и негативной информации глубокого синтеза. В тех случаях, когда предоставляются специальные услуги глубокого синтеза (такие как имитация голоса и замена лица), поставщики услуг должны эффективно предупреждать общественность о синтетическом характере информационного контента.

    В рамках недавнего законодательного шага Европейский союз обнародовал предложение о регулировании, устанавливающем согласованные правила в отношении ИИ и вносящем поправки в некоторые законодательные акты.Среди прочего, в предложении предлагается, чтобы пользователи, использующие системы ИИ для создания дипфейков, сообщали, что контент был искусственно сгенерирован или обработан. Исключения из этого правила включают случаи, когда использование разрешено законом для выявления, предотвращения, расследования и судебного преследования уголовных преступлений или необходимо для осуществления права на свободу выражения мнений и права на свободу искусства и науки, гарантированных в Хартии основных прав ЕС и при условии соблюдения соответствующих гарантий прав и свобод третьих лиц.

    Манипулятивное содержание, в котором спикер Палаты представителей Нэнси Пелоси ложно изображалась больной или находящейся в состоянии алкогольного опьянения, действительно привлекло к более широкому обсуждению в Соединенных Штатах вопрос о злонамеренном использовании технологий видеоманипулирования, включая дипфейки. В свете этой проблемы государства усилили свое внимание, предписав правила в отношении дипфейков, чтобы предоставить жертвам средства правовой защиты. Некоторые законы, например в Калифорнии, даже объявили незаконным создание или распространение видео, изображений или аудиозаписей политиков, сфальсифицированных так, чтобы они напоминали настоящие кадры перед выборами 2020 года.

    В отличие от конкретных предписаний Китая, ЕС и США, специально предназначенных для предоставления и использования технологий дипфейка, действующие правила Вьетнама подходят к рассматриваемому вопросу более общим и всеобъемлющим образом. В частности, различные правовые инструменты в целом запрещают использование киберпространства для распространения ложной информации. Поскольку дипфейковые видеоролики по своей сути содержат нереальные события, распространение таких видеороликов без каких-либо признаков, указывающих на их синтетический характер, теоретически равносильно распространению ложной информации и, следовательно, потенциально подлежит регулированию перечисленными законами, а также денежным санкциям.

    В дополнение к проблеме дезинформации дипфейки также представляют угрозу осуществлению права на публичное использование, которое защищает узнаваемые аспекты личности от незаконного несанкционированного использования. Как уже говорилось, технология дипфейков может создавать правдоподобные видео или аудио почти любого человека, делающего что угодно, тем самым подрывая саму внутреннюю концепцию человеческой деятельности.

    В соответствии с Гражданским кодексом Вьетнама 2015 года право на публичное использование не признается под этим названием, а защищается как часть права личности.Соответственно, использование изображения должно быть разрешено этим лицом; когда такое использование связано с коммерческими целями, это лицо имеет право на вознаграждение, если не согласовано иное. В отношении умершего лица использование его изображения должно быть одобрено его супругом или совершеннолетним ребенком, а при отсутствии этих лиц — его отцом или матерью. Исключения из требования о согласии включают случаи, когда использование личного изображения служит общественным интересам или когда используемое изображение используется в общественной деятельности, при условии, что такое использование не наносит ущерба чести, достоинству и репутации объекта изображения.В отличие от правовой защиты права на публичное использование во Вьетнаме в Гражданском кодексе, такое право в США в значительной степени основано на законодательстве штата, и его признание может варьироваться от штата к штату, т. е. оно может быть гарантировано как часть права на неприкосновенность частной жизни посредством в соответствии с законом о недобросовестной конкуренции или в соответствии с режимом законодательства об интеллектуальной собственности, как разъяснено судом, как «право интеллектуальной собственности недавнего происхождения, которое было определено как неотъемлемое право каждого человека контролировать коммерческое использование своей личности.«Сказав это, существуют ограничения на право на публичное использование, предусмотренное в разделе 230 Закона о приличии в коммуникациях, защищающем платформы от (большинства) ответственности, а также в Первой поправке, защищающей свободу прессы.

    Вопросы и ответы с Алексом Коэном — Digital.gov

    Приведенные ниже вопросы были подготовлены участниками вебинара Deep Fakes и социальных сетей, организованного сообществом специалистов SocialGov и Digital.gov 18 мая 2021 г. Вопросы модерировались Председатель совета сообщества SocialGov Габриэль Перре из U.S. General Services Administration (GSA), и на него ответил директор по новым технологиям Управления технологической политики GSA Алекс Коэн.

    В: Какие удивительные вещи вы узнали о дипфейках?

    A: Дипфейки очень легко сделать. Доступны студии и загружаемые инструменты, которые просты в использовании и позволяют людям сразу приступить к работе. Я думаю, что самым большим сюрпризом является то, что дипфейки еще не использовались в более деструктивных целях.Большинство из них просто политики или знаменитости, которые говорят и делают глупости, а не что-то, за чем стоит какая-то миссия.

    В: Нужны ли людям видео для создания дипфейковых видео? Или только фотографии?

    A: Просто фотографии, хотя речь идет о тысячах фотографий. Видео отличное при 30 кадрах в секунду; это упрощает создание дипфейков. Но достаточно просто изображений, если их у вас достаточно.

    Q: Какие политические примеры были?

    A: Был один в Индии.Это был первый пример использования политической кампании. Это было относительно безобидно и не использовалось злонамеренно. Кто-то говорил на разных языках. Они заставили другого человека говорить на этом языке, а затем сопоставить лицо политика с говорящим человеком.

    В: Как насчет США?

    A: Мы не видели такого в Соединенных Штатах. На самом деле мы не видели, чтобы это использовалось здесь, кроме как в юмористических целях, а не для чего-то, что претендует на статус официального заявления.

    В: Применяются ли к дипфейкам законы о клевете или клевете? Были ли какие-либо судебные дела о выдаче себя за другое лицо?

    A: Да, были, хотя, опять же, это зависит от того, используется ли он для юмористических целей или для сатиры. Дипфейки защищены этими законами. В сфере развлечений было несколько судебных исков.

    В: Как вы боретесь с этими видео более оперативно? Каковы начальные шаги, с кем вы связываетесь, кому вы пишете по электронной почте, кому вы звоните сразу?

    A: Мы призываем вас заранее планировать.Имейте готовый к использованию язык, который предварительно одобрен. Будьте готовы снять видео в ответ, если это дипфейк на основе видео. На самом деле другого пути нет, и вы, безусловно, можете связаться с платформой социальных сетей, если она распространяется на Facebook и т. Д. Обратитесь к своим агентским связям с этими организациями. Как только он выйдет, с ним будет трудно бороться. Вы можете прыгать по YouTube, и это трудно остановить. Вот почему важно иметь что-то готовое к работе как можно быстрее. Как только вы обнаружите дипфейк, будьте готовы сделать заявление и опубликовать свой собственный контент как можно быстрее.Хорошая новость заключается в том, что ответ может быть относительно низкотехнологичным. Опубликуйте пресс-релиз, официальное заявление, прочтите что-нибудь в камеру, расскажите об этом и будьте готовы к работе. Это не высокотехнологичное решение; это в пределах возможностей агентства сделать и ответить последовательно.

    Q : Знаете ли вы, есть ли компания социальных сетей, которая занимается каким-либо мониторингом или решением этой проблемы?

    A: Это, безусловно, горячая тема, и она подпадает под проблему дезинформации, которая происходит прямо сейчас.К сожалению, это сложно, потому что нет компьютерных алгоритмов, которые могли бы определить, является ли что-то по своей сути подделкой. Агентства действительно должны иметь возможность немедленно пометить это и сообщить о чем-либо. Если вы столкнулись с подделкой, используйте инструменты модерации контента на этой платформе и будьте готовы связаться с этой платформой, если у вас есть какие-либо конкретные контакты.

    В: Использовались ли видеоролики рекламных кампаний для дипфейков?

    A: Вы не видите его в U.С., само по себе и, честно говоря, видео есть видео. У многих из этих политиков, вероятно, есть тонны и тонны пресс-релизов, конференций, выступлений. Это не трудно; это не обязательно должно быть одно и то же видео, и оно не обязательно должно быть размещено на одном и том же мероприятии. Вы можете использовать что-то отсюда и что-то оттуда, чтобы собрать достаточно изображений для создания убедительного дипфейка. Очевидно, что с голливудскими актерами легко, потому что они по определению на камеру. И именно поэтому они обычно поставляются с платформой для дипфейков.Но для их создания более чем достаточно видео с крупными политиками.

    В: Используются ли в настоящее время какие-либо специальные технологии, позволяющие обнаруживать дипфейки? Значит, их можно развенчать?

    A: Есть несколько таких. Мы не вызывали их явно, потому что это постоянная битва между инструментами и технологиями. Я мог бы дать вам имя сегодня, а завтра может быть кто-то новый. Это буквально битва, которая в настоящее время ведется в технологическом пространстве.Мы рекомендуем не искать автоматизированные инструменты, а заключать контракты для автоматизированных инструментов, потому что они постоянно меняются. Будьте готовы ответить, когда это произойдет.

    В: Есть ли что-нибудь в HTML, что может помочь вам определить, является ли что-то дипфейком?

    A: Нет, не совсем так.

    Q : Вы сотрудничаете с какими-либо социальными сетями для противодействия дипфейкам до того, как они станут вирусными?

    A: Это действительно не наше место.Я бы связался с вашими отделами по связям с общественностью, которые обычно работают с компаниями, работающими в социальных сетях. Наш офис дает рекомендации по политике и предоставляет лучшие практики, но мы не фокусируемся исключительно на дипфейках.

    В: Существуют ли бесплатные онлайн-инструменты для обнаружения дипфейков?

    О: Да, есть. Они постоянно меняются. Это актуальная область исследований для нас.

    В: Вы представляете себе в будущем какую-то систему проверки, которая сможет предварительно подтвердить, является ли видеоконтент реальным или тем, за что он себя выдает?

    О: Не думаю.Но представьте, что кто-то размещает компрометирующий контент секретарши на YouTube или делится им на своем Facebook. Они могут выдать что-то во время чрезвычайной ситуации. Представьте, что во время урагана появляется поддельный образ администратора FEMA и говорит, что урагана нет, оставайтесь в своем доме. И затем это распространяется среди целой группы на пути урагана. Итак, ответ — нет, мы действительно не видим никаких инструментов. Мы рекомендуем следить за официальными лицами агентства на этих платформах социальных сетей, чтобы немедленно помечать дипфейки.Имейте пост в блоге, пресс-релиз, готовый сценарий видео, объясняющий, что такое дипфейк, что мы его не делали, и указывайте на подлинные источники. Разоблачить это.

    В: Вы когда-нибудь видели, чтобы люди помечали видеоконтент как дезинформацию? Что касается изображений и постов, я видел, как приходили специалисты по проверке фактов и убирали «x» с экрана заявлением, в котором говорилось, что эта информация оказалась ложной. Но на видео такого не видел.

    A: Мы видели видеоконтент, который считался вводящим в заблуждение, если в нем содержались утверждения, которые по своей сути вводили в заблуждение.Что делает это сложным, так это то, что у вас может быть компрометирующая ситуация с сотрудником агентства. Они могут что-то говорить, и это кажется неправильным; но, если это в офисе агентства, легко сказать нет, это были не мы. Но представьте, если этот чиновник говорит что-то на улице или в другом месте, это может быть реальная новость. Агентству может быть даже трудно определить, является ли это подделкой, если оно снято в неформальной обстановке. Секретарь действительно сказал это этому человеку в баре или что-то в этом роде? Вот почему, опять же, ключевой момент здесь — быть готовым к ответу.

    В: Позволяет ли программное обеспечение для дипфейков имитировать голос человека в дополнение к его фото и видео?

    А: Да. Есть инструменты, которые на основе аудиозаписей позволяют имитировать чей-то голос. Если вы можете заставить человека говорить, вы можете использовать это, чтобы сгенерировать фальшивый телефонный звонок, который звучит как представитель этого агентства. Как упоминалось в начале, геопространственные данные также могут генерироваться синтетическим путем с помощью этой технологии.

    В: Знаете ли вы, занимается ли какая-либо из социальных сетей поиском поддельных видео? Знаете ли вы, есть ли у них процедуры, чтобы их снять? В прошлом я работал с Twitter, когда публиковался какой-то угрожающий контент, и они немедленно реагировали на его удаление.

    A: Я знаю, что это горячая область для них. Когда мы проводили наше исследование, мы обнаружили, что платформы социальных сетей пытались понять это так же, как и все остальные. Как с этим быть, как проверить, когда сложно доказать, что это неправда?

    Q: Учитывая распространение теорий заговора, что, если агентство противодействует, а люди по-прежнему отказываются верить фактам?

    A: Вот почему вам нужно приложить немного усилий, чтобы создать ответ.Будьте готовы отвечать связно и указывать на подлинные источники. Это именно то, что вы хотите предотвратить, и чем дольше оно остается без ответа, тем больше оно будет распространяться. Вы хотите быстро ответить, что это такое — мы этого не делали, вот настоящий источник, вот говорит правильный человек. Вот почему мы призываем к подготовке; это будет ключом. Последнее, что вы хотите делать, это карабкаться, чтобы получить подпись от чиновников агентства. Имейте какой-нибудь вечнозеленый контент, который, по вашему мнению, не изменится с настоящего момента и до того момента, когда это произойдет.Вы можете подготовить все разделы к работе, а затем просто указать конкретный экземпляр, заполнить пробелы, и он будет предварительно одобрен.

    В: Как вы опережаете кривую инноваций, когда дело доходит до разработки политик и оценки новых технологий, особенно с дипфейками? Он приспосабливается и меняется каждый день, поскольку люди становятся все более и более изощренными. Как вы остаетесь на вершине этого?

    A: Это отдельно от дипфейкового разговора, но в целом мы создали разведывательные возможности.У нас есть доступ к журналам по компьютерным наукам и ассоциациям, а также к Институту инженеров по электротехнике и электронике (IEEE). У каждого в команде есть один или два субъекта, за которыми они следят. Каждую неделю они читают последние записи в журналах, следят за ними и определяют новые источники. Мы следим за определенными людьми в Твиттере, за всеми, кто крут в этих конкретных областях. Например, я мониторю облако. Кто-то еще в команде следит за кибербезопасностью и бизнес-процессами. Мы создали целую таксономию в ИТ-пространстве, и каждому присваивается от одной до трех категорий в этой таксономии.У нас есть «Среда новых технологий», где мы обсуждаем, есть ли какие-либо политические последствия для любой из тем, которые мы отслеживаем. Некоторые из них настолько отдалены, что могут не иметь значения для политики. Например, это могут быть печатные татуировки, которые включают в себя схемы, может быть проблема с конфиденциальными информационными средствами (SCIF) и другими безопасными средами, или мы можем рассматривать медицинское устройство. Мы добавляем вопросы политики на базовую доску Trello и ежемесячно расставляем приоритеты.На данный момент мы определили около 90 вопросов политики. У нас есть очень гибкая мастерская, которая создала этот разведывательный потенциал. В ближайшем будущем мы будем опрашивать промышленность и задавать вопросы о том, на какие технологические проблемы нам следует обращать внимание (на что мы не обращаем внимания), и были ли у них какие-либо трудности с внедрением своих технологий в правительство. Мониторинг новых технологий — это активное усилие; мы должны держать на вершине этого. Единого источника нет — т.е. читайте этот сайт и он вам все расскажет.Он отслеживает и отслеживает множество различных источников новостей.

    В: Если люди в этой группе хотят узнать больше, есть ли другие ресурсы или связанные организации, за которыми они могут следить или исследовать больше?

    A: Когда мы работали над этой темой, нам особенно помогало Агентство перспективных оборонных исследовательских проектов (DARPA). Мы связались с несколькими людьми в разведывательном сообществе и попросили их совета и отзывов, и мы включили это в наши рекомендации.Если у кого-то есть контакты в DARPA, я настоятельно рекомендую их. Мы также получили некоторые отзывы от Министерства внутренней безопасности США.

    В: Действительно ли дипфейки предназначены только для людей? Или можно ли манипулировать объектами или другими изображениями в видео и изображениях?

    A: Как я уже упоминал, геопространственные данные были недавно подделаны. Они создали карту, которая добавила к ней дополнительные элементы, которые выглядели как подлинные спутниковые снимки, используя ту же технологию подделки.Что касается объектов, то я такого особенно не видел. Но технология работает с геопространственными данными, и нет никаких причин, по которым она не будет работать и с объектами.

    Q: В вашем геопространственном примере, что эти данные использовались для отображения?

    A: Я полагаю, что в этом случае это была конференция или съезд по кибербезопасности. Это актуальная горячая тема. Вы можете использовать его не только для создания людей, но и для создания геопространственных данных. Забота та же, верно? Много раз у вас есть новостные репортажи, которые показывают мобилизацию войск или другие инциденты, и если вы можете генерировать эти типы фальшивых геопространственных данных, они выглядят официальными.Он выглядит настоящим, но опять же, он полностью синтетический. Так что это будет заботой. Это новая форма дезинформации, с которой нам нужно научиться бороться. Не только люди и голоса, но и спутниковые снимки.

    Вопрос: Каким образом большинство организаций уведомляются о дипфейковом видео? Мне, как индивидуальной программе, было трудно следить за всем, особенно в этой ситуации, когда они явно не помечают официальные аккаунты в социальных сетях. Как люди узнают, есть ли дипфейк?

    A: Мы рекомендуем ботов оповещения.Настройте оповещения для любого из ваших людей, которые часто снимаются с камеры, и отправьте их куда-нибудь во входящие, и следите за этим. Боты оповещения будут отслеживать блоги, другие источники новостей и общедоступные сообщения в социальных сетях. Если вы вдруг увидите кучу упоминаний об этом человеке, и если люди начнут болтать об этом, что-то вроде этого может подхватить это. Будьте готовы к тому, что такие инструменты будут работать в фоновом режиме. [Габриэль Перре: Я бы тоже подумала, что иногда старый добрый поиск по хэштегам или поиск по ключевым словам в социальных сетях также может выявить контент и привлечь к нему внимание.]

    Что такое дипфейки и как они влияют на общество?

    Поддельный онлайн-видео- и аудиоконтент стал мощным инструментом распространения политической дезинформации и нанесения ущерба личной репутации.

    Морган Карри, Преподаватель данных и общества в Школе социальных и политических наук

    Дипфейки — это результат систем машинного обучения, которые манипулируют содержимым одного носителя, передавая его другому.ИИ поглощает видео, фотографии или звук человека или объекта, затем учится имитировать его поведение и выводить результаты на другого целевого человека или объект, создавая устрашающе точную подделку.

    Программное обеспечение для глубокого обучения, используемое для создания дипфейков, стало дешевым и доступным, что вызывает вопросы о возможности злоупотреблений. Хотя есть много безобидных и забавных примеров — например, Сальвадор Дали делает селфи с посетителями музея — происхождение технологии показывает, насколько вредной она может быть.

    Первая подделка

    Термин впервые стал широко использоваться в 2017 году, после того как пользователь Reddit под ником «Deepfakes» опубликовал порнографические видео с участием актрис, чьи лица были изменены с помощью цифровых технологий, чтобы они напоминали женщин-знаменитостей, таких как Скарлетт Йоханссон и Галь Гадот. Для многих видео пересекли основные границы, регулирующие согласие и домогательства, и продемонстрировали новый мощный инструмент для порноместь. То, что «глубокие подделки» использовали бесплатное программное обеспечение Google для машинного обучения с открытым исходным кодом, также показало, насколько легко любитель или любой, кто интересуется этой технологией, может замаскировать ложь под реальность.

    С тех пор появились и другие примеры тревожных дипфейков, в том числе видео спикера Палаты представителей США Нэнси Пелоси, измененное так, чтобы она звучала пьяной — оно широко распространилось после того, как Дональд Трамп опубликовал его, а Facebook отказался удалить его — и видео два художника генерального директора Facebook Марка Цукерберга признаются, что его компания «действительно владеет будущим».

    Актер Джордан Пил использовал дипфейк Барака Обаму, чтобы предупредить об опасности дипфейков, подчеркнув, как они могут искажать реальность таким образом, что это может подорвать веру людей в надежные источники средств массовой информации и спровоцировать токсичное поведение.И хотя подавляющее большинство дипфейков представляют собой порнографию без согласия, а не дезинформацию, некоторые представители разведывательного сообщества предупреждают, что иностранные правительства могут распространять дипфейки, чтобы сорвать выборы или повлиять на них.

    Барак Обама и Джордан Пил — BuzzFeed / Monkeypaw Productions

    Законодательство о лжи

    Компании, работающие в социальных сетях, начали решать дилемму дипфейков: в 2019 году Facebook организовал открытый конкурс, чтобы помочь ему разработать модели для обнаружения дипфейков, и запретил их в начале 2020 года, предвидя ущерб, который может быть нанесен в год выборов.Twitter теперь удаляет сообщения о дипфейках и блокирует любого из их издателей.

    Правительства также выдвигают законы, ограничивающие использование технологий. В 2019 году Калифорния приняла закон, полностью запрещающий дипфейки, а в декабре 2020 года Конгресс США принял Закон об идентификации результатов генеративно-состязательных сетей.

    Индустрия развлечений прохладно отреагировала на эти меры защиты, заявив, что слишком много надзора ограничивает права на свободу слова. В 2018 году вице-президент Walt Disney Company по связям с государственными органами Лиза Питни написала, что предложенный в Нью-Йорке закон, который включает контроль за использованием «цифровых копий», «помешает праву и способности таких компаний, как наша, рассказывать истории о реальные люди и события.Общественность интересуется этими историями, и Первая поправка защищает тех, кто их рассказывает».

    Другие считают, что такого законодательства недостаточно. Существующие законы возлагают на пользователей бремя выявления дипфейков, реабилитируя платформы, на которых они распространяются. Компании, работающие в социальных сетях, по-прежнему освобождены от регулирования, и в настоящее время не существует общеотраслевых стандартов, что удерживает их от ответственности на данный момент.

    Эта статья впервые появилась в журнале The New Real Magazine 2 марта 2021 года.

    Изображение предоставлено BuzzFeed / Monkeypaw Productions

    Мнения, выраженные в этом разделе, принадлежат авторам и не обязательно отражают точку зрения Университета.

    .

    Добавить комментарий

    Ваш адрес email не будет опубликован.