Цифровая гигиена - Наталья Касперская Страница 43

Книгу Цифровая гигиена - Наталья Касперская читаем онлайн бесплатно полную версию! Чтобы начать читать не надо регистрации. Напомним, что читать онлайн вы можете не только на компьютере, но и на андроид (Android), iPhone и iPad. Приятного чтения!

Цифровая гигиена - Наталья Касперская читать онлайн бесплатно

Цифровая гигиена - Наталья Касперская - читать книгу онлайн бесплатно, автор Наталья Касперская

Тизерные сети также предлагают возможности широкого показа фейкового контента, в том числе самая мощная тизерная сеть Рунета «Яндекс. Дзен». Достаточно выполнить простые требования к формату сообщения, заплатить за раскрутку – и пожалуйста, вброс пошёл.

Биржи контента для социальных сетей. Для социальных сетей также существуют биржи по размещению контента. Там можно купить размещение статьи от имени каких-то аккаунтов или в группах. Есть биржи, где продаётся накрутка лайков, комментариев, перепостов. Такие сервисы особенно развиты в Китае и США.

Мессенджеры. Вбросы в группы в мессенджерах не дают мгновенного результата за несколько часов, как в интернет-СМИ и соцсетях [33], зато сообщение в них пользователи передают из рук в руки, совершенно добровольно, в течение достаточно долгого времени, иногда неделями.

Например, во время паники по поводу коронавируса в России в группы WhatsApp вбрасывали аудиофайл с записью взволнованного женского голоса, сообщавшего, что «власти скрывают», а «на самом деле» в Москве десятки тысяч заражённых вирусом. Этот файл распространялся преимущественно в родительских группах начальных классов.

Каналы в мессенджерах, например в Telegram, напротив, представляют собой полный аналог СМИ, ведущих вещание на широкую аудиторию, но при этом анонимных и не несущих никакой ответственности даже по закону о СМИ, так что в каналы можно вбрасывать любые фейки. Более того, часть каналов Telegram и позиционируют себя как каналы сумасшедших новостей, компромата, конспирологии, диких теорий и фейков.

Большинство каналов Telegram берут деньги за размещение контента. Крупные каналы (с количеством подписчиков 50–100 тысяч) берут много, могут вникать, достоверный материал или нет; а мелкие каналы (5, 10, 15 тысяч подписчиков) более неразборчивы и дёшевы – у них бывает нехватка горячего контента.

Фейковый контент и дипфейки

Развитие технологий вывело создание фейков на принципиально новый уровень. При помощи нейросетей сейчас можно создавать фейковые видеозаписи, практически неотличимые от настоящих, и аудиозаписи, на которых будет убедительно звучать практически любой голос. Обобщённо такие технологии называются «дипфейк».

Дипфейк – синтетическое медиа, в котором один человек в существующем медиа (фото, видео, аудио) заменяется другим. Название составлено из слов deep learning – «глубокое обучение» и fake – «подделка». Дипфейки наиболее часто используют в рекламе, порнофильмах, порномести, фейковых новостях и для финансового мошенничества.

Безусловно, подобная технология имеет целью не только создание подделок – она успешно применяется и в кинематографе, и в рекламе. Так, проект VeraVoice, работающий над синтезом человеческой речи, предназначен в основном для создания интерактивных приложений, озвучки аудиокниг, игр, фильмов. Но, конечно, создатели фейков не могли пройти мимо столь мощного инструмента.

В марте 2019 года в Великобритании дипфейк был использован для крупного хищения. Посредством нейросети мошенники сымитировали голос исполнительного директора энергетической компании, с помощью чего отдали распоряжение о переводе 220 тысяч евро третьим лицам. У сотрудника, исполнившего поручение, не возникло ни тени сомнения, что приказ поступил от директора. Следствие так и не сумело установить личности злоумышленников [34].

Цифровая гигиена

Ещё более мощными являются инструменты, способные подменить в видеоролике лицо персонажа лицом (и фигурой) нужного человека. Подобные программы существуют уже сравнительно давно, непрерывно совершенствуются, а многие из них, например Deepfacelab, находятся в открытом доступе. Результатом работы таких программ становится вполне реалистичное видео. При желании на YouTube можно найти десятки видеороликов, в которые с помощью таких инструментов «вживлены» известные мировые политики.

Не обошёл прогресс и классические текстовые фейки. Существуют программы, способные генерировать связный текст в объёме многих страниц. Таковы, например, сети BERT и GPT, созданные компанией Google и ассоциацией OpenAI соответственно.

Более того, нейросеть можно обучить и стилевой правке текста: для этого сеть анализирует тексты авторства нужного человека и обучается характерным для него стилевым приёмам, после чего становится возможным генерировать тексты, выполненные в нужной авторской манере, или корректировать под неё уже написанный текст.

Почему фейки быстро распространяются

Настоящий, хорошо сделанный фейк очень трудно отличить от естественной горячей новости. Обычно вбрасываемый фейк полностью соответствует ожиданиям публики, их архетипам:

• «народ живёт всё хуже»;

• «чиновники воруют»;

• «селебрити жируют и развратничают»;

• «олигархи замышляют плохое, расхищают народное добро и наслаждаются жизнью»;

• «всё разваливается, депутаты принимают нелепые законы»;

• «власть ведёт наступление на права и благосостояние граждан и распродаёт недра».

В итоге люди добровольно и с удовольствием распространяют их, считая, что помогают правде.

Как распознать фейковую новость

С нашей точки зрения, распознать фейковую новость автоматически, только техническими средствами и по тексту нельзя. Для понимания того, что новость фальшивая, нужна проверка, нужно убедиться в том, что там написана фактическая ложь. Это невозможно сделать автоматически, поскольку машина должна понимать контекст новости, а также знать факты. Именно поэтому не существует автоматических фильтров для фейков.

Более того, во многих случаях с новостью типа «в Сирии совершена химическая атака» или «в “Зимней вишне” 400 трупов» в момент её появления вообще нет никаких способов понять, фальшивая ли это новость, – ни автоматических, ни ручных.

Искусственный интеллект и нейронные сети здесь не помогут. Это, увы, пока дело самого пользователя.

Тем не менее есть несколько внешних признаков, по которым можно на глаз распознать фейк.

Богатство контента и график распространения

По количеству разных версий события и характеру распространения зачастую можно уверенно определить степень искусственности новости.

У настоящей новости о реальном событии много свидетелей и участников, они все рассказывают о событии своими словами, сами публикуют эти рассказы. То есть настоящая новость имеет много разных оригиналов, версий и «пробулькивается» сразу во многих местах, причём часто в очень популярных СМИ и блогах. Появление новости в медийном пространстве похоже на круги от дождя на воде.

Перейти на страницу:
Вы автор?
Жалоба
Все книги на сайте размещаются его пользователями. Приносим свои глубочайшие извинения, если Ваша книга была опубликована без Вашего на то согласия.
Напишите нам, и мы в срочном порядке примем меры.
Комментарии / Отзывы

Comments

    Ничего не найдено.