Мошенники все чаще подделывают любой голос или изображение. Как защититься?
Один из первых в России судов по делу о дипфейке выиграл режиссер, директор Agenda Media Алексей Парфун. Он увидел рекламу платформы Roistat, где был использован сделанный его компанией дипфейк-ролик с Киану Ривзом, пишет “Российская газета”.
Попытка разобраться натолкнулась на ответ о том, что продукция нейросетей авторским правом не регулируется. Однако суд расставил точки над “i”. Точнее, над правом пользоваться искусственным интеллектом (ИИ): “Доводы ответчика отклоняются судом, поскольку технология deepfake – это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания”. И приговорил интеллектуальных браконьеров к штрафу в 500 тыс. рублей.
Дипфейк ищет “героя”
Почему до судов не доходят уже тысячи дел, когда телефонные мошенники, подделывая голоса родных, звонят жертвам и выманивают у них деньги, а то и принуждают брать кредиты? Еще вчера сценарий мошенничества был голосовым: “Мама, я сбил человека, нужно 5 тыс. евро”. Сегодня технологии нейросети изощреннее. Есть случаи, когда с помощью видеодипфейков завистники пытались уволить с работы конкурента. Или бывший муж подставил лицо бывшей жены в порноролик и вымогал у нее деньги. Дипфейки эволюционировали настолько, что стать их “героем” проще, чем кажется.
– Уровень создания дипфейков таков, что идет социальное профилирование жертв, – говорит координатор Центра безопасного интернета Урван Парфентьев. – Или создание профиля личности, на которую направлена атака. Данные кибермошенниками берутся из соцсетей, персональных данных или из украденных документов – банковских, медкарт или водительских удостоверений. Так создается реалистичный профиль жертвы – с интересами, слабостями, чертами характера, который и используется для манипулирования.
Глаза и зубы спасут
Пока самые распространенные примеры видеошантажа – дипфейк-порно, а голосовые – вымогательство денег – остаются без исков в суд от пострадавших. Хотя в первом случае “режиссеров” легко осудить за изготовление и оборот порнографических материалов, во втором – сложнее, но реально – за мошенничество и вымогательство. Причины, по которым не обращаются за помощью пострадавшие, как считают эксперты “Лаборатории Касперского” и РОЦИТ, схожие – стыд, страх и ловушка цифрового следа.
Поэтому первое, что рекомендуют эксперты, – нигде не оставлять свои персональные данные, особенно в соцсетях. Ведь чем меньше материалов, тем сложнее создать дипфейк. А цифровая подделка низкого качества сразу бросится в глаза. По данным “Лаборатории Касперского”, самыми уязвимыми в дипфейках остаются глаза и зубы. Бликов в глазах или нет, или они тусклые. А зубы или плохо прорисованы, или выглядят как белая пустота.
Отсюда второй совет – не паниковать. Паникер поддается на провокацию и начинает оправдываться в чатах, форумах и соцсетях в том, чего он не совершал. Но поздно: хайп, сотворенный и своими руками, оборачивается вирусным распространением дипфейка. Поэтому третий совет экспертизы неумолим. Он комплексный. Сначала надо заняться собственной цифровой гигиеной – собрать все доступные доказательства (фото, видео, документы, показания свидетелей) того, что на видео изображен кто-то другой. Потом обращаться в службу поддержки платформы, разместившей дипфейк, параллельно на горячую линию НКО, которые помогают со сбором доказательств, например, в Центр безопасного интернета, “Лабораторию Касперского” или РОЦИТ. Потом – с иском в суд. При этом администрация ресурсов при посредничестве НКО удалит ролики и заблокирует аккаунты пользователей, с которых они были опубликованы. Юристы помогут с составлением иска о защите чести и достоинства.
“Товарищ майор”, вы товарищ?
То есть способы защиты от цифрового шантажа есть. Но чтобы ими воспользоваться, нужны цифровая грамотность и понимание того, что создание дипфейка не является незаконным деянием. Эта технология успешно служит науке и культуре. Другое дело, если плагиат, шантаж или вымогательство подпадают под уголовные преступления, тогда стоит сразу обращаться в полицию. Или, например, если частные фото или видео оказались в Сети без персонального согласия и эти материалы ранее не были опубликованы, это считается нарушением неприкосновенности частной жизни, что преследуется законом.
Стыд, страх и ловушка цифрового следа лишают воли пострадавших от дипфейков
– Думаю, общество все же придет к дипфейковым ограничениям, – считает Урван Парфентьев. – Другое дело, что они не будут работать односторонне – только через законодательство. Все же в эпоху цифры без информационной грамотности и гигиены не обойтись. Все данные надо проверять, личными данными не сорить, а инструментами правовой цифровой защиты – уметь пользоваться.
Как пример, эксперты приводят долгожданного помощника – разработанную в России нейросеть “Товарищ майор”. Она умеет исследовать сообщества в мессенджере и определять администраторов, владельцев пабликов, включая нелегалов и создателей самопальных дипфейков. Но мало того, что она пока не внедрена в практику и проходит тестирование, так ее еще надо осилить пользователю. Уметь пользоваться нейросетью “Товарищ майор” – это примерно то же самое, что уметь пользоваться законом. Так, в российском праве уже есть нормы преследования создателей дипфейков – статья 159 УК (“Мошенничество”) и статья 152 ГК (“Защита чести, достоинства и деловой репутации”). К ним примыкает закон о защите персональных данных. Вот только судебной практики нет. Боятся люди.
Справка “РГ”
Что такое дипфейк
Дипфейк (англ. deepfake от deep learning – “глубинное обучение”, fake – “подделка”) – наукоемкая методика синтеза изображения или голоса, основанная на искусственном интеллекте (ИИ). Есть аудио- (голосовой) дипфейк, есть видеодипфейк. Используется в науке, кинематографе, рекламе, в музейном, мультипликационном пространстве и иных сферах.