Дипфейки в арбитраже: защита бизнеса и оспаривание поддельных доказательств в суде | Экспертиза 2026
Введение: Кризис доверия к цифровым доказательствам
В 2024 году транснациональная компания из Гонконга перевела мошенникам 25,6 млн долларов, участвуя в видеоконференции с... собственным финансовым директором. Вернее, с его цифровым двойником. В Калифорнии судья прекратила производство по делу, обнаружив, что видеопоказания ключевого свидетеля сгенерированы нейросетью.
Искусственный интеллект поставил под сомнение фундаментальный принцип правосудия: «видеть — значит верить». Сегодня перед корпоративными юристами и службами безопасности стоит двойная задача. С одной стороны, необходимо защитить компанию от атак с использованием дипфейков (deepfake). С другой — быть готовым профессионально оспорить сфабрикованные доказательства в суде или, наоборот, отбиться от необоснованных обвинений в фальсификации собственных материалов.
В этой статье мы разберем актуальную судебную практику России и зарубежья, ошибки, которые дорого обходятся бизнесу, и современные методы детекции синтетического контента.
Что такое дипфейк с точки зрения закона
Прежде чем говорить о защите, важно определиться с терминологией. Дипфейк — это синтез изображения, видео или голоса на основе технологий глубокого машинного обучения. С точки зрения права, это не просто «фотошоп», а качественно иной уровень подделки, способный ввести в заблуждение не только человека, но и биометрические системы.
Однако ключевой вопрос, который волнует бизнес: является ли контент, созданный нейросетью, объектом авторского права? И можно ли защитить свои цифровые активы, если они сгенерированы искусственным интеллектом? Ответ на этот вопрос в 2023-2024 годах дал российский Суд по интеллектуальным правам в беспрецедентном деле, которое мы подробно разберем ниже.
Краткий анализ опыта зарубежных стран
Законодатели по всему миру пытаются угнаться за технологиями. Для корпоративной защиты полезно знать основные модели регулирования, так как они влияют на международные контракты и споры с участием иностранных контрагентов.
1. США: Судейское усмотрение и прецеденты
В США нет единого федерального закона о дипфейках, но активно работает прецедентное право.
Федеральные инициативы: В мае 2025 года вступил в силу TAKE IT DOWN Act, который криминализирует создание и распространение интимных дипфейков без согласия и обязывает платформы удалять такой контент в течение 48 часов после уведомления. С мая 2026 года эти требования вступают в полную силу . Также активно обсуждается DEFIANCE Act, уже одобренный Сенатом, который позволит жертвам дипфейков подавать иски о компенсации .
Тренд 2025: Ужесточение требований к аутентификации доказательств.
Кейс Mendones v. Cushman & Wakefield (2025): Судья Виктория Колаковски в Калифорнии отклонила иск, заметив у представленного видео монотонный голос и неестественную мимику. Это один из первых случаев, когда дипфейк был отвергнут судом без сложной экспертизы, просто на основе внутреннего убеждения судьи.
2. Китай: Жесткое регулирование контента
КНР пошла по пути тотального контроля. С 2023 года здесь действует закон, требующий обязательной маркировки любого контента, созданного с помощью ИИ. Использование дипфейков для генерации фейковых новостей или контента, подрывающего нацбезопасность, запрещено категорически.
3. Европа и Италия: Уголовная ответственность
Евросоюз принял AI Act. С 2 августа 2026 года вступят в силу обязательства по маркировке AI-контента (статья 50) . Для помощи в соблюдении этих требований в декабре 2025 года опубликован проект Кодекса практики по маркировке AI-генерируемого контента .
Италия пошла дальше, став одной из первых стран ЕС, введшей всеобъемлющую уголовную ответственность за вред от дипфейков. С сентября 2025 года, согласно новой статье 612-quater Уголовного кодекса, за создание и распространение дипфейков без согласия человека, если это причиняет несправедливый вред, грозит лишение свободы на срок от 1 до 5 лет .
4. Россия: Ожидание квалифицирующих признаков
В России специального закона о дипфейках пока нет. Однако в Госдуме находятся соответствующие законопроекты, которые предлагают ввести дипфейк как квалифицирующий признак в статьи УК РФ («Мошенничество», «Клевета») и отдельно защитить право голоса гражданина. Пока же правоохранители и суды применяют общие нормы — ст. 159 УК РФ («Мошенничество») и ст. 152 ГК РФ («Защита чести, достоинства и деловой репутации»).
Российский прецедент: дело «Рефейс технолоджис» и защита AI-контента
Для понимания того, как российские суды относятся к дипфейкам, ключевое значение имеет спор между компаниями «Рефейс технолоджис» (Reface Technologies) и «Бизнес-аналитика» (Roistat) , который дошел до Суда по интеллектуальным правам .
Суть спора: видео с Киану Ривзом
Истец, компания Reface Technologies, заказала у продакшна «Адженда медиа групп» создание короткого юмористического ролика. В видео мужчина с лицом голливудского актера Киану Ривза несколько раз возвращается домой, чтобы проверить, выключен ли утюг, и в итоге берет его с собой. Ролик был создан с использованием технологии дипфейк (замена лица) и стал объектом исключительных прав истца. Позже компания «Бизнес-аналитика» (сервис Roistat) использовала это видео в интернете для рекламы своих услуг без разрешения правообладателя .
Аргументы сторон
Истец («Рефейс технолоджис»): Потребовал взыскать компенсацию в размере 500 000 рублей за нарушение авторских прав.
Ответчик («Бизнес-аналитика»): Заявил, что ролик не может охраняться авторским правом, так как полностью сгенерирован нейросетью (deepfake). Следовательно, по их мнению, это результат работы машины, а не творческого труда человека, и видео должно быть в общественном достоянии .
Решение суда: три инстанции против «цифрового нигилизма»
Все три судебные инстанции встали на сторону истца.
Первая инстанция (Арбитражный суд г. Москвы, декабрь 2023 г.): Судья Виктория Крикунова взыскала 500 000 рублей компенсации, указав в решении ключевой тезис: технология дипфейка — это дополнительный инструмент обработки (технического монтажа) видеоматериалов, а не способ их создания . Суд подчеркнул, что за видеорядом стоит труд людей, которые написали сценарий, провели съемку, обеспечили аудиосопровождение. Именно их творческий вклад порождает авторское право, которое впоследствии было передано истцу .
Апелляция (9-й арбитражный апелляционный суд): Оставила решение в силе, отметив, что ответчик как профессиональный участник рынка ПО не может заблуждаться относительно принципов работы дипфейков .
Кассация (Суд по интеллектуальным правам, август 2024 г.): Окончательно подтвердила правоту нижестоящих судов, отказав в удовлетворении кассационной жалобы .
Юридическое значение
Это дело стало знаковым для всей российской цифровой экономики:
Прецедент для защиты AI-контента: Сам по себе факт использования нейросетей не лишает произведение правовой охраны. Это развязало руки креативным студиям и IT-компаниям, которые теперь могут смелее инвестировать в создание контента с помощью ИИ .
Критерий охраноспособности: Главным остается творческий вклад человека. Если нейросеть — лишь инструмент в руках сценариста, режиссера, оператора, то результат признается объектом авторского права .
Ориентация на международные стандарты: Решение коррелирует с общемировой тенденцией, где в центре внимания также вопрос о творческом вкладе человека .
Как мошенники используют дипфейки против бизнеса
Понимание механики атак — первый шаг к построению защиты. Эксперты выделяют три основных сценария, которые уже дошли до судов или громких расследований:
Подделка корпоративных приказов (CEO Fraud): Мошенники генерируют голос генерального директора и звонят финансовому директору с требованием срочного перевода средств. Технологии real-time deepfake позволяют подменять лицо и голос даже во время видеозвонков (кейс из Гонконга).
Дискредитация и шантаж: Создание компрометирующих видео с участием топ-менеджеров или представителей компании для давления при переговорах или нанесения репутационного ущерба.
Фальсификация доказательств в суде: Представление сфабрикованных записей переговоров или видеосвидетельств, чтобы склонить чашу весов в свою пользу.
Судебная экспертиза дипфейков: методология и ошибки
Когда дело доходит до суда, просто заявить «это видео — подделка» недостаточно. Требуется профессиональная экспертиза. Согласно анализу Федерации судебных экспертов, методология проверки делится на два уровня:
Анализ содержания (Физический и биометрический)
Эксперты ищут аномалии, которые нейросети пока не идеально копируют:
Синхронизация губ и фонем (виземы): Даже в качественных дипфейках часто встречается микро-рассинхрон.
Анатомия: Неестественная текстура зубов (они часто выглядят как «белая каша»), отсутствие или неправильная форма бликов в глазах, редкое моргание.
Физика: Тени, не соответствующие источнику света, или отражения в зрачках, которые меняются неестественно.
Технический анализ (Цифровая форензика)
Это самый надежный способ доказать подделку в суде:
Метаданные: Анализ EXIF-данных файла. Если файл заявляется как запись с камеры 2020 года, а создан в софте 2024 года — это подлог.
Анализ шума и пикселей: Каждый сенсор камеры оставляет уникальный «цифровой шум». У сгенерированного видео его нет, либо он однородный.
Спектральный анализ аудио: Поиск частот, несвойственных человеческой речи.
Кевин Руз (MIT) назвал «дивидендами лжеца» ситуацию, когда существование дипфейков используется для отрицания подлинности реальных фактов. Это опасная ошибка защиты.
Пример: В деле о гибели водителя Tesla (США, 2023) защита компании пыталась заявить, что видео с регистратора — дипфейк. Суд отклонил этот довод, так как он был голословным. Заявлять о фальсификации можно только при наличии веских оснований, иначе суд воспримет это как попытку ввести правосудие в заблуждение.
Актуальные судебные дела и практика (2023–2026)
Для формирования сильной правовой позиции полезно знать последние прецеденты.
Прецедент в Калифорнии (ноябрь 2025): Санкции за подлог.
В деле, рассмотренном в округе Аламеда, суд не просто исключил дипфейк-видео из дела, а прекратил производство по иску стороны, представившей подделку, и рекомендовал применить санкции. Это сигнал: риск потери дела из-за попытки использовать ИИ-фальшивку стал слишком высок.
Российский кейс по авторскому праву (дело «Рефейс технолоджис» против «Бизнес-аналитики», 2023-2024): Защита интеллектуальной собственности.
Как подробно разобрано выше, суд защитил права создателей дипфейк-ролика с Киану Ривзом. Это важнейший прецедент для компаний, которые используют ИИ в маркетинге: результат их труда охраняется законом, и за его использование без разрешения можно взыскать компенсацию .
Фальшивое обращение политиков (2022–2023): Скорость опровержения.
Хотя это кейс из публичной сферы, он важен для бизнеса. Когда появилось фальшивое видео с обращением президента, эксперты оперативно указали на ошибки (дыхание не синхронизировано с речью). Вывод: если на рынке появился дипфейк вашего топ-менеджера, медлить нельзя — нужно быстрое экспертное заключение для СМИ и партнеров.
Как защитить компанию: практические рекомендации
На основе анализа зарубежного опыта, российской практики и прецедентного дела Reface, можно предложить следующий алгоритм защиты:
Технические меры: Внедрите протоколы «живых» видеоконференций с использованием проверочных слов или дополнительных каналов связи для подтверждения особо важных распоряжений. Используйте антифрод-решения, способные детектировать подмену в реальном времени.
Правовая охрана AI-контента: Если ваша компания создает контент с помощью дипфейк-технологий, обязательно фиксируйте творческий вклад человека (сценарий, режиссуру, съемку). Заключайте договоры об отчуждении исключительных прав с подрядчиками. Рассмотрите возможность депонирования произведений для фиксации авторства на раннем этапе .
Процессуальные меры (Pre-crime): Закладывайте в договоры с контрагентами условие о том, что значимые юридические действия подтверждаются по заранее согласованным каналам связи, исключающим использование deepfake (например, через ЭДО или личный прием с паспортом).
Судебная защита (Post-crime):
При сомнениях в доказательствах заявляйте ходатайство о фальсификации доказательств (ст. 161 АПК РФ, ст. 186 ГПК РФ) с требованием назначить судебную компьютерно-техническую или видеотехническую экспертизу.
Требуйте экспертизу в аккредитованных учреждениях, имеющих опыт с инструментами вроде Amped Authenticate, Deepware Scanner и методами спектрального анализа.
Цифровая гигиена: Ограничьте публикацию в открытом доступе качественных фотографий и видео топ-менеджеров, особенно в деловых соцсетях. Чем больше исходников, тем легче мошенникам обучить нейросеть.
Заключение
Дипфейки перестали быть технологией будущего — это реальность сегодняшних судов и корпоративных конфликтов. В 2026 году мало просто заявить о подделке, это нужно доказать с помощью науки. Российская правовая система пока опирается на общие нормы, но практика уже нарабатывается: судьи становятся внимательнее, а эксперты — технически подкованнее. Знаковое дело Reface Technologies показало, что суды готовы защищать права создателей AI-контента, признавая за ними результат творческого труда.
Для бизнеса главным преимуществом станет не только умение создавать убедительную позицию в суде, но и способность предотвратить атаку на этапе видеозвонка или перевода средств. Технологии обмана и защиты находятся в постоянной гонке, и выиграет в ней тот, кто первым внедрит культуру цифровой гигиены и процессуальной бдительности.