К нам, как к цифровым юристам, всё чаще обращаются с вопросом: «Я никогда не снимался в таком контенте, но в сети есть фото и видео с моим лицом. Что с этим делать?» Этот вопрос — симптом системной проблемы, а не частный случай. В материале разберём, как создаются дипфейки по фото, зачем их используют, какие риски для репутации и как действовать, если изображения выложили без согласия.
Цифровая среда давно изменила правила игры. Фотография больше не является просто изображением — это цифровой актив, который может быть скопирован, переработан и использован без ведома владельца. До недавнего времени основными рисками были утечки, взломы и неосторожные публикации. Сегодня появился новый фактор — искусственный интеллект, который позволяет создавать правдоподобный контент даже без исходных интимных материалов.
Если упростить, дипфейк по фото — это результат работы генеративных моделей, которые анализируют внешность человека и создают новые изображения с его лицом в любом заданном контексте. Для этого больше не нужны десятки снимков или сложный монтаж. Иногда достаточно одной фотографии из соцсетей, презентации, сайта компании или СМИ.
Важно понимать разницу:
Результат выглядит убедительно даже для опытного пользователя. Именно поэтому дипфейки — это не про «подделку», а про подмену идентичности.
Представление о том, что для создания дипфейков требуется захват движений, маркеры и участие человека, возникло не случайно. Оно пришло из ранних и кинематографических кейсов — из киноиндустрии, игровой разработки и рекламного продакшена. Там действительно используются технологии motion capture: актёров снимают в студиях, фиксируют движения тела и мимику, а затем накладывают цифровое лицо или создают полноценного персонажа.
Такой подход применялся и продолжает применяться там, где важны управляемость, качество и точное соответствие движений — в фильмах, играх, крупных рекламных проектах. Однако это профессиональный продакшн, а не тот сценарий, с которым сталкиваются обычные люди и юристы, работающие с репутационными рисками.
В реальности массовые дипфейки устроены гораздо проще — и именно в этом их опасность.
Если речь идёт о дипфейках по фото, включая ИИ-интим, никакого захвата движений не существует в принципе. Используются 1–5 обычных фотографий лица из открытых источников. Нейросеть анализирует черты внешности, пропорции, освещение и затем сама генерирует новое изображение, дорисовывая тело, позу и сцену.
Поскольку изображение статично, движений просто нет. Именно поэтому этот сценарий стал самым массовым: порог входа минимален, а результат выглядит убедительно даже без технических навыков.
Даже при создании дипфейк-видео в бытовых сценариях датчики движения, как правило, не применяются. На практике берётся готовое видео, например откровенная сцена, и ИИ подменяет лицо на каждом кадре. Движения, мимика и тело принадлежат другому человеку или полностью сгенерированы алгоритмом.
Это означает, что человек, чьё лицо использовали:
ИИ лишь адаптирует лицо под уже существующую динамику.
Технологии захвата движений применяются в кино, рекламе, играх и при создании цифровых аватаров, управляемых человеком в реальном времени. Это дорого, сложно и требует ресурсов. Для шантажа, репутационных атак и массовой генерации интимного контента такие технологии просто не нужны — злоумышленники ими не пользуются.
Заблуждение о «датчиках» формирует ложное чувство безопасности. Люди считают, что, если они нигде не снимались и не записывали видео, значит, с ними этого не может случиться. На практике достаточно одной фотографии из социальных сетей, сайта компании или публикации в СМИ.
Не нужно видео. Не нужно участие человека. Именно это и создаёт новую правовую и репутационную уязвимость, с которой сегодня всё чаще приходится работать.
На практике мы видим не хаотичное баловство, а вполне сформированные сценарии злоупотреблений.
Самый распространённый — ИИ-интим. Обычную фотографию превращают в псевдообнажённое изображение или встраивают лицо в откровенные сцены. Такой контент публикуют на порносайтах, в закрытых Telegram-каналах, на форумах и зеркалах, которые сложно отследить сразу.
Второй сценарий — шантаж. Человеку показывают сгенерированное изображение и угрожают его распространением среди коллег, родственников или клиентов. При этом не имеет значения, существует ли «оригинал» — вред возникает уже на этапе угроз.
Третий вариант — репутационная атака. Дипфейк используют как инструмент давления в личных конфликтах, корпоративных спорах или конкурентной борьбе.
Общее у всех сценариев одно: человек теряет контроль над тем, где и в каком виде используется его лицо.
ИИ радикально снизил порог входа. То, что раньше требовало навыков и времени, теперь доступно через сайты, боты и сервисы. Это создаёт сразу несколько мотиваций:
Технологии развиваются быстрее правил, и именно этот разрыв сегодня формирует основную уязвимость.
Репутационный ущерб в цифровой среде работает иначе, чем в офлайне. Контент:
Даже если изображение — подделка, доказывать это приходится пострадавшему. Именно поэтому мы говорим не просто о вреде, а о системной потере контроля над собственной цифровой репутацией. Эту проблему мы подробно разбирали в статье «Как удалить информацию о себе из интернета» — дипфейки лишь усилили её.
Нужно убрать персональные данные и нежелательный контент из выдачи? Как удалить информацию о себе из интернета
Пошагово о поиске источников, жалобах и юридических механизмах
В России до сих пор нет единого закона об искусственном интеллекте и дипфейках. Регулирование формируется фрагментарно через отдельные нормы, документы и обязанности цифровых платформ.
Право традиционно реагирует не на саму технологию, а на вред и последствия её использования. Генерация изображения с помощью ИИ как технический процесс может применяться в законных целях — в кино, рекламе, образовании, исследованиях или искусстве. Именно поэтому не может быть универсального запрета на «создание дипфейков» как таковых. Запрет возникает не автоматически, а в момент, когда результат затрагивает права конкретного человека.
В большинстве случаев юридическая ответственность связана не с фактом генерации файла, а с его использованием и распространением. Публикация изображения, передача третьим лицам, размещение на сайтах или использование в шантаже запускают действие уже существующих норм: права на изображение, права на частную жизнь, защиты персональных данных, деловой репутации. Именно поэтому в реальных кейсах отвечают именно за распространение.
Крупные площадки и хостинги работают по собственным пользовательским соглашениям и политикам модерации. Откровенный контент, подмена личности и вводящий в заблуждение ИИ-контент могут удаляться даже без судебного решения. На практике именно эти правила становятся основным инструментом быстрого реагирования.
Дипфейки часто размещаются на сайтах, зарегистрированных за пределами России, с иностранным хостингом и анонимными администраторами. Это ограничивает прямое применение национального законодательства и делает особенно важными жалобы платформам, хостерам и использование трансграничных механизмов блокировки и удаления.
Подробнее о правовых ограничениях и рисках мы писали в материале «Правовые риски ИИ».
ИИ в бизнесе и личной среде — где проходят границы ответственности? Правовые риски ИИ
Регулирование, ответственность и практика для компаний и частных лиц
Главная ошибка — откладывать. Чем раньше начинается реакция, тем выше шанс ограничить распространение.
Первый шаг — фиксация: ссылки, скриншоты, даты, идентификаторы аккаунтов и сайтов.
Второй — жалобы на платформах и хостингах, именно «у источника», а не только в поиске.
Третий — отказ от переговоров с вымогателями: платежи почти всегда запускают новую волну давления.
И, наконец, юридическое сопровождение — особенно если контент затрагивает бизнес, публичную деятельность или уже начал индексироваться.
Нужна помощь с удалением информации из сети?
Жалобы платформам, работа с хостингами и очистка выдачи — практика ContentGuard
Абсолютной защиты не существует, но можно снизить риски:
Мы подробно разбирали этот подход в статье «Как стать невидимкой в сети» и даже написали об этом песню.
Дипфейк по фото — это сгенерированное изображение, где лицо реального человека используется без его согласия. Для создания достаточно одной фотографии из открытых источников. Такой контент может выглядеть как реальное фото или интимное изображение, хотя в действительности его никогда не существовало.
Да. Современные ИИ-сервисы создают откровенные изображения даже без исходных интимных материалов. Используются обычные портреты из соцсетей, с сайтов компаний, СМИ или мессенджеров.
Прямого запрета на создание дипфейков в российском законодательстве пока нет. Однако их распространение может нарушать право на изображение, частную жизнь, персональные данные и деловую репутацию. В ряде случаев это влечёт гражданскую, административную или уголовную ответственность.
Необходимо зафиксировать доказательства, подать жалобы на платформы и хостинги, добиваться удаления у источника и не вступать в переговоры с вымогателями. Чем раньше начаты действия, тем выше шанс остановить распространение.
Полностью удалить все копии бывает сложно, но на практике возможно существенно ограничить распространение и очистить поисковую выдачу. Эффективнее всего работает комплексная стратегия: жалобы платформам, хостерам и юридические запросы.
Большинство порноплатформ имеют процедуры удаления подобного контента. В заявке важно указать, что изображение создано без вашего согласия и нарушает ваши права. В ряде случаев подключается хостинг или регулятор.
Визуально определить подделку всё сложнее. Иногда выдают артефакты, но чаще требуется технический и контекстный анализ. Для целей удаления достаточно факта отсутствия согласия, а не технического доказательства подделки.
Полной защиты не существует. Однако снижение цифрового следа, контроль приватности, разделение личного и публичного образа и регулярный мониторинг упоминаний заметно уменьшают риски.
Помимо жалоб на платформах, следует обращаться к юристам и в правоохранительные органы. Шантаж и угрозы распространения — отдельные правонарушения, независимо от того, является ли изображение настоящим.
Дипфейки — это не разовая проблема, а часть новой цифровой реальности. Самостоятельные жалобы помогают, но не всегда приводят к устойчивому результату, особенно когда контент копируется и уходит за пределы одной платформы.
Команда ContentGuard работает с удалением информации, защитой цифровой репутации и правовой реакцией на злоупотребления ИИ. Мы выстраиваем стратегию, которая учитывает и технологии, и право, и практику платформ.
В том случае, если вы столкнулись с дипфейком или хотите заранее снизить риски, важно начать действовать как можно раньше. В цифровую эпоху репутация требует не объяснений, а защиты.
Поможем с удалением дипфейков и неконсенсуального контента, защитой репутации и юридическим сопровождением.
Написать