Приветствую, друзья и коллеги! 👋 На связи Виталий Соколов.😱 Видеозвонок от директора оказался подделкой: как мошенники украли $25 миллионов
Представьте ситуацию. Вам звонит по видеосвязи ваш руководитель. Вы видите его лицо, слышите его голос, узнаёте привычную манеру речи. Он просит срочно перевести деньги. Вы выполняете просьбу. А потом узнаёте, что на том конце провода не было ни одного живого человека. 🫥
Именно это произошло в начале 2024 года с сотрудником финансового отдела крупной гонконгской компании. Результат — потеря 25 миллионов долларов. 💸
Всё — от лица до голоса — было сгенерировано нейросетью. Это был дипфейк.
И если раньше подобные технологии казались уделом голливудских блокбастеров 🎬, то сегодня они доступны практически каждому, у кого есть смартфон и доступ в интернет.
👉 Вопрос уже не в том, столкнётесь ли вы с дипфейком. Вопрос — когда.
🧠 Что такое дипфейк и почему это проблемаДипфейк (от англ. deep learning + fake) — это реалистичная подделка видео, аудио или изображения, созданная с помощью технологий искусственного интеллекта.
Современные нейросети способны на пугающие вещи:
* 🎙️ Воспроизводить голос человека по нескольким секундам записи
* 🎥 Генерировать видео, на котором человек говорит то, чего никогда не произносил
* 🪞 Подменять лица в режиме реального времени во время видеозвонка
* 📸 Создавать фотографии, которые невозможно отличить от настоящих
⚠️
Ещё три-четыре года назад для создания качественного дипфейка требовались профессиональные навыки и мощное оборудование. Сегодня достаточно бесплатного приложения.🚨 Какие преступления уже совершаютсяТехнология дипфейков уже стала инструментом самых разных преступлений. И число случаев растёт в геометрической прогрессии 📈
💰 МошенничествоСамый распространённый сценарий. Злоумышленники подделывают голос родственника, руководителя или делового партнёра, чтобы убедить жертву перевести деньги.
📊 По данным международных исследований, в 2024 - 2025 годах количество случаев голосового мошенничества с использованием ИИ выросло на 400% по сравнению с предыдущим годом.
Типичная схема выглядит так:1. 🔍 Мошенник находит образцы голоса жертвы в соцсетях
2. 🤖 Нейросеть обучается и генерирует точную копию
3. 📞 Звонок родственнику: «Мама, я попал в аварию, срочно переведи деньги!»
4. 😰 Мать в панике переводит всё, что есть
Знакомо? К сожалению, таких историй тысячи.
😈 Вымогательство и шантажСоздание компрометирующих фото- и видеоматериалов с лицом жертвы — один из самых травматичных способов применения дипфейков. Злоумышленники генерируют интимный контент с использованием лица реального человека, а затем требуют деньги за нераспространение. 🔒
Жертвами чаще всего становятся:* 👩 Молодые женщины
* 👨💼 Публичные лица и предприниматели
* 🎓 Подростки и студенты
🗣️ Клевета и дискредитацияПоддельные видеозаписи, на которых человек якобы произносит определённые высказывания, могут разрушить репутацию, карьеру и личную жизнь за считанные часы. Одно вирусное видео — и доказывай потом, что это не ты. 🤷
⚖️ Фальсификация доказательствОтдельную тревогу вызывает возможность использования дипфейков в судебных процессах. Поддельная аудиозапись или видео, представленные в качестве доказательства, могут:
* ❌ Привести к осуждению невиновногочеловека
* ❌ Привести к оправданию виновного
* ❌ Полностью изменить ход судебного разбирательства
👨⚖️ Комментарий экспертаВиталий Александрович Соколов, руководитель юридического бюро «Соколов и партнёры» 🏛️:
«Проблема дипфейков в уголовно-правовом поле — это не вопрос завтрашнего дня. Это уже реальность, с которой сталкиваются и правоохранительные органы, и суды, и обычные граждане.
Ко мне на практике всё чаще обращаются люди, которые стали жертвами подобных технологий: кому-то подделали голос для выманивания денег у родственников, кого-то шантажируют сфабрикованным видео.
Главная правовая сложность заключается в том, что российское уголовное законодательство не содержит специальной нормы, которая предусматривала бы ответственность именно за создание и использование дипфейков. Правоприменитель вынужден квалифицировать такие деяния по существующим составам — мошенничество, вымогательство, клевета, нарушение неприкосновенности частной жизни. Но эти составы разрабатывались в другую эпоху и не всегда в полной мере охватывают специфику преступлений с использованием искусственного интеллекта.
Например, если человек создал дипфейк - видео, но ещё не использовал его для мошенничества или шантажа — можно ли привлечь его к ответственности? По действующему законодательству — далеко не всегда. А между тем сам факт создания реалистичной подделки уже представляет угрозу. ⚠️
Полагаю, что назрела необходимость законодательного реагирования. Речь может идти как о внесении изменений в существующие статьи Уголовного кодекса с включением квалифицирующего признака — совершение преступления с использованием технологий подмены личности, — так и о разработке самостоятельного состава. Зарубежный опыт, в частности Китая, Южной Кореи и ряда американских штатов, показывает, что это вполне реализуемо».
📋 Как обстоят дела с законодательством в Нашей стране 🇷🇺
На сегодняшний день в Уголовном кодексе Российской Федерации отсутствует отдельная статья, предусматривающая ответственность за создание или распространение дипфейков.
Преступления квалифицируются по имеющимся нормам 👇
🔍 Деяния
💸 Хищение денег с помощью поддельного голоса
📌 Возможная квалификация Ст. 159 УК РФ (мошенничество)
😡 Шантаж поддельным видео
📌 Возможная квалификация Ст. 163 УК РФ (вымогательство)
🔞 Создание порнографии с чужим лицом
📌 Возможная квалификация Ст. 137 УК РФ (наруш-е неприкосновенности частной жизни)
📢 Распространение ложной информации
📌 Возможная квалификация Ст. 128.1 УК РФ (клевета)
📄 Подделка доказательств для суда
📌 Возможная квалификация Ст. 303 УК РФ (фальсификация доказательств)
Однако, как подчёркивает Виталий Соколов, эти нормы не покрывают все возможные ситуации, и ряд общественно опасных деяний может оставаться за рамками уголовно-правового регулирования. 🕳️
🌍 Зарубежный опыт
* 🇨🇳 Китай — с 2023 года действует закон, обязывающий маркировать контент, созданный ИИ, и предусматривающий ответственность за использование дипфейков
* 🇰🇷 Южная Корея — криминализировано создание порнографических дипфейков, наказание до 5 лет лишения свободы
* 🇺🇸 США — на федеральном уровне единого закона нет, но более 10 штатов приняли собственные законы
* 🇪🇺 Евросоюз — в рамках AI Act предусмотрена обязательная маркировка ИИ-контента
🛡️ Как защитить себя: рекомендации юриста
Виталий Соколов рекомендует придерживаться следующих правил:
1. 📵 Не доверяйте видеозвонкам безоговорочно
Если вас просят перевести деньги или совершить иные значимые действия — перезвоните человеку самостоятельно по известному вам номеру. Даже если вы «видите» его на экране.
2. 🔐 Установите кодовое слово
Договоритесь с близкими о секретном слове или фразе, которую нужно назвать при подозрительных звонках. Нейросеть может подделать голос, но не может угадать ваш семейный пароль.
3. 🙈 Минимизируйте цифровой след
Чем больше ваших фото, видео и аудиозаписей находится в открытом доступе, тем проще создать дипфейк. Задумайтесь, прежде чем публиковать очередное видео в соцсетях.
4. 📱 Фиксируйте доказательства
Если вы стали жертвой — сохраняйте всё: переписки, записи звонков, скриншоты. Не удаляйте ничего.
5. 🆘 Обращайтесь к специалистам незамедлительно
Чем быстрее будет подано заявление в правоохранительные органы и привлечён квалифицированный юрист, тем выше шансы на привлечение виновных к ответственности.
📌 Заключение
Технологии искусственного интеллекта развиваются значительно быстрее, чем законодательство успевает на них реагировать. 🏃♂️💨
Дипфейки — яркий пример того, как инструмент, изначально созданный для индустрии развлечений, превратился в мощное оружие в руках мошенников, вымогателей и шантажистов.
Российское уголовное право стоит перед необходимостью адаптации к новым реалиям. И от того, насколько быстро и качественно эта адаптация произойдёт, зависит защищённость миллионов граждан. 🇷🇺
💡 Помните: ваша бдительность — первая линия обороны. Технологии могут обмануть глаза и уши, но не могут обмануть того, кто предупреждён.
______________________________________________________________________________________________________
📩 Материал подготовлен при экспертной поддержке
юридического бюро «Соколов и партнёры».
По вопросам уголовно-правовой защиты вы можете обратиться к