Мошенничество с ИИ в 2025 году бьет рекорды: как защитить себя прямо сейчас

В 2025 году мошенники все чаще используют искусственный интеллект, чтобы клонировать голоса, имитировать лица и выдавать себя за близких или коллег. Число таких мошенничеств растет с каждым месяцем, а современные инструменты делают обман почти невозможным для распознавания.
РБК-Украина со ссылкой на TechRadar рассказывает, как обезопасить себя от новых схем мошенников.
Что такое мошенничество с имитацией через ИИМошенничество с ИИ - это быстро растущая форма обмана, где преступники используют искусственный интеллект для точного воспроизведения голоса, лица или стиля набора текста человека.
Чаще всего применяется клонирование голоса - технология, которая способна воспроизвести речь человека, имея всего несколько секунд записи.
Записи легко найти в открытом доступе: в голосовой почте, интервью или видео в соцсетях. По данным Montclair State University, даже коротких фрагментов подкаста или онлайн-урока может быть достаточно для создания убедительного клона голоса.
Некоторые мошенники идут дальше, используя фейковые видео для имитации живых звонков. Forbes пишет, что злоумышленники уже выдавали себя за руководителей компаний на видеоконференциях, убеждая сотрудников проводить крупные банковские переводы .
Эксперты утверждают, что быстрый рост числа мошенничеств с использованием ИИ в 2025 году обусловлен тремя факторами: лучшие технологии, снижение стоимости и широкая доступность.
С помощью таких цифровых подделок злоумышленники выдают себя за членов семьи, начальников или даже чиновников и требуют конфиденциальную информацию или срочные платежи.
Кто может стать жертвойМошенничество с ИИ встречается в телефонных звонках, видеозвонках, мессенджерах и электронных письмах , часто заставая людей врасплох в повседневной жизни.
На корпоративном уровне киберпреступники создают фейковые видеовстречи, имитируя руководителей компаний. В 2024 году злоумышленники выдали себя за финансового директора британской компании Arup и убедили сотрудников перевести 25 миллионов долларов.
Для убедительной имитации они используют фотографии и видео из LinkedIn, корпоративных сайтов и соцсетей.
ИИ-мошенничества становятся все более сложными: по данным почтового провайдера Paubox, почти 48% фишинговых атак, включая голосовые и видеоклоны, обходят существующие системы защиты.
Как защититься от ИИ-мошенничестваЭксперты объясняют: мошенничества с ИИ успешны, потому что создают ложное чувство срочности. Преступники пользуются доверием к знакомым голосам и лицам.
Главная защита - не спешить. Потратьте время на проверку личности собеседника. Инициатива Take9 советует делать паузу хотя бы на девять секунд перед тем, как действовать.
Если поступил подозрительный звонок или видео от знакомого - перезвоните ему по тому номеру, который у вас уже есть. Как отмечает аналитик по кибербезопасности Ашвин Рагху, мошенники рассчитывают на мгновенную реакцию.
Также важно обращать внимание на сигналы deepfake : странные движения рта, мерцающие фоны или необычный зрительный контакт. Голоса ИИ могут иметь неестественные паузы или фоновые шумы, даже если звучат убедительно.
Дополнительные уровни защиты также помогают. Многофакторная аутентификация (MFA) усложняет доступ к вашим аккаунтам даже при краже учетных данных. Эксперт Жаклин Джейн рекомендует сочетать прямую проверку личности с какой-либо формой MFA, особенно в периоды высокой активности мошенников.
ИИ открывает потрясающие возможности, но одновременно дает мошенникам новые способы обмана. Оставаясь внимательными, проверяя подозрительные запросы и обсуждая угрозы открыто, вы можете снизить риск попасться, независимо от того, насколько реалистично выглядит deepfake.
Вас может заинтересовать:
- Исследователи обнаружили первый вирус, созданный на базе ИИ
- 6 самых распространенных мошеннических схем в 2025 году
- Как распознать фейковые видео, фото и аудио, созданные ИИ
Последние новости
