Connect with us

Технологии

Мошенничество с ИИ в 2025 году бьёт рекорды: как преступники обманывают даже осторожных и почему эксперты бьют тревогу

Мошенничество с использованием искусственного интеллекта в 2025 году растёт рекордными темпами. Злоумышленники клонируют голоса и создают фейковые видео, чтобы обманывать людей.

Published

on

Мошенничество с ИИ в 2025 году бьёт рекорды: как преступники обманывают даже осторожных и почему эксперты бьют тревогу

В 2025 году мошенничество с использованием искусственного интеллекта растёт рекордными темпами, сообщает eizvestia, ссылаясь на TechRadar. Злоумышленники всё чаще используют технологии для клонирования голосов, имитации лиц и стиля общения, что позволяет выдавать себя за близких или коллег.

Наиболее распространённым инструментом стало клонирование голоса. Достаточно нескольких секунд записи, чтобы искусственный интеллект воспроизвёл интонации и тембр человека.

«Записи легко найти в открытом доступе: в голосовой почте, интервью или соцсетях. Даже короткие фрагменты могут стать материалом для создания клона», — отмечают исследователи Montclair State University.

Злоумышленники не ограничиваются голосом. Они создают фейковые видео для имитации живых звонков. По данным Forbes, преступники уже выдавали себя за руководителей компаний на видеоконференциях, убеждая сотрудников совершать многомиллионные переводы.

Эксперты подчёркивают, что рост числа подобных случаев обусловлен тремя факторами: развитием технологий, снижением стоимости и широкой доступностью. Это делает мошенничество опасным как для частных лиц, так и для компаний.

Чаще всего жертвами становятся люди в повседневной жизни, когда телефонные звонки или сообщения выглядят вполне реалистично. В корпоративной среде преступники имитируют руководителей, создавая фейковые онлайн-встречи.

«В 2024 году киберпреступники выдали себя за финансового директора компании Arup и добились перевода 25 миллионов долларов», — сообщают эксперты.

Источниками для таких подделок становятся фото и видео из LinkedIn, корпоративных сайтов и социальных сетей. По данным Paubox, около 48% фишинговых атак с использованием deepfake обходят современные системы защиты.

Мошенники действуют, создавая ощущение срочности и доверия к знакомым голосам или лицам. Эксперты советуют всегда делать паузу и проверять личность собеседника.

«Инициатива Take9 рекомендует делать паузу хотя бы на девять секунд перед принятием решения», — отмечают специалисты.

Если есть сомнения в звонке или видео, лучше перезвонить человеку по известному номеру. Аналитики напоминают, что злоумышленники рассчитывают именно на мгновенную реакцию.

Сигналами deepfake могут быть странные движения губ, неестественный зрительный контакт или мерцающий фон. Голоса ИИ часто имеют неприродные паузы или посторонние шумы.

Эксперты по кибербезопасности рекомендуют использовать многофакторную аутентификацию.

«Прямая проверка личности в сочетании с MFA значительно снижает риски», — объясняет аналитик Жаклин Джейн.

Искусственный интеллект открывает новые возможности для развития, но одновременно даёт преступникам инструменты для обмана. Внимательность, проверка сомнительных запросов и открытое обсуждение угроз помогут снизить риски независимо от уровня реалистичности deepfake.

Ранее мы писали о том, лёгкие деньги или ловушка. Украинцам раскрыли новую банковскую мошенническую схему через опросы

Читайте также