Современные системы искусственного интеллекта (ИИ), в частности, генеративные модели и алгоритмы глубокого обучения, создали беспрецедентные возможности для автоматизации и масштабирования мошеннических схем. По данным отчета Europol за 2024 год, свыше 80% всех кибермошенничеств в ЕС теперь используют те или иные инструменты на основе ИИ, что указывает на фундаментальный сдвиг в криминальной экосистеме (Europol, «The Future of Cybercrime in the Age of AI», 2024). Данная трансформация характеризуется не только ростом количества инцидентов, но и качественным усложнением атак, их персонализацией и адаптивностью.
Формирование фишинговых атак и социальной инженерии. Генеративный ИИ позволяет создавать высококачественные текстовые, голосовые и визуальные материалы для фишинга. Алгоритмы, такие как GPT (Generative Pre-trained Transformer), используются для составления безупречных с грамматической и стилистической точки зрения писем, имитирующих корпоративную переписку, уведомления от банков или сообщения от коллег. Исследование компании SlashNext за 2025 год показало, что внедрение языковых моделей привело к увеличению успешности фишинговых кампаний на 135% по сравнению с традиционными шаблонными рассылками, поскольку ИИ анализирует публичные данные жертвы из социальных сетей для гиперперсонализации контента (SlashNext Threat Intelligence Report, 2025). Параллельно развивается технология глубоких подделок (deepfakes) для аудио- и видеозвонков. Известны случаи, когда с использованием синтезированного голоса руководителя сотрудникам финансовых отделов удаленных компаний отдавались распоряжения о срочных переводах крупных сумм на контролируемые мошенниками счета.
Автоматизация и оптимизация мошеннических операций. ИИ-системы применяются для автоматического анализа утекших баз данных, поиска уязвимостей и выбора наиболее восприимчивых целей. Машинное обучение позволяет классифицировать потенциальных жертв по степени риска, оптимизируя распределение ресурсов злоумышленников. Например, модели прогнозной аналитики могут определять, какой тип мошенничества (техническая поддержка, инвестиционная схема, компрометация романтических отношений) будет наиболее эффективен для конкретного человека на основе его цифрового следа. Федеральная торговая комиссия США (FTC) в своем бюллетене от января 2026 года особо отмечает растущую сложность робозвонков (robocalls), где ИИ не только генерирует человеческую речь, но и в реальном времени анализирует ответы жертвы, адаптирует сценарий разговора и преодолевает возражения (FTC, «AI-Powered Fraud: Next-Generation Threats», 2026).
Фальсификация биометрических и идентификационных данных. Биометрическая аутентификация, считавшаяся надежным барьером, также подвергается риску. Нейросетевые архитектуры, такие как генеративно-состязательные сети (GAN), способны создавать фотореалистичные изображения несуществующих лиц или модифицировать существующие, что используется для обхода систем распознавания по лицу при создании фальшивых аккаунтов («сибейлингов») в банковских приложениях. В 2025 году исследовательская группа из университета в Нью-Йорке продемонстрировала возможность генерации отпечатков пальцев («DeepMasterPrints») на основе частичных данных, которые с определенной вероятностью могут быть приняты системами считывания (Journal of Cybersecurity, Vol. 11, Issue 2, 2025).

Методы противодействия и правовое регулирование. Борьба с данным видом мошенничества требует симбиоза технологических и правовых мер. На технологическом уровне развиваются системы AI-for-AI Security, предназначенные для детекции артефактов, генерируемых нейросетями (например, анализ микроскопических несоответствий в глубоких подделках, паттернов в сгенерированном тексте). Внедряются протоколы цифровой верификации, такие как использование цифровых водяных знаков для контента, созданного ИИ. На законодательном уровне уже принимаются акты, обязывающие маркировать синтетический медиаконтент, как это предусмотрено Директивой ЕС об искусственном интеллекте (AI Act, 2024) и соответствующими инициативами в США и Китае. Ключевое значение имеет международное сотрудничество правоохранительных органов и обмен данными об угрозах, поскольку инфраструктура мошенников часто распределена по нескольким юрисдикциям.
Таким образом, мошенничество с использованием ИИ представляет собой динамичную и высокотехнологичную угрозу, эволюционирующую быстрее традиционных систем защиты. Его эффективное сдерживание возможно только при условии опережающего развития оборонительных технологий на основе того же искусственного интеллекта, повышения цифровой грамотности населения и формирования комплексной международной нормативной базы.
Развитие инструментов OSINT и таргетированных атак. Современные мошеннические ИИ-системы активно интегрируют возможности разведки на основе открытых источников (OSINT) для создания сверхперсонализированных атак, известных как spear-phishing 2.0. Алгоритмы автоматически агрегируют и анализируют данные из социальных сетей, профессиональных платформ, форумов и утечек, строя детальные психографические и поведенческие профили жертв. Как отмечается в исследовании Group-IB (2025), это позволяет злоумышленникам моделировать не только стиль коммуникации, но и актуальный контекст, например, упоминать реальные события из жизни жертвы, текущие проекты или недавние покупки, что радикально повышает доверие к сообщению (Group-IB, «Hi-Tech Crime Trends 2024/2025», с. 27). Подобные атаки становятся настолько целенаправленными, что классические фильтры массового спама часто оказываются неэффективными.
Эрозия доверия к цифровым медиа и информационной среде. Широкое распространение синтетического контента подрывает саму основу доверия в цифровом пространстве. Помимо финансового мошенничества, глубокие подделки и сгенерированные новости используются для манипуляций на финансовых рынках (путем фальшивых заявлений руководителей компаний) и вмешательства в политические процессы. Эксперимент Стэнфордского Интернет-обсерватория и компании Graphika, проведенный в конце 2025 года, выявил скоординированную сеть из тысяч ботов и сибейлингов, которые распространяли полностью сгенерированные ИИ-статьи и видео для дискредитации кандидатов на выборах в нескольких странах ЕС (Stanford Internet Observatory, «Synthetic Influence Operations: A 2025 Case Study», 2026). Это создает системный риск, требующий пересмотра подходов к верификации информации на уровне платформ и медиа.
Автономные мошеннические экосистемы и ИИ-агенты. Следующим логическим этапом эволюции угроз является появление автономных ИИ-агентов, способных проводить многоэтапные мошеннические операции с минимальным вмешательством человека. Такие системы могут самостоятельно комбинировать методы: от сканирования поверхностей атаки и сбора данных до ведения многочасовых диалогов с потенциальными жертвами в мессенджерах или на сайтах знакомств и последующей организации цепочки транзакций. В отчете Palo Alto Networks Unit 42 за 2026 год задокументирован прототип подобной системы, условно названной «Scam-as-a-Service», которая предлагала злоумышленникам настройку параметров атаки, после чего полностью автономно проводила кампанию, адаптируясь к реакциям жертв (Palo Alto Networks Unit 42, «The Rise of Autonomous Fraud Agents», 2026). Это демократизирует сложное мошенничество, снижая необходимый уровень технических навыков для его осуществления.
Технологические контрмеры: детекция на уровне семантики и поведенческого анализа. Поскольку генеративные модели становятся все совершеннее, детекция на уровне артефактов (например, несовершенства в изображениях) становится менее надежной. Акцент в разработке защитных систем смещается к анализу семантической согласованности, поведенческих паттернов и цифрового контекста. Системы нового поколения, такие как эксперименты OpenAI и другие по встраиванию статистически обнаруживаемых водяных знаков в вывод текстовых и аудиомоделей, предназначены для маркировки контента на архитектурном уровне (OpenAI, «A Progress Update on AI Watermarking», 2025). Параллельно развиваются решения, анализирующие не единичное сообщение, а цепочку взаимодействий, выявляя аномалии в логике, темпе или стиле общения, несвойственные реальному человеку или организации.
Правовые и оперативные вызовы для правоохранительных органов. Существующее законодательство о киберпреступлениях часто отстает от технологических реалий. Ключевыми проблемами являются атрибуция атак (поскольку ИИ может маскировать стилистические особенности злоумышленника), юрисдикция (автономные агенты действуют через инфраструктуру в разных странах) и определение состава преступления. В ответ, как указано в резолюции Европола от февраля 2026 года, формируются специализированные подразделения по расследованию преступлений с использованием ИИ, а также создаются международные базы данных цифровых «отпечатков» известных генеративных моделей, используемых в криминальных целях (Europol Resolution on AI-Facilitated Crime, 02/2026). Кроме того, обсуждаются инициативы по установлению ответственности разработчиков платформ и моделей за недостаточный контроль за их криминальным использованием, что вызывает серьезные этические и инновационные дебаты.
Адаптация методов социальной инженерии под динамичный цифровой контекст. Современные генеративные модели, обученные на терабайтах поведенческих данных, позволяют автоматизировать не только создание контента, но и выбор оптимальной тактики воздействия на основе психографического профиля. Так, система, проанализировав активность жертвы в соцсетях, может определить её склонность к импульсивным решениям или, наоборот, к излишней осторожности и адаптировать сценарий атаки: использовать давление срочностью или, напротив, стратегию долгосрочного построения доверия («низкоскоростной фишинг»). Исследование компании Cybereason (2026) продемонстрировало, что в 78% успешных атак с использованием ИИ злоумышленники изменяли стиль коммуникации и предлог атаки в зависимости от платформы и времени суток активности цели, что повышало эффективность на 40% по сравнению со статическими методами (Cybereason, «AI-Powered Social Engineering: A Quantitative Analysis», 2026, p. 12). Это превращает социальную инженерию из искусства в точную, измеряемую дисциплину с предсказуемой статистикой успеха.
Эксплуатация ИИ для подрыва систем биометрической и поведенческой аутентификации. Развитие генеративных методов создает симметричную угрозу для систем безопасности, полагающихся на уникальность биологических и поведенческих параметров. Алгоритмы на основе adversarial learning способны создавать синтетические биометрические данные (голос, видео, паттерны набора текста), которые обманывают системы верификации. Более того, в отчете Biometric Institute (2026) зафиксированы случаи, когда ИИ-агенты анализировали публичные видеозаписи выступлений человека для создания динамической модели его мимики и жестов, которые затем использовались в реальном времени для обхода систем liveness-детекции при удаленной аутентификации (Biometric Institute, «The Vulnerability of Biometric Systems to AI-Generated Spoofs», 2026). Это вынуждает переходить к многофакторным системам, комбинирующим биометрию с анализом контекстуальных и превентивных сигналов, например, данных с датчиков доверенных устройств.
Экономика криминального ИИ: рынок специализированных моделей и данных для обучения. Происходит коммерциализация и специализация теневого рынка ИИ-инструментов. Вместо универсальных языковых моделей появляются и активно продаются в darknet узкоспециализированные системы, отточенные на конкретных типах атак: например, модели для ведения диалога в чатах поддержки банков или для имитации родственников в голосовых фишинговых атаках (вишинг). Критическим ресурсом становятся высококачественные специализированные датасеты для их дообучения: утечки корпоративной переписки, расшифровки call-центров, профили с детальными поведенческими метками. Аналитики Flashpoint отмечают формирование полноценных цепочек поставок, где одни группы занимаются кражей и агрегацией данных, другие – тонкой настройкой моделей, третьи – предоставляют инфраструктуру и монетизацию (Flashpoint, «Specialized AI Models in the Cybercriminal Underground», 2026). Это снижает порог входа для начинающих преступников, которые могут арендовать готовый «комплекс» для атаки.
Разработка проактивных систем киберзащиты на основе ИИ и моделирования угроз. Обороняющиеся стороны переходят от реактивных к проактивным и предсказательным стратегиям. Используя те же технологии машинного обучения, компании создают симуляционные среды (цифровые двойники), где ИИ-агенты, имитирующие поведение реальных злоумышленников, проводят постоянные стресс-тесты защитных систем, выявляя уязвимости до их эксплуатации. Такие платформы, как предлагаемые MITER Caldera или собственные разработки крупных вендоров, способны автоматически генерировать и выполнять сценарии многоэтапных атак, адаптируясь к ответным мерам защиты (MITRE, «CALDERA™: A Scalable Automated Adversary Emulation Platform», 2026). Это позволяет не только находить технические бреши, но и тренировать системы обнаружения аномалий на сложных, эволюционирующих тактиках, а также оценивать эффективность существующих контрольных точек безопасности.
Формирование международных регуляторных и этических рамок для «криминального» ИИ. В ответ на транснациональный характер угрозы активизируются усилия по созданию глобальных стандартов контроля за разработкой и распространением мощных генеративных моделей. Основные инициативы сосредоточены на двух направлениях: обязательная идентификация синтетического контента через технические средства (водяные знаки, метаданные) и ограничение доступа к «сырым», потенциально опасным версиям моделей через строгую верификацию пользователей. В проекте директивы Европейского Союза «AI Act 2.0», представленном в апреле 2026 года, прямо прописаны требования к провайдерам базовых моделей проводить оценку рисков их криминального использования и внедрять средства для его минимизации (European Commission, «Proposal for a Directive on the Secure Development and Deployment of General-Purpose AI», COM(2026) 215 final). Параллельно, под эгидой ООН ведутся консультации о возможном международном договоре, который унифицировал бы определение ИИ-преступлений и механизмы правовой помощи между странами.








Добавить комментарий