Информационная безопасность

Нейросети уже обманывают вас в интернете вот как

13 июня, 07:00

Искусственный интеллект перестал быть инструментом — теперь он полноценный мошенник. Генеративные нейросети создают фейковые профили, подделывают голоса и даже пишут убедительные сообщения от имени банков. Эксперты по кибербезопасности фиксируют новые схемы обмана ежемесячно.

Голосовые клоны: когда звонит «родственник» с просьбой о деньгах

В 2024 году в России зафиксировано 23 тыс. случаев мошенничества с использованием синтезированного голоса. Нейросети вроде ElevenLabs или российского VK Cloud Solutions копируют интонации за 3 секунды записи. Злоумышленники используют публичные видео из соцсетей, чтобы имитировать голос близких. Типичный сценарий: «мама» в панике просит перевести 50 тыс. рублей на «адвоката» после «аварии».

  • Пример: В Новосибирске пенсионерка перевела 300 тыс. рублей, услышав голос «внука», который якобы попал в ДТП. Нейросеть воспроизвела даже его смех.
  • Защита: Установить кодовое слово в семье или звонить обратно на проверенные номера.
Фейковые новости с поддельными цитатами

GPT-4 генерирует правдоподобные интервью с политиками. В январе 2025 года фейковая цитата главы Сбербанка о «заморозке вкладов» вызвала панику среди вкладчиков. Новость распространяли через ботов в Telegram-каналах с аудиторией 500 тыс. подписчиков.

Как отличить подделку:

  1. Проверять оригинальный источник (официальный сайт, верифицированный аккаунт).
  2. Искать видео с событий — нейросети пока плохо подделывают синхронизацию губ.
Мошеннические объявления с AI-фотографиями

Нейросети MidJourney и Stable Diffusion создают изображения несуществующих товаров. На Avito появляются объявления о продаже iPhone за 10 тыс. рублей с «фото», где даже блики на экране выглядят реалистично. В 2024 году ущерб от таких схем превысил 1,2 млрд рублей.

Что должно насторожить:

  • Слишком идеальный товар (нет царапин, серийный номер размыт).
  • Одинаковый фон в разных объявлениях.
Поддельные «службы поддержки» банков

Чат-боты, имитирующие Тинькофф или Сбербанк, пишут клиентам: «Ваша карта заблокирована. Перейдите по ссылке». Нейросети анализируют стиль общения реальных операторов и копируют его. В 70% случаев жертвы вводят данные карты, думая, что общаются с банком.

Рекомендации:

  1. Не переходить по ссылкам из сообщений.
  2. Звонить в банк по номеру с официального сайта.
Фейковые «знакомства» с глубокими фейками

Сайты знакомств наводнены профилями, созданными нейросетями. Вместо реальных людей — аватары из ThisPersonDoesNotExist. Боты ведут многочасовые беседы, а затем просят «помочь с лечением» или инвестировать в криптовалюту. Каждый 10-й профиль на популярных платформах — фейк.

Как распознать:

  • Отсутствие видео в реальном времени (придумывают отговорки).
  • Шаблонные фразы в переписке.
Фишинговые сайты с AI-дизайном

Нейросети генерируют копии страниц ВТБ, Госуслуг или Wildberries. Даже эксперты тратят до 5 минут на проверку, чтобы найти отличия. В 2024 году через такие сайты похитили данные 400 тыс. россиян.

Что проверять:

  1. Сертификат SSL (должен быть зеленый замок в адресной строке).
  2. Официальный домен (например, vtb-online.ru — подделка).
Автоматические «трейдеры» с поддельными отчетами

Мошенники используют ChatGPT для создания фальшивых графиков доходности. Нейросеть пишет убедительные прогнозы: «Акции Газпрома вырастут на 30%». Жертвам показывают скриншоты «успешных сделок», сгенерированные в Python. Ущерб от таких схем — 800 млн рублей за полгода.

Как избежать:

  • Проверять лицензии брокера на сайте ЦБ.
  • Не верить скриншотам — запрашивать доступ к реальному терминалу.

Эксперты рекомендуют включать двухфакторную аутентификацию везде и обновлять антивирусы. Нейросети учатся быстро, но простые правила проверки остаются главным щитом.