Нейросети уже обманывают вас в интернете вот как
Искусственный интеллект перестал быть инструментом — теперь он полноценный мошенник. Генеративные нейросети создают фейковые профили, подделывают голоса и даже пишут убедительные сообщения от имени банков. Эксперты по кибербезопасности фиксируют новые схемы обмана ежемесячно.

В 2024 году в России зафиксировано 23 тыс. случаев мошенничества с использованием синтезированного голоса. Нейросети вроде ElevenLabs или российского VK Cloud Solutions копируют интонации за 3 секунды записи. Злоумышленники используют публичные видео из соцсетей, чтобы имитировать голос близких. Типичный сценарий: «мама» в панике просит перевести 50 тыс. рублей на «адвоката» после «аварии».
- Пример: В Новосибирске пенсионерка перевела 300 тыс. рублей, услышав голос «внука», который якобы попал в ДТП. Нейросеть воспроизвела даже его смех.
- Защита: Установить кодовое слово в семье или звонить обратно на проверенные номера.
GPT-4 генерирует правдоподобные интервью с политиками. В январе 2025 года фейковая цитата главы Сбербанка о «заморозке вкладов» вызвала панику среди вкладчиков. Новость распространяли через ботов в Telegram-каналах с аудиторией 500 тыс. подписчиков.
Как отличить подделку:
- Проверять оригинальный источник (официальный сайт, верифицированный аккаунт).
- Искать видео с событий — нейросети пока плохо подделывают синхронизацию губ.
Нейросети MidJourney и Stable Diffusion создают изображения несуществующих товаров. На Avito появляются объявления о продаже iPhone за 10 тыс. рублей с «фото», где даже блики на экране выглядят реалистично. В 2024 году ущерб от таких схем превысил 1,2 млрд рублей.
Что должно насторожить:
- Слишком идеальный товар (нет царапин, серийный номер размыт).
- Одинаковый фон в разных объявлениях.
Чат-боты, имитирующие Тинькофф или Сбербанк, пишут клиентам: «Ваша карта заблокирована. Перейдите по ссылке». Нейросети анализируют стиль общения реальных операторов и копируют его. В 70% случаев жертвы вводят данные карты, думая, что общаются с банком.
Рекомендации:
- Не переходить по ссылкам из сообщений.
- Звонить в банк по номеру с официального сайта.
Сайты знакомств наводнены профилями, созданными нейросетями. Вместо реальных людей — аватары из ThisPersonDoesNotExist. Боты ведут многочасовые беседы, а затем просят «помочь с лечением» или инвестировать в криптовалюту. Каждый 10-й профиль на популярных платформах — фейк.
Как распознать:
- Отсутствие видео в реальном времени (придумывают отговорки).
- Шаблонные фразы в переписке.
Нейросети генерируют копии страниц ВТБ, Госуслуг или Wildberries. Даже эксперты тратят до 5 минут на проверку, чтобы найти отличия. В 2024 году через такие сайты похитили данные 400 тыс. россиян.
Что проверять:
- Сертификат SSL (должен быть зеленый замок в адресной строке).
- Официальный домен (например, vtb-online.ru — подделка).
Мошенники используют ChatGPT для создания фальшивых графиков доходности. Нейросеть пишет убедительные прогнозы: «Акции Газпрома вырастут на 30%». Жертвам показывают скриншоты «успешных сделок», сгенерированные в Python. Ущерб от таких схем — 800 млн рублей за полгода.
Как избежать:
- Проверять лицензии брокера на сайте ЦБ.
- Не верить скриншотам — запрашивать доступ к реальному терминалу.
Эксперты рекомендуют включать двухфакторную аутентификацию везде и обновлять антивирусы. Нейросети учатся быстро, но простые правила проверки остаются главным щитом.