Искусственный интеллект будет автоматически искать «деструктив» в мессенджерах и передавать данные пользователей спецслужбам, стирая грань между приватной беседой и публичным высказыванием.
Российские правоохранительные органы переходят к принципиально новому этапу цифрового надзора, делая ставку на автоматизацию цензуры и глубокий анализ личного трафика граждан. Министерство внутренних дел планирует существенно ужесточить контроль за переписками пользователей в мессенджерах и социальных сетях. Главным инструментом в этой кампании должны стать интеллектуальные фильтры на базе нейросетей, способные не только выявлять нежелательные высказывания, но и оперативно деанонимизировать их авторов. Подобная архитектура прямо отсылает к технологическому опыту Китая, который сегодня открыто приводится в качестве ориентира для отечественных силовиков.
О необходимости адаптации азиатского подхода к российским реалиям прямо заявил генерал-лейтенант полиции, президент Международной полицейской ассоциации российской секции Юрий Жданов. По его словам, правоохранительной системе следует взять на вооружение китайскую модель работы с информацией. Механизм, предложенный специалистами, выглядит технически прозрачно и пугающе эффективно: обученные нейросети в непрерывном режиме сканируют цифровые потоки в поисках «радикального», «экстремистского» или «деструктивного» контента. При обнаружении угрозы алгоритм моментально удаляет сообщение, а полный цифровой профиль пользователя автоматически выгружается в базы данных силовиков. Главным аргументом в пользу столь жестких мер Жданов называет растущие угрозы распространения радикального антироссийского контента, с которыми традиционные методы ручной модерации уже не справляются.
Идея тотального сканирования переписок не является новаторской в глобальном смысле, однако до сих пор ее полноценная реализация удавалась лишь Пекину в рамках проекта «Золотой щит», более известного как Великий китайский файрвол. В КНР национальные цифровые гиганты, включая суперапп WeChat, оснащены встроенными механизмами глубокого семантического анализа. Искусственный интеллект там в реальном времени проверяет тексты, пересылаемые изображения и голосовые сообщения на наличие слов-маркеров, критикующих партию или затрагивающих чувствительные исторические темы. Сообщение, не прошедшее фильтр, просто растворяется в сети и не доходит до адресата, при этом отправитель даже не узнает о блокировке, а его социальный рейтинг неминуемо снижается. Российский вариант, судя по риторике представителей МВД, предполагает еще более жесткую связку между автоматизированной модерацией и мгновенным уголовным преследованием.
Интеграция подобных ИИ-решений органично вписывается в общую стратегию развития архитектуры суверенного рунета. Ранее подведомственный Роскомнадзору Главный радиочастотный центр уже запустил информационную систему «Окулус», которая специализируется на поиске незаконной информации, включая экстремизм и призывы к массовым беспорядкам, анализируя миллионы изображений и видеокадров в сутки. Однако до недавнего времени речь шла преимущественно об открытых источниках — публичных страницах, каналах и сайтах. Инициатива МВД подразумевает проникновение алгоритмов непосредственно в зону приватного общения.
Это ставит перед разработчиками серьезную технологическую преграду в виде сквозного шифрования (end-to-end encryption), которое является стандартом безопасности для таких платформ, как WhatsApp, Telegram или Signal. Эксперты в области кибербезопасности отмечают, что получить прямой доступ к зашифрованной переписке без явного сотрудничества со стороны владельцев платформ практически невозможно. Вероятно, на первых этапах система будет работать с отечественными социальными сетями, которые уже интегрированы в правовое поле «закона Яровой» и обязаны предоставлять ФСБ ключи дешифрования. В случае с иностранными мессенджерами контроль может осуществляться через внедрение алгоритмов непосредственно на устройства пользователей, анализ огромных массивов метаданных или тотальный автоматизированный мониторинг полузакрытых чатов с помощью сетей ботов-парсеров.
Отдельные опасения профильных юристов вызывает качество самих алгоритмов и размытость терминологической базы. Понятие «деструктивного контента» не имеет строгих рамок в российском законодательстве, что оставляет алгоритмам и их кураторам огромный простор для вольных интерпретаций. Искусственный интеллект, натренированный на выявление антигосударственной риторики, исторически склонен к огромному количеству ложных срабатываний. Программа не всегда способна отличить едкий сарказм, академическое цитирование или обсуждение исторических событий от реального экстремизма. Если процесс передачи данных от нейросети к следователю будет полностью автоматизирован, судебная система столкнется с беспрецедентным валом административных и уголовных дел, где первоначальным инициатором преследования выступит бездушный машинный код.
Стремление делегировать контроль за информационным пространством нейросетям отражает окончательный переход от точечных репрессий к массовому алгоритмическому надзору. Технологический барьер, который пока защищает личные сообщения пользователей в зарубежных сервисах, становится все более хрупким, а вектор развития силовых структур не оставляет сомнений в том, что понятие тайны переписки стремительно становится юридическим архаизмом.
Чтобы понимать, как новые технологии меняют общество, и первыми узнавать о скрытых процессах в сфере IT-государства, подписывайтесь на телеграм-канал Digital Report.
- Samsung заставят заплатить за тайное замедление смартфонов Galaxy - 23/03/2026 20:38
- МВД РФ планирует внедрить ИИ для поиска экстремизма в мессенджерах - 23/03/2026 19:57
- Мессенджер imo снова захватил смартфоны россиян - 23/03/2026 19:47