Всего несколько лет назад нейросети с трудом генерировали видео на несколько секунд со знаменитостями, поедающими спагетти, а теперь они массово используются правительствами разных стран для информационных войн. ИИ-сервисы не только помогают определять цели для авиаударов и симулировать боевые действия, но и вводят в заблуждение миллионы людей. Если раньше на это требовались усилия многомиллионных бот-ферм и огромные бюджеты, сейчас достаточно написать простой промпт для генерации нужной картинки или видео и опубликовать его в соцсетях, надеясь на продвижение с помощью алгоритмов.
Пропагандистских фейков, сгенерированных с помощью ИИ, не счесть. С их помощью Израиль и ХАМАС обвиняли друг друга в массовых убийствах детей, Иран создает ненастоящие фотографии с новым верховным лидером страны, а в соцсети X публикуют ролики, где американские ВВС якобы бомбят правительственные здания в Тегеране. «Новая-Европа» рассказывает, чем опасна ИИ-пропаганда, почему ее стали чаще использовать правительства разных стран и каково будущее этих технологий.
Что такое слопаганда и зачем она нужна правительствам?
Пропагандистские фейковые видео, созданные с помощью ИИ, в соцсетях называют слопагандой — от английского слова slop, означающего мусор или помои. С 2024 года нейрослопом называли любые низкокачественные нейровидео, но термин слопаганда появился относительно недавно — примерно в 2025 году.
Слопаганде уже посвящают научные работы. Так, специализирующиеся на ИИ-этике ученые Михал Клинцевич, Марк Алфано и Амир Фард из университетов Нидерландов и Австралии утверждают, что слопаганда отличается от традиционной фейковой пропаганды своими масштабами и возможностью влиять на самую широкую аудиторию. Нейросети позволяют создавать множество новостных сайтов, распространяющих дезинформацию на региональном уровне, — например, нацеленные на жителей конкретных провинций европейских стран или американских штатов. Многие пользователи по умолчанию доверяют «локальным» сайтам больше, чем федеральным или международным, — и могут легко стать жертвами слопаганды.
Сгенерированные нейросетями фотографии или видео могут быть крайне убедительными. В исследовании 2024 года, проведенном учеными Стэнфордского университета, выяснилось, что пропагандистским материалам, созданным с помощью актуальной на тот момент ChatGPT-3, верили около 43,5% респондентов. 40% участников эксперимента, проведенного учеными Чикагского университета в том же 2024-м, смогли верно распознать ИИ-изображения.
Результаты различаются в зависимости от состава участников. Финские исследователи из Оулуского университета пришли к выводу, что большинство молодых жителей страны в состоянии распознать фейковые видео. В то же время людям пожилого возраста сделать это гораздо сложнее — по крайней мере, такую информацию приводят сингапурские ученые из Наньянского технологического университета.
По опросам 2025 года стало известно, что около 25% американцев в основном доверяют информации, сгенерированной чат-ботами, и не перепроверяют их ответы. И 9% жителей США, по данным исследовательского центра Pew Research Center, читают новости с помощью ИИ-сервисов.
Правительства используют эффективность слопаганды в своих интересах. Как утверждает профессор Калифорнийского университета в Беркли Хани Фарид, раньше СМИ легко вычисляли и опровергали вручную созданные фейки.
Теперь же реалистичных пропагандистских фотографий и видео стало настолько много, что журналисты уже не успевают опровергать каждый отдельный фейк.
Ситуацию осложняет и то, что с помощью ИИ нередко редактируют фрагменты настоящих видео, чтобы ввести зрителей в заблуждение, — например, увеличивают радиус и мощность взрывов от авиаударов или дронов.
Другой важный «плюс» слопаганды — ее массовость и доступность. Правдоподобные фейковые видео создаются в кратчайшие сроки и быстро распространяются с помощью ботов и доверчивых людей. Государства этим пользуются, чтобы скрыть от публики достоверную информацию во время военных конфликтов. Кроме того, в 2026 году обычным пользователям, корпорациям и государствам доступно как никогда много нейросетей и ИИ-сервисов, позволяющих генерировать контент за низкую стоимость.
«Ежедневно создаются сотни тысяч часов видео — как с помощью обычных камер, так и с искусственным интеллектом, — и это просто огромный объем данных, с которым приходится иметь дело. Это, безусловно, замутняет и запутывает нашу информационную среду, затрудняя понимание происходящего и подрывая доверие к происходящему», — рассказал профессор визуальной коммуникации ТиДжей Томсон в комментарии изданию ABC News.
Особенно активно слопаганду применяет Иран. По данным аналитического агентства Cyabra, страна за две недели вооруженного конфликта с США и Израилем задействовала десятки тысяч ботов в соцсетях, публиковавших фейковые ИИ-ролики о достижениях иранской армии. В частности, многие ролики показывали, как иранские ракеты и дроны уничтожали военные объекты и достопримечательности стран Персидского залива вроде ОАЭ и Катара. Такие видео набрали более 145 миллионов просмотров в TikTok, X, YouTube и других соцсетях.
Иран с помощью слопаганды не только добивается усиления паники в регионе, но и пытается убедить зрителей из других стран в том, что ее армия куда сильнее, чем показывают в официальных новостях.
«Использование ИИ-кадров, на которых запечатлены горящие или разрушенные места в Персидском заливе, приобретает все большее значение в стратегии Ирана. Это позволяет стране создать впечатление, что эта война является более разрушительной и, возможно, более дорогостоящей для союзников Америки», — рассказал в комментарии The New York Times доцент Северо-западного университета Катара Марк Джонс.
В обзоре искусственного интеллекта Google ложно утверждается, что сгенерированное ИИ видео иранских ракет, поражающих Тель-Авив, является подлинным. Фото: cкриншот с сайта NewsGuard
Слопаганда особенно сильна тем, что ИИ-сервисы пока плохо распознают фейки. Например, система Google AI Overviews, дающая краткое саммари по запросу в поисковике, назвала сгенерированные Ираном кадры уничтоженных зданий настоящими. Часто ошибается и чат-бот Grok от соцсети X, принадлежащей Илону Маску. Нейросеть посчитала посты о разрушениях в Тель-Авиве правдивыми и сослалась на несуществующие материалы Reuters, CNN и Euronews.
Пока технологические корпорации не справляются с усилением слопаганды. Единственная компания, обещавшая наказывать пользователей за публикации ИИ-видео без указания источника, — та же X. Представители остальных сервисов вроде Facebook, Instagram и TikTok еще не предприняли никаких действий.
В обзоре искусственного интеллекта Google ложно утверждается, что на изображении с использованием искусственного интеллекта виден «мощный пожар» в посольстве США в Эр-Рияде. Фото: cкриншот с сайта NewsGuard
Как Россия использует слопаганду во время войны?
Российские пропагандисты распространяют фейки еще с начала вторжения в Украину в 2022 году. Например, представители СНБО заявляли, что РФ с помощью профессиональных студий создает видео с актерами, изображающих украинских военных. Такие ролики снимали в вертикальном формате с помощью дешевых телефонов, чтобы усилить эффект правдоподобности. Также российские бот-фермы в начале вторжения публиковали в TikTok ролики с кадрами из видеоигр и видео времен предыдущих военных конфликтов.
Кадр из видео игры в страйкбол. Видео преподносилось как якобы снятое на войне в Украине. Фото: bbc.com / TikTok
Но с ростом популярности ИИ-сервисов Россия изменила стратегию и стала публиковать два типа коротких роликов. В первом показывают низкокачественные анимации с нереалистично выглядящими людьми — например, в январе 2026 года опубликовали десятки роликов с тучными людьми в украинской военной форме, которые жаловались на нехватку продовольствия. Как отмечает «РБК-Украина», такие видео подаются как сатира и направлены на деморализацию населения и военнослужащих.
Второй тип нейрофейков куда опаснее — это правдоподобные видео с высокой детализацией, которые можно по невнимательности принять за настоящие. Среди них, скажем, ролики, где украинские военные массово сдаются российской армии или отступают из осажденных городов в Донецкой области.
Заметить признаки генерации в них крайне сложно, так как подобный контент создается с помощью Sora 2 от OpenAI, создавшей ChatGPT. Sora 2 создает правдодобно выглядящих людей и соответствующий картинке звуковой ряд, в том числе и голоса. Несоответствия можно заметить лишь в мелких деталях — визуальных артефактах, в одежде или пропадающих мелких объектах в кадре.
Российская пропаганда использовала Sora 2 для создания фейковых тиктоков с плачущими украинскими солдатами. Так, в одном из роликов показывается молодой парень, утверждающий, что его насильно мобилизовали и отправили воевать в Часов Яр. При этом в видео использовались лица известных российских стримеров — среди них Владимир Буянов под ником Kussia88 и Алексей Губанов, более известный как JesusAVGN.
Слопаганду в соцсетях регулярно публикуют специализированные российские аккаунты с нейтральными названиями, не указывающими на их происхождение, — например, flight_area_zone. Существуют даже целые нейросетевые сайты, связанные с Россией и мимикрирующие под американские новостные издания, — об одном из них написали научную статью ученые из Цюрихского и Клемсконского университета.
Россия также публикует англоязычную слопаганду. Ролик, в котором профессор лондонского Королевского колледжа Алан Рид якобы критиковал Эммануэля Макрона и разоблачал западную цивилизацию, успел набрать популярность в соцсетях, пока на него не обратил внимание сам Рид. Также в TikTok сотни тысяч просмотров набрали нейросетевые видео, на которых польские граждане требовали выхода своей страны из Евросоюза.
Пока что подобные ролики легко разоблачаются журналистами и комментаторами. Но пропаганда РФ проникает всё глубже: в январе нейросети ChatGPT, Copilot, Claude и Gemini в 33% случаев ссылались в своих ответах на вопросы о причинах войны в Украине на информацию, распространяемую российскими властями. Как выяснило аналитическое агентство Newsguard, Кремль еще в 2024 году создал целую сеть по дезинформации под названием «Правда». Боты сети, по оценкам агентства, опубликовали более 3,6 миллиона сгенерированных новостных статей, продвигавших российскую пропаганду.
***
Слопаганда, судя по всему, с нами надолго. Нейросети все лучше справляются с созданием правдоподобных изображений видео — например, Neo Banana от Google показывает даже более впечатляющие результаты, чем Sora. А текстовые чат-боты помогают правительствам быстрее и массовее распространять фейки в соцсетях.
Нейросети окончательно превратились в инструмент войны, а их создатели как минимум косвенно влияют на исход конфликтов.
Так, недавно Иран заявил, что считает дата-центры Nvidia, Google, Microsoft, IBM и Oracle в Израиле и странах Ближнего Востока легитимными целями для ракетных ударов и дроновых атак.
Из-за роста популярности нейросетей обычным людям все труднее доверять достоверной информации — многие пользователи во всем видят подвох или предпочитают не читать новости. Политические дискуссии и вовсе превратились в обсуждение того, что сгенерировано нейросетями, а что нет. Скажем, в недавнем выступлении израильского премьер-министра Биньямина Нетаньяху пользователи соцсети X увидели признаки генерации ИИ вроде шести пальцев на руках политика.
Кадр из выступлении израильского премьер-министра Биньямина Нетаньяху. Фото: соцсети / X / AustraliaFirstOnly
Пока же можно сделать вывод, что корпорации практически не мешают распространению слопаганды, а правительства разных стран видят в нейросетях исключительно выгоду.
