Добавить новость
smi24.net
Ru24.pro
Март
2026
1 2 3 4 5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31

Атака призраков в Иране: США активно применяет оружие, бьющее по сознанию

0
АиФ 

После начала боевых действий на Ближнем Востоке американская социальная сеть Х* превратилась в арену информационной войны. Платформу захлестнула волна дезинформации: старые видео, кадры из других конфликтов и откровенно сгенерированные нейросетями изображения набирают миллионы просмотров, маскируясь под актуальные репортажи с места событий. Пользователи также выдают сцены из видеоигр за реальные боевые действия. Примеры включают фейковые видео сбитых израильских истребителей, якобы успешных ударов ЦАХАЛ по иранской военной технике, удары по портам и фото дворца Хаменеи.

Кто и зачем зарабатывает на ложных постах о конфликте на Ближнем Востоке

Один из последних примеров — сбитие истребителя в небе над пустыней. СМИ обеих сторон, как США, так и Ирана, показали эти кадры, приписав удачную работу ПВО себе. Чей это был самолет (и был ли он вообще), доподлинно неизвестно.

«На таком видео никаких деталей увидеть нельзя», — сказал aif.ru авиаблогер Fighterbomber.

Особую тревогу у экспертов вызывает тот факт, что большинство вирусных публикаций исходит от верифицированных аккаунтов с «голубой галочкой». Такие блогеры получают монетизацию за вовлеченность, и погоня за охватами часто оказывается важнее правды. Несмотря на систему фактчекинга и примечания сообщества, ложная информация продолжает собирать многомиллионную аудиторию, оставаясь в топе.

Специалист по кибербезопасности Павел Мясоедов в беседе с aif.ru объяснил, почему отличить подделку от реальности сегодня практически невозможно. Главная причина кроется в простоте современных инструментов и особенностях военной съемки.

«Создать фейковые видео и фотографии с помощью нейросетей несложно, потому что любая нейросеть учится на старых массивах информации. Работы военных корреспондентов оцифровываются, и вся информация оседает в Сети», — отмечает Мясоедов.

По словам эксперта, ключевую роль играет контрастность. Реальные боевые действия, дым, взрывы и вспышки создают идеальные условия для генерации подделок.

«Контрастные объекты создавать проще с точки зрения реалистичности: что-то темно, что-то ярко, что-то где-то в дыму... Когда фотография контрастная, переходы на глаз определить почти невозможно. А если публикация осуществляется в маленьком разрешении, то будет практически стопроцентное попадание в яблочко», — добавил эксперт.

Изготовить профессиональное видео может кто угодно

Мясоедов подчеркивает, что сейчас для работы с нейросетями не нужны навыки программирования или сложные промты. Языковые модели сами помогают пользователю сформулировать запрос, что делает производство фейков массовым. Цель таких вбросов — манипуляция общественным мнением, попытка выставить противника виновным, а свою сторону — защитником.

В этих условиях обычным пользователям остается полагаться только на собственное критическое мышление.

«Нужно все перепроверять, смотреть информацию в альтернативных источниках. Не стоит спешить делиться «горячими кадрами» — можно невольно стать распространителем фейка», — предупреждает специалист.

При этом единого международного акта, регулирующего создание и распространение контента с помощью нейросетей в контексте военных конфликтов, до сих пор не существует. Это означает, что фабрика дипфейков продолжит штамповать ложь, пока зрители не научатся подвергать сомнению даже самые зрелищные кадры из соцсетей.

* Соцсеть X (бывшая Twitter) заблокирована на территории России по требованию Генпрокуратуры















Музыкальные новости






















СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *