Добавить новость
Hi-Tech.Mail.Ru
Ноябрь
2025
1 2 3 4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

Россиянам рассказали, как не стать жертвой розыгрыша с помощью ИИ

0

Проверка источника видео, обратный поиск по фото, а также специализированные сервисы помогут не стать жертвой розыгрыша, преступления или информационной операции, сделанных с помощью ИИ, рассказали в управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий МВД РФ.

«С помощью ИИ-инструментов подростки генерируют реалистичные изображения неопрятного мужчины, будто находящегося у них дома. После этого сообщают родителям, что впустили “бездомного”, чтобы тот попил воды или отдохнул. Реакция родителей — испуг, тревога, крики — фиксируется на видео и выкладывается в соцсети», — говорится в сообщении.

В ведомстве отметили, что в данных розыгрышах нет злого умысла, однако есть важный симптом времени — сейчас создание дипфэйков требует минимальных ресурсов.

«Современные нейросети автоматически подгоняют выражения лица и голос под заданный текст. Видео выглядит достоверно, но именно это и создаёт риски: под видом шутки могут распространяться фейковые новости, заявления от имени публичных лиц или мошеннические призывы в инвестиции», — отмечается в сообщении.

В МВД рассказали, чтобы не стать жертвой подобного розыгрыша, преступления или информационной операции необходимо проверять источник — видео без понятного происхождения — повод для паузы, а поэтому стоит проверить официальные аккаунты, сайты или Telegram-каналы. Также стоит обращать внимание на мелкие артефакты: неровные контуры лица, «дрожащие» тени, странные движения губ и глаз, иногда звук чуть запаздывает — именно такие сбои выдают синтетическую природу видео.















Музыкальные новости






















СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *