Добавить новость
smi24.net
World News in Persian
Ноябрь
2025

شگرد جدید کلاهبرداری؛ صدایی که از عزیزانتان می‌شنوید، واقعی نیست!

0
ILNA 

کلاهبرداران با استفاده از صدای ساخته شده با هوش مصنوعی برای گرفتن پول از خانواده ها اخاذی می کنند.

«چندساعت پیش تماسی با خاله  ام گرفته شد و گفتند: پسر شما تصادف کرده، حالش وخیم است، او را به بیمارستان امام حسین بردیم و باید سریع پول واریز کنید تا عمل اش کنیم. بعد گوشی را دادند به پسرش، صدایی دقیقاً مثل خودش! همون لحن، همون تکیه کلام ها.»؛ این جملات بخشی از روایتی است که کاربری ایرانی به تازگی در شبکه اجتماعی ایکس آن را منتشر کرده و از تجربه برخورد با کلاهبرداری با هوش مصنوعی و درخواست واریز وجه به نام یکی از افراد آشنا نوشته است؛ اتفاقی که در ماه های اخیر موارد متعددی از آن توسط شهروندان ایرانی گزارش شده و طبق آمارهای بین المللی به سرعت در جهان در حال گسترش است.

این نوع از کلاهبرداری به کمک «دیپ فیک» انجام می شود؛ نوعی رسانه مصنوعی شامل تصویر، ویدئو یا فایل صوتی که در آن چهره یا صدای فردی با استفاده از هوش مصنوعی تغییر داده یا جایگزین می شود. این کلاهبرداری، یکی از میلیون ها مورد کلاهبرداری با هوش مصنوعی در سال ۲۰۲۵ است. با وجود اینکه هنوز آمار رسمی ای از میزان کلاهبرداری با هوش مصنوعی در ایران منتشر نشده، اما وکلای دادگستری، پلیس فتا و فعالان این حوزه درباره افزایش این نوع کلاهبرداری ها در ایران هشدار می دهند.















Музыкальные новости






















СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *