ЮНИСЕФ: Все больше детей становятся жертвами дипфейков сексуального характера
ЮНИСЕФ подчеркивает: масштабы проблемы таковы, что в каждом классе можно найти хотя бы одного ребенка, который стал жертвой подобного преступления.Дипфейки — это изображения, видео или аудиозаписи, созданные с использованием искусственного интеллекта (ИИ), которые выглядят или звучат как настоящие. Такие материалы все чаще используются для создания сексуализированного контента с участием детей.
Исследователи отметили, что "дети хорошо осведомлены о рисках, связанных с дипфейками". В некоторых странах, участвовавших в исследовании, около двух третей детей высказывают опасения, что ИИ может быть использован для создания поддельных сексуальных изображений или видео.
ЮНИСЕФ подчеркивает, что создание дипфейков с сексуальным контентом приравнивается к насилию над детьми.
Фонд также отметил важность работы разработчиков ИИ, которые внедряют меры предосторожности для предотвращения злоупотреблений. "ЮНИСЕФ поддерживает усилия тех, кто разрабатывает системы с учетом безопасности по умолчанию", – добавили в организации.
Тем не менее, многие ИИ-модели создаются без должных механизмов защиты. Риск усугубляется, если генеративные инструменты ИИ интегрированы в социальные сети, где такие изображения быстро распространяются.
Организация призывает разработчиков ИИ интегрировать безопасность на этапе проектирования, а не после возникновения проблем. Все цифровые компании должны работать над предотвращением распространения материалов, содержащих изображения сексуального насилия над детьми, созданных с помощью ИИ, а не просто удалять их задним числом.
Иллюстрация на главной странице: pngtree.com.
