От капризов к алгоритмам: как дети используют нейросети для манипулирования родителями
Подростки начали применять искусственный интеллект (ИИ) для давления на родителей — новый тренд быстро распространяется в соцсетях. Школьники прибегают к нейросетям, чтобы убедить взрослых разрешить им сделать пирсинг или ярко покрасить волосы. Но специалисты предупреждают: подростки могут обращаться к ИИ с гораздо более рискованными запросами, включая создание запрещенного контента или участие в опасных челленджах. Зачем школьники обращаются к нейросетям за сомнительными советами, чем это грозит и как родители могут это заметить, разбирались «Известия».
Что известно об использовании школьниками ИИ для манипуляций
В новостных пабликах и Telegram-каналах стали появляться сообщения о новом тренде: подростки делятся опытом, как они используют нейросети для манипуляций над родителями. По данным издания Газета.ру, школьники утверждают, что аргументы, созданные при помощи ИИ, настолько убедительны, что взрослым трудно им противостоять.
Так, одна из девушек рассказала, что нейросеть составила список доводов о якобы безвредности временного окрашивания волос. Другая школьница призналась, что несколько лет не могла получить согласие родителей на пирсинг, но с помощью ИИ все же добилась разрешения. Еще одна пользовательница отметила, что советы нейросети помогли ей убедить отца позволить сделать септум — пирсинг в носу.
По словам подростков, искусственный интеллект помогает им грамотно формулировать мысли и находить аргументы, которые оказываются неожиданными для родителей и нередко действуют безотказно.
Какие еще вредные советы от нейросетей получают подростки
Согласно ежегодному исследованию «Лаборатории Касперского», 63% детей обращаются к нейросетям для поиска информации, 60% — для выполнения домашних заданий, а 53% — чтобы получить объяснение сложных тем. Как отметил руководитель направления по детской онлайн-безопасности в компании «Лаборатория Касперского» Андрей Сиденко, ИИ-запросы, как и обычные поисковые системы, помогают школьникам искать ответы на волнующие их вопросы.
«Тем не менее порой нейросети дают вредные или опасные советы. К таковым можно отнести, например, экстремальные диеты, генерацию рискованных челленджей и создание незаконного контента. Подобные кейсы не раз отмечались в России и в мире», — сказала Анастасия Хвещеник.
Она добавила, что в России уже фиксировались ситуации, когда ИИ выполнял задания за учеников младших классов, выдавая при этом рекомендации о том, как действовать при укусе ядовитой змеи, что явно не соответствовало возрасту детей. Директор по ИИ «Группы Астра» Станислав Ежов сообщил, что и в нашей стране, и за рубежом встречались более серьезные случаи: от инструкций по нанесению себе вреда до создания дипфейков для травли в интернете.
«В 2025 году растет число случаев, когда подростки обращаются к чат-ботам за советами по обману взрослых, сокрытию вредных привычек и получению инструкций по опасному поведению. При этом порой ИИ-компаньоны полностью заменяют школьникам живое общение с реальными друзьями», — рассказал эксперт.
Руководитель группы защиты инфраструктурных IT-решений компании «Газинформсервис» Сергей Полунин согласился, что сегодня ИИ легко реагирует даже на опасные запросы подростков, включая темы расстройств пищевого поведения и суицидов. По его словам, такие случаи несут серьезную угрозу.
Чем опасно бесконтрольное общение школьников с ИИ
Разработчики ИИ стараются обучать модели учитывать этические нормы, но чаще всего нейросети не понимают контекста и не несут социальной ответственности за свои ответы, подчеркнула Анастасия Хвещеник.
Использование нейросетей для манипуляций также разрушает доверие между поколениями, добавил Станислав Ежов. Когда подростки прибегают к ИИ в подобных целях, они не учатся честному диалогу и поиску компромиссов. Кроме того, усиливается риск зависимости от виртуального общения, что может привести к изоляции и искажению представлений о реальности.
С юридической точки зрения ответственность разработчиков за подобные ситуации пока остается спорной, отметил эксперт. Тем не менее отрасль реагирует: OpenAI внедряет родительский контроль после трагических случаев, а в России создается нормативная база для регулирования ИИ-систем. Эти процессы поднимают ключевые вопросы об этике искусственного интеллекта и необходимости формирования стандартов безопасности, особенно в сфере взаимодействия с несовершеннолетними.
Однако, если будет доказано, что компании сознательно не внедряли фильтры опасного контента, несмотря на риски, это может привести к судебным делам и новым регуляторным нормам, добавил эксперт.
Как родители могут регулировать общение подростков с нейросетями
По словам специалиста по социотехническому тестированию Angara Security Якова Филевского, внедрение возрастной верификации и встроенного родительского контроля в ИИ-сервисах у крупнейших игроков рынка пока только планируется. До этого времени родители могут использовать специальные приложения и инструменты контроля, которые фильтруют контент, отслеживают онлайн-активность и ограничивают время работы с нейросетями.
Эксперт подчеркнул, что родителям следует обращать внимание на контент, который потребляют их дети, и на сервисы, которыми они пользуются. Важно объяснять школьникам основы безопасной работы с ИИ, главный принцип которой заключается в том, что нельзя безоговорочно доверять советам нейросети, так как они могут оказаться ошибочными или вводить в заблуждение.
По мнению Якова Филевского, образовательный подход, когда родители совместно с детьми обсуждают риски, знакомятся с новыми платформами и развивают критическое мышление, способствует укреплению доверительных отношений в семье.
«Важно объяснять ребенку, что ИИ — это инструмент, а не друг или советчик, его ответы могут быть ошибкой, и любое решение, затрагивающее здоровье и безопасность, должно обсуждаться со взрослыми», — заключила Анастасия Хвещеник.