В декабре 2025 года предприниматель и глава нескольких технологических компаний Илон Маск выступил с заявлением о необходимости замедлить прогресс в области искусственного интеллекта и робототехники.По его словам, стремительное развитие технологий создаёт серьёзные риски для безопасности, этики и контроля, поскольку человечество может не успеть выработать эффективные механизмы регулирования, сообщает CNews.Маск подчеркнул, что уровень внимания к вопросам безопасности должен соответствовать масштабам технологического прорыва. Он выразил сомнения в способности существующих государственных и институциональных механизмов справиться с рисками, связанными с автономными системами и мощными ИИ‑моделями.По мнению предпринимателя, отсутствие чётких правовых и этических рамок может привести к непредвиденным последствиям для общества и глобальной стабильности.Особое внимание Маск уделил необходимости разработки международных норм и правил, которые позволят контролировать внедрение наиболее мощных технологий. Он отметил, что ИИ должен оставаться инструментом на службе человека, а не превращаться в угрозу.Среди приоритетных направлений он назвал прозрачность алгоритмов, независимую оценку рисков и формирование глобального консенсуса относительно границ применения ИИ.Основатель Tesla и SpaceX также обратил внимание на то, что современные разработки в области машинного обучения уже приближаются к уровню сложности, при котором общество может столкнуться с трудностями в понимании и контроле.По его мнению, внедрение подобных технологий в критически важные сферы — энергетику, транспорт, здравоохранение или оборону — должно сопровождаться тщательным обсуждением и согласованием правил безопасности.Заявления Маска стали частью широкой дискуссии, которая в 2025 году активно разворачивается в научном и экспертном сообществе. Многие специалисты сходятся во мнении, что ускорение разработки ИИ должно сопровождаться усилением регулирования и прозрачности.На фоне этих обсуждений более тысячи общественных деятелей и знаменитостей подписали открытое письмо с призывом запретить разработку сверхразумного ИИ до тех пор, пока не будет достигнут научный и общественный консенсус о его безопасности.Среди подписантов — Ричард Брэнсон, Стив Возняк, Яан Таллинн, Стивен Фрай, а также лауреаты Нобелевской премии Джеффри Хинтон, Дарон Аджемоглу, Джон Мазер и Франк Вильчек.