Главные новости Санкт-Петербурга
Санкт-Петербург
Июнь
2025

IT-эксперт: существуют более опасные, чем «восстание машин», вещи

0

Среди этих вызовов, по его мнению, значится в первую очередь самостоятельное принятие решений ИИ-системами, последствия этих решений люди не могут предсказать или объяснить.

Алгоритмы, по мнению Павла Карасева, могут начать действовать во вред пользователям, потому что были обучены на ошибочных или искажённых данных. В целом искусственный интеллект может начать использоваться в целях, для которых он изначально не предназначался например, в информационных войнах, кибератаках, манипуляциях общественным мнением (к слову сказать, данная тема обсуждалась и на недавно завершившемся Петербургском международном экономическом форуме — ред.).

На сегодняшний день, по мнению эксперта, наиболее актуальны следующие сценарии:

• Непрозрачность решений. Многие современные ИИ-модели работают как «чёрный ящик».

Даже создатели не всегда могут объяснить, почему система приняла то или иное решение — особенно это опасно в медицине, правосудии, кредитовании.

• Предвзятость данных. ИИ обучается на существующих массивах информации, и если эти данные содержат ошибки, стереотипы или искажения — алгоритмы их воспроизводят, а иногда и усиливают.

• Ошибки в критически важных системах. Например, автопилоты, ИИ в медицинской диагностике или оборонных системах. Ошибка может стоить жизни или привести к масштабным последствиям.

• Автономность без контроля. Некоторые системы способны самостоятельно принимать решения в реальном времени. Если не заданы строгие рамки, последствия могут быть непредсказуемыми. А что с полностью автономным ИИ? Создание ИИ, способного принимать собственные решения вне рамок программирования, остаётся пока в теории. Модели вроде ChatGPT, Midjourney или AlphaFold — мощные, но они не обладают волей, намерением или осознанной целью. Они генерируют ответы по вероятностной модели, основанной на обучающих данных. Но при этом существует другой риск: не сам ИИ, а человек, использующий его безответственно. Например, генерация фейков, DeepFake-видео, фальсификация документов, манипуляции в политике и экономике.

Что делает ИИ безопаснее?

• Чёткие этические принципы разработки (включая запрет на использование ИИ в вредоносных целях).

• Постоянный контроль и аудит работы моделей.

• Регулирование со стороны государства и международных организаций.

• Образование и цифровая грамотность пользователей. В 2023–2025 годах многие страны (включая ЕС, США, Китай и Россию) начали формировать законодательные рамки для регулирования ИИ — от запрета на «вредный ИИ» до требований по прозрачности, аудиту и ограничению автономности.

«На текущем этапе риск того, что ИИ “восстанет” и выйдет из-под контроля в голливудском смысле, крайне мал. Но риски ошибок, манипуляций и безответственного применения — абсолютно реальны. Безопасность ИИ это не только вопрос технологии, но и культуры, регулирования и зрелости пользователей. И именно от нас зависит, станет ли ИИ инструментом прогресса или источником новых угроз», — также отметил эксперт.















Музыкальные новости






















СМИ24.net — правдивые новости, непрерывно 24/7 на русском языке с ежеминутным обновлением *