Главенство живого интеллекта: чем могут обернуться ошибки нейросети
Нейросети отстранят от принятия важных решений. Причина в том, что они довольно часто ошибаются и порой цена этому – человеческая жизнь или свобода. Поэтому в России решили законодательно закрепить главенство живого интеллекта над искусственным, по крайней мере в некоторых сферах. Подробнее рассказала корреспондент Наталия Оскерко в сюжете РЕН ТВ.
Разработка, которую так нахваливали западные ученые, дала сбой. Уже подсчитали, что искусственный интеллект, направлявший инструменты хирурга, ошибся как минимум 100 раз. Десять пациентов получили серьезные травмы вплоть до повреждения артерий и инсульта. Врачи доверяют нейросети забор крови, поиск опухолей и постановку диагноза. В странах с прецедентным правом юристы пишут с помощью ИИ свои речи. Примеры провалов уже есть.
"Адвокат пришел в суд, выступил, даже выиграл, но потом, когда стали разбирать его речь, выяснилось, что все его случаи были придуманными. Искусственный интеллект просто придумал случаи", – сообщил руководитель Международного центра криминалистики СПБ ФИЦ РАН Андрей Чечулин.
Ошибка искусственного разума может стоит человеку здоровья, свободы и даже жизни.
"С одной стороны, это действительно абсолютная магия, невероятный инструмент, который позволяет то, что было невозможно еще полгода назад. С другой стороны, это огромная иллюзия, которая как раз и обманывает нас вот этой своей условной простотой", – отметил глава агентства по внедрению ИИ-инструментов в бизнес Сергей Черненко.
Искусственный интеллект обучают на основе огромного количества схем, текстов и изображений. Он может принимать решения, но берет информацию из того, что заложил создатель, то есть человек, который тоже может ошибаться.
"Если будет ошибка в этих данных, то потом и искусственный интеллект будет работать некорректно. Скорее, искусственный интеллект – это помощник", – указал основатель ИИ-компании Семен Галушкин.
Но нейросеть пока не умеет учитывать мораль и этику, а также вникать в суть написанного. Тут и начинаются промахи.
"Если нейросеть чего-то не знает, она начинает фантазировать. Это называют галлюцинациями языковой модели, и ни одна из них от этого не застрахована. Например, стоит спросить искусственный интеллект: "Зачем Петру I нужны были автомобили?" И получим вполне развернутый ответ о том, чего в принципе быть, конечно, не могло", – рассказала корреспондент Наталия Оскерко.
А еще нейросетка легко подстраивается под собеседника. Например, месяц поработав в сфере ЖКХ, ИИ начал вдруг нецензурно выражаться. Видимо, такого наслушался от пользователей, что невольно перестроился.
"Если с ним начинают материться, то, поскольку он знает матерные выражения из сети Интернет, и несмотря на то, что у него есть ограничения – когда его учат, ему дают инструкции быть вежливым и корректным, – в рамках длинных чатов может произойти так, что он тоже начнет материться", – добавил Андрей Чечулин.
Неудивительно, что полномочия искусственного интеллекта решили ограничить. Для начала – в социально значимых сферах: здравоохранении, образовании, юриспруденции и общественной безопасности.
"Невозможно полностью довериться. Каждое решение нейронной сети нужно будет проверять, потому что зачастую она может галлюцинировать, и это не дает 100% достоверного ответа", – подчеркнул руководитель инфраструктурных инженеров Илья Агиенко.
Решающую роль человека при принятии решений с использованием нейросети в таких областях планируют закрепить законодательно. Подготовленный с учетом этих пожеланий документ Минцифры направит на согласование в правительство уже в этом месяце.
РЕН ТВ в мессенджере МАХ – главный по происшествиям
