Guardian добилась удаления ИИ-ответов Google по анализам на состояние печени
Google удалил некоторые ИИ-обзоры, которые выдавались пользователям при поиске информации о результатах медицинских анализов, пишет Guardian. По данным издания, в обобщенном ответе на поисковые запросы нейросеть выдавала такие толкования показателей из анализов, которые могли привести к ошибочным выводам и причинить вред здоровью.
Google удалил некоторые ИИ-обзоры, которые выдавались пользователям при поиске информации о результатах медицинских анализов, пишет Guardian. По данным издания, в обобщенном ответе на поисковые запросы нейросеть выдавала такие толкования показателей из анализов, которые могли привести к ошибочным выводам и причинить вред здоровью.
Внимание Guardian привлекли медицинские обзоры, созданные с помощью искусственного интеллекта и с некоторых пор отображаемые в самом верху в списке ответов на поисковые запросы в Google. Журналисты проанализировали несколько таких ответов и пришли к выводу, что они искажают реальную ситуацию и могут ввести людей в заблуждение, ведущее к причинению вреда их здоровью.
Google сначала заявила, что ее обзоры на основе искусственного интеллекта являются «полезными» и «надежными». Но потом, изучив конкретные примеры, представленные Guardian, компания признала, что некоторые ИИ-ответы "содержали неточную информацию о здоровье, подвергая пользователей риску причинения вреда"
Внимание журналистов привлек ответ нейросети на запрос о результатах анализов, направленных на выявление патологий печени. Они попросили экспертов прокомментировать обзор от ИИ, и те пришли к выводу, что в нем содержится ложная информация, способная дезориентировать людей с серьезными нарушениями работы печени и понапрасну их успокоить.
В расследовании Guardian приводятся различные ИИ-ответы Google на запросы о результатах анализов, связанных с работой печени. Из них следует, что нейросеть произвольно компилирует данные различных источников, смешивая различные системы тестирования, шкалы оценки (например, по возрасту или полу) и другие критерии, но при этом полностью игнорируя контекст.
Опрошенные Guardian эксперты сочли, что Google AI Overviews выдает обзоры, способные создать у тяжело больных пациентов ложное впечатление об их состоянии. По мнению журналистов, под влиянием этих нейросетевых советов люди, страдающие болезнями печени, могут принять критически важное для них решение — отказаться от дальнейших медосмотров.
Несмотря на первоначальные возражения, Google удалила обзоры AI Overviews по поисковым запросам «нормальный диапазон анализов крови на функцию печени» и «нормальный диапазон анализов функции печени». «В случаях, когда обзоры ИИ не учитывают контекст, мы работаем над общими улучшениями, а также принимаем соответствующие меры в соответствии с нашей политикой», — прокомментировал изменения представитель компании.
Однако эксперты в сфере здравоохранения обеспокоены тем, что удалены только ответы на конкретные запросы, хотя все они могут представлять опасность — в том числе сформулированные немного по-другому. «Мы по-прежнему обеспокоены тем, что другая информация о здоровье, созданная с помощью ИИ, может быть неточной и вводить в заблуждение», — утверждает директор по коммуникациям и политике благотворительной организации British Liver Trust Ванесса Хебдич.
Она отметила, что даже корректно изложенные подходы к предельно допустимым минимальным и максимальным значениям показателей, отраженных в анализах, не дают пользователю без медицинского образования достаточного представления о результатах диагностики.
«В обзорах по искусственному интеллекту не предупреждается о том, что нормальные результаты этих анализов могут быть получены даже при наличии серьезного заболевания печени и необходимости дальнейшего медицинского лечения. Это ложное чувство безопасности может быть очень вредным», — пояснила Хебдич.
По ее словам, беспокойство вызывает в целом широкое распространение ИИ-обзоров в сфере здравоохранения: люди ищут информацию с конкретной практической целью, которая окажет непосредственное влияние на их дальнейшие решения по поводу своего здоровья, и могут быть введены в заблуждение нейросетью.
«По-прежнему существует слишком много примеров того, как обзоры Google, созданные с помощью искусственного интеллекта, предоставляют людям неточную информацию о здоровье», — констатирует председатель Форума информации для пациентов Сью Фаррингтон.
В качестве примеров Guardian приводит ИИ-обзоры Google по запросам о раке и психическом здоровье. Опрошенные изданием эксперты оценили их как «совершенно неверные» и «действительно опасные». На вопрос о том, почему эти обзоры не были удалены, в компании ответили, что они содержали ссылки на известные и авторитетные источники и информировали пользователей о том, когда важно обратиться за консультацией к эксперту.
«Наша внутренняя группа врачей проверила предоставленную нам информацию и обнаружила, что во многих случаях она не содержала неточностей и подтверждалась качественными веб-сайтами», — заявили в пресс-службе Google.
В компании утверждают, что ИИ-обзоры выдаются в поисковых результатах только по тем запросам, в которых компания испытывает "высокую степень уверенности", а качество таких ответов якобы постоянно проверяется.
