После расследования The Guardian в прошлом месяце компания Google удалила из поиска часть медицинских осмотров искусственного интеллекта, которые предоставляли потенциально опасную и обманчивую информацию о результатах анализов. Однако новое расследование The Guardian выявило другую проблему — Google подвергает пользователей опасности, преуменьшая важность предостережений относительно медицинских советов, сгенерированных искусственным интеллектом.
Предостережение появляется только после нажатия кнопки "Показать больше" под сводкой, и даже тогда оно размещено внизу страницы меньшим и светлым шрифтом. В тексте предупреждения указано: "Информация предназначена только для справки. Чтобы получить медицинскую консультацию или установить диагноз, обратитесь к специалисту. Ответы ИИ могут содержать ошибки".
В Google заявили, что обзоры ИИ "поощряют людей обращаться за профессиональной медицинской помощью" и упоминают об этом в самом тексте, "когда это уместно". В то же время компания не отрицает, что во время первой демонстрации медицинского совета отдельное предостережение не отображается.
[see_also ids="669941"]
Эксперты по этике искусственного интеллекта и представители пациентских организаций выразили обеспокоенность. Они отмечают, что предостережения должны быть заметными с самого начала, ведь речь идет о чувствительной сфере здравоохранения.
Пэт Патаранутапорн, исследователь Массачусетского технологического института, отметил: "Отсутствие оговорок во время первого предоставления пользователям медицинской информации создает несколько критических опасностей". По его словам, даже самые современные модели ИИ могут генерировать дезинформацию или предоставлять ответы, ориентированные на удовлетворение пользователя, а не на точность.
"Предостережения служат решающим моментом вмешательства. Они нарушают это автоматическое доверие и побуждают пользователей более критически относиться к полученной информации", — добавил исследователь.
[see_also ids="671840"]
Профессор Лондонского университета королевы Марии Джина Нефф заявила, что "проблема с плохими обзорами ИИ является замыслом". По ее словам, осмотры разработаны для скорости, а не точности, что может быть опасным в сфере медицинской информации.
Сонали Шарма из Центра искусственного интеллекта в медицине и визуализации Стэнфордского университета обратила внимание на размещение обзоров в верхней части страницы. По ее словам, это создает ощущение полного ответа и может уменьшать мотивацию пользователей искать дополнительную информацию или просматривать предостережения.
"Мы знаем, что дезинформация — это реальная проблема, но когда речь идет о дезинформации о здоровье, она потенциально очень опасна", — заявил Том Бишоп из благотворительной организации Anthony Nolan и добавил, что предупреждение должно быть размещено в самом верху и таким шрифтом, как основной текст.
В январе The Guardian уже сообщало о рисках, связанных с ложной и обманчивой информацией о здоровье в обзорах Google AI. После публикации компания удалила обзоры ИИ для части медицинских запросов, но не для всех.