Развитие искусственного интеллекта в сфере здравоохранения может создать серьезные юридические трудности в случаях медицинских ошибок. Эксперты отмечают, что использование ИИ в клинических системах растет взрывными темпами. В то же время, предостерегают они, эффективность и безопасность многих таких разработок остаются недостаточно проверенными, передает The Guardian.
"Обязательно будут случаи, когда что-то пойдет не так, и люди оглянутся вокруг, чтобы кого-то обвинить", — сказал профессор Дерек Ангус из Университета Питтсбурга, ведущий автор отчета.
Об этом говорится в отчете, подготовленном группой ведущих ученых и юристов после Саммита по вопросам искусственного интеллекта, организованного изданием Journal of the American Medical Association (JAMA). Документ отмечает, что быстрое внедрение алгоритмов в медицинскую практику создает новый уровень сложности в юридических конфликтах.
[see_also ids="653662"]
По словам профессора Гарвардской школы права Гленна Коэна, пациентам может быть трудно доказать ошибки в использовании продуктов ИИ, ведь доступ к информации о внутренней работе алгоритмов обычно ограничен. Кроме того, участники процесса — врачи, компании-разработчики и больницы — могут перекладывать ответственность друг на друга.
"Взаимодействие между сторонами также может создавать трудности для подачи иска — они могут указывать друг на друга как на виноватую сторону", — отметил Коэн.
Профессор Стэнфордской школы права Мишель Мелло подчеркнула, что суды в целом способны решать такие вопросы. Только эта процедура требует времени.
[see_also ids="656797"]
"Эта неопределенность увеличивает расходы для всех в экосистеме инноваций и внедрения искусственного интеллекта", — сказала Мелло.
Авторы отчета обращают внимание на еще одну проблему — слабый надзор за медицинскими системами ИИ. Значительная часть инструментов остается вне сферы регулирования таких органов, как Управление по контролю за пищевыми продуктами и лекарственными средствами США (Food and Drug Administration, FDA).
"Для клиницистов эффективность означает улучшение результатов лечения, но нет гарантии, что регуляторный орган потребует доказательств этого", — отметил Ангус. Он отметил, что после выпуска инструменты ИИ могут использоваться в непредсказуемых условиях и с разным уровнем подготовки пользователей, что повышает риски ошибок.
[see_also ids="656539"]
В отчете подчеркивается, что нынешние методы оценки таких технологий являются дорогостоящими и сложными, а для полноценного анализа часто необходимо их практическое применение. Ангус призвал инвестировать в цифровую инфраструктуру и финансирование независимых исследований, чтобы обеспечить качественную проверку эффективности.
"Одним из вопросов, которые обсуждались во время саммита, было то, что инструменты, которые лучше всего оцениваются, меньше всего внедряются. Инструменты, которые чаще всего внедряются, меньше всего оцениваются", — подытожил ведущий автор отчета.
В то же время исследовательница здравоохранения Шарлотта Близ утверждает, что ИИ имеет потенциал спасать больше жизней, чем люди, поскольку он способен преодолевать проблемы человеческих ошибок, совершенных из-за перегруженности или устаревания знаний в медицине. Статистика указывает на то, что диагностические ошибки врачей являются значительной проблемой, тогда как ИИ способен непрерывно анализировать огромные объемы данных и уже продемонстрировал более высокую точность в диагностике редких заболеваний, чем врачи.