Около половины ответов чат-ботов на базе искусственного интеллекта на вопросы, связанные со здоровьем, могут быть обманчивыми или сомнительными.
Об этом сообщает агентство Bloomberg со ссылкой на исследование, опубликованное в научном журнале BMJ Open.
[see_also ids="667693"]
Где ИИ ошибается больше всего
Исследователи из США, Канады и Великобритании оценили пять популярных платформ — ChatGPT, Gemini, Meta AI, Grok и DeepSeek — поставив каждой из них 10 вопросов в пяти категориях. В результате около 50% ответов признали сомнительными, из которых почти 20% были крайне противоречивыми.
Чат-боты лучше справлялись с вопросами, которые предусматривают короткий и однозначный ответ, а также в темах, касающихся вакцинации и онкологии. Зато хуже ответы давали там, где требовалось развернутое объяснение или индивидуальная рекомендация, в частности в темах, связанных со стволовыми клетками и питанием.
[see_also ids="666707"]
Уверенно, но ошибочно
Исследователи отметили, что ответы ИИ часто выглядели уверенно, хотя ни один чат-бот не предоставил полностью исчерпывающего и точного списка источников. Только в двух случаях был отказ отвечать — оба раза это сделала Meta AI.
"Эти результаты подчеркивают растущую обеспокоенность относительно того, как люди используют генеративные платформы искусственного интеллекта, которые не имеют лицензии на предоставление медицинских советов и не обладают клиническим суждением для постановки диагнозов", — подчеркнули в Bloomberg.
[see_also ids="651977"]
Стремительный рост популярности чат-ботов на базе искусственного интеллекта сделал их популярным инструментом для людей, которые ищут советы по своим недугам, и компания OpenAI заявила, что еженедельно более 200 миллионов человек задают ChatGPT вопросы о здоровье и самочувствии. В январе платформа анонсировала инструменты для здравоохранения как для обычных пользователей, так и для врачей, а компания Anthropic в том же месяце сообщила, что ее продукт Claude запускает новое предложение в сфере здравоохранения.
Авторы исследования отметили, что главным риском внедрения чат-ботов является распространение недостоверной информации, особенно при отсутствии надлежащего контроля и осведомленности пользователей.
"Эти системы могут генерировать ответы, которые звучат авторитетно, но потенциально содержат ошибки", — отметили они.
[see_also ids="664681"]
Станет ли искусственный интеллект диагностом вместо врачей? Поможет ли клиническому испытанию лекарств? Способен ли ИИ помогать пациентам в виртуальных палатах? А какие риски могут быть от использования ИИ в такой сложной отрасли, как медицина? Как вообще государства предупреждают возникновение проблем при применении ИИ?
Ответы в статье "Искусственный интеллект в медицине: чего больше — рисков или пользы? " искал кандидат юридических наук, адвокат Сергей Козьяков.