Введение: Почему "скромный" ИИ?
Искусственный интеллект (ИИ) обещает помочь врачам в диагностике и персонализированном лечении пациентов. Однако современная разработка таких систем несет риск того, что ИИ может чрезмерно влиять на врачей, ведя их по неправильному пути из-за излишней уверенности в своих решениях. Поэтому международная группа ученых во главе с MIT предлагает создать более "скромные" ИИ-системы.

Проблемы существующих ИИ-систем
Существующие ИИ-системы часто представляются как "оракулы", на которые врачи полагаются безоговорочно. Это может привести к ошибкам, особенно когда врачи склонны доверять ИИ больше, чем собственной интуиции. Исследования показывают, что как врачи, так и пациенты готовы принять неверные рекомендации ИИ, если они воспринимаются как авторитетные.
Избыточная уверенность и её последствия
Системы, предоставляющие чрезмерно уверенные, но потенциально неверные советы, могут создать проблемы в медицинских учреждениях. Например, в отделениях интенсивной терапии врачи иногда следуют рекомендациям ИИ, даже если их собственное чутье говорит об обратном.
Подход MIT: создание "скромного" ИИ
Группа исследователей во главе с Лео Энтони Сели разработала рамочную структуру, которая позволяет проектировать ИИ-системы с элементами любопытства и скромности. Такая система может стать партнёром для врачей и помочь предотвратить чрезмерное влияние ИИ на решения врачей.
Модули вычислительной скромности
Для создания таких систем используется несколько вычислительных модулей. Один из них, разработанный членами консорциума из Университета Мельбурна, задаёт ИИ вопрос о своей уверенности в диагностике. Этот модуль, называемый "Epistemic Virtue Score", позволяет системе оценивать свою уверенность и предлагать дополнительные тесты или консультации специалистов, если уверенность в решении низка.

Включение человеческих ценностей в ИИ
Цели разработчиков включают в себя создание ИИ, который помогает людям рефлексировать и переосмыслять, а не заменяет их. Это может сделать людей более креативными в использовании ИИ, как отметил Себастьян Андрес Кахас Ордоньес.
Проблемы с обучающими данными
Многие модели ИИ, такие как MIMIC, обучаются на общедоступных данных из США, что может вводить предвзятость в восприятие медицинских вопросов. Кроме того, электронные медицинские записи, на которых они обучаются, часто не содержат контекста, необходимого для точной диагностики.
Перспективы и вызовы
Использование "скромных" ИИ-систем может значительно улучшить качество медицинской диагностики и лечения, но требует тщательной проработки данных и более инклюзивного подхода к их разработке. Важно учитывать все возможные источники предвзятости и исключения.
Таким образом, исследования MIT показывают, что создание более человекоориентированных ИИ-систем может способствовать развитию более точной и персонализированной медицины.