В эпоху бурного развития искусственного интеллекта (ИИ) защита конфиденциальности пациентов становится всё более важной задачей. Учёные из MIT разрабатывают методы тестирования ИИ-моделей, чтобы гарантировать, что они не запоминают и не раскрывают анонимные данные пациентов.
Почему конфиденциальность в медицине важна?
Конфиденциальность играет ключевую роль в медицине, создавая доверие между врачами и пациентами. Это особенно актуально сейчас, когда алгоритмы требуют всё больше данных, а кибератаки становятся частым явлением.
Риск запоминания в ИИ
Недавнее исследование, проведённое в Абдул Латиф Джамиль клинике машинного обучения в здравоохранении, показало, что модели ИИ, обученные на деидентифицированных электронных медицинских записях, могут запоминать специфическую информацию о пациентах. Это может привести к утечке данных и нарушению конфиденциальности.
Как тесты помогут защитить данные?
Исследователи предложили набор тестов, которые помогут оценить, насколько модели ИИ подвержены утечке данных. Эти тесты позволяют определить, насколько информация, извлекаемая из модели, может быть опасной для пациентов. Например, если для раскрытия данных злоумышленнику необходимо знать много деталей о пациенте, риск считается низким.
Особая уязвимость уникальных случаев
Пациенты с редкими заболеваниями особенно уязвимы для идентификации, даже при использовании деидентифицированных данных. Исследование показало, что модели могут ненамеренно раскрывать критически важную информацию, такую как диагнозы или данные о злоупотреблении алкоголем.
Будущее исследований защиты данных
Учёные планируют расширять исследования, включая экспертов в области медицины и права, чтобы усилить защиту конфиденциальности. Это исследование поддержано рядом научных и технологических организаций, включая Фонд Эрика и Венди Шмидт, Национальный научный фонд США и другие.
