В эпоху, когда алгоритмы требуют все больше данных, вопрос конфиденциальности пациентов становится особенно актуальным. Ученые из MIT изучают, как модели искусственного интеллекта могут запоминать специфическую информацию о пациентах, что может угрожать безопасности их данных.
Новые тесты для защиты данных
Исследование, представленное на конференции NeurIPS 2025, предлагает новый подход к тестированию моделей ИИ. Эти тесты помогают определить, могут ли целенаправленные запросы раскрыть анонимизированные данные пациентов. Это важно для оценки степени риска утечек в медицинских приложениях ИИ.
Проблема запоминания данных
Модели, обученные на данных электронных медицинских карт (ЭМК), должны обобщать информацию для улучшения предсказаний. Однако иногда они могут запоминать данные об отдельных пациентах, что нарушает их конфиденциальность. Это явление, известное как «утечка данных», представляет серьезную угрозу.
Новая методология
Первый автор исследования, Сана Тонекабони, объясняет, что тесты оценивают различные уровни угрозы для пациентов. Это позволяет понять, насколько опасны различные формы утечек. Например, утечка возрастных данных менее опасна, чем утечка информации о состоянии здоровья, как ВИЧ или злоупотребление алкоголем.
Широкая поддержка и дальнейшие планы
Исследование поддерживается множеством организаций, включая Eric and Wendy Schmidt Center и National Science Foundation. Ученые планируют расширить работу, привлекая к сотрудничеству медицинских и юридических экспертов для более комплексной защиты данных пациентов.
Это исследование подчеркивает важность конфиденциальности в здравоохранении, особенно в свете участившихся случаев утечек данных. За последние два года в США было зарегистрировано 747 случаев утечек медицинской информации, что делает эту проблему одной из самых актуальных для современной медицины.
