Исследователи из Массачусетского технологического института (MIT) работают над тем, чтобы искусственный интеллект не становился причиной утечек конфиденциальной информации пациентов. В новом исследовании предлагаются методы проверки, гарантирующие, что ИИ-модели не запоминают и не раскрывают анонимизированные данные о здоровье.
Почему это важно?
Конфиденциальность данных в медицине всегда была важной, позволяя пациентам доверять врачам самую личную информацию. Однако в эпоху цифровых технологий и кибератак защита данных становится все более сложной задачей. В этом контексте исследования MIT могут стать ключевыми для обеспечения безопасности медицинских данных.
Проблема запоминания в ИИ
Модели, обученные на электронных медицинских записях (EHR), должны обобщать знания для улучшения прогнозов. Но иногда они могут запоминать конкретные записи, что вызывает риск утечки данных. Особенно это касается основных моделей, которые известны своей склонностью к утечкам данных.
Решения MIT
Исследование, представленное на конференции NeurIPS 2025, предлагает строгую систему тестирования, чтобы исключить утечку информации. Эти тесты помогают оценить риски и измерить возможность атак, что особенно важно для защиты пациентов с уникальными заболеваниями.
Практическое применение
Как отмечает ведущий автор исследования Сана Тонекабони, важно обеспечить практическую оценку моделей до их выпуска. Если злоумышленник должен знать множество деталей, чтобы извлечь информацию, риск минимален. Однако, чем больше данных о пациенте уже имеется, тем выше вероятность утечки.
Расширение исследования
В будущем команда планирует привлечь к работе клиницистов и экспертов по конфиденциальности, чтобы сделать исследования более междисциплинарными. Это поможет разработать более надежные механизмы защиты данных пациентов от утечек.
Работа поддержана центром Эрика и Уэнди Шмидт при Броудовском институте MIT и Гарварда, а также рядом других организаций и фондов.
