Введение
С развитием технологий искусственного интеллекта (ИИ) в медицинских системах открываются новые возможности для диагностики и лечения, но также возникают и новые угрозы, связанные с конфиденциальностью данных пациентов. Ученые из MIT исследуют, как модели ИИ могут запоминать и раскрывать анонимные медицинские данные.
Опасность утечки данных
Конфиденциальность в медицине была и остается ключевым аспектом, позволяющим пациентам доверять врачам. Однако, по мере того как алгоритмы становятся более требовательными к данным, возрастает риск утечки чувствительной информации. В новой работе, представленной на конференции NeurIPS 2025, исследователи из MIT изучили, как модели ИИ, обученные на обезличенных электронных медицинских картах (EHR), могут запоминать и раскрывать специфическую информацию о пациентах.
Проблема запоминания
Основные модели, такие как GPT и другие, имеют тенденцию к утечке данных. В случае медицинских данных это может привести к серьезным последствиям. Модель может вместо генерализации знаний использовать конкретные записи для выдачи результатов, что нарушает конфиденциальность пациентов.
Методы оценки рисков
Исследователи из MIT, включая Сану Тонекабони и Марзйех Гассеми, разработали серию тестов для оценки рисков, связанных с утечкой данных. Эти тесты предназначены для измерения различных типов неопределенности и оценки практического риска для пациентов, определяя уровни возможных атак.
Практичность подхода
Для того чтобы оценить, сколько информации нужно злоумышленнику для раскрытия данных, исследователи тестировали различные сценарии. Например, если для извлечения информации необходимо знать дату и значение десятка лабораторных тестов, риск минимален. Однако, если злоумышленник уже имеет доступ к таким данным, необходимость в атаке на модель становится сомнительной.
Риски для пациентов с уникальными состояниями
Пациенты с уникальными медицинскими условиями особенно уязвимы. Даже обезличенные данные могут быть использованы для их идентификации, если утечка включает специфическую информацию. Это требует более жестких мер защиты для таких данных.
Что дальше?
Исследовательская группа планирует расширить работу, включая в неё клиницистов, экспертов по конфиденциальности и юристов. Это поможет создать более комплексные методы защиты данных.
Заключение
Конфиденциальность медицинских данных — это не только этическая норма, но и необходимость для защиты пациентов. Работа MIT подчеркивает важность оценки рисков и разработки методов, которые позволят безопасно использовать ИИ в медицине, не нарушая доверия пациентов.