Защита данных пациентов в мире ИИ
С развитием искусственного интеллекта и его применением в медицине, вопросы конфиденциальности данных становятся все более актуальными. Ученые из MIT провели исследование, посвященное защите персональной информации пациентов, анализируя, как ИИ-модели, обученные на обезличенных электронных медицинских записях, могут хранить в памяти специфическую информацию о пациентах.
Проблема запоминания в ИИ-моделях
Исследование, представленное на конференции NeurIPS 2025, подчеркивает необходимость тщательного тестирования ИИ-моделей, чтобы избежать раскрытия данных. Обычно такие модели обобщают информацию и делают прогнозы на основе множества записей. Однако, в случае "запоминания", модель может использовать данные одного пациента, что может нарушить конфиденциальность.
Возможные угрозы и тестирование
Команда исследователей, возглавляемая Саной Тонекабони, разработала серию тестов для оценки рисков утечки информации. Эти тесты помогут определить, насколько вероятно, что модель может выдать конфиденциальные данные при определенных условиях. Исследование также подчеркивает, что утечки различного рода имеют разную степень опасности.
Повышенная уязвимость уникальных случаев
Пациенты с уникальными заболеваниями особенно подвержены риску, так как их легче идентифицировать. Даже обезличенные данные могут стать источником утечки, если они содержат специфическую информацию о пациенте. Исследователи планируют расширить свою работу, привлекая клиницистов и экспертов по конфиденциальности для создания более комплексной системы защиты данных.
Поддержка и будущее исследования
Эта работа поддерживается различными научными фондами и институтами, включая Eric and Wendy Schmidt Center и Wallenberg AI. В будущем планируется расширение междисциплинарного сотрудничества для повышения уровня защиты данных пациентов.
