IntellectNews
IntellectNews
    IntellectNews
    • Анализ изображений
    • Бизнес-исследования
    • Видео и анимация
    • Генерация и преобразование голоса
    • Генерация изображений
    • Дизайн интерьеров и архитектура
    • Другое
    • Здоровье и благополучие
    • Искусство и креативный дизайн
    • Исследования и анализ данных
    • Маркетинг и реклама
    • Музыка и аудио
    • Написание и редактирование
    • Обнаружение ИИ и антидетекция
    • Образование и перевод
    • Офис и продуктивность
    • Повседневная жизнь
    • Право и финансы
    • Программирование и разработка
    • Социальные сети
    • Управление бизнесом
    • Чат-боты и виртуальные собеседники
    • Новости ИИ
      • Автоматизация
      • Общество и рынок труда
      • ИИ в науке
      • ИИ в развлечениях
      • Персональный ИИ
      • Робототехника и автономные системы
      • Эксперименты и тесты
      • Новости индустрии ИИ
      • Технологии и разработки
      • Применение ИИ
      • Законодательство и этика
    • Блог
    • Промты
      • Business
    Поиск
    Авторизация
    Забыли пароль?
    Регистрация
    • Главная
    • Блог
    • Статьи
    • Как искусственный интеллект может угрожать конфиденциальности пациентов: исследование MIT

    ИИ и конфиденциальность пациентов: исследование MIT

    • 10
    • 0
    • 17 Марта, 2026
    Поделиться
    ИИ и конфиденциальность пациентов: исследование MIT

    Введение

    С развитием технологий искусственного интеллекта (ИИ) в медицинских системах открываются новые возможности для диагностики и лечения, но также возникают и новые угрозы, связанные с конфиденциальностью данных пациентов. Ученые из MIT исследуют, как модели ИИ могут запоминать и раскрывать анонимные медицинские данные.

    AI protecting patient privacy

    Опасность утечки данных

    Конфиденциальность в медицине была и остается ключевым аспектом, позволяющим пациентам доверять врачам. Однако, по мере того как алгоритмы становятся более требовательными к данным, возрастает риск утечки чувствительной информации. В новой работе, представленной на конференции NeurIPS 2025, исследователи из MIT изучили, как модели ИИ, обученные на обезличенных электронных медицинских картах (EHR), могут запоминать и раскрывать специфическую информацию о пациентах.

    Проблема запоминания

    Основные модели, такие как GPT и другие, имеют тенденцию к утечке данных. В случае медицинских данных это может привести к серьезным последствиям. Модель может вместо генерализации знаний использовать конкретные записи для выдачи результатов, что нарушает конфиденциальность пациентов.

    Методы оценки рисков

    Исследователи из MIT, включая Сану Тонекабони и Марзйех Гассеми, разработали серию тестов для оценки рисков, связанных с утечкой данных. Эти тесты предназначены для измерения различных типов неопределенности и оценки практического риска для пациентов, определяя уровни возможных атак.

    Практичность подхода

    Для того чтобы оценить, сколько информации нужно злоумышленнику для раскрытия данных, исследователи тестировали различные сценарии. Например, если для извлечения информации необходимо знать дату и значение десятка лабораторных тестов, риск минимален. Однако, если злоумышленник уже имеет доступ к таким данным, необходимость в атаке на модель становится сомнительной.

    AI protecting patient privacy

    Риски для пациентов с уникальными состояниями

    Пациенты с уникальными медицинскими условиями особенно уязвимы. Даже обезличенные данные могут быть использованы для их идентификации, если утечка включает специфическую информацию. Это требует более жестких мер защиты для таких данных.

    Что дальше?

    Исследовательская группа планирует расширить работу, включая в неё клиницистов, экспертов по конфиденциальности и юристов. Это поможет создать более комплексные методы защиты данных.

    Заключение

    Конфиденциальность медицинских данных — это не только этическая норма, но и необходимость для защиты пациентов. Работа MIT подчеркивает важность оценки рисков и разработки методов, которые позволят безопасно использовать ИИ в медицине, не нарушая доверия пациентов.

    Блог top
    • 1
      Ошибки разбора JSON: Проверенные методы устранения и профилактики в российских системах 3 Марта, 2026 70
    • 2
      Что означает ошибка «Не удалось разобрать JSON» и как эффективно решить её в российских проектах 3 Марта, 2026 65
    • 3
      Ошибка разбора JSON в российских информационных системах: как избежать и решить распространённые проблемы 4 Марта, 2026 51
    • 4
      Ошибки при обработке JSON в российских IT-системах: разбираемся, как устранить проблему «Не удалось разобрать JSON» 3 Марта, 2026 48
    • 5
      Пути к безопасному развитию ИИ: почему правительство должно действовать 7 Марта, 2026 42
    • 6
      Как новый метод оценки неопределенности повышает доверие к крупным языковым моделям 26 Марта, 2026 25
    • 7
      Почему российским аналитикам и разработчикам стоит отказаться от циклов в Pandas для обработки данных и перейти к векторизации 4 Марта, 2026 22
    • 8
      Практическое руководство: Создание системы объяснимого искусственного интеллекта для российских бизнес-процессов с SHAP-IQ 3 Марта, 2026 22
    Статьи в блоге
    • Скрытые личности нейросетей: Как ученые из MIT научились управлять «подсознанием» LLM
      Скрытые личности нейросетей: Как ученые из MIT научились управлять «подсознанием» LLM 1 Мая, 2026
    • Взлом «черного ящика»: как ученые из MIT научились управлять скрытыми эмоциями и личностями LLM
      Взлом «черного ящика»: как ученые из MIT научились управлять скрытыми эмоциями и личностями LLM 30 Апреля, 2026
    • Анатомия ИИ: Как ученые из MIT научились управлять «характером» и скрытыми мотивами нейросетей
      Анатомия ИИ: Как ученые из MIT научились управлять «характером» и скрытыми мотивами нейросетей 30 Апреля, 2026
    • Дилемма «Ударь крота»: Как алгоритм WRING решает проблему предвзятости ИИ без переобучения
      Дилемма «Ударь крота»: Как алгоритм WRING решает проблему предвзятости ИИ без переобучения 30 Апреля, 2026
    • Скромный ИИ в медицине: как MIT создает системы, которые не боятся признавать неуверенность
      Скромный ИИ в медицине: как MIT создает системы, которые не боятся признавать неуверенность 30 Апреля, 2026
    • Как создать скромный ИИ: подход MIT для медицинских систем
      Как создать скромный ИИ: подход MIT для медицинских систем 29 Апреля, 2026
    • Как создать
      Как создать "скромный" ИИ для медицины: новые подходы и перспективы 29 Апреля, 2026
    • Создание «скромного» ИИ: путь к более надежным медицинским диагнозам
      Создание «скромного» ИИ: путь к более надежным медицинским диагнозам 28 Апреля, 2026
    Комментарии 0
    Поделиться
    10
    0
    17 Марта, 2026
    • Ваш комментарий будет первым
    Оставить комментарий
    Нажимая на кнопку «Отправить», Вы даете согласие на обработку персональных данных.
    Поделиться
    Выберите обязательные опции

    Мы используем файлы cookie и другие средства сохранения предпочтений и анализа действий посетителей сайта. Подробнее в Согласие на обработку персональных данных. Нажмите «Принять», если даете согласие на это.

    Принять
    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте

    IntellectNews © 2026

    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте, IntellectNews © 2026