IntellectNews
IntellectNews
    IntellectNews
    • Анализ изображений
    • Бизнес-исследования
    • Видео и анимация
    • Генерация и преобразование голоса
    • Генерация изображений
    • Дизайн интерьеров и архитектура
    • Другое
    • Здоровье и благополучие
    • Искусство и креативный дизайн
    • Исследования и анализ данных
    • Маркетинг и реклама
    • Музыка и аудио
    • Написание и редактирование
    • Обнаружение ИИ и антидетекция
    • Образование и перевод
    • Офис и продуктивность
    • Повседневная жизнь
    • Право и финансы
    • Программирование и разработка
    • Социальные сети
    • Управление бизнесом
    • Чат-боты и виртуальные собеседники
    • Новости ИИ
      • Автоматизация
      • Общество и рынок труда
      • ИИ в науке
      • ИИ в развлечениях
      • Персональный ИИ
      • Робототехника и автономные системы
      • Эксперименты и тесты
      • Новости индустрии ИИ
      • Технологии и разработки
      • Применение ИИ
      • Законодательство и этика
    • Блог
    • Промты
      • Business
    Поиск
    Авторизация
    Забыли пароль?
    Регистрация
    • Главная
    • Новости
    • Новости индустрии ИИ
    • Ученые из MIT научили искусственный интеллект говорить «Я не уверен»

    Ученые из MIT научили искусственный интеллект говорить «Я не уверен»

    Автоматизация
    Влияние ИИ на общество и рынок труда
    ИИ в науке
    ИИ в развлечениях
    Персональный ИИ и инструменты
    Робототехника и автономные системы
    Эксперименты и тесты
    Новости индустрии ИИ
    Технологии и разработки
    Применение ИИ
    Законодательство и этика
    Ученые из MIT научили искусственный интеллект говорить «Я не уверен»

    Современные системы искусственного интеллекта обладают одной опасной чертой: они слишком уверены в себе. Даже когда нейросеть откровенно выдумывает факты, она выдает этот ответ тоном непререкаемого эксперта. В индустрии это явление называют галлюцинациями ИИ. Исследователи из Лаборатории информатики и искусственного интеллекта Массачусетского технологического института (MIT CSAIL) нашли первопричину этой проблемы и предложили элегантное решение.

    Ученые разработали новую методику обучения, которая заставляет языковые модели честно признаваться в своих сомнениях. Теперь искусственный интеллект может сказать: «Я не уверен» или оценить вероятность правильности своего ответа в процентах, что делает работу с ним гораздо безопаснее.

    Проблема «самоуверенного» алгоритма

    Чтобы понять суть открытия, нужно взглянуть на то, как сегодня тренируют передовые ИИ-модели, включая системы вроде OpenAI o1. В основе лежит обучение с подкреплением (Reinforcement Learning, RL). Алгоритм получает «награду» за правильный ответ и «штраф» за ошибку. Промежуточных вариантов не существует.

    Если нейросеть пришла к верному выводу путем сложных логических рассуждений, она получит ту же награду, что и модель, которая просто угадала правильный ответ случайным образом. Со временем алгоритм усваивает опасный урок: нужно всегда отвечать максимально уверенно, даже если реальных доказательств нет. По сути, стандартный подход поощряет ИИ играть в угадайку и скрывать свои сомнения от пользователя.

    Как отмечает Мехул Дамани, аспирант MIT и соавтор исследования, стандартный подход к обучению невероятно эффективен, но он лишает модель стимула говорить «я не знаю». В результате нейросети становятся более умными, но одновременно и пугающе самоуверенными.

    Как работает метод RLCR: учим ИИ сомневаться

    Команда MIT CSAIL создала новый подход под названием RLCR (Reinforcement Learning with Calibration Rewards — Обучение с подкреплением и калибровочными наградами). Эта техника учит языковые модели не только генерировать ответ, но и параллельно оценивать собственную неуверенность, выдавая показатель достоверности.

    Секрет кроется в добавлении всего одного нового параметра в систему вознаграждений алгоритма. Ученые использовали оценку Бриера (Brier score) — математическую метрику, которая штрафует систему за разрыв между заявленной уверенностью и реальной точностью.

    Как это работает на практике:

    • Если модель выдает неправильный ответ с высокой уверенностью, она получает строгий штраф.
    • Если модель дает правильный ответ, но при этом заявляет, что сильно сомневается (излишняя неуверенность), она также теряет баллы.
    • Идеальный сценарий — когда точность ответа полностью совпадает с заявленным уровнем уверенности ИИ.

    Теперь во время тренировки алгоритмы учатся не только решать задачу, но и анализировать собственные знания. Они взвешивают факты и честно сообщают пользователю, насколько можно доверять сгенерированному тексту.

    Впечатляющие результаты тестирования

    Исследователи протестировали метод RLCR на языковой модели с 7 миллиардами параметров, используя сложные наборы данных по математике и ответам на вопросы. Причем шесть из этих наборов данных модель никогда ранее не видела.

    Результаты превзошли ожидания: ошибки калибровки (разница между уверенностью и реальной точностью) снизились на 90 процентов. При этом точность ответов не только не упала, но в некоторых случаях даже возросла. Метод также превзошел все существующие пост-фактум решения, когда уверенность пытается оценить отдельная нейросеть-контролер.

    Более того, ученые обнаружили интересный побочный эффект. Сам процесс рассуждения о собственной неуверенности делает выводы ИИ более качественными. Когда модель генерирует несколько вариантов ответа и выбирает тот, в котором она уверена больше всего, общая производительность системы значительно возрастает.

    Почему это критически важно для индустрии

    Проблема самоуверенности ИИ — это не просто академический интерес, а серьезное препятствие для внедрения технологий в реальный сектор экономики. Когда нейросети используются в медицине для постановки диагнозов, в юриспруденции для анализа контрактов или в финансах для оценки рисков, цена ошибки колоссальна.

    Если медицинский ИИ ошибается, но заявляет о своей правоте на 95%, врач может не стать искать второе мнение. Это гораздо опаснее, чем система, которая просто выдает неправильный ответ с пометкой «вероятность 50%, требуется проверка специалиста». В таких сферах пользователям критически важно понимать, когда алгоритму можно доверять, а когда его выводы стоит перепроверить.

    Разработка исследователей из MIT — это огромный шаг к созданию безопасного и прозрачного искусственного интеллекта. В будущем интеграция подобных методов калибровки уверенности может стать индустриальным стандартом для всех крупных разработчиков ИИ. Это позволит людям доверять нейросетям именно тогда, когда они этого заслуживают, и брать управление в свои руки, когда алгоритм честно признается: «Я не уверен».

    n8n-bot
    1 мая 2026, 06:03
    Новости индустрии ИИ

    Новости new

    Ученые из MIT научили искусственный интеллект говорить «Я не уверен»
    Ученые из MIT научили искусственный интеллект говорить «Я не уверен»
    Новости индустрии ИИ
    1 мая 2026, 06:03
    Релиз GPT-5.4 и нейросети, которые улучшают сами себя: новая эра автономного ИИ
    Релиз GPT-5.4 и нейросети, которые улучшают сами себя: новая эра автономного ИИ
    Новости индустрии ИИ
    30 апреля 2026, 06:02
    MIT и IBM открывают лабораторию для развития ИИ и квантовых технологий
    MIT и IBM открывают лабораторию для развития ИИ и квантовых технологий
    Новости индустрии ИИ
    29 апреля 2026, 18:02
    Новый метод позволяет обучать ИИ на устройствах с ограниченными ресурсами
    Новый метод позволяет обучать ИИ на устройствах с ограниченными ресурсами
    Новости индустрии ИИ
    29 апреля 2026, 12:02
    Выберите обязательные опции

    Мы используем файлы cookie и другие средства сохранения предпочтений и анализа действий посетителей сайта. Подробнее в Согласие на обработку персональных данных. Нажмите «Принять», если даете согласие на это.

    Принять
    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте

    IntellectNews © 2026

    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте, IntellectNews © 2026