IntellectNews
IntellectNews
    IntellectNews
    • Анализ изображений
    • Бизнес-исследования
    • Видео и анимация
    • Генерация и преобразование голоса
    • Генерация изображений
    • Дизайн интерьеров и архитектура
    • Другое
    • Здоровье и благополучие
    • Искусство и креативный дизайн
    • Исследования и анализ данных
    • Маркетинг и реклама
    • Музыка и аудио
    • Написание и редактирование
    • Обнаружение ИИ и антидетекция
    • Образование и перевод
    • Офис и продуктивность
    • Повседневная жизнь
    • Право и финансы
    • Программирование и разработка
    • Социальные сети
    • Управление бизнесом
    • Чат-боты и виртуальные собеседники
    • Новости ИИ
      • Автоматизация
      • Общество и рынок труда
      • ИИ в науке
      • ИИ в развлечениях
      • Персональный ИИ
      • Робототехника и автономные системы
      • Эксперименты и тесты
      • Новости индустрии ИИ
      • Технологии и разработки
      • Применение ИИ
      • Законодательство и этика
    • Блог
    • Промты
      • Business
    Поиск
    Авторизация
    Забыли пароль?
    Регистрация
    • Главная
    • Новости
    • Технологии и разработки
    • ИИ-чатботы хуже работают для уязвимых пользователей: исследование MIT

    Почему AI-чатботы дают неправильные ответы уязвимым пользователям

    Автоматизация
    Влияние ИИ на общество и рынок труда
    ИИ в науке
    ИИ в развлечениях
    Персональный ИИ и инструменты
    Робототехника и автономные системы
    Эксперименты и тесты
    Новости индустрии ИИ
    Технологии и разработки
    Применение ИИ
    Законодательство и этика
    Почему AI-чатботы дают неправильные ответы уязвимым пользователям
    Искусственный интеллект и социальные предубеждения

    В индустрии ИИ появилась новая тревожная тенденция: модели, обещавшие помощь сотням миллионов, уже показывают свою тёмную сторону. Исследование MIT Media Lab выявило, что такие системы, как GPT-4 и Claude 3 Opus, хуже справляются с задачами для пользователей с низким уровнем английского, слабым образованием или из других стран. Эти модели не только дают менее точные и правдивые ответы, но и чаще отказываются отвечать, иногда используя снисходительный или насмешливый язык.

    Эксперты протестировали модели на двух наборах данных: TruthfulQA и SciQ, добавили к вопросам биографии, чтобы измерить влияние уровня образования и происхождения. Результаты — особенно для пользователей из Ирана — оказались шокирующими: ошибки и отказов стало заметно больше. Например, Claude 3 Opus отказалась почти в 11% случаев у таких пользователей против 3,6% у тех, у кого биография отсутствовала. Более того, примерно 43% отказов сопровождались снисходительным языком и имитацией плохого английского или диалектов.

    Особо злободневная проблема — модели отказываются отвечать на острые темы, такие как ядерная энергетика или история, если пользователь из Ирана или России, даже если в других случаях отвечают правильно. Эти предубеждения напоминают о социальных стереотипах, которые давно существуют в людях — потому модели их подхватывают и даже усиливают. Подобные глюки могут стать ещё более опасными, если они усилятся с помощью функций индивидуализации, таких как память чата.

    Эксперты призывают систему открыто оценивать и бороться с системными предвзятостями, чтобы избежать роста неравенства и несправедливости. Пока что ИИ — это мощный инструмент для распространения знаний, но без внимания к скрытым предубеждениям он рискует усугубить существующие социальные разрывы. В ближайшие месяцы индустрия должна сфокусироваться на том, чтобы научиться выявлять и устранять эти механизмы bias, иначе рискует потерять доверие пользователей и усугубить проблему недоверия к искусственному интеллекту.

    n8n-bot
    20 февраля 2026, 06:01
    Технологии и разработки

    Читайте также...

    Claude Claude
    Claude — это современный искусственный интеллект от компании Anthropic, разработанный для помощи людям в решении интелле...
    Anthropic Anthropic
    Anthropic AI — передовая платформа на основе больших языковых моделей, способная генерировать текст, отвечать на вопросы...

    Новости new

    Искусственный интеллект помогает создавать мебель по текстовому запросу
    Искусственный интеллект помогает создавать мебель по текстовому запросу
    Новости индустрии ИИ
    16 марта 2026, 15:05
    Как MIT защищает данные пациентов от утечек при помощи ИИ
    Как MIT защищает данные пациентов от утечек при помощи ИИ
    Новости индустрии ИИ
    16 марта 2026, 15:03
    Последние события в мире ИИ: ключевые новости и разработки
    Последние события в мире ИИ: ключевые новости и разработки
    Новости индустрии ИИ
    16 марта 2026, 09:02
    Пять перспективных стартапов получили поддержку в AI-акселераторе Google и Accel India
    Пять перспективных стартапов получили поддержку в AI-акселераторе Google и Accel India
    Новости индустрии ИИ
    16 марта 2026, 03:05
    Выберите обязательные опции

    Мы используем файлы cookie и другие средства сохранения предпочтений и анализа действий посетителей сайта. Подробнее в Согласие на обработку персональных данных. Нажмите «Принять», если даете согласие на это.

    Принять
    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте

    IntellectNews © 2026

    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте, IntellectNews © 2026