IntellectNews
IntellectNews
    IntellectNews
    • Анализ изображений
    • Бизнес-исследования
    • Видео и анимация
    • Генерация и преобразование голоса
    • Генерация изображений
    • Дизайн интерьеров и архитектура
    • Другое
    • Здоровье и благополучие
    • Искусство и креативный дизайн
    • Исследования и анализ данных
    • Маркетинг и реклама
    • Музыка и аудио
    • Написание и редактирование
    • Обнаружение ИИ и антидетекция
    • Образование и перевод
    • Офис и продуктивность
    • Повседневная жизнь
    • Право и финансы
    • Программирование и разработка
    • Социальные сети
    • Управление бизнесом
    • Чат-боты и виртуальные собеседники
    • Новости ИИ
      • Автоматизация
      • Общество и рынок труда
      • ИИ в науке
      • ИИ в развлечениях
      • Персональный ИИ
      • Робототехника и автономные системы
      • Эксперименты и тесты
      • Новости индустрии ИИ
      • Технологии и разработки
      • Применение ИИ
      • Законодательство и этика
    • Блог
    • Промты
      • Business
    Поиск
    Авторизация
    Забыли пароль?
    Регистрация
    • Главная
    • Новости
    • Эксперименты и тесты
    • ИИ можно обмануть «наукообразной болтовнёй»

    Учёные обошли фильтры ИИ с помощью бессмысленного жаргона

    Автоматизация
    Влияние ИИ на общество и рынок труда
    ИИ в науке
    ИИ в развлечениях
    Персональный ИИ и инструменты
    Робототехника и автономные системы
    Эксперименты и тесты
    Новости индустрии ИИ
    Технологии и разработки
    Применение ИИ
    Законодательство и этика
     Учёные обошли фильтры ИИ с помощью бессмысленного жаргона

    Исследователи продемонстрировали необычный способ обхода ограничений в больших языковых моделях (LLM), заполняя их бессмысленным научным жаргоном. Метод позволяет обмануть ИИ, заставляя его выполнять запретные команды, не вызывая системных фильтров.

    Команда исследователей из Университета Иллинойса и Университета Вашингтона выявила уязвимость в популярных языковых моделях, таких как GPT и Claude. Суть метода заключается в том, чтобы «перегрузить» ИИ сложными, но бессмысленными псевдонаучными текстами. В этом потоке модель перестаёт точно следовать правилам фильтрации и начинает выполнять команды, которые в обычных условиях были бы заблокированы.

    В одном из примеров исследователи добавляли к вопросам о запрещённых действиях длинные абзацы, наполненные «наукообразной чепухой». В результате модель интерпретировала такие запросы как допустимые и давала ответы. Как выяснилось, подобные «жаргонные атаки» успешно обходили защиту в 60–80% случаев, в зависимости от модели.

    Разработчики ИИ давно внедрили фильтры безопасности, чтобы блокировать опасные, вредоносные или неэтичные команды. Однако исследование показало, что перегрузка модели бессмысленным, но формально корректным языком способна «отключить» её внутренние механизмы безопасности.

    «Это не просто уязвимость — это фундаментальная особенность того, как модели обучаются и интерпретируют текст», — поясняют авторы. Вместо того чтобы понимать смысл запроса, ИИ может «запутаться» в контексте и проигнорировать ограничение.

    По мнению исследователей, уязвимость связана с тем, как модели «обобщают» текст: при большом объёме технической лексики они фокусируются на стилевых признаках, а не на содержании. Это делает их восприимчивыми к «атаке болтовнёй».

    Эксперты подчёркивают, что обнаружение подобного обхода особенно важно на фоне активного внедрения ИИ в чувствительные сферы: от образования до медицины. Необходима более глубокая адаптация систем безопасности, ориентированная не только на смысл, но и на поведенческие шаблоны запросов.

    Исследование поднимает серьёзный вопрос о надёжности существующих систем фильтрации и открывает дискуссию о необходимости новых методов защиты, способных справляться не только с прямыми, но и с косвенными обходами.

    10 июля 2025, 15:39
    Эксперименты и тесты

    Новости new

    Как подготовка данных меняет будущее безопасного ИИ: новые исследования и перспективы
    Как подготовка данных меняет будущее безопасного ИИ: новые исследования и перспективы
    Технологии и разработки
    20 января 2026, 07:16
    Что Kickstarter учит нас о завершении целей: неожиданные уроки успеха и провала
    Что Kickstarter учит нас о завершении целей: неожиданные уроки успеха и провала
    Технологии и разработки
    20 января 2026, 07:15
    Как повышенный уровень CO2 может влиять на когнитивные функции: новые исследования и практические идеи
    Как повышенный уровень CO2 может влиять на когнитивные функции: новые исследования и практические идеи
    Технологии и разработки
    20 января 2026, 07:12
    Как графовые нейросети меняют подход к прогнозированию спроса в логистике
    Как графовые нейросети меняют подход к прогнозированию спроса в логистике
    Технологии и разработки
    20 января 2026, 06:34
    Выберите обязательные опции

    Мы используем файлы cookie и другие средства сохранения предпочтений и анализа действий посетителей сайта. Подробнее в Согласие на обработку персональных данных. Нажмите «Принять», если даете согласие на это.

    Принять
    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте

    IntellectNews © 2026

    IntellectNews

    Вы принимаете условия политики в отношении обработки персональных данных и пользовательского соглашения каждый раз, когда оставляете свои данные в любой форме обратной связи на сайте, IntellectNews © 2026