Когда в начале 2023 года эксперт по AI Марко ван Хюрне запустил сложную систему на основе больших языковых моделей, он столкнулся с одной проблемой: даже при одинаковых вводных ответ системы могли резко разниться, что привело к непредсказуемым затратам и рискам.
Это открытие стало очередным доказательством того, что AI — это не тот софт, к которому можно подойти как к классической программе. В то время как традиционная разработка строится на принципах детерминизма, ИИ — это вероятностная система, которая порождает разницу даже при идентичных входных данных.
Обувая в новые концепции обеспечения безопасности, компании стараются понять, как применять ''бордюры'' — проверяющие и ограничивающие рамки. Но большинство существующих решений — это лишь синтаксические фильтры, проверяющие формальное соответствие, а не смысловую правильность.
В ответ на это Van Hurne предложил Ontological Compliance Gateway (OCG) — гибкую нейро-символическую систему. Она строит формальные доменные модели (онтологии) при помощи AI, которые позволяют гарантировать, что действия, генерируемые моделью, сопоставляются с правилом и политиками организации.
OCG проверяет каждое решение системы по строгим онтологиям, а также сохраняет криптографические доказательства каждого шага в Evidence Bundle. Это дает аудиторам конечную прозрачность и доверие к работе AI.
Архитектура разделяет вероятностное AI-взаимодействие и свойство строгой проверяемости, что позволяет инженерам экспериментировать с креативностью модели, не выходя за рамки допустимых правил. Вдобавок, будучи внедренной, эта система позволяет снизить сроки разработки онтологий с нескольких месяцев до нескольких недель, за счет использования существующей документации и автоматических проверок.
Конечно, начальное инвестирование — это недели работы со специалистами по предметной области и инженерами-значениями. Но эта цена оправдана, ведь она обеспечивает соответствие, безопасность и аудитируемость AI-решений в таких чувствительных сферах, как финансы, здравоохранение или критическая инфраструктура.
Эта новаторская методика дает понимание будущего — как встроить AI в рамки, способные к формальной проверке и аудиту, сделав его по-настоящему доверенным и безопасным. Кажется, индустрия делает шаг к тому, чтобы получить контроль над непредсказуемым ИИ и превратить его в инструмент, которому можно доверять при решении важных задач.
