Когда вы спрашиваете GPT-4: "Сколько будет 2+2?" — она уверенно отвечает "4". Но как только дело доходит до решения системы линейных уравнений, модель начинает hallucinate — придумывать решения, которых в реальности нет. Почему так происходит? Индустрия только сейчас понимает, что основные возможности LLM — это не точные вычисления, а распознавание паттернов.
Математика — кость никого не обидит. Для ИИ это особенная тема: здесь важна точность и строгость, а модели по сути — probabilistic machines, то есть приближённые предсказатели. Они отлично распознают шаблоны и генерируют ответы на основе того, что уже видели в данных. Но классическая математика — это не паттерн, а стратегия, правила и законы, которые модель не понимает, а только аппроксимирует.
Главная проблема: вероятность и точность. В то время как в обыденной речи или литературе модели легко фильтруют и имитируют ответы, в математике нужно строгое соответствие формуле — а этого у них пока нет. В итоге в случае "чистой" математики модель просто не знает, что делать, и придумывает гипотезы, которые кажутся логичными, но не совпадают с правильными.
Кратко: LLM — это не математические калькуляторы. Они — pattern matchers, которые отлично работают с текстом и вероятностными ответами. Но точные и строгие подсчёты — пока остаются вне их досягаемости, и индустрия учится этому на своих ошибках.
