В феврале 2026 года команда OpenAI объявила о результатах экспериментов с First Proof — испытанием, проверяющим, может ли ИИ создавать корректные и проверяемые доказательства сложных математических задач. В рамках задания было решено десять задач, многие из которых оставались нерешёнными годами. Модели, работавшие под ограниченным контролем человека, предъявили свои попытки доказательств 14 февраля 2026 года.
По отзывам экспертов, OpenAI уверена, что хотя бы пять решений (по задачам 4, 5, 6, 9 и 10) совпадают с правильными. Первоначально предполагалось, что задача №2 решена верно, однако после дополнительной проверки вывод был отменён. Полный набор доказательств представлен в препринте, где также показаны шаблоны подсказок и примеры взаимодействия с ИИ во время решения.
Компания подчеркивает, что такие исследовательские вызовы как First Proof — важный инструмент тестирования возможностей следующего поколения ИИ. Они демонстрируют, насколько хорошо модели способны вести длительные цепочки рассуждений, выбирать правильные абстракции, справляться с неоднозначностью и создавать аргументы, устойчивые к критике экспертного сообщества.
Особенно отметил исследователь OpenAI Джеймс Р. Ли, что новая модель, специально обученная повышенной строгости мышления, успешно справилась с несколькими задачами за короткое время, показывая значительный прогресс. На работу практически без участия человека — с минимальной подсказкой, иногда расширяя или уточняя доказательства — модели достигли существенного скачка. Эти достижения базируются на ранее полученных успехах, включая победу на Международной математической олимпиаде и вклад в развитие науки в области математики, физики и биологии.
OpenAI приглашает сообщество специалистов к совместной работе и обратной связи для дальнейшей оценки способности моделей решать научные задачи, а в будущем планирует сделать такие возможности доступными в публичных моделях.



