Tencent Hunyuan выпустила семейство моделей HY-MT1.5, предназначенных для быстрой и качественной машинного перевода. В состав входят две модели: HY-MT1.5-1.8B и HY-MT1.5-7B, которые обеспечивают перевод на 33 языка, включая диалекты и этнические вариации. Модели доступны как бесплатные веса на GitHub и Hugging Face.
HY-MT1.5-7B является усовершенствованной версией системы Hunyuan-MT-7B, которая победила на WMT25. Она лучше работает с объяснениями, сценариями смешанных языков, терминологией и форматами. Модель 1.8B содержит треть параметров, но по качеству не уступает; после квантования её можно запускать на устройств с 1 Гб памяти, с задержкой около 0,18 сек для китайского текста из 50 токенов.
7B версия рассчитана на серверы и мощные устройства, задержка — примерно 0,45 сек. Обучение включает пять этапов: предварительный тренинг, перевод-ориентированный дообучение, тонкая настройка на качественных данных, дистилляцию с 7B модели и RL с human-вариантами. В итоге модели показывают превосходные результаты в benchmark и human-оценках.
Особенности — поддержка команд, контекст, форматирование (HTML/XML). Эксперименты с квантованием FP8 и Int4 (GPTQ) показывают, что FP8 отлично сохраняет качество при работе на обычных устройствах.
Общая идея: две модели, ориентированные на многоязычный перевод с высоким качеством, быстрой работой и расширенными возможностями. Модели открыты, а индустрия учится использовать их максимально эффективно.
