На рынке генеративных видео ИИ появился шум: Tavus представила Phoenix-4 — модель, которая меняет правила игры. Обычно системы либо создавали статичные аватары, либо требовали долгой обработки. Но Phoenix-4 умеет прямо в реальном времени отслеживать эмоции, реагировать и выглядеть как настоящий человек.
Главная особенность — архитектура: вместо привычных GAN тут Gaussian-diffusion технология, которая обеспечивает микромимики, стабильно держит освещение и текстуры даже при поворотах головы. Video обеспечивается в 30 fps, а задержка — менее 600 мс, благодаря потоковому потоку данных и технологии WebRTC. Это значит — разговоры с цифровым человеком превращаются в настоящее общение без лагов.
Еще одна фишка — API Emotion Control, где можно выставить настроение: радость, грусть, злость, удивление. И система сделает мимику максимально аутентичной: улыбка, выразительные глаза — всё на уровне настоящего человека. Создание своих цифровых двойников — Repllicas — занимает всего 2 минуты видео. После обучения их можно быстро подключить через SDK, идеально для маркетинга, развлечений или клиентского сервиса.
Разработчики отмечают: вся концепция ушла от привычных GAN и перешла на собственную Gaussian-diffusion модель, увеличив качество и глубину эмоций. В ближайшие месяцы ожидается массовое внедрение этой технологии в индустрию, а те, кто использует её сейчас — получают преимущество. Индустрия идет к созданию не просто реальных, а эмоционально живых цифровых персонажей, умеющих взаимодействовать без задержек.
Если вы хотите не отставать или построить будущее для своих проектов, уже сегодня стоит следить за Tavus, изучать документацию и тестировать новые возможности. Поколение цифровых людей с чувствами — уже на горизонте.
