Control de avatares en tiempo real. Rendimiento sin fricción.
Controla un MetaHuman desde cualquier backend por un único socket TCP. Entra audio PCM; salen lip-sync, emoción y gestos corporales — secuenciados por una máquina de estados determinista.
Tu backend habla TCP. Enviá PCM y JSON por un único socket — sin lock-in de SDK.
02Decodificar → rutear → mezclar
El plugin parsea, despacha al lip-sync o al animator en el game thread, y mezcla con seguridad.
03El MetaHuman actúa
Cara + cuerpo a 30 FPS, dentro del motor. Drop-in en proyectos Unreal, sin tocar Blueprints.
UE 5.3+
Probado en 5.3 / 5.4 / 5.5
MetaHuman
Cara + cuerpo, todos los rigs
Multiplataforma
Cliente Win · Mac · Linux
Fab Marketplace
Licencia comercial · pronto
Sistema de expresiones
8 emociones × 22 microexpresiones.
Definí mezclas de emoción primaria con intensidad 0–1. Capa microexpresiones encima — entrecerrado de ojos, tensión de labios, ceja, parpadeo. La máquina de estados maneja cross-fades y recuperación.
Mezcla activa
Alegría · 0.78
Cross-fade 240ms
Neutral
0.42
Alegría
0.78
Tristeza
0.10
Enojo
0.05
Miedo
0.18
Sorpresa
0.55
Disgusto
0.02
Confianza
0.66
Microexpresiones · 22 canales
Gestos corporales
Montages de cuerpo completo, no sólo cabezas parlantes.
Dispará gestos por nombre. Secuenciálos, mezclá con la animación de habla y sobrescribí targets de mirada en plena actuación.