AVATARDIRECTOR
AvatarDirector — Real-time avatar control
Plugin de Unreal Engine 5.7 · MetaHuman ready

Control de avatares en tiempo real.
Rendimiento sin fricción.

Controla un MetaHuman desde cualquier backend por un único socket TCP. Entra audio PCM; salen lip-sync, emoción y gestos corporales — secuenciados por una máquina de estados determinista.

48 kHz
PCM in
8 × 22
emociones × micro
~100 ms
lookahead
port 4500
único TCP
Retrato MetaHuman de AvatarDirector
Connected · 4500
PCM stream · 48 kHz
Emoción activa
Joy · 0.78
Qué hace

El backend habla. El avatar actúa.

Seis garantías que ofrece el plugin — para que tu backend sea simple y tu avatar quede en personaje.

01
Un solo socket TCP
Una conexión en el puerto 4500 lleva frames binarios PCM y frames JSON de comandos. Sin puertos extra, sin WebSockets.
02
Lip-sync con ML en el dispositivo
ONNX runtime integrado controla la animación facial directamente desde el PCM. Sin servicio externo, sin tagueo por fonema.
03
8 emociones × 22 microexpresiones
Sistema en capas que mezcla emociones primarias con modulación sutil de ojos, cejas y boca.
04
Librería de gestos corporales
Montages nombrables y secuenciables — greet, affirm, deny, point, shrug. Controlados por JSON, mezclados con la animación de habla.
05
Integración no intrusiva
Sin modificar el Blueprint de animación facial del MetaHuman. Instalá el plugin, expuesto el socket, listo.
06
Game-thread safe
Todos los despachos se llevan al game thread. Integrás sin razonar sobre las reglas de threading de UE.
Cómo funciona

Un socket. Dos tipos de frame.
Cero código de motor.

Streameá audio. Streameá comandos. El avatar actúa en tiempo real — sin Blueprints, sin recompilar, sin integración por personaje.

TCP · PORT 4500
~30ms
p50 voz → boca
Tu backend
TYPE 0 · AUDIO
2880 B
48 kHz · 16-bit · mono · 30 ms chunk
TYPE 1 · JSON
92 B
{ "type": "emotion",
  "name": "joy",
  "intensity": 0.78 }
Plugin AvatarDirector
STAGE 1 · DECODE HEADER
Lectura de 5 bytes · type + length LE
STAGE 2 · ROUTE
Lip-sync
Animator
STAGE 3 · DISPATCH @ 30 FPS
Avatar MetaHuman
LIVE · 30 fps
VISEME
EMOTION
01 Audio + comandos
Tu backend habla TCP. Enviá PCM y JSON por un único socket — sin lock-in de SDK.
02 Decodificar → rutear → mezclar
El plugin parsea, despacha al lip-sync o al animator en el game thread, y mezcla con seguridad.
03 El MetaHuman actúa
Cara + cuerpo a 30 FPS, dentro del motor. Drop-in en proyectos Unreal, sin tocar Blueprints.
UE 5.3+
Probado en 5.3 / 5.4 / 5.5
MetaHuman
Cara + cuerpo, todos los rigs
Multiplataforma
Cliente Win · Mac · Linux
Fab Marketplace
Licencia comercial · pronto
Sistema de expresiones

8 emociones × 22 microexpresiones.

Definí mezclas de emoción primaria con intensidad 0–1. Capa microexpresiones encima — entrecerrado de ojos, tensión de labios, ceja, parpadeo. La máquina de estados maneja cross-fades y recuperación.

Mezcla activa
Alegría · 0.78
Cross-fade 240ms
Neutral
0.42
Alegría
0.78
Tristeza
0.10
Enojo
0.05
Miedo
0.18
Sorpresa
0.55
Disgusto
0.02
Confianza
0.66
Microexpresiones · 22 canales
Gestos corporales

Montages de cuerpo completo, no sólo cabezas parlantes.

Dispará gestos por nombre. Secuenciálos, mezclá con la animación de habla y sobrescribí targets de mirada en plena actuación.

cmd_gesture.json · Type 1
{
  "type"    : "gesture",
  "name"    : "greet",
  "blend"   : 0.85,
  "gaze"    : "camera",
  "queue"   : true
}