口型同步
口型同步(LipSync)可根据音频信号实时驱动角色的口型,使角色看起来能随着播放的任何音频说话或唱歌。与内置于 AI Voice Chat 的旧版口型同步不同,本系统适用于所有平台,包括 Android 和 Quest。
新增于 2024.9。
启用口型同步
- 在 Playback Options 中全局开启口型同步。
- 对于需要活动嘴巴的每个角色,打开 Facial Control 并启用 口型同步。
两个开关都必须启用:全局开关控制是否分析音频;每个角色开关控制哪些角色会对此做出反应。
与空间音频配对
口型同步与 Spatial Audio 天然匹配——将音频锚定到角色的头部,并在该角色上启用口型同步,效果就会呈现出“该角色正在说话”的印象。
与 AI 语音聊天配对
AI Voice Chat 生成的语音音频,可以像音乐或视频音频一样被口型同步系统分析。