微软悄然开源了一枚“黑马级”实时语音模型:VibeVoice-Realtime-0.5B。这可能是目前全球延迟最低、表现最接近真人的开源文本转语音(TTS)模型之一,话还没说完,声音就已经开始了!

微软开源实时语音模型VibeVoice-Realtime-0.5B,300ms实时开声,90分钟长音频都不喘!

 极致实时:300ms就能开口说话

VibeVoice-Realtime-0.5B最硬核的能力是“几乎零延迟”。从输入文本到第一声发声平均仅需300毫秒,远低于传统TTS动辄1-3秒的起音时间。实际体验就像真人对话:你打字的同时,对方已经开始回应,完全没有“等我生成完再播”的卡顿感。

 长文本都不怕:一次生成90分钟流畅语音

别看模型只有0.5B参数,它却能一次性生成长达90分钟的超长音频,且全程不降速、不跑调、不重复,语调起伏自然得像专业播音员。目前已在HuggingFace实测通过,网友直接拿整本《三体》第一章喂进去,完整朗读下来毫无破音。

微软开源实时语音模型VibeVoice-Realtime-0.5B,300ms实时开声,90分钟长音频都不喘!

 多角色对话神器:4人播客也能完美还原

模型原生支持最多4个角色同时对话,每个角色都能保持独立且稳定的声线、语速和语气。比如模拟播客访谈场景:主持人沉稳、嘉宾A激动、嘉宾B幽默、嘉宾C略带歉意,四人轮流发言时互不串音,情绪切换丝滑,堪称“AI配音组团天花板”。

 情绪表达拉满:自动识别愤怒、激动、歉意

得益于内置的情感感知模块,VibeVoice能根据文本语义自动添加对应情绪:

– 看到“对不起”会自然带上歉意语气

– 遇到“太棒了!”会瞬间上扬兴奋

– 甚至一句“我很生气”都会压低声线、加快语速

完全不需要手动标注情绪标签,开箱即用。

 中英文双语,中文虽有进步但仍有提升空间

模型支持中英文混读,英文表现已接近商用级别,中文发音准确、自然度极高,但部分多音字、轻声词处理仍有优化空间。官方表示后续会推出专门的中文精调版本。

 轻量级设计:轻松塞进手机和边缘设备

仅0.5B参数,推理时显存占用不到2GB,在普通笔记本上就能跑满实时速度。开发者已经将其快速集成到本地AI助手、阅读App、实时同传工具中,未来有望成为“AI本地语音标配”。

目前VibeVoice-Realtime-0.5B已在HuggingFace和GitHub完全开源(MIT协议),支持商用。社区已出现大量Demo:有人用它做了“边打字边读”的微信语音输入神器,有人直接接在大模型后面,实现真正的全链路实时语音对话。

AIbase报道点评:  

在开源圈还在卷10B+参数的巨型TTS时,微软用一个0.5B的小模型直接把“实时、自然、长文本、多角色”全部干到接近商用级别。这波操作,堪称“降维打击”。接下来,就看国产大厂如何接招了。

项目地址:https://microsoft.github.io/VibeVoice/