微软最近在其 Copilot 工具中增加了一项全新的Copilot Audio音频模式,该模式基于其自主研发的 MAI-Voice-1模型。用户现在可以选择三种不同的语音模式,以满足不同场景下的需求。

​微软推出全新 Copilot Audio音频模式,体验更具个性化的语音交互

首先是 “情感模式”,这种模式可以实现富有表现力的自由形式表达,适合需要情感传递的场合;其次是 “故事模式”,用户可以利用这个模式进行多角色的讲故事,带来生动的听觉体验;最后是 “脚本模式”,该模式则提供逐字逐句的精确回放,非常适合需要准确传达信息的场合。

在新的音频模式中,微软提供了多种声音和风格选择,从莎士比亚的经典朗读到体育评论的激情解说,应有尽有。这种多样性不仅为用户提供了丰富的选择,也极大提升了交互的趣味性和个性化体验。

目前,这项新功能已经在 Copilot Labs 中推出,用户可以直接体验到这一创新的语音交互方式。值得注意的是,微软最近推出的 MAI-1是其首个大型语言模型,并且还与 Anthropic 达成协议,将其模型集成到 Office 应用中。这些举措表明,微软正在努力实现对 OpenAI 的更大独立性,以便能够更灵活地开发和应用人工智能技术。

体验入口:https://copilot.microsoft.com/labs/audio-expression

划重点:  

🌟 用户可以在 Copilot 中选择情感、故事和脚本三种音频模式。  

🎭 新功能提供多种声音和风格,适用于不同的表达需求。  

🔍 微软的 MAI-1模型标志着其在 AI 领域的独立发展。