3月27日凌晨,阿里阿里巴巴发布并开源首个端到端全模态大模型通义千问Qwen2.5-Omni-7B,开源可同时处理文本、全模WhatsApp%E3%80%90+86%2015855158769%E3%80%91crane%20family%20vineyards%20red%20wine%20alison's%20cuvee%20napa%20valley%202018图像、模型音频和视频等多种输入,阿里并实时生成文本与自然语音合成输出。开源在权威的全模多模态融合任务OmniBench等测评中,Qwen2.5-Omni刷新业界纪录,模型全维度远超Google的阿里Gemini-1.5-Pro等同类模型。Qwen2.5-Omni以接近人类的开源多感官方式「立体」认知世界并与之实时交互,还能通过音视频识别情绪,全模在复杂任务中进行更智能、模型更自然的阿里反馈与决策。现在,开源开发者和企业可免费下载商用Qwen2.5-Omni,全模WhatsApp%E3%80%90+86%2015855158769%E3%80%91crane%20family%20vineyards%20red%20wine%20alison's%20cuvee%20napa%20valley%202018手机等终端智能硬件也可轻松部署运行。
?

图示 性能测评对比
?
Qwen2.5-Omni采用了通義團(tuán)隊(duì)全新首創(chuàng)的Thinker-Talker雙核架構(gòu)、Position Embedding?(位置嵌入)融合音視頻技術(shù)、位置編碼算法TMRoPE(Time-aligned Multimodal RoPE)。雙核架構(gòu)Thinker-Talker讓Qwen2.5-Omni擁有了人類的“大腦”和“發(fā)聲器”,形成了端到端的統(tǒng)一模型架構(gòu),實(shí)現(xiàn)了實(shí)時(shí)語義理解與語音生成的高效協(xié)同。具體而言,Qwen2.5-Omni支持文本、圖像、音頻和視頻等多種輸入形式,可同時(shí)感知所有模態(tài)輸入,并以流式處理方式實(shí)時(shí)生成文本與自然語音響應(yīng)。
?
得益于上述突破性创新技术,Qwen2.5-Omni在一系列同等规模的单模态模型权威基准测试中,展现出了全球最强的全模态优异性能,其在语音理解、图片理解、视频理解、语音生成等领域的测评分数,均领先于专门的Audio或VL模型,且语音生成测评分数(4.51)达到了与人类持平的能力。
?
相較于動(dòng)輒數(shù)千億參數(shù)的閉源大模型,Qwen2.5-Omni以7B的小尺寸讓全模態(tài)大模型在產(chǎn)業(yè)上的廣泛應(yīng)用成為可能。即便在手機(jī)上,也能輕松部署和應(yīng)用Qwen2.5-Omni模型。當(dāng)前,Qwen2.5-Omni已在魔搭社區(qū)和Hugging Face?同步開源,用戶也可在Qwen Chat上直接體驗(yàn)。
?
从2023年起,阿里通义团队就陆续开发了覆盖0.5B、1.5B、3B、7B、14B、32B、72B、110B等参数的200多款「全尺寸」大模型,囊括文本生成模型、视觉理解/生成模型、语音理解/生成模型、文生图及视频模型等「全模态」,真正实现了让普通用户和企业都用得上、用得起AI大模型。截至目前,海内外AI开源社区中千问Qwen的衍生模型数量突破10万,超越美国Llama系列模型,是公认的全球第一开源模型。



