阿里云最近发布其最新通义千问(Qwen)大型语言模型Qwen2系列,不仅性能表现突出,改善安全性对齐,并在训练数据中增加了27种语言相关的高质量数据,提升了模型的多语言能力。
Qwen2系列上线不久后,便在业内权威开源评测榜单Hugging Face的开放LLM排行榜上名列第一。 通义千问开源模型拥有5亿到1,100亿参数的多种尺寸,已在Hugging Face和Github等平台上获得超过700万次下载量。
此次发布的Qwen2系列包含5个尺寸的预训练及指令微调模型,Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B和Qwen2-72B,其中Qwen2-57B-A14B为混合专家模型(MoE)。 Qwen2以增强的性能和多语言能力为特色,展示了与人类价值观更好的对齐,使其更接近有用、诚实和安全的AI。
作为对开源社区的贡献,Qwen2系列模型均已开源,在其AI模型社区ModelScope(魔搭)和协作AI平台Hugging Face上供商业或研究目的使用。
阿里云首席技术官周靖人表示,「坚持开源开放是阿里云的重要策略,我们希望打造一朵AI时代最开放的云,让算力更普惠、让AI更普及。」
多语言能力及长文本支持
通过利用阿里云的优化训练方法,Qwen2-72B在语言理解、语言生成、多语言能力、编码、数学、推理等多个方面的15个标准测试中胜过其他领先的开源模型。 此外,Qwen2-72B增大了上下文长度支持,最高达到128K tokens。
为了增强其多语言能力,除了原本具备的中英文能力,Qwen 2的训练新增了27种语言覆盖亚洲、欧洲、中东地区,例如日文、韩文,越南语、印尼语、泰语、马来语、他加禄语、德语、法语、意大利语、阿拉伯语等。
除此之外,还为不同的Qwen2模型应用了群组查询注意力(Grouped-query attention, GQA)技术,以优化计算效率与模型性能之间的平衡,在模型推理过程中提升速度并减少内存使用。
负责任的AI
值得注意的是,通过后训练,Qwen2模型的输出在诸如MT-bench这样的基准测试中展示了与人类价值观更好的对齐,这是评估聊天机器人多轮对话和遵循指令能力的多轮问题集,这两个方面是人类偏好的两个关键要素。
通过纳入人类反馈以更好地与人类价值观对齐,这些模型在安全性和责任方面表现良好,能够应对与非法活动、欺诈、色情和隐私侵犯相关的多语言不安全查询,以防止模型的滥用。 在小模型方面,Qwen2-7B也在包括代码在内的多项基准测试中超越了其它相似尺寸的先进模型。
深入探索新兴技术主题
阿里云的Qwen2模型系列的推出和表现再次证明其在AI领域的领导地位,特别是在开放源代码的大型语言模型方面。 通过加强性能、多语言能力和安全性的对齐,Qwen2旨在推动AI技术的进步,同时确保其应用符合人类价值观和伦理标准。 随着AI技术的快速发展,像Qwen2这样的模型在推进技术创新的同时,也提醒我们需关注其在社会中的应用和影响。 阿里云对开源社区的贡献,包括使这些先进的模型可用于商业和研究目的,进一步展示了公司致力于推广AI知识和技术的开放获取,旨在激发全球范围内的创新和发展。