【AI快讯分析】摩尔线程发布开源音频理解巨型模型 MooER:依托国产多功能 GPU 实现训练与推断
摩尔线程,音频理解大模型,MooER,国产GPU,语音识别,语音翻译,KUAE智算平台,开源模型,BLEU分数,中译英能力 2024-08-23
浪潮信息近日发布了源 2.0-M32 大模型的 4bit 和 8bit 量化版本,这一新版本在性能上与 700 亿参数的 LLaMA3 开源大模型相媲美。特别之处在于,4bit 量化版的推理运行显存仅需 23.27GB,处理每个 token 的算力消耗约为 1.9 GFLOPs,这仅是同等规模的 LLaMA3-70B 模型的 1/80。相比之下,LLaMA3-70B 模型需要 160GB 的显存和 140GFLOPs 的算力。
源 2.0-M32 量化版通过将模型精度量化至 int4 和 int8 级别,实现了在保持模型性能基本不变的同时,显著降低了计算资源的需求。该模型构建了包含 32 个专家的混合专家模型(MoE),运行时激活参数为 37 亿。评测结果表明,源 2.0-M32 量化版在 MATH 和 ARC-C 任务中的性能超过了 700 亿参数的 LLaMA3 大模型。
这一新版本的发布旨在提高模算效率并降低大模型部署运行的计算资源要求,现已开源,提供给开发者使用。
模型量化技术:浪潮信息发布的源 2.0-M32 大模型采用了4bit和8bit量化技术,这是一种降低模型精度的方法,旨在减少模型在运行时的计算资源需求。通过将模型参数从高精度(如32bit浮点数)降低到低精度(如4bit或8bit整数),可以在保持模型性能基本不变的同时,显著减少所需的算力和显存。
混合专家模型(MoE):源 2.0-M32 大模型构建了一个包含32个专家的混合专家模型。这种模型结构通过在不同任务上激活不同的专家,可以提高模型的效率和性能。MoE结构允许模型在处理特定任务时只激活相关的专家,从而减少不必要的计算和资源消耗。
性能对比:源 2.0-M32 量化版在MATH和ARC-C任务中的性能超过了700亿参数的LLaMA3大模型,这表明即使在量化后,该模型的性能仍然非常出色。这种性能的保持和提升,显示了量化技术在实际应用中的有效性。
成本效益:通过量化技术,源 2.0-M32 大模型在运行时的显存需求和算力消耗大幅降低,这意味着在部署和运行该模型时,所需的硬件成本和能源消耗也会相应减少。这对于企业和研究机构来说,是一个显著的经济优势。
开源策略:浪潮信息选择将源 2.0-M32 量化版开源,这有助于推动技术的普及和应用。开源模型可以吸引更多的开发者和研究者参与,促进技术的迭代和优化,同时也可能带来更多的商业合作机会。
技术普及:通过开源和降低资源需求,源 2.0-M32 量化版有助于推动大模型技术的普及。更多的个人和中小企业可能因此能够利用先进的大模型技术,从而促进整个社会的数字化转型和技术进步。
教育与研究:开源的大模型可以为教育和研究提供更多的资源。学生和研究人员可以更容易地获取和使用这些模型,进行各种实验和研究,这有助于培养更多的技术人才,并推动相关领域的科学研究。
环境影响:通过减少模型的算力和显存需求,源 2.0-M32 量化版有助于降低数据中心的能源消耗,这对于减少碳排放和保护环境具有积极意义。
评论记录: