-
【AI快讯分析】全新亮相:Zamba2-mini,顶尖端侧开源AI模型,携12亿参数,4bit量化技术实现内存需求低于700MB
【原文大意】来源:网上搜集Zyphra 最近宣布推出 Zamba2-mini 1.2B 模型,这是一个拥有 12 亿参数的小型语言模型,特别优化用于端侧应用。该模型在 4bit 量化下内存占用低于 700MB,被宣称是当前最先进(SOTA)的小型语言模型。尽管尺寸较小,Zamba2-mini 1.2B 在性能上能与包括谷歌、Huggingface、苹果和微软在内的大型模型...
-
【AI快讯分析】微软旗下 GitHub 发布 Models 平台:瞄准 AI 专家,助力程序员测试与实施模型
【原文大意】来源:网上搜集文章主要介绍了微软旗下代码托管平台GitHub推出的新服务——GitHub Models。该服务旨在成为新一代AI工程师的工具,帮助开发者在其应用中选择合适的AI模型。GitHub Models将服务于平台上的1亿多用户,提供包括大语言模型(LLM)和小语言模型(SLM)在内的多种业界领先AI模型。目前,该服务处于限量...
-
【快讯分析】iPhone 15配备6GB内存亦能支持,Hugging Face发布“TinyLM”微型Python语言模型
【原文大意】来源:网上搜集新闻主要介绍了Hugging Face最新发布的“SmolLM”小语言模型家族,这些模型专为手机等轻量级设备设计,具有1.35亿、3.6亿及17亿参数。这些模型通过使用高质量的训练数据集,特别优化了RAM用量,使得即使在6GB RAM的iPhone 15上也能流畅运行。训练数据集名为SmolLM-Corpus,包含Python教学内容、W...