-
【AI快讯分析】小米智能音箱系列更新“巨型模型小爱”功能:助力文本生成与即时信息检索等 或者 小米小爱音箱迎来“宏大模型版本”:赋能文本创作与即时搜索等功能
【原文大意】来源:网上搜集文章主要报道了小米公司对其智能助手小爱的大模型进行了全量升级,并已在音箱上正式推送。此次升级新增了文本创作和实时搜索等功能,提升了用户体验。用户需要在小爱音箱App的设置中确认大模型开关已开启,才能体验到这些新功能。小米计划在10月内陆续覆盖所有用户,确保更多人能够享受到升级后的...
-
【AI快讯分析】中国石油联合中国移动、华为与科大讯飞,共同推出了规模达330亿参数的昆仑大模型,该模型是中国能源化工领域首个获得备案批准的大规模模型。
【原文大意】来源:网上搜集文章主要报道了中国石油在北京举办的成果发布会上发布了330亿参数的昆仑大模型,这是中国能源化工行业首个通过备案的大模型。昆仑大模型是由中国石油、中国移动、华为公司和科大讯飞联合打造的,于今年5月签署了合作共建协议,并按照“五个一”行动计划,训练了8个大模型,研发了18个应用场景。该...
-
【AI快讯分析】学者・高空 3.0 真实三维巨型模型开放共享:覆盖城市级百平方公里全域即时绘图,兼容VR装置
【原文大意】来源:网上搜集文章主要介绍了书生・天际 3.0 实景三维大模型的开源发布及其技术进步。该模型由上海人工智能实验室联合多家机构开发,相较于前代模型,书生・天际 3.0 在渲染效率上提升了近 6 倍,并且将应用方式扩展到了 VR 设备。用户通过 VR 眼镜可以体验在名胜古迹、城市街景或博物馆中自由探索的沉浸式体验...
-
【AI快讯分析】中国科学院与阿里云联合推出首款月球专业大模型,其对撞击坑年龄鉴定的精确度突破80%大关。
【原文大意】来源:网上搜集文章报道了中国科学院地球化学研究所与阿里云在2024数博会上联合发布的国际首个“月球科学多模态专业大模型”。该模型基于阿里云通义系列模型构建,专门用于月球撞击坑的识别,其准确率已超过80%。这一大模型的开发利用了视觉、多模态及自然语言处理技术,并通过RAG检索增强技术在阿里云百炼专属...
-
【AI快讯分析】零一万物针对关键团队成员加盟字节跳动发表声明:当前公司正在进行组织结构优化,旨在使业务更加集中和明确。
【原文大意】来源:网上搜集文章主要报道了字节跳动正在秘密筹备成立大模型研究院,并积极招揽人才,其中包括原零一万物和面壁智能的核心成员。零一万物公司对此回应称,公司架构进行了调整,聚焦业务,并即将推出新的产品或解决方案。零一万物成立于2023年5月,由原百度元宇宙负责人马杰担任副总裁,团队成员来自谷歌、微软...
-
【AI快讯分析】谭待,字节跳动旗下火山引擎的掌舵者,近日指出,当前大规模模型成本已趋合理,此前价格过高。
【原文大意】来源:网上搜集文章主要讨论了字节跳动旗下火山引擎总裁谭待对于AI大模型价格战的看法以及字节跳动在AI领域的策略。谭待认为,AI大模型的价格原本过高,现在只是回归合理,并非价格战。他强调,字节跳动有能力做到价格合理化,而其他公司可能不具备这种能力。针对AI投入与商业回报不匹配的问题,谭待提出应先积...
-
【AI快讯分析】字节传闻组建“高级模型研究中心”,内部消息透露尚未确定设立独立实体。
【原文大意】来源:网上搜集文章主要报道了字节跳动在大模型领域的最新动态和计划。据IT之家8月28日消息,字节跳动正在秘密筹备成立大模型研究院,并积极招揽人才,包括原零一万物核心成员黄文灏、原面壁智能核心成员秦禹嘉已加入字节大模型团队。知情人士透露,字节跳动有加强大模型相关研究的长期计划,但并未决定建立独立...
-
【AI快讯分析】云知声发布山海多模态大型模型:即时创作文本、声音及图像
【原文大意】来源:网上搜集文章主要报道了云知声公司在2023年8月23日推出的山海多模态大模型。该模型通过整合跨模态信息,能够处理和生成文本、音频、图像等多种形式的输入和输出。文章还列举了山海多模态大模型的几个特点,包括其多模态处理能力、实时生成多种输出形式的能力,以及在多领域应用的潜力。这一技术的推出标志...
-
【AI快讯分析】摩尔线程发布开源音频理解巨型模型 MooER:依托国产多功能 GPU 实现训练与推断
【原文大意】来源:网上搜集文章主要报道了摩尔线程公司开源了一个名为MooER的大型音频理解模型,这是业界首个基于国产全功能GPU进行训练和推理的语音模型。MooER模型在摩尔线程的夸娥智算平台上,仅用38小时就完成了5000小时音频数据和伪标签的训练。该模型支持中文和英文的语音识别,并具备中译英的语音翻译能力,在Covos...
-
【AI快讯分析】浪潮信息推出源 2.0-M32 大模型 4bit / 8bit 量化版本:宣称仅需 23GB 显存,性能可与 LLaMA3 相匹敌
【原文大意】来源:网上搜集浪潮信息近日发布了源 2.0-M32 大模型的 4bit 和 8bit 量化版本,这一新版本在性能上与 700 亿参数的 LLaMA3 开源大模型相媲美。特别之处在于,4bit 量化版的推理运行显存仅需 23.27GB,处理每个 token 的算力消耗约为 1.9 GFLOPs,这仅是同等规模的 LLaMA3-70B 模型的 1/80。相比之下,LLaMA3-7...