-
【AI快讯分析】零一万物针对关键团队成员加盟字节跳动发表声明:当前公司正在进行组织结构优化,旨在使业务更加集中和明确。
【原文大意】来源:网上搜集文章主要报道了字节跳动正在秘密筹备成立大模型研究院,并积极招揽人才,其中包括原零一万物和面壁智能的核心成员。零一万物公司对此回应称,公司架构进行了调整,聚焦业务,并即将推出新的产品或解决方案。零一万物成立于2023年5月,由原百度元宇宙负责人马杰担任副总裁,团队成员来自谷歌、微软...
-
【AI快讯分析】智谱AI发布开源的CogVideoX-5B视频创作模型,兼容RTX 3060图形卡运行
【原文大意】来源:网上搜集文章主要介绍了智谱 AI 开源的 CogVideoX-5B 视频生成模型的更新和优化。与之前的 CogVideoX-2B 模型相比,CogVideoX-5B 在视频生成质量和视觉效果上有所提升。官方还强调了对模型推理性能的大幅优化,使得推理门槛降低,能够在较早期的显卡如 GTX 1080Ti 上运行 CogVideoX-2B,以及在如 RTX 306...
-
【AI快讯分析】亚马逊计划于十月推出Alexa AI服务订阅计划:月度费用设定为10美元,旨在精选与整合用户个性化兴趣信息源
【原文大意】来源:网上搜集文章主要报道了亚马逊正在研发一款名为“Remarkable Alexa”的新型AI模型,代号为“Project Banyan”,预计将于2024年10月发布。该模型旨在分析用户如何使用现有AI技术,并优化提供用户最需要的功能。具体来说,“Remarkable Alexa”将帮助用户策划、总结和探索他们感兴趣的新闻和资讯内容。此外...
-
【AI快讯分析】谭待,字节跳动旗下火山引擎的掌舵者,近日指出,当前大规模模型成本已趋合理,此前价格过高。
【原文大意】来源:网上搜集文章主要讨论了字节跳动旗下火山引擎总裁谭待对于AI大模型价格战的看法以及字节跳动在AI领域的策略。谭待认为,AI大模型的价格原本过高,现在只是回归合理,并非价格战。他强调,字节跳动有能力做到价格合理化,而其他公司可能不具备这种能力。针对AI投入与商业回报不匹配的问题,谭待提出应先积...
-
【AI快讯分析】字节传闻组建“高级模型研究中心”,内部消息透露尚未确定设立独立实体。
【原文大意】来源:网上搜集文章主要报道了字节跳动在大模型领域的最新动态和计划。据IT之家8月28日消息,字节跳动正在秘密筹备成立大模型研究院,并积极招揽人才,包括原零一万物核心成员黄文灏、原面壁智能核心成员秦禹嘉已加入字节大模型团队。知情人士透露,字节跳动有加强大模型相关研究的长期计划,但并未决定建立独立...
-
【AI快讯分析】谷歌推出三款Gemini实验性AI模型:1.5 Pro跻身排行榜亚军,1.5 Flash实现惊人飞跃,从第23位跃至第6位
【原文大意】来源:网上搜集谷歌AI Studio产品总监Logan Kilpatrick于8月28日在X平台宣布推出三款实验性Gemini AI模型。这些模型包括Gemini 1.5 Flash-8B,一个拥有80亿参数的小尺寸模型,专为多模态任务设计,如大容量任务和长文本摘要。此外,新的Gemini 1.5 Pro Exp 0827型号在各方面都优于8月初发布的实验型号,目前在L...
-
【AI快讯分析】云知声发布山海多模态大型模型:即时创作文本、声音及图像
【原文大意】来源:网上搜集文章主要报道了云知声公司在2023年8月23日推出的山海多模态大模型。该模型通过整合跨模态信息,能够处理和生成文本、音频、图像等多种形式的输入和输出。文章还列举了山海多模态大模型的几个特点,包括其多模态处理能力、实时生成多种输出形式的能力,以及在多领域应用的潜力。这一技术的推出标志...
-
【AI快讯分析】摩尔线程发布开源音频理解巨型模型 MooER:依托国产多功能 GPU 实现训练与推断
【原文大意】来源:网上搜集文章主要报道了摩尔线程公司开源了一个名为MooER的大型音频理解模型,这是业界首个基于国产全功能GPU进行训练和推理的语音模型。MooER模型在摩尔线程的夸娥智算平台上,仅用38小时就完成了5000小时音频数据和伪标签的训练。该模型支持中文和英文的语音识别,并具备中译英的语音翻译能力,在Covos...
-
【AI快讯分析】英伟达推出全新80亿参数AI模型:高效且精准,兼容RTX系列工作站
【原文大意】来源:网上搜集文章主要介绍了英伟达最新发布的小型语言AI模型Mistral-NeMo-Minitron 8B。该模型具有高精度和高计算效率的特点,能够在GPU加速的数据中心、云和工作站上运行。Mistral-NeMo-Minitron 8B是通过对之前的Mistral NeMo 12B模型进行宽度剪枝和知识蒸馏处理后得到的,其参数数量为80亿个。英伟达通过这...
-
【AI快讯分析】浪潮信息推出源 2.0-M32 大模型 4bit / 8bit 量化版本:宣称仅需 23GB 显存,性能可与 LLaMA3 相匹敌
【原文大意】来源:网上搜集浪潮信息近日发布了源 2.0-M32 大模型的 4bit 和 8bit 量化版本,这一新版本在性能上与 700 亿参数的 LLaMA3 开源大模型相媲美。特别之处在于,4bit 量化版的推理运行显存仅需 23.27GB,处理每个 token 的算力消耗约为 1.9 GFLOPs,这仅是同等规模的 LLaMA3-70B 模型的 1/80。相比之下,LLaMA3-7...