欢迎来到牙牙学语网网首页

就在刚才,量子位得知大模型创业六强之一

来源:牙牙学语网 时间:2026-01-04 18:15:05

就在刚才,量位量子位得知大模型创业六强之一智谱已经完成了最新一轮30亿人民币融资!得知大模

包括多家战投和国有资产、型创君联资本在内的业强新投资者继续跟进投资。

这是量位近三个月来的智谱第二轮融资

九月,得知大模中关村科学城公司宣布投资前200亿估值智谱也是型创国内估值超过200亿元的大型创业企业。

量子位不完全统计,业强智谱官方披露的量位融资情况如下:

2021年披露完成A轮融资1亿元以上,达晨财智、得知大模华控基金、型创将门风险投资等联合投资;2022年宣布获得数亿元B轮融资,业强君联资本与启明风险投资联合领导投资;2023年披露,量位君联资本、得知大模美团、型创蚂蚁、阿里、腾讯、小米、金山、顺为、Boss直聘、美好未来、红杉、高淳等。

与此同时,智谱很少披露商业化记录,这也是它的原因首次公开

具体数据如下:

到目前为止,智谱今年的商业化收入增长了100%以上。

bigmodel智谱开放平台.cn,API年收入同比增长30倍以上。

Tokens平均日消耗量增长150倍,其中付费Tokens增长40倍以上。

MaaS平台拥有70万企业和开发者用户,付费客户数量增长了20多倍。

C端产品智谱清言拥有2500多万用户,第三季度清言开始在线支付功能,ARR(年常性收入)收入超过1000万。

所以问题来了——吸了这么多金子&商业化记录相当丰富的智谱,下一步该怎么办?

进一步研发智谱基座大模型模型

智谱透露,本轮融资将用于智谱基础大模型的进一步研发

从回答问题到解决复杂的推理和多模态任务,更好地支持行业的生态发展。

由量子位主办的行业峰会刚刚结束——MEET 智谱COOO张帆刚刚在2025智能未来大会上透露了一些信息。

OpenAI发布了AGI目标能力的分类,智谱也有自己的理解。

智谱将AGI分为五个等级:

第一级是语言,智谱“做得很好”。

第二级这是对复杂问题的解决方案。我们可以看到o1的能力。模型的应用类似于从“大脑系统1”转变为“系统2”,从简单直观的答案转变为深度思考和拆卸。

第三级当你开始使用工具来回答复杂的问题时,你不仅可以直接深入思考,还可以继续与外部世界互动来获取信息。例如,独立的智能主体不仅可以通过API,还可以操作手机、个人电脑甚至汽车界面来获取信息。

第四级实现自学。

第五级没有明确的定义,但方向是超越人类,人工智能将有能力探索科学规律、世界起源等最终问题。

张帆说,智谱正在不断探索和丰富模型的能力,从最初的语言能力,到L2复杂问题的能力,到工具能力和GLM-zero的第四级试图解决GLM-能力,如操作系统。

下面就来系统盘点一下智谱的探索路线。

端到端多模态和Agent布局初见规模

Sora爆发后,多模态模型竞相出现,现在深度推理模型成为顶流,端侧大模型和Agent技术成为新的趋势。

梳理一下,智谱的每一步都没有落下。

首先,对标Sora的视频生成模型CogVideoX、GLM-4-Voice和标准GPT-4o的端到端语音模型GLM-4-VideoCall。

最近逐渐清晰的Agent和端边领域的布局——

AutoGLM/智能体产品GLM-PC、先后发布了适合高通骁龙旗舰芯片的端侧大模型。

其中,与OpenAI不同,智谱一贯的标准之一是持续开源

通过查看智能光谱的早期GLM报告,我们会发现“我们邀请您加入其开放社区,促进大规模预培训模式的发展”一词。该公司一直延续着“以开源的方式与开发者和行业用户交朋友”的习惯。

根据目前的数据,ChatGLM等20多个模型已获得15万GitHub星标,开源模型全球下载量为3000万。

以下是今年智谱技术发布的时间轴:

11月,AutoGLM升级版发布,可独立执行50多步长步操作或跨app执行任务,开启“全自动”互联网新体验,支持基于浏览器的数十个网站的无人驾驶。

基于智谱多模型CogAgent,11月发布GLM-PC内测,探索“无人驾驶”PC。可以代替用户参加视频会议、处理文档、搜索网页、总结、远程定期操作。

11月,CogVideoX升级视频模型,支持10s时间和4k、60帧超高清图像质量,任何尺寸,更好的人体动作和物理世界模拟。CogVideoX v1.5-5B、CogVideoX v1.5-5B-I2V同期开源。

10月,GLM-4-Voice端到端情感语音模型发布,推出清言app,可以理解情感,有情感表达和情感共鸣,可以自助调节语速,支持多语言和方言,延迟较低,可以随时中断。

10月,AutoGLM内部测试版发布。您可以在不受API调用限制的情况下模拟人类操作手机,只需接收简单的文本/语音指令。

10月,与三星、高通宣布合作,共同打造AI产品和端侧多模态交互大模型。

8月,实时推理大模型GLM-4发布跨文本音频和视频模式-Videocall,实现人工智能和人的实时视频通话。各种带摄像头端侧设备,包括手机,可以通过API接口无缝部署。

8月,新一代基座大模型GLM-4-Plus发布,语言理解、指令遵循、长文本处理等性能全面提高。

7月,视频生成模型“清晰阴影”正式在清晰的电脑端、移动应用端和小程序端推出,提供文本生成视频和图像生成视频的服务。6秒的视频生成可以在30秒内完成,真正恢复物理世界中的运动过程。

6月,GLM-4-9B模型开源,支持100万Tokens长文本和26种语言,基于GLM的视觉模型GLM-4V-9B首次开源,多模态能力堪比GPT-4V。

1月,新一代基座大模型GLM-4发布,整体性能较上一代大幅提升,支持上下文较长,模态能力较强,推理速度较快,并发支持较高,大大降低了推理成本。

随着年底的临近,大模型创业新年的风暴即将出现。

来源:量子位