新闻资讯

当前位置:首页>新闻资讯

DeepSeek公布成本、收入和利润率

时间:2025-03-02   访问量:1001

**DeepSeek公布成本、收入和利润率:AI大模型盈利闭环的里程碑**

在AI大模型领域,成本与盈利一直是业界关注的焦点。近日,国内AI大模型公司DeepSeek通过其官方账号在知乎发布的一篇技术文章,首次公开了其推理系统的核心优化方案,并披露了成本、收入和利润率等关键财务数据,这一举动无疑在行业内引起了轩然大波。

据DeepSeek官方披露,其推理服务基于H800 GPU集群部署,通过动态调整节点资源实现效率最大化。在2025年2月27日12:00至28日12:00的统计周期内,DeepSeek的GPU租赁成本按2美元/小时计算,日均成本为87,072美元。而收入方面,若所有输入/输出token按R1定价(输入1元/百万token、输出16元/百万token)计算,单日收入可达562,027美元。令人瞩目的是,其理论成本利润率高达545%,这一数字刷新了全球AI大模型领域的盈利天花板。

DeepSeek的高利润率并非偶然,而是源于其创新的推理系统设计。其核心技术包括大规模跨节点专家并行(EP)、计算通信重叠与负载均衡优化三大支柱。专家并行(EP)策略显著提升了吞吐与响应速度,针对模型稀疏性,采用EP策略扩展总体批处理规模,确保每个专家获得足够的计算负载,从而显著提升了GPU利用率。同时,DeepSeek通过部署单元的动态调整,如Prefill阶段4节点、Decode阶段18节点,实现了资源分配与任务需求的平衡。

在计算与通信方面,DeepSeek通过重叠技术隐藏了延迟。Prefill阶段通过“双batch交错”实现计算与通信并行,Decode阶段则将attention拆分为多级流水线,最大限度掩盖了通信开销。此外,全局负载均衡器的设计确保了各GPU的计算量、通信量及KVCache占用均衡,避免了资源浪费和节点空转。

除了技术创新,DeepSeek在工程层面也进一步压缩了成本。通过昼夜资源调配,白天高峰时段全力支持推理服务,夜间闲置节点则转用于研发训练,最大化了硬件利用率。同时,DeepSeek的缓存命中率高达56.3%,通过KVCache硬盘缓存减少了重复计算,输入token中3420亿(56.3%)直接命中缓存,大幅降低了算力消耗。

DeepSeek此次披露的数据,不仅验证了其技术路线的商业可行性,更为行业树立了高效盈利的标杆。其模型训练成本仅为同类产品的1%-5%,此前发布的V3模型训练成本仅557.6万美元,远低于OpenAI等巨头的投入。在推理定价方面,R1的API定价仅为OpenAI GPT-3-mini的1/7至1/2,低成本策略加速了市场渗透。

然而,DeepSeek也坦言,实际收入受V3定价更低、夜间折扣及免费服务比例等因素的影响,会低于理论值。尽管如此,DeepSeek的开源策略与成本控制能力已经打破了AI领域的资源垄断,向行业传递了明确的信号:AI大模型的盈利闭环已从理想照进现实。

DeepSeek的成功并非一蹴而就,而是源于其在技术、工程和商业模式上的不断创新与优化。其开源免费+分层B端收费的模式,通过开放核心技术吸引开发者共建生态,核心盈利来源于企业定制化服务以及母公司的资金支持。这一模式不仅降低了用户的入门门槛,也促进了AI技术的普及和应用。

随着AI技术的不断发展,DeepSeek等国内AI大模型公司正在逐步崛起,成为推动行业进步的重要力量。DeepSeek此次“透明化”披露,不仅展示了其技术实力与商业潜力,更为整个行业树立了新的标杆。我们期待DeepSeek能够继续保持创新精神,为AI大模型领域带来更多惊喜和突破。同时,也期待更多国内AI企业能够加入到这一行列中来,共同推动AI技术的繁荣与发展。

上一篇:草根球员的春天来了?

下一篇:京沪大战激烈冲突!国安2轮吃2红