中科曙光算力服务器GPU芯片来源大揭秘

最近不少朋友都在问,中科曙光算力服务器里,那些驱动AI大模型的GPU芯片到底是谁家的?这个问题问得特别好,因为现在AI算力这么火,搞清楚国产算力巨头的技术底细,对理解整个行业格局至关重要。

中科曙光的算力服务器GPU是谁家的

中科曙光的GPU合作伙伴

中科曙光的算力服务器主要采用旗下子公司海光信息的GPU芯片。海光信息的“深算系列”GPGPU性能相当强悍,直接对标英伟达的A100芯片,而且最厉害的是它能无缝兼容CUDA生态。这意味着以前用英伟达芯片的工程师,现在换海光的DCU就像换个鼠标一样简单,代码都不用改,这种兼容性大大降低了用户的迁移成本。

海光信息2024年营收直接干到91.62亿,五年暴涨8倍多,这增长速度确实让人刮目相看。除了海光,中科曙光还与寒武纪这样的国产AI芯片龙头合作,寒武纪的产品广泛应用于云端推理与训练场景,为各种AI应用提供芯片级支持。

为什么选择海光GPU?

中科曙光选择海光信息的GPU不是偶然的,这里面有几个关键考量。首先是自主可控的需求,在当前国际形势下,拥有完全自主知识产权的GPU芯片显得尤为重要。海光的深算系列从架构设计到制造工艺都实现了国产化,这确保了供应链的安全稳定。

其次是性能表现。根据公开资料,海光DCU已经成功完成了DeepSeek V3和R1模型与海光DCU的国产化适配,这说明其性能已经能够满足最前沿的大模型训练需求。想想看,连DeepSeek这样的大模型都能跑得动,性能确实不容小觑。

液冷技术的加持

光有好的GPU芯片还不够,散热问题同样关键。中科曙光子公司曙光数创直接甩出“王炸”——第三代C8000浸没液冷解决方案,单机柜功率密度直接干到750kW以上,PUE(能耗效率)降到1.04,比传统风冷省电50%。这种液冷技术对GPU性能的发挥至关重要,因为GPU运行时会产大量热量,如果不能及时散热,就会导致芯片降频,算力大打折扣。

更厉害的是,重庆科学城数据中心用这技术,余热回收能给13万平米房子供暖,相当于救活半个小区的暖气费。这波操作不仅解决了散热问题,还实现了能源的循环利用,确实是一举两得。

全栈布局的优势

中科曙光最厉害的地方在于它的“芯-端-云-算”全栈布局。从芯片到服务器整机,再到云计算服务和算力调度,它几乎覆盖了整个产业链。这种全栈能力让它在市场竞争中占据独特优势。

  • 芯片层面:海光信息的GPU提供算力核心
  • 服务器层面:中科曙光自己生产各种类型的服务器
  • 云端服务:通过曙光智算提供算力租赁和服务
  • 算力调度:实现跨地域的算力资源优化配置

市场表现与应用案例

在实际应用中,中科曙光的算力服务器表现如何呢?从公开信息来看,中科曙光主导全国80%智算中心建设,这个市场份额确实惊人。而且它的液冷技术PUE最低能到1.04,这在行业内绝对是领先水平。

在DeepSeek的应用场景中,中科曙光参与了其杭州训练中心的液冷系统建设,这说明在最重要的AI训练领域,中科曙光的技术已经得到了头部AI公司的认可。

与英伟达的对比

很多人好奇,中科曙光用海光GPU,和直接用英伟达芯片相比,到底差在哪里?从技术层面看,海光DCU最大的优势是兼容CUDA生态,这让它在市场竞争中占据了有利位置。毕竟现在绝大多数AI应用都是基于CUDA开发的,如果完全另起炉灶,用户迁移成本太高。

但海光GPU也有自己的特色功能,比如在某些特定场景下的能效比表现就很出色。而且随着国产芯片技术的不断进步,这个差距正在逐步缩小。

未来发展趋势

展望未来,中科曙光在算力服务器领域的发展前景值得期待。随着AI大模型参数规模越来越大,对算力的需求只会增不会减。中科曙光凭借其全栈布局,在未来的算力竞争中已经占据了有利位置。

“中科曙光旗下的海光信息简直是‘国产之光’!人家的‘深算系列’GPGPU,性能直逼英伟达A100,关键还能无缝兼容CUDA生态。”

从目前的发展态势来看,中科曙光很可能在未来的AI算力市场中扮演越来越重要的角色。特别是在国家大力推进自主可控技术的大背景下,它的发展空间还很大。

内容均以整理官方公开资料,价格可能随活动调整,请以购买页面显示为准,如涉侵权,请联系客服处理。

本文由星速云发布。发布者:星速云。禁止采集与转载行为,违者必究。出处:https://www.67wa.com/141784.html

(0)
上一篇 2025年12月2日 下午12:56
下一篇 2025年12月2日 下午12:56
联系我们
关注微信
关注微信
分享本页
返回顶部