首页 KU体育 >新闻资讯 校园风采 KU体育app
解决普惠算力问题!国产AI算力生力军中诚华龙HL系列国产AI芯片已发布
2025-11-28

AI浪潮席卷全球,算力成为数字经济高质量发展的主要引擎。附带的计算能力是激活这台机器的主要因素之一。只有通过有效的技术优化、成本控制和高效的资源调度,算力才能摆脱“高门槛”的障碍,让更多用户享受算力红利。但从目前的现实来看,国产算力芯片在技术性能、控制控制、生态适应等方面与国际先进水平还存在较大差距。高算力和适配成本仍然是制约nuser ego数字化转型的主要障碍。中国实现算力完全自主还需要经历一个过程。值得注意的是,国内算力芯片公司中诚华龙近期推出了HL系列AI芯片,定位为国家高端训练及综合集成产品。搭载自主研发的新一代GPGPU+NPU融合架构,集成大容量存储和多精度混合计算能力,覆盖全场景计算单元。生态系统广泛兼容CUDA,全面适配主流模型和传统模型。其以更高的算力、更高的能效比、更低的成本成为国内计算芯片市场的生力军。更重要的是,据中城华龙介绍,其供应链完全基于Chmother,实现了供应链的独立,其产品更加有效。对于大多数用户来说,在AI转型中会更加方便地获得算力的支持。性能:第一代H20产品标杆,效果更佳。获得AI算力芯片。计算能力规格往往是人们关注的第一点。随着模型参数规模从千亿级跃升至万亿级,行业对计算基础设施的需求进入“高算力、大内存、强扩展性”的三重升级。无论是千亿参数的大型模型的全调优,还是多模态交互场景的实时识别,都对芯片的计算密度和数据吞吐能力提出了严格的要求——前者需要足够的算力来缩短训练周期,后者则依靠大内存和高带宽来最大限度地减少响应延迟。 NVIDIA等国际大厂将通过架构的迭代继续主导市场。 H20芯片是基于漏斗架构构建的。 FP16算力达到296TFLOPS,配备96GB显存,适应大规模数据和模型需求元素。推出初期,凭借CUDA的生态优势称霸国内市场,被各云服务厂商(CSP)、通信公司等抢购。国产算力芯片虽然不少,但真正在单卡性能上能与H20相媲美的却寥寥无几。发布会信息显示,中诚华龙推出的HL100 AI芯片是第一代HL系列产品。 FP16芯片的计算能力高达256 tflops,并配备LPDDR5显存。单核支持128GB超大容量,显存容量为H20的1.33倍。中诚华龙HL100的能效比达到3.41tflops/w。同等功耗下,其算力是H20的8倍;同等算力下,总拥有成本(TCO)是H20的1/4。这样的业绩得益于中城华龙自主研发的d GPGPU+NPU融合架构。据了解,该架构将通用计算能力(GPGPU)与AI处理专用单元(NPU)深度耦合。既保持了通用计算的灵活性,又通过NPU硬件层面提升了执行AI任务的效率。考虑到通用计算的灵活性和AI计算的效率。在执行AI任务时,它可以适应不同的情况,具有更高的算力密度和更低的延迟。在扩展性方面,HL100还构建了“单机多卡-多机多节点”的灵活组网方案。通过高速互联技术部署集群级千卡,可以充分支撑企业在培训和推广场景的需求。可以说,这种架构设计从研发上来说更符合国内企业的全流程算力需求。rch 和开发到实施。生态:兼容CUDA,大幅降低迁移成本。当AI芯片性能达到行业基线时,生态适应能力成为用户选择的关键决策变量之一。对于企业来说,现有AI资产的迁移成本直接决定了技术升级的效率:如果芯片与主开发环境不兼容,不仅需要投入额外的研发人力重新开发代码,还可能因适应期较长而错过业务窗口。尤其是对于一些技术储备有限的用户来说,兼容主流框架、降低适配成本已经成为必须的选择。由于NVIDIA CUDA平台已经构筑了坚实的护城河,兼容CUDA平台成为AI计算芯片领域现实的选择,也是正确的选择。中城华龙采用了n 兼容与创新的生态策略。首先兼容主流生态,降低迁移成本,然后逐步构建自己的生态,为用户提供低成本的迁移解决方案。中城华龙HL系列AI芯片搭载自主研发的软件栈,对底层算力进行深度优化。它采用Pytorch原生推理技术,兼容Tensorflow、Flying Paddle等主流开发框架。运行基于推理引擎的ONNX格式模型,无需芯片适配,大大减少应用适配工作,缩短应用上线周期。在场景适配方面,众成华龙HL系列AI芯片已完成200余种大型模型的适配,全面覆盖主要大型模型和传统AI模型,并针对感知场景进行深度优化,部署后即可使用。其良好的c兼容性得到客户认可。某领先的AI视觉公司汇报了适配情况并表示,“中城华龙的软件栈是类似CUDA的架构,符合我们的使用习惯:兼容模型应用层、机器学习层和算子层,灵活性高,非常容易调优。”成本:控制TCO,真正实现普惠算力。随着人工智能技术从试点验证走向大规模落地,算力成本正成为制约企业推动大规模模型落地的主要瓶颈之一。而且,当前市场对AI芯片的需求并不意味着对“单一硬件价格”的考虑,而是注重整个生命周期的总拥有成本(TCO)。这包括芯片采购价格、能耗、散热、维护适配和扩展成本等诸多因素。即使很多用户企业都单一的硬件投入,长期运维的高能耗是生态适应的隐性成本,但AI应用仍能维持在测试阶段。只有真正降低TCO,才能真正将算力从概念提升到大规模落地。虽然之前有一些国产芯片试图以低价进入市场,但由于没有真正降低TCO,所以并不能真正解决用户的电量负担问题。据记者了解,在硬件方面,众诚华龙HL100依托全国供应链,打造国内一站式服务能力,构建独立、安全、可靠的软硬件一体化生态系统。这不仅避免了进口芯片的关税、运输、供应链波动等风险,还大大降低了流片成本,采用先进工艺保证了制造性能。成熟的工艺技术(而不是盲目追逐最先进的技术),使其更具成本效益。据测算,同等算力下,总拥有成本(TCO)是H20的1/4。在购置和运营维护成本方面,HL100也具有多项优势。 HL100的能效比为3.41TFLOPS/W,而H20的能效比为0.42TFLOPS/W,即HL100的能效比是H20的8倍。也就是说,在相同功耗下,HL100可以提供H20的8倍计算能力,同时节省87%的电力成本。如果放置一个千卡集群,可以为企业在能耗和冷却方面节省大量成本。此外,中城华龙还致力于发展“芯片+整机+解决方案”的全栈能力。一般来说,AI服务器中GPU成本占比通常达到80%以上整个服务器的硬件成本。 HL100直接搭载自有服务器,并已完成预测试、预适配等步骤,可以省去向外部厂商支付“芯片溢价”的需要,同时避免企业投入额外的适配人力,降低隐性成本。基于以上方面,众成华龙HL100及系列智能计算产品才能真正实现“性能不妥协、成本更可控”的普惠算力价值。路线图:持续升级,提供算力长期保障。中城华龙还在发布会上透露了清晰的产品路线图。 HL系列培训和推广是集成的AI芯片。除了此次发布的HL100外,该公司还在开发HL200(2026Q4)、HL200Pro(2027Q3)、HL400(2028Q4)等多代产品。如果HL100的目的是与国际水平相当主要产品;新一代产品针对的是更高层次的需求。从目前披露的信息来看,HL200、HL200Pro、HL400原生支持FP8/FP4,对标国际主流AI芯片性能,充分满足下一代生成式AI的训练和推理需求。下一代系列产品将有效减轻显存压力,支持更大型号,在算力和显存方面达到甚至超过国际旗舰GPU产品的指标水平。随着人工智能快速走向多模态、代理模型,模型参数规模不断分解,对算力的需求呈现步步增长。企业用户对AI芯片的需求不再局限于“立即可用”,更关注厂商能否提供长期的差异化能力和全链路支持。换句话说,有必要保证芯片性能在未来1到3年内能够保持型号升级的速度,避免因硬件、软件、部署环节分离而增加适配成本。这种长期需求的增加使得计算芯片公司不仅要争夺当前的产品性能,还要争夺“未来”,包括路线图规划能力和全栈解决方案集成能力。从中城华龙此次披露的产品路线图来看,从HL100到HL200、HL200Pro、HL400的迭代路径可以匹配下一代生成式AI对更强算力、更大内存带宽、更高性价比的需求。人工智能时代,竞争不再局限于芯片性能,而是软件生态、易用性、全栈解决方案等综合实力的竞争。普惠算力不仅仅是简单意义上的低价,而是综合竞争成本效益、适应生态学和一般解决方案的离子。作为AI算力的生力军,中诚华龙在性能对标、有效打造、全栈解决方案落地三个方面满足当前市场需求。可以说,获得了有利的新起点。我们希望中诚华龙能够继续保持这一发展趋势,为广大用户企业提供实用的国产算力选择。 特别声明:以上内容(如有则包括照片或视频)由自媒体平台“网易号”用户上传发布。本平台仅提供信息存储服务。 注:以上内容(包括图片和视频,如有)由网易HAO上传发布,网易HAO为社交媒体平台,仅提供信息存储服务。

Copyright © 2024-2026 蘑菇吃瓜料每日爆料-蘑菇吃瓜官网黑料爆料-58爆料网每日精选最新消息 版权所有

网站地图

鄂ICP备36659856号

友情链接: