当前位置:首页 > 投融资 > 产业 > 科技前沿 > 正文

腾讯发布新一代超强算力集群:面向大模型训练,性能提升3倍

来源:IT之家 发布时间: 2023-04-14 16:17:02 编辑:夕歌

导读:腾讯云发布了新一代HCC高性能计算集群,采用最新一代星星海自研服务器,搭载英伟达H800TensorCoreGPU。

IT之家4月14日消息,IT之家从腾讯官方获悉,腾讯云发布了新一代HCC高性能计算集群,采用最新一代星星海自研服务器,搭载英伟达H800TensorCoreGPU。

腾讯官方称,该集群基于自研网络、存储架构,带来3.2T超高互联带宽、TB级吞吐能力和千万级IOPS。实测结果显示,新一代集群算力性能较前代提升3倍。

去年10月,腾讯完成首个万亿参数的AI大模型——混元NLP大模型训练。在同等数据集下,将训练时间由50天缩短到11天。如果基于新一代集群,训练时间将进一步缩短至4天。

计算层面,服务器单机性能是集群算力的基础,腾讯云新一代集群的单GPU卡在不同精度下,支持输出最高1979TFlops的算力。

针对大模型场景,星星海自研服务器采用6U超高密度设计,相较行业可支持的上架密度提高30%;利用并行计算理念,通过CPU和GPU节点的一体化设计,将单点算力性能提升至更高。

网络层面,计算节点间,存在着海量的数据交互需求。随着集群规模扩大,通信性能会直接影响训练效率,需要实现网络和计算节点的最大协同。

腾讯自研的星脉高性能计算网络,号称具备业界最高的3.2TRDMA通信带宽。实测结果显示,搭载同等数量的GPU,3.2T星脉网络相较1.6T网络,集群整体算力提升20%。

同时,腾讯自研的高性能集合通信库TCCL,融入定制设计的解决方案。相对业界开源集合通信库,为大模型训练优化40%负载性能,消除多个网络原因导致的训练中断问题。

存储层面,大模型训练中,大量计算节点会同时读取一批数据集,需要尽可能缩短数据加载时长,避免计算节点产生等待。

腾讯云自研的存储架构,具备TB级吞吐能力和千万级IOPS,支持不同场景下对存储的需求。COS+GooseFS对象存储方案和CFSTurbo高性能文件存储方案,充分满足大模型场景下高性能、大吞吐和海量存储要求。

此外,新一代集群集成了腾讯云自研的TACO训练加速引擎,对网络协议、通信策略、AI框架、模型编译进行大量系统级优化,大幅节约训练调优和算力成本。

腾讯混元大模型背后的训练框架AngelPTM,也已通过腾讯云TACO提供服务,帮助企业加速大模型落地。

通过腾讯云TI平台的大模型能力和工具箱,企业可结合产业场景数据进行精调训练,提升生产效率、快速创建和部署AI应用。

依托分布式云原生的治理能力,腾讯云智算平台提供16EFLOPS的浮点算力。