携手UALink,阿里云磐久AI Infra 2.0服务器亮相2024 OCP全球峰会
2024/10/23 16:58:43
10月15日-17日,一年一度的开放计算全球峰会(OCP Global Summit)在美国加州圣何塞(San Jose)召开,本次峰会以“从创新到影响力(From Ideas to Impact")”为主题盛大开幕,吸引全球7000多位基础设施软硬件技术和应用领域的专业人士参会。作为全球具影响力的的基础设施和开放计算领域标志性盛会,特别是在今年OCP基金会重磅宣布其人工智能开放系统战略计划后,2024 OCP全球峰会上专门设置人工智能特别关注议程(Special Focus Tracks),重点推动AI基础设施领域的技术生态建设。
阿里云服务器研发总监文芳志受邀和UALink联盟主席Kurtis Bowman联合发表了题为《UALink: Pioneering the AI Accelerator Revolution》的演讲,重点阐述了AI服务器Scale UP互连技术领域的发展趋势,UALink标准的路线图,UALink联盟和ALink System产业生态未来的合作潜力,以及阿里云磐久 AI Infra 2.0服务器的落地实践思路。
行业领先的AI芯片、服务器和CSP厂商联合发起的UALink协议,将是一项彻底改变AI服务器Scale UP互连技术生态系统的行业新标准。相比较以太网联盟 (UEC) 的协议标准专注于Scale out扩展能力,UALink协议凭借高性能内存语义访问的原生支持、显存共享,支持Switch组网模式,以及高带宽、低时延能力等性能优势,正在迅速构建起一个AI服务器Scale UP互连技术的开放生态。按照计划,UALink联盟将于10月底正式成立并开始吸纳成员加入,并在年底对外发布第一版UALink spec。
UALink标准作为目前具潜力的AI服务器Scale UP互连开放标准,如何在业界特别是在中国市场落地实践是一个巨大挑战,ALink System(ALS)产业生态应运而生。ALS提供具备性能竞争力和统一标准的互连系统,包括ALS-D数据面和ALS-M管控面两个主要组成部分,为AI训推场景提供丰富的能力和特性支持。
ALS-D将支持UALink国际标准,形成极具性能竞争力的数据面方案。当前以推理和训练场景为主的AI应用,在Scale Up网络上具有并行切分算法、大显存共享、GPU多核内存语义编程等多种显著特点。ALS-D数据面互连采用UALink协议,除了原生支持高性能内存语义访问、显存共享,支持Switch组网模式,性能上具备高带宽、低时延能力外,还增加定义了在网计算等特性。
ALS-M可以为不同芯片方案提供标准化的接入方案,符合规范的设备均可灵活接入应用方系统。无论是对开放生态还是厂商专有互连协议,ALS使用统一的软件接口。同时,ALS-M为云计算等集群管理场景,提供单租、多租等灵活和弹性的配置能力。
正是遵循ALink System的规范,阿里云自主设计了面向下一代大规模AI集群的磐久AI Infra 2.0服务器,贯穿了开放生态、高能效、高性能和高可用的设计理念。AI Infra 2.0服务器开放性地定义了AI计算节点和Scale Up/Scale Out互连系统,可以在统一的硬件架构下支持业界主流AI方案,引领AI领域的“一云多芯”。
互连系统ALink System全面兼容国际标准UALink生态,可以与行业伙伴开放共建高性能、大规模的Scale UP集群互连能力,一级互连64-80个节点,二级互连可达2000以上节点,提供了PB级共享显存和TB级互连带宽。
AI计算节点内集成阿里自研CIPU 3.0芯片,既能支持高带宽大规模AI服务器实现Scale Out网络扩展,又能兼顾云网络弹性、安全的要求。
硬件工程方面,AI Infra 2.0服务器单机柜可以支持大80个AI计算节点,业界密度高;在业界率先采用400V PSU,单体供电效率可达98%,整体供电效率提高2%。在散热设计上,机柜级液冷方案可以根据实际负载动态调整CDU冷却能力来降低能耗,单柜冷却系统节能30%。最后,在运维管理上,全新的CableCartridge后维护设计,支持全盲插,零理线易
下一页
返回列表
返回首页
©2024 云计算世界-云计算资料和交流中心 电脑版
Powered by iwms