您好,北京世宁达科技有限公司欢迎您
服务热线:010-58711738  0755-26605293
 
 
首页  >  新闻动态  >   行业动态
下一代智能网卡-DPU综述(上)
作者:小编    发布时间:2022-08-01
1、DPU简介及分析
1.1 DPU发展背景与定义
1.1.1 DPU发展背景
      随着数据中心的高速发展,通信能力和计算能力成为数据中心基础设施的相辅相成的两个重要发展方向。若数据中心仅关注计算能力的提升,通信基础设施的提升跟不上,那么数据中心的整体系统性能依然受限,无法发挥出真正的潜力。DPU的提出背景就是应对这些数据量和复杂性的指数级增长。未来,需要将计算移至接近数据的位置,这是目前业界所公认的以数据为中心的体系结构下的创新。综上,DPU对数据中心来说,是通过更明细的分工来实现效率的提升、实现总体系统的成本最优化。
1.1.2 DPU定义及综述

DPU(Data Processing Unit)市场仍处于百家争鸣的早期发展阶段,各家厂商定义略有不同。目前市场上主流的DPU定义是NVIDIA提出的,即DPU是集数据中心基础架构于芯片的通用处理器。它结合了:

1) 行业标准的、高性能及软件可编程的多核CPU,通常基于已应用广泛的ARM架构,与其它的SoC组件密切配合。

2) 高性能网络接口,能以线速或网络中的可用速度解析、处理数据,并高效地将数据传输到GPU和CPU。

3) 各种灵活和可编程的加速引擎,可以卸载AI、机器学习、安全、电信和存储等应用,并提升性能。

4) 具备开放性集成功能,未来支持更多功能集成。例如NVIDIA计划未来在Bluefield-4产品中,将GPU集成至DPU中以完成数据中心的架构的终极整合。

5) NVIDIA DPU的软件开发包DOCA,提供了统一的面向各种应用的编程接口,让用户可以不用关注DPU的底层硬件接口而直接对硬件进行编程。
        DPU的出现实现了以数据为中心的业务和基础设施操作的分离,大幅降低了业务的长尾延时,对于实现安全的、裸性能的、云原生的下一代大规模计算至关重要。
1.2 DPU优势及发展趋势分析
1.2.1 DPU优势分析
(1)DPU实现了业务与基础设施的操作分离
        DPU将基础设施任务从CPU转移至DPU,释放CPU的资源,使更多的服务器CPU核可用于运行应用程序,完成业务计算,从而提高服务器和数据中心的效率。如通过在DPU上运行OVS,使业务域和基础设施域分离,实现VM和VM间的高效安全通信,如图6所示,传统应用场景中会使用CPU来执行OVS操作,其效率较低,消耗CPU核较多,且VM之间的通讯延时较长。Red Hat在部署了DPU后,用DPU来执行同样的OVS操作,其效率大幅提升,几乎不消耗CPU核,VM之间的通讯延时也得到了大幅缩减,大幅减少了长尾延时,从而提升了应用的性能。

(2)DPU卸载网络数据实现性能提升
        DPU针对云原生环境进行了优化,提供数据中心级的软件定义和硬件加速的网络、存储、安全和管理等服务。如图7所示,红帽Red Hat的容器化云平台即服务(PaaS)OpenShift上,借助DPU优化数据中心资源利用率,将网络相关的数据处理(如VxLan和IPSec等)卸载到DPU加速执行,在25Gb/s网络条件下,OpenShift部署DPU用来加速,可以只用1/3的CPU占用了来达到25Gb/s性能,而在100Gb/s网络条件下,未部署DPU的场景将达不到100Gb/s网络线速,DPU可以带来10倍的性能优势。

(3)DPU可以提供零信任安全保护
        零信任(Zero Trust)是一种以安全性为中心的模型,其基于以下思想:企业不应对其内外的任何事物授予默认信任选项。零信任可以减少数据泄露、拒绝未授权的访问,因此在数据安全方面价值巨大。DPU可以为企业提供零信任保护,通过将控制平面由主机下放到了DPU,实现主机业务和控制平面的完全隔离,数据将无法进行穿透,保证安全性。DPU的出现相当于为每个服务器配备了一台“计算机前的计算机”以提供独立、安全的基础设施服务,并与服务器应用域安全隔离。如果主机遭受入侵,安全控制代理与被入侵主机之间的DPU隔离层可防止攻击扩散至整个数据中心。这样DPU就解决了企业不愿直接在计算平台上部署安全代理的情况。通过在完全隔离于应用程序域的DPU上部署安全代理,企业不仅能获得对应用程序工作负载的可见性,还能在其基础设施中执行一致的安全策略。
(4)DPU助力实现“算存分离”
        DPU的BlueField SNAP技术方案通过在服务器系统的数据入口处引入计算资源,在DPU上独立实现面对应用需求的存储方案,帮助存储厂商在数据中心中低成本地灵活部署、升级高级存储协议,而完全不需要对现有软件栈进行任何更改。存储厂商可以把自家团队为各行业应用开发的开放系统的直连式存储(DAS)、纵向扩展(Scale-UP)、横向扩展(Scale-OUT)、超融合架构(Hyperconverged)等存储解决方案,零开销地推广到各个应用领域的现有业务处理平台和数据中心基础架构中,而所有的安全加密、数据压缩、负载均衡等复杂又必须的功能则完全由DPU透明地卸载。存储行业的革新算法和实现,可以在DPU架构中,独立于服务器操作系统进行部署。DPU技术帮助存储厂商实现真正的“算存分离”,完全发挥自家产品的技术优势,打通最高效服务应用需求的通路。
5.2.2 DPU技术发展趋势分析
         目前DPU以数据为中心作为计算架构,能针对数据中心的安全、网络、存储、AI、HPC等业务进行加速。从DPU概念的提出者NVIDIA的现有技术发展趋势来看,未来的技术发展趋势将会是高度集成化的片上数据中心的模式(Data Center Infrastructure on a chip),即一个GPU、CPU、DPU共存的时代。NVIDIA布局的数据中心从核心到边缘(Edge)都采用了统一的一个计算架构——CPU、GPU、DPU,如图所示,形成了“3U”一体架构。3U一体的统一计算单元架构将会让管理程序、调度程序都会变得非常容易。通过CPU、GPU、DPU之间的协调计算,可以在数据中心和边缘端都可以达到高性能与高安全性。


1.3 NVIDIA BlueField-3 DPU产品定位及优势分析
1.3.1 BlueField-3 DPU产品简介
       现代超大规模云技术推动数据中心走向了新的架构,利用一种专门针对数据中心基础架构软件而设计的新型处理器,来卸载和加速由虚拟化、网络、存储、安全和其它云原生AI服务产生的巨大计算负荷,这种产品即BlueField DPU系列。NVIDIA 创始人兼首席执行官黄仁勋表示:“现代超大规模云正在推动数据中心的新架构。需要一种旨在处理数据中心基础设施软件的新型处理器来卸载和加速虚拟化、网络、存储、安全和其它云原生AI服务的巨大计算负载。BlueField DPU的时代已经到来。”如表3所示,BlueField DPU系列产品优势有:从外围设备到服务器都具备安全性、适用不断扩展的工作负载的数据存储、高性能且高效的网络、软件定义的基础架构等。



      NVIDIA的BlueField DPU产品发展路线图如图所示,包括了已有的二代产品BlueField-2,目前即将面世的首款达400Gb/s速度的BlueField-3 DPU,以及未来整合了NVIDIA GPU功能,可达800Gb/s的BlueField-4 DPU。
      BlueField-3 DPU是首款达400Gb/s为AI和加速计算而设计的DPU,助力各企业在任何规模的应用上都能实现业内领先的性能和数据中心的安全性。一个BlueField-3 DPU所提供的数据中心服务可相当于多达300个CPU核才能实现的服务,从而释放宝贵的CPU资源来运行关键业务应用。这款DPU针对多租户、云原生环境进行了优化,提供数据中心级的软件定义和硬件加速的网络、存储、安全和管理等服务。

本文内容转载自:csdn网站的云原生专栏,版权归原作者所有,如有侵权请及时联系删除。


地址:北京市海淀区永丰产业基地新材料大厦A座504室
           深圳市南山区科技北二路16号赛霸电子507室
           湖北省武汉市汉阳区汉阳大道36号
电话:010-58711738  0755-26605293
传真:010-58711739-606  0755-26608673