科普:火遍全网的DPU到底是什么
无论你是否从事ICT行业,在过去的两年里,有一个词你一定听过,那就是DPU。
DPU作为一种全新的科技概念,正以惊人的速度崛起,成为全行业乃至全社会关注的焦点尤其是在投资领域,DPU简直是被人追,被视为未来颠覆行业的潜在技术
DPU到底是什么它和我们熟悉的CPU,GPU有什么区别
今天,小枣君将带您深入了解DPU的来龙去脉。
什么是DPU。
DPU的全英文名字叫数据处理单元,也就是数据处理器。
英伟达CEO黄仁勋曾在演讲中表示,DPU将是未来计算的三大支柱之一,未来数据中心的标准将是‘CPU+DPU+GPU’CPU用于通用计算,GPU用于加速计算,DPU用于数据处理
听起来有点晕DPU做哪种数据处理有了CPU和GPU,为什么还需要DPU
众所周知,著名的冯·诺依曼架构自计算机诞生以来就一直被采用。
冯·诺依曼建筑
这种架构基于计算和存储作为处理器单元,CPU负责各种算术和逻辑计算内存和硬盘负责存储数据和与CPU交互
除了CPU,内存,硬盘,就是键盘,显示器等输入输出设备久而久之,后来,我们有了鼠标,有了显卡,有了网卡最终形成了我们现在看到的计算机的基本结构
有了显卡,就有了GPU和图形处理器大家都玩过游戏,很清楚伴随着游戏,3D设计等多媒体图形软件的飞速发展,要处理的工作量越来越大,CPU真的不堪重负所以有一个专门做图像和图形相关运算的GPU来分担CPU的压力
DPU的出现也是如此还有就是因为CPU承受不了一些复杂的计算,所以需要划分任务
dpu到底是什么
好了,终于到了关键点聊了半天,DPU分享的是什么CPU工作
说实话,从技术上解释DPU分享的作品有点困难,也不容易理解但是,我们可以从工作场景来解释
总的来说,DPU分享的工作可以归纳为四个关键词,分别是虚拟化,网络,存储和安全。
特别是,我们需要提醒您,DPU是一个与数据中心紧密相关的概念也就是说,它主要应用于数据中心等大型计算场景,而不是我们的台式机,笔记本电脑或手机
DPU服务于云计算,主要功能是提高数据中心等计算基础设施的效率,减少能源消耗和浪费,进而降低成本。
上面说的虚拟化,网络,存储,安全是数据中心非常重要的工作,也是消耗大量计算资源的工作。
以网络为例。
在数据中心,每时每刻都有大量数据在传输主机收发数据时,需要海量的网络协议处理按照传统的计算架构,所有这些协议都是由CPU处理的
据统计,以线速处理10G网络需要4核左右的至强CPU也就是说,仅网络数据包的处理就要占用8核CPU的一半现在数据中心网络不断升级,从10G到40G,100G,甚至400G,这些性能成本如何承担
这些费用如此之大,以至于被称为数据中心税。
在业务运行之前,仅仅通过访问网络数据就消耗如此多的计算资源,这是无法忍受的因此,一些公司提出了SmartNIC的概念,将网络协议处理的工作从CPU卸载到网卡上,以分担CPU的负载
2015年,云计算厂商AWS率先探索了这种SmartNIC模式他们收购了芯片制造商Annapurna Labs,并于2017年正式推出Nitro system同年,阿里云也正式公布了类似功能的神龙架构
2019年3月,英伟达斥资69亿美元收购以色列芯片公司Mellanox英伟达将Mellanox的ConnectX系列高速网卡技术与自身现有技术相结合,于2020年正式推出两款DPU产品:BlueField—2 DPU和BlueField—2X DPU
从此,DPU的概念正式进入公众视野2020年,也被称为DPU元年
因为DPU和SmartNIC有这样的历史,所以人们普遍把DPU看作是SmartNIC的延伸和升级版。
在SmartNIC的基础上,DPU将存储,安全和虚拟化工作负载从CPU卸载到自身。
90年代末,以VMWare为代表的虚拟化技术刚出现的时候,完全是软件模拟,缺乏硬件的支持,所以性能很差,几乎难以使用。
后来在2005年,伴随着技术的演进,逐渐解决了CPU和内存的硬件虚拟化问题,大大提高了虚拟化系统的性能,激活了这项技术的发展前景和价值众所周知,我们目前的云计算架构是基于虚拟化技术开发的
虚拟化技术的发展是一个硬件能力不断取代软件能力的过程我们之前提到过AWS发布了Nitro system除了SmartNIC,该系统还完成了I/O的硬件虚拟化..它还将虚拟机管理程序从CPU转移到专用硬件这样一来,虚拟化技术的性能损失趋近于零,CPU的负担进一步减轻
存储也是如此。
如今,数据中心需要高速的存储读写在SSD价格逐渐下降后,通过本地PCIe或高速网络将SSD连接到系统成为主流技术路线对于分布式系统,在InfiniBand,FC和以太网的基础上,RDMA技术开始流行
在RDMA模式下,应用程序的数据直接与网卡通信,不经过CPU和复杂的操作系统这意味着DPU可以承担存储相关的高速接口标准协议处理,进一步为CPU分担压力
最后看安全性。
目前,在日益严峻的安全形势下,为了保证网络和系统的安全性和可靠性,大量的加密算法被引入以前这些算法都是CPU加解密的
但实际上,网络界面才是理想的隐私边界在网络接口上加密解密是最合理的因此,国家机密标准的非对称加密算法SM2,哈希算法SM3和对称分组密码算法SM4实际上可以交给DPU计算未来区块链技术应用成熟后,相关算法也可以从CPU卸载到DPU
综上所述,你也应该明白,DPU的本质是卸载,加速,隔离——把CPU的部分工作卸载给自己,利用自己的计算能力来加速这些任务,在整个过程中,实现了计算的隔离。
dpu的未来前景
DPU是一款新型可编程多核处理器和SoC芯片符合行业标准,计算能力高,具有高性能的网络接口,能够高速分析处理数据,高效的将数据传输到CPU和GPU
DPU和CPU最大的区别是CPU擅长一般的计算任务,而DPU更擅长基础层应用任务,比如网络协议处理,交换路由计算,加密解密,数据压缩等等。
因此,DPU是CPU的好帮手,将与CPU,GPU形成铁三角,彻底颠覆数据中心的计算模式。
这就是为什么DPU如今备受关注。
正如本文开头所述,DPU目前的受欢迎程度已经无法用语言来形容了对首都DPU的热情更加令人印象深刻巨头和初创企业都进入了DPU赛道DPU市场仍在升温,发展前景看好
以英伟达为例继BlueField—2 DPU和BlueField—2X之后,2021年4月,NVIDIA发布了新一代数据处理器——blue field—3 DPU
蓝田—3 DPU
这是第一个为人工智能和加速计算设计的DPU它针对多租户和云原生环境进行了优化,并提供数据中心级软件定义和硬件加速的网络,存储,安全和管理服务
据说,一个BlueField—3 DPU提供的数据中心服务,可以相当于多达300个x86内核才能实现的服务这释放了大量CPU资源来运行关键业务应用程序
想要在现代数据中心发挥DPU的核心价值,离不开软件的加持换句话说,没有软件的芯片只是昂贵的沙子
为了建立一个更强大的DPU生态系统,英伟达推出了一个软件开发平台——Nvidia Doca,这是为DPU蓝田公司量身定制的。
DOCA的全称是片上数据中心基础架构,即在线数据中心基础架构在DOCA的帮助下,开发者可以通过使用行业标准的API,在英伟达BlueField上快速创建网络,存储,安全和管理服务,以及AI/HPC的一系列应用和服务
2022年5月,英伟达发布了DOCA 1.3该版本不仅增加了121个API开发接口,还增加了DOCA流库,通信通道库,正则表达式库和基于OVN的数据路径加密等功能它还增加了HBN等服务,这在开发者中很受欢迎
DOCA的建筑1.3
最近几天,英伟达发布了DOCA 1.4,支持DPU固件升级,无需重启主机它可在蓝田—2 DPU 25G安培,100G w/BMC产品支持32GB DDR内存,增加主机支持AArch64服务器,基于最长前缀匹配流水线的路由功能
借助1.4版本,开发者可以更加灵活,简单,快捷地在BlueField DPU上进行开发环境,从而快速推出新产品。
结论
据预测,到2025年,DPU的全球市场容量有望达到120亿美元。
伴随着摩尔定律逐渐进入瓶颈,为了更高效的利用计算资源,我们需要大力发展DPU,让CPU,GPU,DPU合理分工,让他们更专注于自己擅长的工作这样才能最大限度的发挥数据中心的能效,为全社会的数字化转型提供强大而绿色的动力
郑重声明:此文内容为本网站转载企业宣传资讯,目的在于传播更多信息,与本站立场无关。仅供读者参考,并请自行核实相关内容。