<small id='JLk9mF'></small> <noframes id='E1kuHcLz'>

  • <tfoot id='nsro'></tfoot>

      <legend id='TusCRJ'><style id='7gfAOiu'><dir id='rj5ien6OA'><q id='KdRO9wMx'></q></dir></style></legend>
      <i id='fa5S'><tr id='R2WyuFD'><dt id='jIETr'><q id='Df0CFxRG'><span id='J3UbXL'><b id='jOhV'><form id='vklLsC'><ins id='sbOD9'></ins><ul id='qBRhoKjaT'></ul><sub id='A5Ng6M'></sub></form><legend id='JwjsLpB'></legend><bdo id='3mRiAfst'><pre id='01YOx'><center id='qGdJpw'></center></pre></bdo></b><th id='AtYC8i'></th></span></q></dt></tr></i><div id='XcQuWZI'><tfoot id='t7HLCdkB'></tfoot><dl id='RrbWMcP1N'><fieldset id='kgp5WSnT7'></fieldset></dl></div>

          <bdo id='mAI5sHW'></bdo><ul id='DEbap'></ul>

          1. <li id='GquNcD'></li>
            登陆

            原创NVIDIA集成AI超算中心经历,打造AI安排妥当型数据中心

            admin 2019-08-04 291人围观 ,发现0个评论

            传统数据中心向人工智能(AI)转型已是大势所趋。

            一方面,从智能客服、智能安防、智能风控、智能运维到智能质检,更加丰厚的智能化运用致使存储需求呈现指数级增加,并对数据中心的算力提出新的应战。

            另一方面,AI 正打破传统数据中心的办理和运营形式,完结更为精准的体系调优、毛病预判等使命,代替更多人力,削减能耗和资源糟蹋,更大程度开释生产力。

            作为 AI 年代的根底设备,原创NVIDIA集成AI超算中心经历,打造AI安排妥当型数据中心AI 硬件正成为越来越多数据中心扩容建造的关键所在。尤其是动力、银行、稳妥、制作、电信、医疗等重度存储用户,急需加快 AI 的根底架构计划。

            当超强核算力成为数据中心的刚需,NVIDIA GPU 凭仗强壮的并行核算和浮点才能突破了深度学习的算力瓶颈,成为 AI 硬件的首选。

            但是,关于许多传统数据中心而言,布置包含 AI 硬件的根底设备,需求消耗许多原创NVIDIA集成AI超算中心经历,打造AI安排妥当型数据中心时刻与人力。

            对此,NVIDIA 根据 GPU 软硬件生态体系,供给了一站式交给节点解决计划 DGX POD。

            这一计划能够大大节约构建根底设备所花费的时刻,协助数据中心轻松快速进行 AI 布置,为扩展多 GPU 服务器节点供给更多支撑。

            本期的智能内参,咱们引荐《NVIDIA DGX POD 数据中心参阅规划》白皮书,从传统数据中心的 AI 转型之困着手,结合 DGX POD 的运用实例,解读 NVIDIA DGX POD 交给节点的中心亮点,为亟待快速转型 AI 的数据中心架构师,以及预备构建 AI 安排妥当型数据中心供给参阅。如需查阅此白皮书《NVIDIA DGX POD 数据中心参阅规划》,可直接点击:NVIDIA DGX POD 数据中心参阅规划白皮书 - 白皮书下载 - 英伟达AI核算专区 - 智东西下载。

            以下为智能内参收拾呈现的干货:

            数据中心 AI 转型遭受困局

            大数据、AI 与云核算等新式技能卷起新的浪潮,在各类数据中心中构成连锁反应。海量数据处理使命涌入数据中心,面临人工智能运用的练习和推理,令传统的CPU 服务器难以招架。

            深度学习算法归于核算密集型算法,与 NVIDIA GPU 核算架构十分符合。曩昔 CPU 需求花数十天完结的核算使命,通用 GPU 只用几小时就能完结,这大幅提高深度学习等并行处理数据办法的核算功率,使得以 GPU 为根底的设备日渐成为各大数据中心进行深度学习练习的首选。

            但是,即使布置了强壮的硬件设备,也不意味着数据中心的 AI 转型计划就万事俱备了,还有一个关键问题摆在眼前——架构规划。

            数据中心需求考虑的要素远不止算力,还需统筹网络、存储、电源、散热、办理和软件等方面问题。

            硬件组合不是简略粗犷的积木堆叠,并不是说核算节点越多,功用就会随之线性增加。其核算功用会受制于高速互联网络,一旦呈现数据拥堵,国家开发银行生源地助学贷款系统整机体系的功率都或许被连累。别的,过多核算硬件堆叠,或许导致功耗过大,不利于日后的运营。

            因而,数据中心有必要考虑怎么打造了降本增效的最佳办法,将各种硬件资源协同组合,在安稳安全的状态下,以超低推迟和高带宽拜访数据集。

            这关于缺少 AI 布置经历的传统数据中心而言,无疑是个不小的应战。假如 DIY GPU 核算节点,不只需求消耗人力和时刻本钱,还要考虑核算、存储、交流机等各种硬件设备的集成兼容问题。

            关于这一痛点,NVIDIA 供给了一个颇有吸引力的解决计划。

            它经过与抢先的存储、网络交流技能供给商协作,供给一系列 DGX POD 数据中心交给节点规划参阅架构,将 NVIDIA 长时间堆集的超大规划数据中心 AI 布置经历,转化为可仿制计划,无论是大中小型数据中心,均能够直接参阅运用。

            NVIDIA AI 超级核算机构建经历转化

            DGX POD 交给节点(Point of Delivery)是一种经优化的数据中心机架,包含多台 DGX-1 或 DGX-2 服务器、存储服务器和网络交流机等最佳实践。

            ▲ DGX POD 参阅架构正面图

            这是 NVIDIA 构建许多超大规划 GPU 加快核算节点的经历之集大成者。NVIDIA 曾建立了大型的 AI 数据中心,包含数千台抢先的 DGX 服务器加快核算节点。

            本年6月,NVIDIA 宣告推出全球速原创NVIDIA集成AI超算中心经历,打造AI安排妥当型数据中心度排名第22位的超级核算机 DGX SuperPOD,为企业快速布置主动驾驶轿车项目,供给平等巨细的超算无法对抗的 AI 功用。

            SATURNV 亦是 NVIDIA 根据 DGX 体系构建的 AI 超级核算机,支撑主动驾驶轿车、机器人、显卡、HPC 等多范畴的 NVIDIA 内部 AI 研制。早在2016年推出之际,DGX SATURNV 就登上 Green 500 超算榜榜首,被评为全球最经济高效的超算,全体运算速度位列第28位,是最快的 AI 超算。

            根据运用 SATURNV 所遵从的规划准则和架构,NVIDIA 在短短三周内就打造出一套根据 NVIDIA DGX-2 装备的全新体系 DGX SuperPOD。近期 NVIDIA 凭借一套根据 DGX-2 的装备在 MLPerf 基准测验中创下六项 AI 功用记载。

            在将 DGX SATURAN 打造成一切企业都可仿制的、经历证的规划过程中,NVIDIA 经过实地查验堆集了丰厚的经历,并将核算、网络、存储等多方面的最佳实践,集中于 NVIDIA DGX POD 的规划之中。

            现在,包含 Arista、思科、DDN、Dell EMC、IBM Storage、Mellanox、NetApp 和 Pure Storage 等在内的业界数据中心领导者已环绕 DGX POD,推出了根据其各自特有技能的相关产品。

            这些集成体系均为客户供给经过经历验证的牢靠办法,这意味着,每个企业都能量身定制彻底适配本身需求的 AI 超算中心。

            例如,根据 DGX POD,NetApp 推出了 NetApp ONTAP AI 交融根底架构。其由 NVIDIA DGX-1 服原创NVIDIA集成AI超算中心经历,打造AI安排妥当型数据中心务器、 NetApp 云互联存储体系供给支撑,是 NVIDIA 和 NetApp 联合开发和验证的架构。

            凭借这一架构,企业能够从小规划起步进行无缝扩展,智能办理跨边际、中心和云以及反向数据传输的完好深度学习数据管道,简化 AI 布置。

            环绕 NVIDIA DGX POD 参阅架构和 NetApp ONTAP AI,英国剑桥咨询公司构建了一套专门的 AI 研讨设备,用于练习一个能立刻精确辨认各种音乐门户的 AI “疯狂爱好者”。

            凭借参阅结构,其 AI 项目所带来的对核算、存储、网络设备的需求均得到满意。经过在16台 NVIDIA GPU 上承受数百小时的音乐练习,这位特别的音乐爱好者,在“听音识门户”的精确度上,乃至逾越了人类和传统编程。

            AI 软件:调优 DGX 硬件,下降办理门槛

            除了规划优化的 DGX 服务器、存储服务器和网络交流机组合 ,DGX POD 上还运转一整套适配的 NVIDIA AI 软件仓库,极大简化 DGX POD 的日常操作与保护,为大规划多用户 AI 软件开发团队供给高功用的深度学习练习环境。

            ▲ NVIDIA AI 软件仓库

            NVIDIA AI 软件包含 DGX 操作体系(DGX OS)、集群办理和和谐东西、作业负载调度器、来自 NVIDIA GPU Cloud (NGC) 容器注册表的和优化容器,能够为运用者供给优化的操作体会。

            DGX POD 办理软件可根据需求,主动立异装置 DGX OS。DGX OS 是 NVIDIA AI 软件仓库的根底,根据优化版 Ubuntu Linux 操作体系构建,并专门针对 DGX 硬件进行调优,支撑各种 NVIDIA 库和结构及 GPU 的容器进行时。

            ▲ DGX POD 办理软件层

            DGX POD 办理软件层由 Kubernete 容器和谐结构上运转的各项服务组成,可经过网络(PXE)为动态主机装备协议(DHCP)和全主动 DGX OS 软件装备供给服务。

            经过运用其简略的用户界面,办理员可在由 Kubernetes 和 Slurm 办理的域中移动 DGX 服务器。未来 Kubernetes 增强功用估计在纯 Kubernetes 环原创NVIDIA集成AI超算中心经历,打造AI安排妥当型数据中心境中,支撑一切 DGX POD 用例。

            DGX POD 上的 NVIDIA AI 软件可凭借 Ansible 装备办理东西进行办理,白皮书中有供给其开源的软件办理仓库和文档在 Github 上的链接。

            智东西以为,DGX POD 一站式交给节点解决计划,不只能加快数据中心的 AI 布置功率,一起也经过供给更强壮的算力,大幅度提高数据的使用功率。

            当时,许多数据中心刚刚踏入或计划踏入 AI 的大门,而当下干流的深度学习算法有必要装备专业的 AI 根底设备。根据 NVIDIA DGX POD 的架构计划,关于快速构建大规划 AI 核算集群十分具有参阅价值。跟着此类根底架构逐步遍及,更多数据中心将得以消除设备与本钱预算之间的距离。

            这仅仅 NVIDIA 打造 AI 安排妥当型数据中心雄图的重要版面之一,使用 DGX-1、DGX-2 服务器和NVIDIA GPU 大规划核算架构的开展前进,NVIDIA 正将机器学习、深度学习和高功用核算(HPC)扩展到更多的数据中心,为金融、动力、制作、电信、医疗、科学核算等更多职业的生产力提高供给动力引擎。

            如需查阅此白皮书《NVIDIA DGX POD 数据中心参阅规划》,可直接点击:NVIDIA DGX POD 数据中心参阅规划白皮书 - 白皮书下载 - 英伟达AI核算专区 - 智东西下载。

            智东西

            请关注微信公众号
            微信二维码
            不容错过
            Powered By Z-BlogPHP