新闻动态

这里有最新的公司动态,这里有最新的网站设计、移动端设计、网页相关内容与你分享!

戴尔科技AI平台|最新AI服务器——PowerEdge XE8545?

  ​这些年来

  环绕私有云公有云的争辩

  “本钱”二字是绕也绕不开的论题

  直到越来越多的研讨标明

  公有云并不比本地廉价

  有时乃至或许更贵

  这个争辩才逐步停息

  但关于特别的

  深度学习运用呢

  跑在公有云是否会比本地廉价?

  云是保管AI开发和出产的最经济方法吗?Moor Insights&Strategy高档分析师Karl Freund以为,最好的方案取决于你在AI旅程中的方位、你将怎么密布地树立你的AI才干,以及希望完成的效果。

  为何云对AI有如此招引力?

  云服务供给商(CSP)具有广泛的开发东西组合和预练习的深度神经网络,用于语音、文本、图画和翻译处理。例如,微软Azure供给了许多个预练习的网络和东西,能够被你的云保管运用程序作为API拜访。

  许多模型乃至能够用用户自己的数据进行定制,如特定的词汇或图画。谷歌也有一连串适当惊人的东西。比方它的AutoML能够主动构建深度学习神经网络,在某些情况下能够节约许多时刻。

图片1.jpg

  一切这些东西都有几个共同点。首要,它们使构建AI运用看起来十分简略。因为大多数公司都在尽力为AI项目装备职工,因而这一点十分有招引力。

  其次,它们供给易用性,许诺在一个充溢相对不流畅难明的技能的范畴中点击即可运用。可是,一切这些服务都有一个圈套——他们要求你在他们的云中开发运用程序,并在他们的云中运转

  因而,这些服务具有极大的“绑定”特性。假如你运用微软的预练习的DNN进行图画处理,你不能容易在自己的服务器上运转所发生的运用程序。你或许永久不会在非谷歌的数据中心看到谷歌的TPU,也无法运用谷歌的AutoML东西。

图片2.jpg

  “绑定”自身并不一定是件坏事。但这儿有一个问题:许多AI开发,特别是练习深度学习神经网络,终究需求许多的核算。此外,你不会中止练习一个(有用的)网络,你需求用新的数据和功用来不断坚持它的“新鲜度”。

  我所看到的揭露研讨标明,这种水平的核算在云中或许变得适当贵重,本钱是树立自己的私有云来练习和运转神经网络的2-3倍

  因而,关于小型,不知道或可变的核算要求,云核算是有意义的,可是关于接连的、大规划深度学习而言,运用本地根底设施可节约许多本钱。并且除了本钱要素以外,还有更多原因需求运用自我保管。

  01布置

  发动一个AI项目或许需求许多的时刻、精力和费用。云AI服务能够大大削减开端时的苦楚,不过一些硬件供货商也在供给硬件和软件的绑缚,力求AI的布置变得简略

图片3.jpg

  *例如,戴尔科技针对深度和机器学习推出了 "AI安排妥当型处理方案",其装备的完好GPU和集成软件栈,专为下降布置AI门槛而规划。

  02数据安全

  一些职业遭到严厉的监管,需求内部的根底设施。如金融职业,则以为将灵敏信息放入云中危险太大。

  03数据引力

  这是对一些企业最重要的要素。简略说,假如你的重要数据在云中,你应该树立你的AI,并把你的运用程序也放在那里。但假如你的重要数据放在企业内部,数据传输的费事和本钱或许是深重的,特别是考虑到神经网络练习数据集的巨大规划。因而,在内部树立你的人工智能也是有意义的。

图片4.jpg

  结 论

  在哪里练习和运转AI是一个深思熟虑的决议。这儿的问题是,一般在你的开发道路上走得很远,才干确认所需根底设施的巨细(服务器的数量、GPU的数量、存储的类型等)。

  一个常见的挑选是在公有云中开端你的模型试验和前期开发,并拟定一个带有预界说的退出方案,告知你是否以及何时应该把作业搬回家。这包含了解CSP的机器学习服务的优点,以及假如你决议把一切东西都搬到自己的硬件上,你将怎么替代它们。

图片5.jpg

  省时省力还省心

  从选好一个硬件供货商开端

  AI正在改造咱们的未来,而现在才刚刚起步。好像Karl Freund所以为的:本地AI根底设施能够比公有云更具经济效益。假如您方案在AI范畴进行许多出资,一个好的硬件供货商(比方戴尔科技集团)不只能够切合您的需求,其间一些服务更能够适当实惠。

  凭仗丰厚的IT硬件组合,以及广泛的合作伙伴生态体系,戴尔科技正帮忙客户简化并活跃推进数据科学及AI项目,无论是机器学习项目仍是深度学习项目,包含的布置规模包含IoT网关、作业站、服务器、存储、AI安排妥当处理方案和HPC等。

  用于机器学习的硬件

  针对机器学习项目,戴尔易安信PowerEdge R750或R740xd是抱负的渠道。这些通用的2U服务器支撑加快器和大容量存储,为后续的深度学习项目供给了未来的保证,其间xd版别还支撑额定的存储容量。AI安排妥当型处理方案

  戴尔科技供给预装备的AI安排妥当处理方案,可简化装备进程,下降本钱,并加快布置分布式多节点机器学习和深度学习集群。这些集成体系对硬件、软件和服务进行了优化,有助于AI作业人员快速投入到出产并发生成果。用于AI的存储

  存储功用关于机器学习项目的功用平衡至关重要,戴尔科技供给广泛的全闪存和混合存储产品组合,能够满意AI的严苛要求,这包含戴尔易安信PowerScale和ECS的存储以及选用NFS和Lustre的分布式存储处理方案

图片6.jpg

  此外,还有当下抢手的戴尔科技最新AI服务器——PowerEdge XE8545。其搭载的最新AMD米兰CPU、第三代NVlink - SMX4以及NVIDIA A100 40/80GB GPU,无不显示出这是成为顶级机器学习模型,杂乱的高功用核算(HPC)和GPU虚拟化的抱负挑选。

图片7.jpg

  下面来看这款服务器的强壮之处

  1AMD米兰CPU

  XE8545装备了2颗地表最强的7nm Zen3架构的AMD第三代EPYC处理器。霄龙处理器一路走来,用自己的实力在服务器处理器商场牢牢的站稳了脚,高性价招引了不少用户的目光

图片8.jpg

  2第三代NVLink-SXM4

  XE8545 GPU内部选用NVIDIA第三代NVLink互联。其技能可供给更高带宽和更多链路,并可进步多GPU体系装备的可扩展性,故而能够处理互联问题。

图片9.jpg

  单个NVIDIA A100 Tensor中心GPU支撑多达12个第三代NVLink 衔接,总带宽为每秒600 千兆字节(GB/秒),几乎是PCIe Gen 4带宽的10倍

图片10.jpg

  NVIDIA DGX™ A100等服务器可利用这项技能来进步可扩展性,然后完成十分快速的深度学习练习。NVLink也可用于 PCIe版A100的双GPU装备。

图片11.jpg

  ▲点击检查明晰图片

  咱们能够看出第三代NVLink的带宽几乎是PCIe Gen4的10倍,用第三代NVLink互联的A100在能够到达的最大功耗和显存上也远远高于PCIe Gen4互联的A100,是真实的灵敏型功用怪兽。

  3NVIDIA A100 40/80GB GPU

  XE8545内部支撑多达四个A100 GPU,功用极端强壮。

  A100引入了突破性的功用来优化推理作业负载。它能在从FP32到INT4的整个精度规模内进行加快。多实例GPU (MIG)技能答应多个网络一起根据单个A100运转,然后优化核算资源的利用率。在A100其他推理功用增益的根底之上,仅结构化稀少支撑一项就能带来高达两倍的功用进步

  在BERT等先进的对话式AI模型上,A100可将推理吞吐量进步到高达CPU的249倍

图片12.jpg

  在遭到批量巨细约束的极杂乱模型(例如用于先进主动语音辨认用处的RNN-T)上,显存容量有所添加的A100 80GB能使每个MIG的巨细添加一倍(到达10GB),并供给比A100 40GB高1.2倍的吞吐量

  NVIDIA产品的超卓功用在MLPerf推理测验中得到验证。A100再将功用进步了20倍,进一步扩展了这种功用优势。

  A100结合MIG技能能够更大极限地进步GPU加快的根底设施的利用率。凭借MIG,A100 GPU可划分为多达7个独立实例,让多个用户都能运用GPU加快功用。运用A100 40GB GPU,每个MIG实例最多能够分配5GB,而跟着A100 80GB添加的GPU内存容量,每个实例将添加一倍到达10GB。

图片13.jpg

  除了强壮的XE8545服务器外,戴尔科技还有全系列的AMD服务器供您挑选。更具体的产品,欢迎联络戴尔官方企采网收购专线400-884-6610,或许联络您的客户经理。

图片14.jpg

  敬重的读者

  劳动节福利炽热派送中

  4月24日-5月14日

  超炫新品0元试用

  到手无需偿还

  快来扫描下方二维码

  或点击文末阅览原文

  速速参加活动

图片15.jpg

  相关内容引荐:AI成为人,需求这一块"肋骨"|戴尔科技为全球用户供给协助

  文章来自大众号戴尔易安信处理方案



Copyright © 2021 大鱼号登录入口大鱼号登录入口-大鱼号官网pc版注册 All Rights Reserved