云计算和大数据

极致释放基础架构潜力,助力数字化时代AI应用再提速

LensNews

这个秋天,当大家逐渐走出疫情期间尽量独处的坚守,三三两两走进咖啡厅开始聊聊生活,谈谈项目时,会发现排队点单的人少了,一杯杯线上下单的饮料正在取餐台列队等候。对于星巴克来说,“啡快”、“专星送”、“用星说”这些原本用来提升用户体验,进行差异化竞争的功能,却成为“新常态”时期消费模式的主流。数字化转型,显然已经是企业计划中的战略重点,而现在,则进一步成为了企业生死存亡的关键。

谈起数字化,避不开ABC,即AI、Big Data、Cloud,这相互促进的三个技术领域,无论哪一个出现突破,都会让数字化时代的应用大踏步的进步。如今说起AI,大家早已过了当年惊讶于无人驾驶和AlphaGo的“科幻震惊阶段”,越来越多的AI应用走进我们的工作和生活。从我们拨打运营商或银行热线时的智能客服和AI助手,再到汽车生产线上基于图像识别的瑕疵甄别工序,都有AI应用在发挥作用。在医疗领域,AI正在被用于跟踪、追溯和测试应用,从而获得准确的实时洞察。这类应用程序有助于在新冠病毒爆发的地域对小范围群体采取适当的限制措施,而不是让整个国家处于停摆状态。在公共交通场景中,保持社交距离,科学管理大量乘客变得十分重要。将AI和传感器相结合可以全面评估、并实时有效地掌控乘客和载具运力情况,同时借助边缘定位技术,将AI分析产生的信息传递给管理者,从而根据需求变化快速响应。大型商业卖场的流量控制也将会是一个应用热点。借助多功能传感器,位于边缘的AI应用可以显示、并预测哪些地点最有可能出现大量购物者。随后商场可以立即采取应对措施,例如通过精准促销策略调整或实时客流引导等手段,在应对复杂局面的同时保证商业收益。

移动互联网的蓬勃发展,正在为AI积累大量的原始数据;AI科学家们也不断发布新的研究成果,创造着一个又一个的奇迹。作为基础能力的算力,同样要跟上步伐。于是,AI使GPU再一次成为时代宠儿。不断优化的机器学习平台和框架,已经让部署和使用AI应用的门槛不断降低,算力和基础架构优化侧的突破,将成为助力的又一关键引擎。

回忆5年前,当诞生于奥斯汀的初创公司Bitfusion在纽约 TechCrunch Disrupt大会上亮相时,谁也没有想到,后来它会和全球企业软件创新者VMware一起,用近乎极致“压榨”的程度,将包括GPU、FPGA在内的AI应用的基础架构的能力进行革命性释放。

携手英伟达,加速AI部署

其实在AI需要的硬件资源调度和管理方面,NVIDIA与VMware作为各自领域的领头羊,很早就开始了在GPU这一领域的互动,早期合作场景主要是图形图像处理,结合NVIDIA的vGPU技术,vSphere的资源管理技术和VDI技术,工作人员可以便捷高效地共享使用宝贵的GPU服务器和图形工作站资源。 2019年,VMware与英伟达继续合作,支持客户在本地和VMware Cloud on AWS上使用虚拟化GPU。这是业界第一款支持企业使用虚拟化GPU加速AI和机器学习工作负载的混合云产品。

Bitfusion加入,AI底座再进化

这个小而美而精的公司,为何会在AI时代大获青睐,投资不断,后被VMware收入旗下,其核心技术关键,就在于它可以让AI应用远程加载GPU,FPGA和ASIC硬件资源。这种通过网络远程共享算力的技术,就是在AI算力昂贵且需要灵活调度的今天,bitfusion为业界带来的核心价值。VMware已将bitfusion的能力整合进最新的旗舰平台vSphere7中。VMware初期是通过按需调配GPU资源实现时分复用,后来结合NVIDIA的vGPU技术实现了算力切片,再加上Bitfusion的远程共享能力,便可以更好地帮助企业构建弹性的AI基础设施,提供AI云服务。

这让我们想起在十多年前,VMware的vMotion技术发布,应用得以魔术般摆脱底层束缚,实现跨越硬件,跨越数据中心,甚至跨越地域限制的自由迁移。Bitfusion的出现,让同样精彩的进化出现在AI算力领域。我们可以这样想象,GPU等资源,不再受到硬件绑定和硬件边界的限制,而是变为更自由,颗粒度更细的算力资源池。不同部门、不通场景的使用者,得以分时、按需地调度算力资源,这将是一种更经济、更合理、更智能地算力使用方式。

统一交付,AI加速器化繁为简

戴尔给出的进一步答案,则是AI加速器。这个针对人工智能和高性能计算工作负载的系统家族,正是戴尔推出的Dell EMC Ready解决方案。通过包含业界最优秀的server、GPU、全闪存文件存储等的硬件资源,并结合VMware的旗舰平台vSphere 7 和 VMware Cloud Foundation以及bitfusion功能,用户可以更方便,更快捷的构建支持AI应用的基础架构,并通过一系列优化技术,使宝贵的基础资源得到充分利用,轻松应对AI场景下算力和数据量的双高挑战。

也许在现代化的数据中心和云中,如算力释放一样的底层技术革新并非显得十分耀眼和为众人所知,但它却实实在在的正在助推数字化时代中的AI应用,以前所未有的速度大步走向未来。

(0)

本文由 计算杂谈 作者:云中子 发表,转载请注明来源!

关键词:
LensNews

热评文章

发表评论