IT选型好物分享:AI时代,如何选择不拖后腿的存储?

60多年前的吉恩·罗登贝瑞并未想到,他笔下的种种“通讯设备”后来纷纷成为了现实——翻盖手机、触摸屏技术与平板电脑;75年前的坦利·温鲍姆也没想到,如今的VR几乎完美地呈现了他笔下“神奇眼镜”的功能;100多年前的狄娅·冯·哈堡更不知道,她笔下的“玛利亚”已然“改邪归正”,并成为正迅速进化发展的新科技——人工智能。

 

从Runway到Pika Labs再到Sora,人们再次刷新了对人工智能技术发展之迅速的认知。不同于聊天和文生图应用,文字生成视频需要考虑从静态到动态、从平面到不同时段下展示出的立体效果,并且需要解决视频内容的连贯性、逻辑性等问题。而这些,都离不开十分强大的算力和算法支持。

于是,你就会发现,AI模型对算力的投入愈发膨胀,而作为提供与管理数据的关键因素——存力,却被普遍忽视。据英伟达的官方资料显示,在一个AI数据中心购置预算的构成中,存储仅占20%

 

 

如果说算力是人工智能发展的引擎,那么数据就是人工智能发展的燃料。为避免用户在进行模型训练时因“燃料”不够而无法“启航”,戴尔科技集团于前不久推出了专为下一代工作负载和AI创新而设计的新一代戴尔PowerScale

 

 

作为影视行业的“守护神”、医疗行业的“生命线”的戴尔PowerScale,到了AI领域,依然“发光发热”,成为AI工作负载的“金牌辅助”

 

PowerScale凭什么?

 

作为全球首个通过英伟达DGX SuperPOD认证的以太网存储,戴尔PowerScale与GPU直通,用户无需安装光纤通道或InfiniBand即可在本地处理高性能工作负载,更轻松地使用AI。

不止于此,PowerScale在三个架构层面满足了用户对AI存储的高性能和效率需求。

01

 

客户端访问层

拥有高速以太网连接并支持NFS、SMB和HDFS等多种协议,并采用NVIDIA GPU Direct Storage和远程直接内存访问 (RDMA) 等尖端技术,加速在人工智能应用程序的GPU内存和存储设备之间的直接数据传输,可确保从各种客户端和工作负载无缝访问非结构化数据。

02

 

OneFS文件表示层:

通过最新的OneFS 9.7无缝集成卷管理、数据保护和分层功能,简化了跨各种存储类型的大数据量的管理,使用户能够轻松升级、扩展和迁移,确保文件系统智能高效,适应多样化需求。

03

 

PowerScale计算和存储集群层:

该层提供节点和节点间网络元素,从而实现可扩展且高度可用的文件集群。从处理基本容量和计算任务的小型、经济实惠的集群,到容纳PB级数据的扩展配置,PowerScale可轻松扩展和自动平衡集群,减轻管理负担。并且,节点专为轻松的生命周期管理而设计,可在不中断集群运行的情况下促进升级、迁移和技术更新。

这些基础层构成了部署人工智能的基石,以灵活且“始终在线”的方式实现高性能数据摄取、处理和分析。

 

 

而从核心功能来看,在戴尔PowerEdge服务器的驱动下,PowerScale可加速高级人工智能模型的流式读取和写入。结合高性能和高密度节点,PowerScale的核心功能为超高速、超精准地进行智能数据驱动决策铺平了道路:

 

▶首先,利用GPU Direct Storage,PowerScale在GPU内存和存储之间建立了直接路径,大幅降低了延迟并提高带宽。并对可启用GPU Direct的服务器和NFS over RDMA提供支持,PowerScale增强了吞吐量并降低CPU利用率,提供多达8倍的带宽和吞吐量提升

 

 

 

其次,客户端驱动程序允许同时利用多个TCP连接到不同的PowerScale节点,这种分布式架构实现了更高的I/O操作吞吐量,提高了单个NFS挂载性能并平衡网络流量以防止出现瓶颈。

▶再者,专为无缝可扩展性而设计的PowerScale,可满足从小型集群到多PB环境不断变化的人工智能需求。通过轻松添加和升级节点,即使跨不同的节点类型和配置,PowerScale也能确保一致且可预测的性能。

 

 

▶最后,PowerScale提供全闪存、混合和存档节点,可满足不同的存储需求和预算。智能负载平衡策略优化了资源利用率,同时在线数据缩减通过消除重复或冗余数据降低了有效存储成本,PowerScale在支持存储层方面有着强大的灵活性。

News.

行业资讯