利用应用处理器IP构建人工智能计算型存储系统

半导体行业观察
+ 关注
2022-03-04 11:05
420次阅读
利用应用处理器IP构建人工智能计算型存储系统
这些数据的增长需要有更大的存储容量,更高效、高性能的数据中心基础设施来存储和检索数据,更快的数据移动接口,还要能提供更多的计算资源来处理数据。数据增长也推动了数据中心运营商们加大投资,以获得更高的性能,更强的计算能力,减少数据移动(缓存相干接口,计算存储),并寻求低功率存储解决方案,同时降低碳足迹。

计算型存储被提出

数据移动占数据中心能耗的很大一部分,有效的降低数据移动的数量可以降低数据中心的耗能。举一个用数据库搜索记录的典型案例:在美国环境保护局(U.S. Environmental Protection Agency)的数据库中搜索“大气中二氧化硫含量超过健康上限75 ppb”的数据,会出现数百万条记录,但却仅有不到1/1000是相关的。传统方式是将整个数据库传输到内存中,由主机CPU处理,大大增加了不必要的数据移动。如果计算存储能够只向主机发送相关记录以供进一步分析的话,则能大大减少数据的移动量。
如果能为存储设备(计算存储)增加计算能力则可以提高性能和降低能耗。具体表现在:一方面可以减少数据移动和关联,比如减少延迟和网络带宽的消耗;另一方面将数据保留在驱动器内,具有更高的安全性;再者其还可以针对工作负载优化处理。
利用应用处理器IP构建人工智能计算型存储系统
新的计算存储架构在传统的基础上,加入存储计算处理器(如下图所示),由存储处理器执行关键操作和数据过滤,只向主机发送关键数据,并且计算资源根据CSD的数量进行扩展。CSD架构的优势在于存储端的处理器可以根据应用进行优化,提供更好的性能同时减少硬件的花费。
利用应用处理器IP构建人工智能计算型存储系统

新思的计算存储处理器IP

计算存储数据流的过程通常是这样的:首先主机发起高级命令(例如查找匹配特定键的记录),然后计算存储处理器分析命令并发起读请求,接下来计算存储处理器需要构建传输描述符,描述符被分派到适当的flash通道,从flash返回的读取数据经过数据路径并由计算存储处理器进行分析(进程键匹配),将匹配记录发送到DDR(如果匹配),再将封装在主机接口协议中的DDR和DMA中的记录数据匹配到主机内存中,最后从计算存储处理器向主机发送成功的完成指示(如果没有匹配,则向主机发送错误)。
利用应用处理器IP构建人工智能计算型存储系统
但是,存储内计算还有一些注意事项,比如SSD需要额外的处理能力,需要有友善的软件开发环境,终端应用客户能够容易的在平台上开发应用软件。为此,新思科技推出了DesignWare ARC处理器IP启用智能存储驱动器。
利用应用处理器IP构建人工智能计算型存储系统
针对计算存储的应用,新思科技推出了ARC HS4x/HS4xD处理器,它是为嵌入式应用程序优化而提供的超标量内核。它是一款独立的、双发行的10级超标量体系结构,是一款高性能的嵌入书处理器,RISC提高40%,DSP性能提高2倍,每核高达5400 DMIPS@ 1.8 GHz。
利用应用处理器IP构建人工智能计算型存储系统
HS4xD扩展了ARCv2DSP ISA的性能范围,它拥有超过100+额外的DSP指令,并兼容流行的ARC EMxD内核,可用于额外的基带、语音/语音、音频。ARC HS4x/HS4xD处理器具有单核、双核和四核版本。还有着高效的软件开发,其优化的编译器能最大限度的提高RISC和DSP性能,以及具有优化的DSP库支持。
除了既有的DSP指令之外,ARC 处理器IP还提供了APEX (ARC Processor Extension)的技术提供用户自行添加指令来加速特定的算法。
一个案例是使用APEX获得更好的SSD效率。在这个案例中,新思的客户采用了APEX的技术新增了专用指令进行红黑树搜索算法的优化红黑树搜索算法是经常被使用在FTL (Flash Translation Layer)中的搜索算法,用于在内存中对I/O请求进行排序。结果发现,使用APEX指令能减少3个关键功能50%循环计数,而只增加了5%的核心面积。
利用应用处理器IP构建人工智能计算型存储系统
新思科技还推出了ARC HS6x处理器,它是一款基于ARCv3的面向高端嵌入式优化的64位ISA。ARCv3 ISA和微架构可扩展到12核的集群,最多16mb的共享集群缓存,向后兼容32位ARCv2内核。最高性能的ARC标量处理器可达6.1 CM/MHz(单核HS6x),其单核性能比HS4x提高20%,在HS4x (x4)上,具有最多3倍的集群性能。其优化的开发工具支持简化了软件开发,最大化了性能。ARC HS6x可在同一集群内动态调整NVMe-oF和Flash管理软件所占用的核心数量,增加软件运行的灵活性。
利用应用处理器IP构建人工智能计算型存储系统
据了解,新思科技的下一代ARC可扩展集群架构,高度可扩展到高达100gb/s相干,800gb /s非相干带宽;能最多拓展至12个ARC核,外加16个客户IP和IO设备接口;所有的核心和集群内存都可以在它们自己的时钟和电源域中运行。
利用应用处理器IP构建人工智能计算型存储系统

AI是未来存储解决方案的一部分

人工智能正在迅速发展,且是一项不可或缺的技术。为什么人工智能会出现在存储领域?因为人工智能需要数据,而数据就要存放在存储中。而且边缘的数据正在大幅增长,移动数据的“代价昂贵”。其实大多数人工智能处理可以在存储中完成。人工智能可用于离线处理数据,然后根据需要将其移动到数据中心或云。
AI在存储中的应用有很多,如预测热点和冷数据、根据需要的访问确定数据存储位置、数据生命周期管理、从存储的数据中发现洞察力、创建元数据(关于数据的数据)、进行对象检测和分类、存储分层(平衡速度,存储成本)、提升SSD性能和QoS、延长SSD寿命/提高可靠性、低写放大因子(WAF)、数据聚类、flash纠正错误、故障预测。
具有可编程神经网络加速器的人工智能处理器经常使用在计算存储处理架构中实现,下图是新思科技的ARC EV 处理器,拥有向量DSP以及神经网络加速器的异质架构,非常适合用在人工智能存储的应用中。
利用应用处理器IP构建人工智能计算型存储系统

总结

传统的数据从驱动器移动到计算,需要跨接口和协议移动,消耗大量时间和增加延迟,而且移动数据要消耗能量,数据复制多次,具有较低的安全。在这样的情况下,存储内计算被提出。存储内计算能将计算在存储装置中完成,最大限度地减少数据移动,减少延迟,最大限度地减少能量的消耗。数据将保留在驱动器中,本地数据具有更高的安全性。可以针对工作负载优化处理。人工智能(NN架构)也将逐渐成为未来存储解决方案的一部分。

*免责声明:本文由作者原创。文章内容系作者个人观点,半导体行业观察转载仅为了传达一种不同的观点,不代表半导体行业观察对该观点赞同或支持,如果有任何异议,欢迎联系半导体行业观察。

 

本文来自微信公众号 “半导体行业观察”(ID:icbank),作者:杜芹,36氪经授权发布。

0
消息通知
咨询入驻
商务合作