如果人类创造出一个真正自我意识的人工智能,等待数据到来可能会让它感到压抑。
近二十年来,基于DRAM的计算机内存的访问带宽增加了20倍,容量增加了128倍。卡内基梅隆大学的研究员凯文·张(Kevin Chang)提出了一种新的数据路径来解决这个问题,他说,但是延迟性能只有1.3倍。
现代计算机需要大量的高速大容量内存来保持连续运行,尤其是专注于内存数据库、数据密集型分析以及越来越多的机器学习和深度神经网络训练功能的数据中心服务器。虽然研究人员多年来一直在努力寻找更好更快的替代技术,但动态随机存取存储器仍然广泛应用于优先考虑性能的任务中。
这有助于解释今年动态随机存取存储器销量的激增,尽管IC Insights报告称,由于供应有限,其平均售价上涨了74%。售价的飙升使动态随机存储器市场收入达到创纪录的720亿美元,帮助推动集成电路市场总收入增长22%。IC Insights报告显示,如果没有来自DRAM价格的额外上涨(过去12个月上涨111%),整个IC市场2017年的增长将仅达到9%,而2016年仅为4%。
对于很多人都想取代的成熟技术DRAM(因为没有处理器快),这个数字是惊人的。目前或未来有很多技术有望取代DRAM,但专家似乎认为这些技术无法取代DRAM的性价比优势。即使有计划的DRAM技术改进方案,以及HBM2、混合内存立方体等新的DRAM架构,DRAM与CPU的速度差距依然存在。
系统与解决方案副总裁、Rambus杰出发明人Steven Woo在CTO办公室表示,来自JEDEC的下一代DRAM规范DDR5的密度和带宽是DDR4的两倍,可能会带来一定的速度提升。
这对时间敏感的金融技术应用和其他高端分析、高性能计算和超级计算应用非常重要,尤其是与专用加速器结合使用时。
吴宇森说:“对更高内存带宽和更大内存容量的需求是显而易见的,但DDR5本身不足以满足这些需求,我们也不知道还有哪些技术可能会成功。我们看到很多处理过程(比如密码货币挖掘、神经网络训练)都在从传统的x86处理器向GPU和专用芯片迁移,或者对架构做一些修改,使数据中心的处理更接近数据的存储位置。就像边缘计算或者雾计算一样。”
图1:新标准的引入;来自凯登斯
据bablabs CEO、斯坦福大学System X战略顾问克里斯·龙威介绍,GPU显然是最受欢迎的用于训练神经网络上的机器学习应用程序的工具,但芯片制造商和系统制造商也在试验一些稍微成熟的技术,比如GDDR5,这是一款为游戏机、显卡和HPC开发的同步图形RAM,英业达就是这样使用的。
图2:存储器在芯片层次结构中的位置;来自兰布斯
SK Hynix和三星制造的HBM2在内插器上放置了一些高速的DRAM芯片,内插器增加了一些逻辑处理级,为处理器提供了高速的数据链路,使内存与处理器的距离比GDDR5更近。在高速非常重要的2.5D封装中,HBM2是一个关键元素。HBM2是与混合存储立方体竞争的JEDEC标准。由IBM和Micron开发的混合存储立方体使用硅通孔(TSV)将不同的存储层连接到基本逻辑层。
使用硅光子学的光学连接也可以实现加速。到目前为止,硅光子学的大多数应用是在数据中心的服务器机架和存储器之间以及高速网络连接设备内部。行业专家预测,未来几年,这项技术将更接近处理器,尤其是在其封装技术得到充分验证,设计过程中包含这项技术之后。光学方法的优点是发热慢而快,但光波只有转换成电信号后才能存储和处理。
此外,还有新的互连标准,如Gen-Z、CCIX和OpenCAPI,以及新的内存类型,如ReRAM、英特尔的相变3D Xpoint、3D NAND和磁性相变MRAM。
NVDIMM速度较慢,但容量较大。添加电池或超级电容可以实现非易失性,使其能够以较低的功耗缓存比普通DRAM更多的数据,还可以保证断电时不会丢失交易数据。透明市场研究(Transparency Market Research月份的一份报告显示,支持NVDIMM的芯片制造商包括美光(Menon)和朗伯斯(Rambus),其销售额预计将从2017年的7260万美元增至2025年的1.84亿美元。
选择这么多可能会比较混乱,但是为机器学习或者大规模内存数据库或者视频流调整内存性能会更容易选择,因为每个任务都有不同的瓶颈。龙威说:“有一些主流选择来实现带宽增长——DDR 3、DDR4、DDR5,但你也可以尝试其他选择,这样内存带宽就可以满足你想要做的事情。”
龙威说,对于那些愿意写直接控制NAND内存的代码的人来说,整个问题可能更简单;但要篡改协议和接口层,让NAND看起来像硬盘,掩盖在上面写数据的难度,可能就更难了。“凭借低成本、低容量和低可用性,我认为闪存存储有很多机会包含越来越多的存储层。”
冷却动态随机存取存储器
Rambus的内存和接口部门首席科学家克雷格·汉佩尔(Craig Hampel)说,每种内存架构都有自己的优势,但它们都至少有一个其他集成电路都有的缺点:发热。如果能可靠散热,可以把内存、处理器、图形协处理器和内存装得更近,然后在保存的空里放更多的服务器,通过减少内存和系统其他组件之间的延迟来提高性能。
液体冷却是一种允许绝缘矿物油流经部件的冷却方法。据《IEEE Spectrum 2014》的一篇文章称,液冷使香港比特币矿业公司Asicminer的HPC集群冷却成本降低了97%,也使空之间的需求降低了90%。
自2015年以来,Rambus一直与微软合作开发用于量子计算的内存,这是微软开发拓扑量子计算机工作的一部分。因为量子处理器只能在超低温环境(低于-292℉/-180℃/93.15K)下工作,所以Rambus为这个项目测试的DRAM也需要在这个环境下工作。兰布斯在4月份扩大了该项目,当时汉佩尔表示,公司相信寒冷可以带来显著的性能提升。
图3:低温计算和储存;来自兰布斯
比如CMOS足够冷的时候,CMOS芯片的数据泄露就会完全停止。几乎变成非易失性。它的性能会提高,内存的速度会赶上处理器,从而消除了IC行业最顽固的瓶颈之一。在4K到7K的极低温环境下,导线会变成超导体,这样芯片就可以用很少的能量实现远距离通信。
低温系统还有其他优势。与空调制冷却相比,低温系统可以从堆叠的存储芯片中提取更多的热量,从而实现更大的堆叠(或其他组装方法)密度和更有效的协作。汉佩尔说:“提取热量可以使服务器机架的尺寸缩小70%,这意味着数据中心每立方英尺的密度会增加。这使它们更容易维护,也更容易放在以前无法到达的地方。”
更重要的是,如果在处理器级别实现的效率提升与数据中心其他部分的提升基本一致,那么低温系统可以使现有数据中心更具成本效益,实现更高效的计算,从而减少对更多数据中心的需求。
而且大部分好处都可以在不太冷的情况下收获;将内存冷却到77k(-321°F/-196°C)可以获得大部分好处。
汉佩尔说:“液氮很便宜——每加仑几十美分,成本在达到4 K左右的超冷之前不会快速上升,降到50 K左右也不贵。”
邻近处理器
Marvell存储部门主管耶鲁安·多杰罗(·多杰罗)认为,超低温冷却可以延长数据中心动态随机存取存储器的寿命,但随着行业从超大规模发展到超大规模,任何现有的芯片或标准都无法应对这种数据流。他说DRAM速度快但是需要很大的功率。NAND不够快,无法扩展,大部分前沿存储器(3D XPoint、MRAM、ReRAM)无法完全扩展。
然而,大多数数据中心还没有解决比现在更加分散的需求。Marvell连接、存储和基础设施业务部门的CTO Yaniv Kopelman表示,分布式有助于减少远距离发送到处理器的数据量,同时将大部分繁重的计算工作留在数据中心。
IDC数据中心硬件分析师谢恩·劳(Shane Rau)表示,社交网络、物联网和几乎所有其他地方的数据带来的压力,正迫使数据中心扩散和扩张——在全国范围内建立两三个大型数据中心,而不是在一个地方建立一个超大型数据中心。
劳说:“规模确实不一样,但问题的关键还是延迟。例如,如果我旁边有一个数据中心,我不需要把我的数据移动得太远,我可以在我的笔记本电脑上完成一些处理,更多的处理将在本地数据中心进行,所以当数据到达它想要到达的位置时,它已经被处理了。很多人说把处理工作放在存储位置,是为了在不同设备的基础上平衡瓶颈。现在,规模问题更多的是让数据中心在边缘做一些工作,即在生成数据的位置和数据的最终目的地之间。”
原文链接:https://semiengineering.com/pushing-drams-limits/
今天是《半导体工业观察》第1490期。请注意。
稀有
一丁集团
1.《dram DRAM会怎样发展?》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《dram DRAM会怎样发展?》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/tiyu/1174134.html