闪存性能和耐久度不堪入目?别慌,新一代超高性能闪存来了
在闪存容量越来越大的同时,性能成为成本妥协的牺牲品。正如大家看到的历史,从SLC、MLC、TLC直到QLC和未来PLC,NAND闪存的性能、耐久度都会衰减。为了填补闪存和内存之间逐渐拉大的差距,高性能闪存的需求不断增长。
日本网站PC Watch近日整理了铠侠(原东芝存储)在今年2月18日于ISSCC国际固态电路峰会上的演讲内容,披露了大量关于铠侠XL-Flash超高速闪存芯片的信息。
XL-Flash是继英特尔3D XPoint、三星Z-NAND之后的又一个新型高速闪存技术。与3D XPoint所属的PCM技术相比,基于NAND的XL-Flash能随堆叠层数增长提供良好的成本收益。目前公布的信息显示,初代XL-Flash将使用96层堆叠技术,单die容量达到128Gb。
铠侠还将XL-Flash与三星的Z-NAND进行了对比。占据后发优势的XL-Flash在存储密度(Capacity)和写入延迟(tProg)上拥有明显优势,仅读取延迟(tR)比Z-NAND稍大一些。XL-Flash和Z-NAND都有比普通3D TLC闪存强出多倍的性能指标。
XL-Flash使用SLC(1bit/cell)结构,单个Page大小也从3D TLC闪存的16KB降低到4KB,使用16平面结构(8倍于BiCS4 3D TLC)。平面数量的增多缩短了闪存中字线和位线的长度,使闪存访问速度更快。
下图是96层堆叠的3D TLC闪存(左)和XL-Flash(右)对比,XL-Flash中外围电路与硅芯片的比例更大、更复杂。
从基础原理上来说,铠侠推出的XL-Flash并没有脱离它的前身东芝存储在1987年发明的NAND闪存。不过XL-Flash并不是简单的3D SLC闪存,由它制成的固态硬盘性能将明显优于当前固态硬盘的SLC缓存部分,特别是低队列深度下的随机读写IOPS(这部分也是傲腾SSD的魅力)。
XL-Flash将存储单元阵列划分成16个平面,从而令字线延迟时间减少到原有的1/20左右。此外,针对平面接地电位以及温度补偿电路的优化也对降低读取延迟带来帮助。最终的结果是XL-Flash的读取延迟仅有普通3D TLC闪存的5%。
为了提升写入性能,铠侠在XL-Flash中将编程准备时间(PP)缩短到过去的三分之一,并优化编程和验证的操作顺序,使得原本需要200至300μs的编程时间缩短到75μs。
普通消费者不一定关心技术的具体实现方法,但也有好消息带给大家,铠侠对XL-Flash超高性能闪存采取了较为开放的态度(而不是像傲腾和Z-SSD那样封闭),这意味着可以有众多的主控去支持它,从而产生更加丰富的终端产品。根据之前的消息,XL-Flash闪存将在今年内完成出样。
前景可观的存算一体技术,到底有多难商用?
没有一家公司的存算一体技术解决方案受到广泛的市场认可。
最近,随着5G商用和云计算需求的迅猛增长,建设新一代适用各类AI场景的大规模数据中心成为各大运营商和巨头公司接下来的工作重点,其中,提升性能和降低成本是大家最为关心的话题之一。
今年年初阿里达摩院发布了2020年十大科技趋势,它认为存算一体是突破AI算力瓶颈的关键技术。 因为利用存算一体技术,设备性能不仅能够得到提升,其成本也能够大幅降低。
然而尽管存算一体技术方向广受认可,英特尔、Arm、微软等公司也均参与到该技术方向的投资,也有多家公司给出了可行的存算一体解决方案,但有一个不争的事实是,没有一家公司的存算一体技术解决方案受到广泛的市场认可。
简单来说,虽然“存算一体”概念很容易理解,即计算与存储两个模块的融合设计以实现对数据的高效处理,但落到场景和商业发展推进过程中,它面临的产业矛盾和难处远超业内的想象。
存算一体技术有多复杂?
存算一体技术虽然极具前景,但其实非常复杂,因此很多大公司都选择投资初创公司来完成这件事,而不是自己从头去开发。
如美国著名的存算一体AI芯片初创公司Mythic,因其在存内计算芯片(IPU)有显著的研究进展,在2019年刚刚结束的B+轮融资中,它就受到了软银、美光等投资者的支持,此前它还获得了美国国防部的资金支持。此外,美国另一家专注于语音识别的存算一体AI芯片初创公司Syntiant,它的背书者们——微软、英特尔、亚马逊、博世等,也是广泛分布在计算和存储领域的巨头公司,甚至高通也邀请Syntiant来做可穿戴设备芯片的语音解决方案。
在国内,现在在这一领域有所探索的,包括知存科技、闪亿半导体、忆芯科技等,也都是初创公司。
可以看见,大公司更倾向于选择“站队”,在巨头们中,除了下游大力推进基于ReRAM的存内计算方案的台积电,IBM是唯一公开自己存算一体技术布局的公司。
在相变存内计算方面,IBM已经有了多年的技术积累,因此它也可以代表整个存算一体技术产业的先进水平。但尽管在核心部件PCM器件上有了十余年的研究积累,并且IBM在2016年就透露了其关于存内计算的研发计划,提出了混合精度内存计算的新概念,至今为止,IBM也只发布了基于该项技术的8位模拟芯片,定位是处理深度神经网络。
与传统芯片相比,该芯片在成本和功耗上有非常显著的改进,包括存储与计算模块之间的通信成本也大大降低了,但是它的弱点也很明显:因为AI训练需要保持梯度计算的保真度和权重更新,现有AI芯片大多在16位精度以上,8位的精度看起来是没有办法广泛使用的。
这也很让人怀疑,费了大力气研发出来的全新架构芯片,到底能不能走出实验室?
不得不直面的“困境”
存算一体技术商用真的那么难?
受计算机冯·诺依曼计算机体系架构影响,计算和存储一直以来是相互分离的设计。但是随着大数据时代的到来,以数据为中心的数据密集型技术成为主流系统设计思路,我们的关注点也不再仅限于数据的计算和加工,而更为看重的是对数据的“搬运”,即从根本上消除不必要的数据流动,这催生了计算与存储的融合(存算一体)。
简单来说,在传统计算机的设定里,存储模块是为计算服务的,因此设计上会考虑存储与计算的分离与优先级。但是如今,存储和计算不得不整体考虑,以最佳的配合方式为数据采集、传输和处理服务。这里面,存储与计算的再分配过程就会面临各种问题,而它们主要体现为存储墙、带宽墙和功耗墙 问题。
以存储墙问题为例,因为计算与存储各自独立演进,且传统的观点认为计算系统性能受限于计算能力,因而过去几十年产业界在计算方面的投入巨大。有数据显示,过去二十年,处理器性能以每年大约55%的速度提升,内存性能的提升速度每年只有10%左右。结果长期下来,不均衡的发展速度造成了当前的存储速度严重滞后于处理器的计算速度,内存瓶颈导致高性能存储器难以发挥应有的功效,遭遇了所谓的存储墙问题。
因此,存算一体技术的提出不仅仅要打破人们对传统存储和计算的认知,它还要解决这些已有的“历史遗留”问题,实现存算之间更加低成本的“无缝对接”。
目前,业内提出了几种可行的技术解决方向,其中计算型存储、存内计算、3D堆叠和类脑计算 颇受关注,但究竟哪一种可行,众说纷纭。
图 | 3D堆叠
以现在最为火热的存内计算技术来说,为了推动这项技术的发展,近两年的芯片设计顶会ISSCC已经为其设立了专门的议程,同时2019年电子器件领域顶级会议IEDM有三个专门的议程共二十余篇存内计算相关的论文。
其实存内计算的核心思想很简单,就是把带权重加乘计算的权重部分存在内存单元中,然后在内存的核心电路上做修改,从而让读出的过程就是输入数据和权重在模拟域做点乘的过程,相当于实现了输入的带权重累加,即卷积运算。而同时,由于卷积运算是深度学习算法中的核心组成部分,因此存内计算非常适合AI,对未来AI芯片的存算一体和算力突破都有帮助。
但是不同于传统的数字电路计算,存内计算是用模拟电路做计算,这对存储器本身和存内计算的设计者都是一个全新的、需要探索的领域,IBM所研究的正是这个方向,里面的难度可想而知。
不仅如此,随着数据量的加大,功耗、存算之间的通信等方面都需要变革,以通信的硬件实现工艺来看,是采用光互联技术还是采用3D堆叠的新型封装实现高性能互联,这就是一个大问题,因为采用不同的技术将会导致整体解决方案天壤之别。
AI芯片公司还是存储芯片公司,存算一体技术应该由谁来做?
可以说,现在对于业内而言,树在大家面前的首要问题就是达成技术方向上的共识,而想要达成技术共识之前,可能大家首先要解决的是,存算一体到底由AI芯片公司来做还是由存储公司来做?
由AI芯片公司来做,技术方向更多偏向于计算型存储或类脑计算,而由存储公司来做,存内计算方向则会更容易被发展和推动。
上文介绍的存内计算是从存储的角度去做计算上的融合,尤其伴随SSD产品(由NAND flash构成)的兴起,因嵌入了ARM核和DRAM,NAND flash、ARM和DRAM、控制器和内部总线实际上构成了一个计算机系统,这让存储产品本身就可以做计算任务,因此也为存算一体提供了发展平台。国内就有诸多初创公司在探索这个方向,尤其是由于AI的引入,各种数据的Key-Value只要直接存储在硬盘里,AI需要的数据就可以自动完成分类,可以显著提升非关系数据库的性能。
而计算型存储则是将存储做到计算芯片上,如现在很多处理器公司都在做片上存储这件事,IBM设计的Blue Gene Active Storage(BGAS)结点就是一种‘存储上的计算’系统,每一个BGAS结点包含32个处理器,每个处理器通过PCIe接口连接2TB的SLC NAND非易失闪存介质,大致就是这样一个思路 。
当然不仅仅如此,超越冯·诺依曼架构之上,人的大脑就是一个典型的存储计算系统,而仿照人脑的仿生系统也被认为是最有可能颠覆现有技术的终极发展方向。
作为电子复兴计划的一部分,DAPRA看中的就是这个更高级的系统——通过将电子元件编程为离散阻值状态并将不同权重的电子元件相互卷积以建立一个类似突触和神经元的系统,即神经拟态计算,又被称为类脑计算。此前,国内清华大学类脑计算团队打造的“天机芯”就是被称为异构融合类脑计算芯片,复旦大学也在单晶体管逻辑架构上有突破性的进展,为存算一体发展奠定了技术基础。然而需要指出的是,DAPRA团队在这项研究上已经涉及了超过1800种混合材料,其难度之高可想而知,而后面架构搭建等都是商用道路上必须要迈过去的坎,因此可以说,类脑的存算一体系统遥不可及。
尽管类脑遥不可及,退回到现有的芯片设计上,存算一体的挑战也是十分之多,如器件方面,现有的浮栅器件存储就不适合存内计算;在芯片的工艺上,存算一体的设计和流片周期都将会很长,甚至连现有的EDA工具,目前尚没有支持存算一体设计的。
总体来看,存算一体有IBM、知存科技等数十家大大小小企业在投入和探索,它们广泛分布在存储、计算等领域里,几大技术方向也都在发展中。但是因可探索的方向很多,且没有人知道哪一种是最适合商用的方向,可以说整个市场还处在早期的百家争鸣状态。
降低成本,市场驱动存算一体
说到这里,可以发现存算一体的未来商用发展前景是极其不明晰的。但看向应用端,存算一体的市场发展驱动却是非常强烈的。
以数据中心为例,百亿亿次(E级)的超级计算机成为各国比拼算力的关键点,为此美国能源部启动了“百亿亿次计算项目(Exascale Computing Project)”,希望于2021年至少交付一台E级超算;中国则联合国防科大、中科曙光和国家并行计算机工程技术研究中心积极开展相关研究,计划于2020年推出首台E级超算。但要想研制E级超算,科学家面临的挑战之中首当其冲的就是功耗过高问题。
随着速度和性能要求的不断提高,如果按现有设计方法,通过不断增加处理器数量来研制超算,其体型和规模会越来越大,数据在存储器和处理器之间进出所耗费的功率会越来越多。以现有技术研制的E级超算功率高达千兆瓦,需要一个专门的核电站来给它供电,而其中50%以上的功耗都来源于数据的“搬运”, 本质上就是冯·诺依曼计算机体系结构计算与存储的分离设计所致。
如何降低功耗成为超算中心必须要解决的问题,各国科学家都在致力于降低超算功率,其中一些可行的技术方案包括让存储器更靠近计算器,减少数据行进距离;让高性能存储器向三维扩展而不是朝二维延伸;超算与闪存的结合等,而这些都隶属于存算一体的技术方向。
另一方面,在边缘计算和物联网端,因存算一体能够大幅提升性能和降低功耗, 因此也被大家寄予厚望。
当然,不仅仅是成本,如阿里达摩院在发布的技术报告所言,AI的出现与存内计算格外匹配,存算一体也将会改善现有的AI算力瓶颈。
更多优质内容,请持续关注镁客网~
相关问答
ak281 芯片 参数?芯片详细参数如下:CPU:四核ARMCortex-A7,主频达1.3GHzGPU:ARMMali-400MP2GPU,支持OpenGLES1.1/2.0图像处理:内嵌高性能2D加速...
江苏淮安第四代存储器项目预计明年量产,你怎么看?作为当前最尖端的高科技之一,半导体芯片这几年在国内很热门,不仅在媒体报道上刷屏,而且国内最近几年上马了不少半导体项目,几乎涉及到从设计到制造再到封装在...
mmc卡与sd卡区别主要是什么?_土巴兔装修问答SD卡就是SecureDigitalCard——安全数码卡,是由日本松下公司,东芝公司和美国SANDISK公司共同开发研制的,具有大容量,高性能,尤其是安全等多种特点的...
内存卡为什么能存储数据文件呢? - ba1Ye6DMLpw 的回答 - 懂得SD卡在24mm×32mm×2。1mm的体积内结合了SanDisk快闪记忆卡控制与MLC(MultilevelCell)技术和Toshiba(东芝)0。16u及0。13u的NAND技术,通过9针的接口...
mmc卡与sd卡区别主要是什么?- 一起装修网mmc卡与sd卡区别主要是什么?