资讯
HOME
资讯
正文内容
nand ecc soft NANDXtend ECC 技术
发布时间 : 2024-10-06
作者 : 小编
访问数量 : 23
扫码分享至微信

NANDXtend ECC 技术

NANDXtend™

新一代NANDXtend™-为TLC NAND提供更具可靠性、高效能及低功耗的ECC技术

慧荣专利的 NANDXtend™ ECC 技术,包括 LDPC 硬解码和软解码以及 RAID 保护,这些技术增强了 2D/3D TLC NAND 的 P/E 周期 - 延迟 SSD 使用寿命并确保数据的完整性。NAND 闪存在使用中不可避免会出现误码,而新一代 NANDXtend™ 包括 2KB LDPC 引擎及高级软件算法,提供了较高的功率效率、解码效率和纠错能力,以保持整个数据的一致性,并提供了更好的用户体验。

NANDXtend™ - 领航未来的三维解错修正技术

NANDXtand™是慧荣科技专为TLC SSD产品的需求设计,所独家开发的先进韧体技术。NANDXtand™三维解错修正机制,结合了LDPC(低密度奇偶修正码)及RAID Data Recover修正技术,能高速平行译码并且精准修正错误。

NANDXtand™独特的三维多层次解错机制,可依解错难易度分层开启错误修正-透过先进的LDPC译码校正执行数据写入,并且分别开启LDPC硬译码(Hard Decode)LDPC软译码(Soft Decode)及Raid Data Recovery进行数据读取。与现有的BCH译码单层错误校正相比较,更能有效提升数据稳定度,同时大幅强化TLC NAND的P/E Cycle,为TLC SSD产品带来更长的使用寿命及稳定度,满足客户设计出最佳市场口碑的TLC SSD产品。

LDPC提升ECC解错效能

为了协助客户面对TLC SSD的ECC(错误码修正)设计挑战,在NANDXtend韧体技术中独家导入最先进的LDPC(低密度奇偶修正码)。比起现有的BCH ECC算法,LDPC拥有更高的解错效能,同时所使用的功耗比BCH更低。透过LDPC新一代错误修正技术,将能为TLC NAND带来更高的错误较验能力,进一步提升数据稳定性及P/E Cycle,有效提升TLC SSD产品的使用寿命及可靠度。

RAID Data Recover保留完整SSD空间

控制芯片是SSD产品的核心所在,TLC NAND的限制使得必须透过先进控制芯片的执行运算处理,才能发挥最佳稳定效能。而随着TLC NAND制程进步所带来的精简体积,更要求无需预留容量空间(Over-provisioning)也能进行纠错及校准,达成优化SSD效能与稳定度的目标。

不同于其他竞争对手产品为了增加解错能力,需要预留SSD容量空间执行数据修正。NANDXtand独家韧体结合RAID Data Recover技术,整合于慧荣科技最新一代TLC SSD控制芯片中。RAID Data Recover无需预留解错校验空间,就可以为用户保留更为完整的SSD容量,让消费者更能感受到高容量TLC SSD产品的优势。

NANDXtand™为TLC SSD提高三倍使用寿命

根据Silicon Motion内部实验室测试证明,透过NANDXtend™韧体技术的协助,在84小时的耐受度中,TLC NAND拥有1800次P/E Cycle的惊人寿命;比起没有NANDXtend™技术加持的TLC NAND,只有600次P/E Cycle的寿命,差距达到三倍。即使在其他的耐受度时间中,NANDXtend™仍然能够提供最优异的P/E Cycle数据,提供最佳的使用寿命保障。

性价比,已经成为消费者抉择SSD产品的判断标准,因此TLC SSD产品需求将是未来市场大势所趋。如何在TLC NAND主流中,为消费者提供更具效能、耐力及可靠度的SSD产品,将是制造商未来的决胜关键所在。

ECCV'24|Agent Attention:无缝集成Softmax和Linear的注意力机制

作者丨科技猛兽

编辑丨极市平台

本文目录

1 Agent Attention:集成 Softmax 和 Linear 注意力机制 (来自清华,黄高老师团队)1 Agent Attention 论文解读1.1 Agent Attention 集成 Softmax Attention 和 Linear Attention 的优势1.2 Softmax Attention 和 Linear Attention 计算范式1.3 Agent Transformer1.4 感知任务实验结果1.5 生成任务实验结果1.6 大感受野和高分辨率

太长不看版

有趣的是,本文展示了 Agent attention 等效于 Linear attention 的广义形式。因此,代理注意力无缝集成了强大的 Softmax attention 和高效的 Linear attention。

作者通过大量实验表明,Agent attention 在各种视觉任务中证明了有效性,包括图像分类、目标检测、语义分割和图像生成。而且,代理注意力在高分辨率场景中表现出显着的性能,这得益于其线性注意力性质。例如,当应用于 Stable Diffusion 时,Agent attention 会加速生成并显着提高图像生成质量,且无需任何额外的训练。

图1:Softmax Attention,Linear Attention 以及 Agent Attention

1 Agent Attention:集成 Softmax 和 Linear 注意力机制

论文名称:Agent Attention: On the Integration of Softmax and Linear Attention (Arxiv 2023.12)

论文地址:

https://arxiv.org/pdf/2312.08874

代码链接:

https://github.com/LeapLabTHU/Agent-Attention

1.1 Agent Attention 集成 Softmax Attention 和 Linear Attention 的优势

将 Transformer 和 Self attention 引入视觉领域会带来巨大的挑战。现代 Transformer 模型通常采用 Softmax attention,计算每个 Query 和 Key 之间的相似度,导致计算复杂度随 token 数量呈二次方关系。为了解决这个问题,现有的工作通过设计高效的注意力机制来降低计算复杂度。比如,Swin Transformer[1]减少了感受野,将 Self-Attention 的计算限制在局部窗口上。PVT[2]采用稀疏 Attention,通过减少 Key 和 Value 的数量来减轻计算负担。尽管这些方法很有效,但它们不可避免地损害了对远程关系进行建模的能力,并且仍然不如全局 Self-Attention。

由于全局 Self-Attention 的内在冗余,Agent token 的数量可以设计为远小于 Query token 的数量。作者发现简单地汇集原始 Query token 来当做 Agent token 的效果就非常好。这个做法可以将 Softmax Attention 的二次复杂度降低到线性复杂度,同时保留了全局上下文建模能力。有趣的是,如图 1 所示,Agent Attention 可以看作是广义的线性注意力。换句话说,Agent Attention 集成了 Softmax 和线性注意力,并享受二者的优势。

1.2 Softmax Attention 和 Linear Attention 计算范式

1.3 Agent Transformer

Softmax 和 Linear 注意力要么计算复杂度过高,要么模型表达能力不足。以前的研究通常将这两种注意力范式视为不同的方法,并尝试降低 Softmax Attention 的计算成本或提高 Linear Attention 的性能。Agent Attention 集成了 Softmax Attention 和 Linear Attention,同时享受线性复杂度和高表现力的好处。

Agent Attention 继承了 Softmax 和 Linear Attention 的优势。实际使用中作者进一步做了两个改进来最大化代理注意力的潜力,即 Agent Bias:

多样性恢复模块

尽管 Agent Attention 受益于低计算复杂度和高模型表达能力,但它也受到特征多样性不足的影响。作为补救措施,作者遵循[5]的做法并采用深度卷积 (DWC) 模块来保留特征多样性。

在这些设计的基础上,作者提出了一种新的 Agent Attention 模块,其可以表述为:

Agent Attention 模块的优势

1) 高效计算和强表达能力: 之前的工作通常将 Softmax Attention 和 Linear Attention 视为两种不同的注意力范式,旨在解决它们各自的局限性。作为这两种注意力形式的无缝集成,Agent Attention 继承了两者的优点,同时具有较低的计算复杂度和高模型表达能力。

2) 大感受野: Agent Attention 可以在保持相同数量的计算量的同时采用较大的感受野。得益于线性复杂度,Agent Attention 可以在保持线性计算量的同时享受大甚至全局感受野的优势。

1.4 感知任务实验结果

ImageNet-1K 实验结果

如图3所示,在各种模型中将 Softmax Attention 替换为 Agent Attention 可以显着提高性能。例如,Agent-PVT-S 在仅使用 30% 的参数和 40% 的 FLOPs 时超过了 PVT-L。Agent-Swin-T/S 在保持相似 FLOPs 的同时比 SwinT/S 高出 1.3% 和 0.7%。这些结果明确证明 Agent Attention 方法具有优势,且能够适应不同的架构。

图3:ImageNet-1K 实验结果

作者通过在各种设备上部署模型来进一步进行实际速度测量。图4说明了本文模型在 CPU 上实现了 1.7 到 2.1 倍的推理速度,同时提高了性能。在 RTX3090 GPU 和 A100 GPU 上,本文模型也实现了 1.4 倍到 1.7 倍的推理速度。

图4:ImageNet 上的 Accuracy-Runtime 曲线。运行时使用图像分辨率 224×224 进行测试

COCO 目标检测实验结果

作者将本文模型应用于 RetinaNet、Mask R-CNN 和 Cascade Mask R-CNN 框架来评估本文方法的性能。使用具有不同检测头的 1x 和 3x schedules 进行了一系列实验。如图5所示,本文模型在所有配置中都表现出一致的增强。Agent-PVT 优于 PVT 模型,box AP 从 +3.9 增加到 +4.7,而 Agent-Swin 超过 Swin 模型高达 +1.5 box AP。这些实质性的改进可以归因于大感受野,证明了 Agent Attention 在高分辨率场景的有效性。

图5:COCO 目标检测实验结果

ADE20K 语义分割实验结果

作者将本文模型应用于2个分割模型,SemanticFPN 和 UperNet。结果如图6所示。值得注意的是,Agent-PVT-T 和 Agent-Swin-T 比 PVT-T 和 Swin-T 高 +3.61 和 +2.17 的 mIoU。结果表明本文模型与各种分割 Backbone 兼容,并且都实现了改进。

图6:ADE20K 语义分割实验结果

1.5 生成任务实验结果

扩散模型的出现使得生成高分辨率和高质量的图像成为可能。然而,当前的扩散模型主要使用具有全局感受野的 Softmax Attention,导致计算成本大,且生成速度慢。作者将 Agent Attention 应用于 Stable Diffusion[6],希望提高模型的生成速度。经过简单的调整,使用 Agent Attention (称为 AgentSD) 的 Stable Diffusion 的生成速度展示出显着改进,并且在没有任何额外训练的情况下产生了更好的图像质量。

作者实际上将 Agent Attention 应用于 ToMeSD 模型[7]。ToMeSD 在 Stable Diffusion 的注意力计算之前减少了 token 的数量,提高了生成速度。尽管如此,合并后的 token 数量仍然很大,导致持续的复杂度和延迟。因此,作者将 ToMeSD 模型中的 Softmax Attention 替换为 Agent Attention,以进一步提高速度。作者通过实验发现,通过 token merging[8]生成 Agent token 时,Agent Attention 可以直接应用于 Stable Diffusion 和 ToMeSD 模型,而不需要任何额外的训练。除此之外,作者通过在早期扩散生成步骤中应用 Agent Attention 并保持后面的步骤不变来获得显着提升。

作者定量比较了 AgentSD 与 Stable Diffusion 和 ToMeSD。如图7所示,ToMeSD 在保持相似图像质量的同时加速了 Stable Diffusion。AgentSD 不仅进一步加速了 ToMeSD,而且显著提高了图像生成质量。具体而言,在保持卓越的图像生成质量的同时,与 Stable Diffusion 和 ToMeSD 相比,AgentSD 的生成速度提高了 1.84 倍和 1.69 倍。在等效的生成速度下,与 ToMeSD 相比,AgentSD 生成 FID 分数低 0.9。

图7:Stable Diffusion, ToMeSD 和 AgentSD 的定量结果

作者在图8中展示了一些可视化结果。与 Stable Diffusion 和 ToMeSD 相比,AgentSD 显著地减少了歧义和生成错误。例如,在第1列中,Stable Diffusion 和 ToMeSD 产生一条腿和两个尾巴的鸟类,而 AgentSD 的样本没有表现出这个问题。在第3列中,当提供 "A high quality photo of a mitten" 的 prompt 时,Stable Diffusion 和 ToMeSD 错误地生成猫,而 AgentSD 产生了正确的图像。

图8:由 Stable Diffusion、ToMeSD (r = 40%) 和 AgentSD (r = 40%) 生成的样本

用于微调的 AgentSD

作者将代理注意力应用于基于 SD 的 Dreambooth[9],以验证其在微调下的性能。当微调时,Agent Attention 可以集成到所有扩散生成步骤中,与原始 Dreambooth 相比,生成速度提高了 2.2 倍。

1.6 大感受野和高分辨率

现代视觉 Transformer 通常将 Self-Attention 的计算限制在局部窗口上,以降低计算复杂度,比如 Swin。如下图9所示,作者逐渐扩展 Swin 的窗口大小从 7^27^2 到 56^256^2 。显然,随着感受野的扩展,模型的性能不断提高。这表明,虽然窗口注意力范式是有效的,但它不可避免地损害了 Self-Attention 的远程建模能力,仍然不如全局注意力机制。由于 Agent Attention 的线性复杂度,可以从全局感受野中受益,同时仍然保持相同的计算复杂度。

图9:基于 Agent-Swin-T 的窗口大小消融实验结果

受 Softmax attention 的二次复杂度的限制,当前的视觉 Transformer 通常通过增加模型深度和宽度来扩大。作者也尝试了 EfficientNet 中提出的提升输入分辨率的方法,结果如图10所示。

图10:通过增加分辨率来缩放模型

与 DeiT-B 相比,Agent-DeiT-B 实现了 0.2 的精度增益,而 448^2448^2 分辨率下的 Agent-DeiT-S 仅用四分之一的参数达到了 83.1% 的精度。作者在缩放 Agent-PVT-M 和 Agent-Swin-S 时观察到了类似的趋势,在图11中,作者逐渐增加 Agent-Swin-S、Swin-S 和 Swin-B 的分辨率。在高分辨率场景中,本文模型性能始终比较优越。

图11:增加分辨率到 256×256, 288×288, 320×320, 352×352, 384×384 的结果

1.7 与其他线性注意力机制的对比

作者使用 DeiT-T 和 Swin-T 将本文的 Agent Attention 与其他 Linear Attention 方法进行比较。如图12所示,各种 Linear Attention 方法替换 DeiT-T 和 Swin-T 所采用的 Softmax Attention 通常会导致显著的性能下降。值得注意的是,本文模型优于其他方法以及 Softmax 基线模型。

图12:不同线性注意设计的比较

Agent token 数量的消融实验结果

模型的计算复杂度可以通过改变 Agent token 的数量来加以调节。如图13所示,可以观察到减少浅层中的 agent token 数量对性能没有不利的影响。但是,在更深层中减少 agent token 的数量导致性能下降。

图13:Agent token 数量的消融实验结果

参考

^Swin Transformer: Hierarchical Vision Transformer using Shifted Windows^Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions^Rethinking Attention with Performers^SOFT: Softmax-free Transformer with Linear Complexity^FLatten Transformer: Vision Transformer using Focused Linear Attention^High-Resolution Image Synthesis with Latent Diffusion Models^Token Merging for Fast Stable Diffusion^Token Merging: Your ViT But Faster^DreamBooth: Fine Tuning Text-to-Image Diffusion Models for Subject-Driven Generation

相关问答

做咖啡店服务员遇到老外的基本口语是什么_作业帮

[回答]CanIhelpyousir?Whatwouldyouliketodrink,coffeeortea?weservecoffee,coffeewithmilk,...

 欧文哈特  加雷斯 
王经理: 180-0000-0000(微信同号)
10086@qq.com
北京海淀区西三旗街道国际大厦08A座
©2024  上海羊羽卓进出口贸易有限公司  版权所有.All Rights Reserved.  |  程序由Z-BlogPHP强力驱动
网站首页
电话咨询
微信号

QQ

在线咨询真诚为您提供专业解答服务

热线

188-0000-0000
专属服务热线

微信

二维码扫一扫微信交流
顶部