美光®助力高性能计算新前沿

Release time:2026-04-13
author:AMEYA360
source:美光
reading:252

  将圆周率 (π) 计算至小数点后 314 万亿位

  究竟需要什么?

  StorageReview 成功将圆周率 (π) 计算至小数点后 314 万亿位,刷新世界纪录,但其目标绝非仅仅为了开创记录。这是一项有意设计的极端工作负载,旨在对现代服务器的存储系统进行极限压力测试,并回答一个很现实的问题:单个系统是否能持续数月不间断进行 PB 字节级别的 I/O 操作?

  在一台 Dell™ PowerEdge™ R7725 服务器上连续计算了 110 多天后,该实验为上述问题给出了肯定的答案——前提是存储架构必须能够提供持续的性能和一致性,而不仅仅是短时间的峰值性能。

  测试概览

  I/O 马拉松:持续三个多月的高强度混合读/写压力

  单台服务器配备超过 2.1 PB 的可用闪存容量

  适用于长时间运行的高性能计算 (HPC) 和 AI 作业的关键要点:只有一致性才能确保长期运行后得出结果

  为了构建所需的存储架构,StorageReview 搭建了一套包含 40 块美光 6550 ION SSD 的存储系统,每一块 SSD 均为 E3.S 外形规格,可用容量为 60TB。理解该大规模存储系统(无论是 SSD 数量还是总容量)背后的“原因”,对于理解该纪录在现实当中的意义至关重要。


  为何该任务需要超过 2 PB 的闪存容量?

  要计算位数如此之长的圆周率,重点不在于存储最终结果。与计算过程所需的中间数据相比,最终结果本身所需的存储空间相当小。

  由于最后得出的圆周率高达 314 万亿位,该测试所用的应用程序 y-cruncher 需要巨大的暂存空间,以便:

  存放用于 FFT 密集型数学运算的大型临时数组

  频繁进行全面状态检查,以确保持续数周的工作不会前功尽弃

  存放验证数据,确保在长达数月的运行过程中数据准确一致

  存放计算过程中使用的多精度中间值

  为满足这些要求,StorageReview 在系统中配置了超过 2.1 PB 的可用闪存容量。

  40 块美光 SSD 中的 34 块被分配给 y-cruncher,作为暂存空间,形成高带宽工作层

  剩余的 6 块 SSD 配置为 RAID10 系统,用于存储最终计算结果

  峰值时,该工作负载需要多达 1.43 PiB 的存储空间,单个检查点占用的存储空间高达数百 TB。该容量并非过度配置;而是为了安全、高效地完成计算所必需的容量。


  圆周率计算的特点:持续的 I/O 操作

  该测试并非一次旨在展示峰值性能的短时间基准测试。圆周率计算任务对存储系统持续施加压力,长达三个多月,期间完全没有停机或恢复的机会。

  该工作负载呈现出先进高性能计算和 AI 环境所共有的特征:

  持续高带宽读写操作

  长时间持续高强度写入操作

  要求性能可预测,对突然出现的大量延迟容忍度极低

  操作风险——存储故障可能导致数周的工作成果付诸东流

  在整个运行期间,该系统始终保持在线状态,从未因任何故障而需要恢复运行。

  这一点至关重要,因为许多生产工作负载的失败并非源于峰值性能不足,而是源于系统随时间推移而产生的不稳定或不一致。长时间运行的作业会放大存储堆栈中的微小问题。


  单服务器架构中的高密度 NVMe™

  长期以来,具有上述特征的工作负载通常会促使团队采用分布式存储系统或多节点集群,以获得足够的容量和聚合 I/O。

  然而,StorageReview 仅使用单台服务器机箱就完成了全部计算。

  通过在一台 Dell™ PowerEdge™ R7725 服务器中部署 40 块大容量 NVMe SSD,该系统实现了:

  无需外部存储阵列即可拥有 PB 级容量

  总带宽足以支撑长达数月的计算

  一种简化的运行模型,组件和故障域更少

美光®助力高性能计算新前沿

  这里的关键不在于每个工作负载都需要在一台服务器上配备数十个硬盘。相反,该测试凸显了现代高密度 NVMe 存储如何改变人们在系统架构上的权衡取舍。某些情况下,过去需要采用横向扩展方案来处理的工作负载,现在可以通过纵向扩展方案来解决。


  与现代 HPC 和 AI 工作负载的相关性

  尽管该工作负载较为特殊,但在运行过程中观察到的存储行为与某些实际生产环境中的需求高度吻合,这些环境包括:

  大规模 AI 训练:经常需要生成 TB 级别的检查点数据,且存储性能会直接影响训练时间

  推理管道和特征存储库:可预测的延迟比峰值吞吐量更为重要

  科学模拟与建模:任务可能运行数周或数月,重启成本高昂

  高级分析管道:大型工作数据集必须靠近计算所在位置

  在上述每种情况下,存储的一致性以及随时间推移的耐久性都会直接影响任务的完成、系统利用率以及操作风险。


  该记录中的关键技术要点

  该测试的目的不仅仅是为了创造一个数学上的里程碑。它展示了当今以存储为中心的计算所涉及的若干现实情况:

  PB 级暂存工作负载可完全在 NVMe 上运行

  大容量 SSD 能承受极端 I/O 压力,不会出现性能骤降

  如今的单节点架构能够处理以往仅能由集群处理的工作负载

  性能的一致性和耐久性与原始带宽同样重要

  这些结论表明,存储系统日益重要,决定着先进计算工作负载的可行性和效率。


  对数据中心战略与基础设施规划的影响

  该测试不仅达成了一个技术里程碑,更凸显了存储技术如何日益深刻地影响着现代数据中心的运营成效和架构选择。

  对企业和 IT 部门领导者而言,最重要的关注点并非峰值吞吐量,而是大规模运行时可预测的性能。长期运行的工作负载,无论是 AI 训练、大规模分析还是科学计算,都会放大效率低下问题和故障所造成的后果。当存储成为瓶颈时,昂贵的计算资源便会闲置,成本随之攀升,并导致交付延宕。

  该测试表明,大容量 NVMe 能够在较长时间内持续为计算提供数据,可消除存储瓶颈,减少意外情况,降低运营风险。


  规划基础设施升级时的考虑因素

  当团队在规划针对 AI 及其他数据密集型工作负载的升级时,以下几项评估标准变得越来越重要:

  持续的吞吐量而非突发性能

  短时间的基准测试很难代表实际工作负载。在混合读写负载下持续数月的一致性,比在几分钟内达到的峰值数据更为重要。

  每台服务器的性能密度

  将 PB 级容量和 I/O 整合到单一系统中的能力,对功耗、空间、网络以及管理开销都会产生影响。

  延迟可预测性与尾部行为

  平均性能并不能全面反映运行情况。异常的延迟可能会导致流程停滞、检查点推迟,进而导致任务失败。

  在稳定负载下的耐久性和可靠性

  长时间运行的任务会暴露出在短时间测试中无法发现的问题。随着利用率趋于稳定,存储系统必须始终保持足够高的性能和数据完整性。

  简化运营

  减少对外部存储架构或大型集群的依赖,可缩小故障的影响范围,并简化部署和扩展。


  根据数据中心战略选择存储方案

  从该测试中,我们可以获得的一个更广泛的启示是:现代 NVMe 存储让我们能够重新思考如何降低复杂性。在某些场景下,通过在更少的节点上采用更高的存储密度来实现纵向扩展,可以消除横向扩展的需求。这有助于实现:

  更少的服务器和互连设备

  单位工作量的功耗和散热需求更低

  简化的自动化与生命周期管理

  更快的部署和恢复时间

  这并非意味着不再需要分布式架构,只是为基础设施团队提供了更多切实可行的设计方案。

  随着 AI 和分析工作负载的规模不断扩大,持续时间不断加长,存储相关决策将产生越来越大的影响,受影响的方面不仅包括性能,还包括成本效益、韧性以及组织响应速度。


  总结

  314 万亿位圆周率的计算容不得丝毫差错。该系统在持续负载之下连续运行了 110 多天,按照常理,应该能暴露出其在性能、耐久性或可靠性方面的问题。

  然而,没有出现任何问题。

  相反,测试结果表明,美光大容量 NVMe SSD 能够提供可持续的性能、运行稳定性和性能密度,其表现足以显著影响基础设施的设计选择。

  本文探讨的主题并非圆周率,而是:当存储系统专为支持超大规模、长期运行的数据密集型工作负载而设计时,能够实现哪些可能,且不会出现任何问题。

美光®助力高性能计算新前沿


("Note: The information presented in this article is gathered from the internet and is provided as a reference for educational purposes. It does not signify the endorsement or standpoint of our website. If you find any content that violates copyright or intellectual property rights, please inform us for prompt removal.")

Online messageinquiry

reading
美光的智能制造:AI技术在企业中的应用
  制造芯片的复杂程度超过制造火箭。阅读本案例研究,了解美光如何率先在制造、物流和业务流程中应用 AI,并将其大规模部署,从而实现技术优势地位。  美光在利用人工智能 (AI) 技术方面绝不仅限于空谈。公司将数据分析和 AI 应用于自身制造流程,真正做到了言行一致。美光将 AI 融入业务运营的核心,通过业界前沿内存和存储解决方案,彰显其赋能技术的卓越价值。  智能制造是自动化的更高阶段。其关键在于大规模智能感知、决策与优化。智能制造涵盖内容广泛,从仿真和预测分析,到机器学习和生成式 AI 等。这是一项更广泛的企业战略,其中感知 AI 和智能体 AI 发挥着关键作用:感知 AI 通过计算机视觉、声学监听和热成像等技术,使机器能够“看到、听到、感觉到”周围的环境。智能体 AI 系统能够解读这些输入信息并自主行动,持续学习、在复杂的工作流程中进行协调。  这些能力相结合,为美光的制造战略转型提供了支撑,使智能系统能够实时检测异常、优化流程并灵活适应新变化。智能制造带来了诸多优势:更高的良率、更安全的工作环境、大幅提升的效率、更短的产品上市时间,以及更可持续的业务。本案例研究探讨美光如何利用 AI 技术来应对全球最复杂的工程挑战之一:在硅晶圆上制造内存。  复杂的制造工艺  美光的制造工厂在基于硅晶圆开发内存技术时需要使用高度复杂和精密的工艺,耗时数月,涉及约 1,500 个步骤。出错和浪费的可能性很高。利用数据分析和 AI,有助于降低这种可能性。如果仅依靠人类警觉性来发现和跟踪缺陷、机械问题和其他潜在问题领域,公司将会损失时间和金钱。而通过利用当今的前沿 AI 技术来提高准确性和检出率,就可以避免这些损失。  美光智能制造和人工智能企业副总裁 Koen de Backer 表示:“我们在这里打造的东西完全与众不同,能够实现更高水平的准确性。现在,我们可以将产品上市速度加快一倍,同时每年节省 100 万工时。这确实是革命性的成就。”  美光如何将晶圆转化为先进内存  制造先进内存的起点是二氧化硅——一种经提纯后纯度高达 99.999% 的沙子。这种电子级硅原料先被熔铸成硅锭,再切成厚度仅为 0.67 [BG1] 毫米 [E]2] 的超薄晶圆。美光从专业供应商处采购电子级晶圆,然后通过先进的制造系统进行加工,最终生产出高性能内存芯片。  通过扩散工艺,晶圆上的涂层能够均匀分布。添加涂层材料时,每个晶圆都在高速旋转(有时在超热环境中),材料在离心力的作用下沿着表面扩散。  在美光的尖端制造工厂中,这些采购而来的晶圆将经历一系列精密设计的加工步骤——每个环节都旨在将电子级硅原料转化为智能内存,加工精度可达微米级别。  抛光:去除从硅锭切割下来的初始晶圆表面的微小瑕疵,确保形成后续加工所需的光洁表面。  光刻胶涂覆:涂覆光敏材料,以便能够通过光刻技术刻印精密电路图案。  光刻:利用紫外线将设计好的精密电路逐层转印到晶圆上,类似于相片曝光的过程。  掺杂与金属化:加入离子化等离子体(掺杂)来改变晶圆的电学特性,并添加导电金属层以形成互连结构。  添加防护层:用薄膜密封晶圆,以便在测试和搬运过程中保护其中的电路。  检验与检测:通过 AI 增强成像和分类系统验证功能性和结构完整性,并检测人眼无法察觉的缺陷。  整个制造过程在无菌制造室(称为洁净室)中进行,以防止微小的灰尘污染原始晶圆。然而,尽管采取了这些预防措施,晶圆仍然可能存在瑕疵。微小的划痕、保护膜下的气泡、细微的结构缺陷等——若未及时检出,这些小缺陷可能导致整批产品报废。  这些瑕疵通常很微小,肉眼完全看不见。即使可见,检测人员在扫视每片晶圆的 30 到 40 张照片时,也可能会因为眼睛疲劳或暂时走神而未注意到缺陷。眨眼之间,瑕疵品便流向了下一个环节。  如果到测试阶段才发现问题,就会浪费大量时间和金钱。这些瑕疵的根源问题不仅仅只影响一片晶圆,而可能影响成千上万片晶圆。  在生产中还有其他方面也可能会出现问题。设备零部件磨损;管道危险化学品泄漏或滴落到产品或员工身上。我们必须及早发现这些问题并予以纠正。一旦停工,往往就要付出很高的代价,导致收入损失并错失生产良机。由于半导体制造的复杂性,恢复生产需要耗费大量的时间,这可能会使真实成本达到数百万美元。并且,还存在很多与员工受伤相关的风险。最后,为践行美光对可持续发展和卓越运营的承诺,我们应当尽力实现每个流程的高效节能、稳定可靠。  及时检测出产品和机械问题,对于生产效率、效能和安全至关重要。遗憾的是,人难免会犯错。即使是最专业的员工也未必总能察觉出细微的问题迹象。  这正是 AI 大显身手的领域。AI 系统能以激光般的精度和速度检测出人类不易觉察的异常,比如划痕、气泡、设备磨损等,其能力远远超过人类。AI 系统会从超过 590,000 个源收集 PB 级的制造数据 [JB1]——这些数据持续流入美光的云分析环境,以供优化生产流程以及实时发现问题。这些系统包括计算机视觉、声学监听和热成像,当机器具备了这些感知 AI 能力,便能够感知周围环境。  计算机视觉让制造过程“被看见”  美光的 AI 制造基于图像分析技术。Koen 解释道:“图像在半导体制造工艺中具有强大的作用,我们可以分析每个工艺步骤的详细图像。”  他还表示:“通过利用 AI 计算机视觉并分析每个阶段的图像,我们可以快速识别发生的任何偏差。所有过程都完全采用自动化方式。这种分析涵盖各个方面,包括前道、封装与测试。”  在整个晶圆厂和制造工艺中,美光通过 AI 计算机视觉寻找微观层面的潜在瑕疵。  除了图像,美光还采用视频分析来消除封装和测试中的质量问题。您也许会认为视频的数据量太大,因而不太可行。但是,美光同样使用了 AI,来确定需要分析的关键时间点。AI 会适时启动和停止视频流,仅捕获关键过程,从而控制数据量的大小。美光的一大优势是,同时生产内存和存储设备,确保这些宝贵数据能够被采集、保存并随时可用。  图像和视频非常有用,因为晶圆瑕疵有很多种形式。大多数瑕疵属于以下这些常见类型:晶圆边缘附近有小孔,或外层薄膜上有划痕和气泡。在晶圆制造过程中,光刻机在晶圆上蚀刻电路时,其摄像头会捕获一些图像,美光的 AI 系统使用计算机视觉技术在这些图像上识别上述缺陷。  根据工程师的指示,系统会自主扫描晶圆边缘的小点(孔),或者连续或轻微断开的线条(划痕),也可以根据深浅不同的斑点来发现颜色变化。某些缺陷能以近乎实时的速度检出,在拍摄图像后数秒内触发警报。在照片存储几分钟后的二次扫描中可能会发现其他缺陷。所有这些过程都依赖于 AI 系统对数据库环境中存储的数百万张图像进行比较和对照。  事实证明,这些结果比工程师的评估要准确得多,因为 AI 计算机视觉具有更高的准确性和效率。最重要的是,工程师们现在可以专注于数据采集以及根本原因的解决。  美光的 AI 自动缺陷分类 (ADC) 系统进一步简化了这项工作。技术人员和工程师不再需要手动对晶圆缺陷进行分类。借助深度学习技术,AI-ADC 每年可对数百万个缺陷进行分类和归类,并能够自主学习,在迭代中不断提升准确率。这种机器学习方式按类型对缺陷进行聚类处理,可帮助工程师追溯缺陷产生的根本原因,并使 AI 系统能够自主发现缺陷及优化结果。  监听声音  美光除了将 AI 成像作为制造工艺的核心外,还利用声学监听来预防问题。异常声音往往表示部件存在磨损或即将发生故障。  美光的 AI 系统可以通过声学传感器监听工厂机械的异常情况。这些传感器通常有计划地安装在机器人执行装置或泵设备附近。这些麦克风可以连续数周对正常工作状况录音,软件将检测到的频率转换为图形或图表,以视觉数据来描述声音。当出现新的音高或频率时,系统会发出警报。很多情况下,系统甚至可以辨别出发生异常的原因。  搜索这些庞大的数据库可能非常耗时。但当机器有可能发生故障时,工厂经理又需要立即知晓情况。相比基于 CPU 的系统,将数据发送到由 GPU、加速器以及美光的内存和存储设备组成的 AI 系统可以更快获得智能结果。这些 AI 系统具有数十万个 GPU 核心和高带宽内存,可以同时协同工作,瞬间优化结果,几乎无需人工干预。此外,它们还可以在每次迭代中改进诊断机制。  热成像感知  并不是每种故障都会发出声响。在制造环境中,寂静无声也可能隐藏着致命危险。有时候,唯一的预警信号是温度的变化。直到最近,检测温度骤升的方法仍然只有观察红光、火花或烟雾。当这些状况出现时,意味着事态已进入危险阶段,工厂需要尽快疏散员工。  因此,除了图像分析和声学监听外,美光还使用热成像技术测量关键器件的温度。  Koen 解释道:“测量变压器的温度是防止过热的关键。及早发现问题也许只需要进行简单的修理,而如果错过了时机,可能就只能更换整套昂贵的设备。”  最终,这些用于采集图像、声音和温度的 AI 传感器将直接影响公司的利润。Koen 补充道:“这些传感器在提高质量和效率方面表现出色,在成本节约方面同样作用巨大。它们能够实现细粒度的能源计量,从而显著节约原材料和能源。”  数据  美光通过 590,000 个传感器生成 1 亿张晶圆图像,涉及到 4.36 亿个控制点。所有这些数据每周都会通过 AI 模型进行处理。此外,已存储 77 PB 数据,并且每天捕获 58 TB 的新数据。  AI 的大规模采用可支持多种应用,包括良率分析、数字孪生规划、物联网 (IoT) 和图像分析、优化和高级算法、过程自动化以及移动应用。  结果1毋庸置疑:  制造工具可用性提高 4%  每年劳动生产率增加 100 万工时  新品上市时间缩短 50%  产品报废率降低 50%  其效益不仅限于晶圆厂。从销售和市场营销,到人力资源、业务运营、研发及业务系统——AI 现已融入美光运营的方方面面。  Koen 表示:“这是整个企业层面的转型,而不仅仅是车间改造。我们已将 AI 应用于公司内部所有业务流程。”  生态系统合作伙伴关系  美光不仅在内部优化制造工艺,在与供应商直接合作时也使用 AI,向他们提供与产品相关的详细反馈,以确保尽可能提高能效。美光同这些供应商一起协调 DIMS(数据摄入美光系统),尽可能提高数据摄取的频率。美光工程师会实时监控这些摄取状态,同时持续进行精益求精的校正和优化。  此外,美光还使用遥测数据来衡量旗下产品在供应商数据中心内的效果。这些数据与美光内部数据相结合,可支持实时协作,以便改进产品,使其满足特定工作负载的需求。  美光也会密切监控这些模型的表现。使用 AI 处理传入的数据并进行反复训练,工程师能够专注于自动化机器学习的流程。如果不使用 AI,可能数据科学家永远无法腾出手来推动技术发展,他们将忙于研究那些已经发生的各种事件。  这些计划得到了内部数据科学学院的支持,同时公司也在内部数据科学家、工程师和解决方案架构师方面进行了持续投资。通过这些资源以及美光的公民数据科学模型,职能专家能够有效利用 AI 支持的工具和见解。  行业领导力  如今,美光正在将丰富的核心工艺知识与 AI 出类拔萃的效率相结合。数据专家们创建了大型良率管理平台,公司内有 14,000 名员工正在使用这些平台。与此同时,以前专注于日常良率优化的专业团队正在快速集成周期中构建新的原型。团队成员经常会应用这些原型来优化主要平台。  得益于美光团队成员的敬业精神及其开发的 AI 增强型先进制造工艺,公司在多代内存技术的采用过程中均实现了创纪录的良率。凭借最新创新成果,美光的近几代技术能够比前几代更快达到成熟良率,彰显出公司的工程研发与卓越运营能力,并进一步巩固了美光的技术优势地位。  美光针对产品制造不断优化 AI。AI 已不仅是一种工具,更是一种智能系统,彻底改变了生产流程。而真正让美光在 AI 应用领域脱颖而出的,则是通过大规模应用 AI 来重塑整个企业。从仿真与预测分析,到机器学习、生成式 AI 以及实时工艺优化,美光的 AI 战略已渗透至业务的每个角落。新技术不仅不会取代团队成员的工作,反而会为团队助力和赋能,让他们无需再忙于获取数据并进行大量基础分析。现在,他们可以专注于自己擅长的事情——通过创新来开发行业前沿产品及良好业务实践。
2026-04-08 09:48 reading:358
美光宣布:HBM4已批量出货!
  2026年3月16日,美国存储芯片大美光科技正式宣布,其已于2026年第一季度开始批量出货HBM4 36GB 12H内存,该产品专为英伟达(NVIDIA)Vera Rubin平台设计。凭借HBM4,美光实现了超过11 Gb/s的引脚速度,带宽超过2.8 TB/s,相比其HBM3E,带宽提升了2.3倍,能效提升超过20%。  为了进一步提升HBM的容量,美光展示了其先进的封装技术,可将16颗HBM芯片堆叠在一起,并已向客户交付了HBM4 48GB 16H的样品。与HBM4 36GB 12H产品相比,这一里程碑式的改进使每颗HBM芯片的容量提升了33% 。  “下一代人工智能将由整个生态系统通过联合工程创新开发的紧密集成平台定义。我们与英伟达的紧密合作确保了计算和内存从一开始就能协同扩展,”美光科技执行副总裁兼首席商务官 Sumit Sadana 表示。“这一切的核心是美光的 HBM4,它是人工智能的引擎,可提供前所未有的带宽、容量和能效。随着 HBM4 36GB 12H 的推出,以及业界首款 SOCAMM2 和第六代 SSD 的量产,美光的内存和存储构成了释放下一代人工智能全部潜力的核心基础。”  美光SOCAMM2 专为英伟达 Vera Rubin NVL72 系统和独立Vera CPU平台而设计,每个 CPU 可实现高达 2TB 的内存和 1.2 TB/s 的带宽。  美光是首家量产 PCIe Gen6 数据中心级 SSD 的公司。美光 9650 针对能效和液冷环境进行了优化,采用英伟达BlueField-4 STX 参考架构,可为 AI 训练和推理工作负载提供高速、低延迟的数据访问,支持高达 28 GB/s 的顺序读取吞吐量和 550 万随机读取 IOPS。美光 7600 和 9550 SSD 为客户提供 PCIe Gen5 SSD,从而扩展了他们的架构设计选择。
2026-03-19 09:48 reading:417
美光与Cadence Design Systems合作,加速DLEP验证和合规进程
  半导体生态系统是一个高度复杂、互相关联的框架,其中包括各种行业、技术和机构,旨在促进半导体器件的设计、制造、分销和应用。设计和知识产权 (IP) 提供商是该框架的组成部分,在经历了各种大幅演变之后,这些提供商已成为当代芯片开发中不可或缺的参与者。  随着上世纪 80 年代电子设计自动化 (EDA) 工具的出现,以及上世纪 90 年代半导体 IP 产业的发展,片上系统 (SoC) 设计越来越依赖于可复用的 IP 模块。目前,在 SoC 所包含的器件中,超过 80% 为可复用 IP,典型的芯片会集成 200 多个 IP 模块。1  在半导体市场引入新技术,是一个相当复杂的过程。其中生态系统伙伴(包括 IP 提供商和验证 IP (VIP) 软件供应商)对新技术的支持程度往往起着决定性作用——可能会阻碍新技术的普及,也可能加速商业上的成功。  美光与 Cadence Design Systems 之间的战略合作,标志着内存技术进步旅程中的重大里程碑。此次合作的重点是将直接链路 ECC 协议 (DLEP) 功能嵌入 Cadence 最新的 LPDDR5/5X 内存控制器 IP、物理层 (PHY) IP 和验证 IP (VIP) 中,从而显著提高人工智能、汽车和数据中心应用中的系统性能。  DLEP 在内存技术中的重要性  DLEP 是一项重大创新,旨在解决传统内联纠错码 (ECC) 技术的固有局限性。对于现代车辆中的高性能 AI 应用和高可靠性高级驾驶辅助系统 (ADAS) 应用而言,该技术尤为重要。DLEP 的核心优势在于其能够回收较大比例的有效负载内存空间和带宽,否则这些空间和带宽将被分配给内联 ECC 使用。这种回收能力,是 DLEP 能够提高系统性能和资源效率的基础。美光与 Cadence 携手合作,充分实现了这些增强功能。  DLEP 是一项重大创新,旨在解决传统内联 ECC 技术存在的局限性。DLEP 所实现的改进对于需要高可靠性和极高性能的应用至关重要,例如汽车行业中的 AI 加速器和 ADAS。使用标准 DRAM 与使用支持 DLEP 的 DRAM 进行 ECC 数据传输的对比  DLEP 的主要优势之一是它能够回收相当大比例的有效负载内存空间、至少 6% 的额外可寻址内存空间和带宽,可将带宽增加 15% 至 25%。如果没有 DLEP,这些空间和带宽将被用于内联 ECC 纠错。这种回收能力可带来系统性能和效率的提高,从内存管理的角度来看,功耗(pJ/b,皮焦耳/位)可降低约 10%。2 美光与 Cadence 之间的合作确保了这些优势的充分发挥。  从图中可以看出,与内联 ECC 相比,DLEP 的带宽要增加 15% 至 25%  通过战略合作确保集成和验证  美光的高级 DLEP 功能已无缝集成到 Cadence 的 LPDDR5/5X IP 组合和 VIP 工具套件中。这种集成旨在优化复杂 SoC 设计的验证过程,从而能够在各种应用中高效部署 DLEP 技术。VIP 解决方案对于验证新兴内存技术的运行和效率起到重要作用。美光与 Cadence 建立了稳固的合作关系,以确保 DLEP 的快速普及,从而为内存技术确立新的标准。  Cadence 的 VIP 工具集提供了一些至关重要的优势,例如对复杂 SoC 架构进行彻底验证、提高验证准确性、加速产品上市、降低成本,以及协议合规性评估和自动测试生成等高级功能,所有这些优势都有助于可靠、高效地部署新的内存解决方案。Cadence 的 LPDDR5X VIP 内存模型3支持 DLEP 功能,允许开发人员在调试模式下访问用于存储 ECC 的额外内存单元,在读取/写入时即时回调覆盖存储位的值,以及在启用 DLEP 时检查被禁用的模式。  这种集成方法有助于充分实现 DLEP 技术的优势,为下一代解决方案提供底层支持。  DLEP 在 AI 和汽车应用中的优势  将 DLEP 集成到内存架构中,可为 AI、汽车行业以及其他需要增强的可靠性、卓越性能、数据完整性和更高能效的行业带来巨大优势。所有这些优势相结合,可延长任务关键型系统的正常使用期限。此外,这些技术进步还有助于降低成本,增大 DLEP 技术所带来的价值。  推动 DLEP 普及  Cadence 与美光的合作正在推动 DLEP 技术普及,使系统设计人员能够实现更高的带宽、更好的内存利用率、更低的功耗,同时满足严格的功能安全要求。通过将 DLEP 集成到 Cadence 的 LPDDR5/5X 控制器、PHY IP 和 VIP 中,工程师可从经过硅验证的强大解决方案中受益——这些解决方案可简化验证过程,缩短产品上市时间。随着数据密集型工作负载和安全关键型工作负载不断增加,Cadence 和美光的合作为汽车、AI 等领域带来了高效可靠的高性能内存解决方案。  1带有增强型 ECC 功能的 LPDDR5X 直面汽车行业挑战 | 美光科技。 典型内联系统 ECC 方案与 DLEP 进行对比测试的结果值  2《知识产权的发展趋势》,全球半导体联盟知识产权利益小组  3https://www.cadence.com/en_US/home/tools/system-design-and-verification/verification-ip/simulation-vip/memory-models/dram/lpddr5.html
2026-03-12 13:55 reading:405
美光推出全球首款高容量256GB LPDRAM SOCAMM2,为数据中心基础架构树立新标杆
  2026 年 3 月 5 日,爱达荷州博伊西市 —美光科技股份有限公司(纳斯达克股票代码:MU)近日宣布开始向客户送样业界容量领先的 LPDRAM 模块 256GB SOCAMM2,进一步巩固其在低功耗服务器内存领域的领导地位。依托业界首款单晶粒 32Gb LPDDR5X 设计,这一里程碑式成就为 AI 数据中心带来变革性突破,提供足以实现全新系统架构的低功耗内存容量。  AI 训练、推理、代理式 AI 和通用计算的融合,正推动更严苛的内存需求,并重塑数据中心的系统架构。现代 AI 工作负载催生了大模型参数、扩展的上下文窗口及持久性键值(KV)缓存的需求,而核心计算则在数据强度、并发性和内存空间方面持续扩展。  面对上述工作负载,内存容量、带宽效率、延迟和能效已成为系统层面的主要瓶颈,直接影响性能、可扩展性和总体拥有成本。LPDRAM 融合上述特性的独特优势,在功耗与散热限制日益严苛的数据中心环境中,成为 AI 及核心计算服务器的关键解决方案。美光正与 NVIDIA 携手合作,共同设计高性能内存解决方案,以满足先进 AI 基础架构的需求。  美光高级副总裁暨云端存储事业部总经理 Raj Narasimhan 表示:“美光 256GB SOCAMM2 为 AI 及高性能计算(HPC)提供更具能效的 CPU 附加内存解决方案。此次产品发布充分展现出美光在技术与封装领域的突破,打造业界容量领先、低功耗、小尺寸的模块化内存解决方案。美光在数据中心低功耗内存解决方案领域持续保持领先地位,这一独特优势使我们率先推出单晶粒 32Gb LPDRAM,协助推动业界加速采用更节能、更高容量的系统架构。”  专为容量、能效和工作负载性能优化而设计  美光的 256GB SOCAMM2 为各种 AI 和通用计算工作负载提供更高的内存容量、更低的功耗,以及更快的性能。  为 AI 服务器扩展内存容量:256GB SOCAMM2 容量较前代最高规格 192GB SOCAMM2 提升三分之一,可为每颗 8 通道 CPU 提供 2TB LPDRAM 容量,从而支持更大的上下文窗口及更复杂的推理工作负载。  功耗更低、尺寸更小:与相同容量的 RDIMM 相比,SOCAMM2 的功耗仅为其三分之一,尺寸亦缩减至三分之一,有效提升机架密度并降低总体拥有成本。1  提升推理与核心计算性能:在统一内存架构中,与现有解决方案相比,256GB SOCAMM2 用于 KV 缓存卸载时,可将长上下文、实时 LLM 推理的首个 token 生成时间加速 2.3 倍。2在独立 CPU 应用中,针对高性能计算工作负载,LPDRAM 的每瓦性能较主流内存模块提升超 3 倍。3  易维护、可扩展的模块化设计:模块化 SOCAMM2 设计可提升设备可维护性、支持液冷服务器架构,并能随着 AI 与核心计算内存需求的持续增长,实现未来容量扩充。  NVIDIA 数据中心 CPU 产品部门主管 Ian Finder 表示:“先进 AI 基础架构需要在各个层面进行极致优化,才能有效应对严苛的 AI 推理工作负载对性能与能效的需求。美光通过 256GB SOCAMM2,以低于传统服务器内存的功耗,实现超大内存容量与带宽的突破,为下一代 AI CPU 提供关键助力。”  推动行业标准制定  加速低功耗内存普及  美光在 JEDEC SOCAMM2 规范制定过程中持续发挥领导作用,并维持与系统设计人员的深度技术合作,以推动下一代数据中心平台在能效与性能方面实现全行业性提升。  美光现已面向客户送样 256GB SOCAMM2 产品,并提供业界最全面的数据中心 LPDRAM 产品组合,涵盖 8GB 至 64GB 组件及 48GB 至 256GB 的 SOCAMM2 模块。  1三分之一的功耗依据单个 128GB、128 位总线宽度 SOCAMM2 模块与两个 64GB、64 位总线宽度 DDR5 RDIMM 的功耗瓦数对比计算。三分之一的尺寸依据 SOCAMM2 的面积( 14x90 mm)与标准服务器 RDIMM 的面积之比。  2结果基于美光内部测试,使用 Llama3 70B 模型(FP16 量化)进行实时推理测试,测试配置为:上下文长度 500K,并发用户数 16。首 token 响应时延(TTFT)的预期提升,基于每 CPU 配置 2TB LPDRAM 时延 0.12 秒,对比每 CPU 配置 1.5TB LPDRAM 时延 0.28 秒测算。有关测试条件详情,请参阅本月稍早发布的白皮书:LPDDR at Scale: Enabling Efficient LLM Inference Through High-Capacity Memory。  3美光内部测试使用相同容量的 LPDDR5X 和 DDR5 进行 Pot3D 太阳物理 HPC 代码性能测评。
2026-03-06 11:37 reading:452
  • Week of hot material
  • Material in short supply seckilling
model brand Quote
BD71847AMWV-E2 ROHM Semiconductor
CDZVT2R20B ROHM Semiconductor
MC33074DR2G onsemi
RB751G-40T2R ROHM Semiconductor
TL431ACLPR Texas Instruments
model brand To snap up
STM32F429IGT6 STMicroelectronics
IPZ40N04S5L4R8ATMA1 Infineon Technologies
BU33JA2MNVX-CTL ROHM Semiconductor
BP3621 ROHM Semiconductor
ESR03EZPJ151 ROHM Semiconductor
TPS63050YFFR Texas Instruments
Hot labels
ROHM
IC
Averlogic
Intel
Samsung
IoT
AI
Sensor
Chip
About us

Qr code of ameya360 official account

Identify TWO-DIMENSIONAL code, you can pay attention to

AMEYA360 weixin Service Account AMEYA360 weixin Service Account
AMEYA360 mall (www.ameya360.com) was launched in 2011. Now there are more than 3,500 high-quality suppliers, including 6 million product model data, and more than 1 million component stocks for purchase. Products cover MCU+ memory + power chip +IGBT+MOS tube + op amp + RF Bluetooth + sensor + resistor capacitance inductor + connector and other fields. main business of platform covers spot sales of electronic components, BOM distribution and product supporting materials, providing one-stop purchasing and sales services for our customers.

Please enter the verification code in the image below:

verification code