Zero Touch安全配置工具包

利用AWS IoT服务中的Just-In-Time-Registration功能结合强制TLS 1.2和相互身份验证 - 批量证书上传从未如此简单。

TE K 型热电偶连接器

设计具有出色的连接性,TE K 型热电偶连接器采用推入式锁定设计以便于插接, 金属锁定装置的形状可防止意外插接。

Molex I/O互连系统的解决方案

具有业界领先的端口密度、多协议应用支持以及增强的信号完整性,适用于存储、移动以及企业行业的PCIe和SAS 解决方案。

混合模块开启下一场芯片封装革命

2018-01-17 来源:Jim O''Reilly [责任编辑:lina]
分享到:
0分
【导读】计算机主要组件的封装几十年来相对稳定,但现在正经历一场革命。例如,在内存和中央处理器(CPU)之间已经达到散热和带宽极限的情况下,业界正在寻求新的方案来提高性能并降低功耗。最近两年,引领这一追求的是混合内存立方体(HMC)构想...


计算机主要组件的封装几十年来相对稳定,但现在正经历一场革命。例如,在内存和中央处理器(CPU)之间已经达到散热和带宽极限的情况下,业界正在寻求新的方案来提高性能并降低功耗。
 
最近两年,引领这一追求的是混合内存立方体(HMC)构想(图1)。这是美光科技(Micron)提出的概念,业已被庞大的产业领导者联盟——混合内存立方体联盟(Hybrid Memory Cube Consortium)所采用。
 

图1 混合内存立方体。
 
这一概念基于用一组高速串行连接取代传统的DRAM总线,同时使内存和运算芯片在物理上非常接近,以便去掉驱动DRAM总线的功率晶体管。由此产生的模块可将内存的功耗降低70%~90%,目前性能可达160GB/s水平,这是两项令人瞩目的进展。未来的配置目标是超过上述指针的两倍,最终是使用多个内存模块实现1TB/s的吞吐率。
 
硅穿孔(TSV)是使能技术(enabling technology)。透过在逻辑模块上堆栈内存裸片并使用TSV将顶层连接到逻辑电路,使用大量的并行链路,可实现很小的面积占用。今天的产品通常有四个堆栈裸片,所以每个模块的容量限制在16GB。
 
逻辑层可以是CPU、绘图处理器(GPU)、现场可编程门阵列(FPGA)或只是控制逻辑,似乎所有这些选项都开始出现。来看一些应用,CPU选项看来显而易见,在CPU之上构建DRAM得到的稍厚的混合芯片,应用在智能型手机和平板计算机上令人关注,这是一种节省宝贵空间的方式,但更重要的是节省稀少且缺乏的电能。使用16GB容量的方案,已经是个可行的建议,而更高密度的封装将扩大到整个市场。
 
在服务器中,更高的带宽是吸引力所在。目前尚不清楚市场是否会跟进CPU/内存堆栈路径,或是选择多个内存芯片的紧密并列封装,后者可将带宽提升到500+GB/s范围并增加HMC容量。举例来说,英特尔(Intel)的Knights Landing Phi芯片旨在使用堆栈内存结构(图2)。
 

图2 英特尔Knights Landing代号Xeon Phi处理器。(图片来源:英特尔)
 
AMD和Nvidia这两家GPU制造商选择了采用多通道并行总线不同的模块化方法(高带宽内存,HBM)。HMB比RAM总线宽得多,可提供更高带宽。DRAM裸片堆栈和与GPU紧密耦合旨在解决性能和功耗问题,将模块方法应用到GPU引发了与服务器相同的封装问题,因此解决方案的采用可能取决于GPU产品是针对消费类还是针对人工智能(AI)市场。
 
在服务器系统中用作加速器的FPGA,其本身的故事仍在不断演绎,尽管像Altera/Intel和赛灵思(Xilinx)这样的公司已经为HMC提供了原型开发板。
 
这种模块化方法透露出主要的管道含义。然主导力的天平明显地倒向内存芯片制造商(如美光),而对没代工厂的DIMM组装厂商不利,但这并非一蹴可几,因为系统结构和芯片生态系统还没有发展到可正确使用模块化方案。可能的情况是,智能型手机的封闭性将使其成为更容易渗透的市场。
 
服务器市场转向模块化方法,很可能会因服务器核心中以结构为中心架构的兴起而变得复杂。诸如Gen-Z之类的方法使得串行内存连接成为将CPU、GPU、FPGA和外部通讯连接在一起的RDMA结构的焦点,它使所有服务器单元之间直接使用公共内存,以及共享内存和接口的跨集群成为可能。未来AMD和Nvidia的计划将致力于内存与GPU之间更紧密的耦合,以使当前架构将大量数据从CPU内存传输到GPU内存的问题不再困难。
 
主导力的天平倒向芯片制造商不仅伤及DIMM制造商,还同样殃及插卡制造商。服务器主板将可能具有针对适配驱动器或LAN的SoC方案的ZIF插槽,以及用于内存和计算组件的更多插槽。
 
但供货商阵营也并非一团和气。英特尔在谈论与业内其他家不同的途径。业内有讨论可更好填补Optane NVDIMM和L3高速缓存之间性能差距的高带宽、低延迟(HBLL)DIMM方案,而不是用于服务器的HMC。
 
最后的难题是,虽然这些新的内存速度非常快,但容量有限,目前为16GB或更小。虽然这与DIMM类似,但其架构将当今的许多模块排除在外。随着对TB容量内存的需求, 该问题尚没有得体的对策。英特尔在NVDIMM中内置傲腾(Optane)的HBLL方法很可能是条解决之道。
 
尽管英特尔明显的离经叛道(没有任何东西正式宣布为产品),但很明显,系统将变得更快、更模块化。为实现这种模块化,以太网络NVMe作为一种共享主储存的方式在市场上备受瞩目——这种架构可使驱动器与服务器分开,尽管它们可能仍然共享封装。所有这些都将在2018年上半年成为整个产业的发展蓝图,并导致系统性能真正大幅度地提升,从而推动整个系统和储存市场的发展。




推荐阅读:
智能手机+人工智能,哪些应用会火起来? 
简单了解电阻器常见的几种失效模式 
 结合LED照明的电容式感应设计方案 
深度解析开关电源双极性晶体管的开关特性 
 
关键字:混合模块 芯片 
本文链接:http://www.cntronics.com/connect-art/80033408
分享到:
推荐给同仁
0
0
查看全部评论
有人回复时发邮件通知我

关于我们 | About Us | 联系我们 | 隐私政策 | 版权申明 | 投稿信箱

反馈建议:editor@eecnt.com     客服电话:0755-26727371

Copyright © WWW.CNTRONICS.COM  All Rights Reserved 深圳市中电网络技术有限公司 版权所有   粤ICP备10202284号-1 未经书面许可,不得转载本网站内容。