深度丨2022ISSCC:半导体巨头新方向
2022-03-12
来源:Ai芯天下
前言:
今年国际固态半导体电路会议(ISSCC)刚刚落下帷幕。从其中研究成果看到下一步的投入方向,从中可以探究整体半导体行业的未来发展动向。
各国入选论文数量的变化
2022年ISSCC共收到投稿论文651篇,其中200篇获得录用。
从ISSCC 2022入选论文数量上来看,远东地区首次超过北美。
从录用论文的来源国和地区看,美国以69篇继续领跑,韩国有41篇,而仅有7篇的日本位居第五。
日本获得录用的论文数量仅占3.5%,与上一年小幅下降,前沿领域研究的落后可能波及日本的产业竞争力。
比较而言,我国绝大部分来自学术界;而日本、韩国、北美则会有很多公司,这是我们应该重点加强的。
入选论文两篇以上的企业/大学/研发机构,我国有六家:其中清华大学一家就贡献了9篇论文。
三星:移动端NPU覆盖AI算法多面需求
三星工程师分享了即将推出的3nm GAE MBCFET芯片的制造细节,三星已经为MBCFET注册了商标。
虽然三星目前尚未披露其所有特性,但三星在ISSCC上讨论了如何使用新型晶体管来提高SRAM性能和可扩展性。
近年来,SRAM的可扩展性一直落后于逻辑的可扩展性。同时,现代片上系统将SRAM的负载用于各种高速缓存,因此提高其可伸缩性是一项至关重要的任务。
三星的移动端NPU目前已经使用在其4nm Exynos SoC中。
其NPU可以覆盖INT4、INT8和FP16几种精度,这些计算精度基本上能覆盖移动端人工智能算法所有的需求。
例如INT4针对较为简单的网络;FP16针对较为复杂对于精度要求更高的网络。
该NPU有高性能模式和低功耗模式两种工作模式,从而满足移动端不同应用场景之间的切换。
覆盖了手机芯片在日常应用中的痛点,其优化的方向有非常明确的实际应用场景,已经过实战的打磨。
SK海力士:基于GDDR接口的DRAM存内计算
SK海力士在DRAM存内计算研究中,使用了将计算单元集成在DRAM存储芯片中的架构并完成了4Gb AiM芯片;
通过DRAM控制器,该DRAM既可以做存内计算,又可以当作正常的DRAM来使用。
AiM相对传统的GPU+HBM2在常用机器学习模型中可以实现高达10倍的性能提升。
GDDR6 AiM的工作电压为1.25V,低于现有产品的1.35V工作电压。
GDDR6-AiM 与 CPU / GPU 的组合,其有望在某些场景下达成16倍的计算速度,预期可在机器学习、高性能计算、大数据计算 / 存储中得到广泛的应用。
本次新推出的这款内存,将采用 TSV 硅通孔工艺制造,单颗最大容量可达 24GB。目前这类产品在服务器 CPU 中有应用,与处理器核心紧密封装在一起,实现高速率。
台积电:SRAM+下一代存储器打造差异化IP
SRAM一向是半导体工艺的一个重要基准,因此台积电抓住下一代SRAM IP将对于巩固其代工厂龙头地位有重要作用。
本次由台积电作为唯一作者机构在ISSCC上发表的SRAM论文是基于其5nm工艺,其64kb的IP可以实现在不同计算精度(INT4–INT8)下实现非常高的计算密度(55.3-221.2 TOPS/mm2)和能效比(70–254 TOPS/W)。
在下一代存储器方面,台积电也在和台清大、佐治亚理工等高校合作发表了多项新技术,涉及RRAM、STT-MRAM、相变存储器等多种新存储器。
带有存内计算的SRAM和下一代存储器也就成为了台积电能提供带有差异化IP的一个重要机会。
作为全球最大的代工厂,台积电在人工智能领域的投入在本届ISSCC上主要体现为带有存内计算的片上存储器IP,包括SRAM和下一代存储器(RRAM,STT-MRAM)等。
AMD:应用3D V-Cache新技术
游戏CPU锐龙7 5800X3D即将上市,AMD在ISSCC 2022国际固态电路会议上详细解读了这项令游戏性能大涨15%的新技术。
AMD在L3级别使用了共享环形总线设计,CCD中的每个核心都可以访问整个L3缓存,从而进一步提升性能。
代号Milan-X的EPYC霄龙处理器也使用了3D V-Cache技术,CCD被减薄处理,而后应用台积电的SoIC技术将V-Cache“面朝下”放置在CCD上。
此外CCD上还会有一层Support Silicon让它拥有和IOD相同的高度,这样CPU的封装尺寸不会发生变化,相应的散热设计也无需进行调整。
IBM:量子计算的独特性决定芯片反向
目前量子计算技术面临的核心问题还是在实证物理阶段的困扰,在理论物理阶段已经基本成熟。
但进入实证物理阶段的时候,需要的是让这个难以琢磨以及极为不稳定的量子纠缠能够成为一种可掌握的稳定性技术。
IBM在ISSCC上发表的研究中指出,量子计算的主要目的并不是取代传统通用计算机,而是在一些专门的问题中:
如质因数分解,化学相关模拟计算、优化问题等获得远高于传统计算机算法的处理速度,这是由于量子计算的独特特性所决定的。
IBM研制出超过100个量子比特的计算机,表明这项技术具有可拓展性,从而有足够的计算能力来解决有趣的问题,这是通往更强大机器的铺路石。
谷歌:研发Sycamore量子计算芯片
谷歌在其论文中指出,控制和读出芯片将会是量子计算机跨向下一步(即进一步增加量子位数)的关键。
也可以说当量子计算机成为主流时,相关的控制和读出芯片也可望会成为一个新的芯片品类市场。
谷歌在资源库中提供了丰富并且重要的内容。其中之一是 OpenFermion,与量子化学的内容相关。
第二个是建立在 Google 经典计算硬件上的量子TensorFlow。其张量处理器(TPU)就是运行在这一系统上,并处理量子模拟和机器学习等问题。
Chiplet集成芯片:一场关于维度的战争
经过ISSCC 2021 Chiplet的小冷静期,终于ISSCC 2022的Chiplet论文迎来了大爆发。
两大CPU厂今年基于Chiplet的爆款产品:英特尔的Ponte Vecchio和AMD的3D-VCache(Zen3) 都在ISSCC上展示了技术细节。
这两款芯片都实现了真正意义上的3D芯片,从维度上超越了2.5D的CoWoS 和Fanout封装技术:采用硅inerposer或者RDL外沿层技术实现多层平面互连。
阿里达摩院也实现了基于Hybrid Bonding的近存计算引擎,可用于推荐系统。
复旦大学提出了面向2.5D封装的可扩展存算一体架构,通过Chiplet技术,达到流片后的再度灵活配置特性,支持不同尺度的终端学习场景。
结尾:
未来已来,而大厂仍未掉队。存算已经每一类存储器的争奇斗艳的舞台,基于数字方法和近数字方法开始取代了前两年大行其道的模拟计算,而传统存储器大厂台积电、三星和海力士仍是主角。随着量子计算的深入而深知,谷歌、IBM等各大厂商也在不断进化其自研芯片。