您现在所在位置: 雷火竞技 > 雷火新闻

雷火竞技

Company information

行业动态

Industry dynamics

常见问题

Common Problem

雷火竞技半导体制程经历了哪半导体设备些重大的发展节点?

发布日期:2023-08-09 13:32 浏览次数:

  雷火竞技雷火竞技雷火竞技题主的问题是半导体制造的制程节点,那么也就是指所谓XXnm的节点的意思。这里面有多方面的问题,一是制造工艺和设备,一是晶体管的架构、材料。前者我完全不懂,所以不来献丑,后者有不少涉及到一些比较常识的问题,所以可以写一点,供大家参考指正。还有,晶体管的制造只是前端而已,集成电路的后端,包括互联等等,也是每个技术节点都会进步的一大课题,这部分我也完全不懂,所以不涉及。

  首先回答技术节点的意思是什么。常听说的,诸如,台积电16nm工艺的Nvidia GPU、英特尔14nm工艺的i5,等等,这个长度的含义,具体的定义需要详细的给出晶体管的结构图才行,简单地说,在早期的时候,可以姑且认为是相当于晶体管的尺寸。

  为什么这个尺寸重要呢?因为晶体管的作用,简单地说,是把电子从一端(S),通过一段沟道,送到另一端(D),这个过程完成了之后,信息的传递就完成了。因为电子的速度是有限的,在现代晶体管中,一般都是以饱和速度运行的,所以需要的时间基本就由这个沟道的长度来决定。越短,就越快。这个沟道的长度,和前面说的晶体管的尺寸,大体上可以认为是一致的。但是二者有区别,沟道长度是一个晶体管物理的概念,而用于技术节点的那个尺寸,是制造工艺的概念,二者相关,但是不相等。

  在微米时代,一般这个技术节点的数字越小,晶体管的尺寸也越小,沟道长度也就越小。但是在22nm节点之后,晶体管的实际尺寸,或者说沟道的实际长度,是长于这个数字的。比方说,英特尔的14nm的晶体管,沟道长度其实是20nm左右。

  第一,为什么要把晶体管的尺寸缩小?以及是按照怎样的比例缩小的?这个问题就是在问,缩小有什么好处?

  第二,为什么技术节点的数字不能等同于晶体管的实际尺寸?或者说,在晶体管的实际尺寸并没有按比例缩小的情况下,为什么要宣称是新一代的技术节点?这个问题就是在问,缩小有什么技术困难?

  第三,具体如何缩小?也就是,技术节点的发展历程是怎样的?在每一代都有怎样的技术进步?这也是题主所提的真正的问题。在这里我特指晶体管的设计和材料,前面已经说明过了。

  第一个问题,一部分的答案已经说了,因为越小就越快。这个快是可以直接翻译为基于晶体管的集成电路芯片的性能上去的。下面以微处理器CPU为例,首先上图,来源是40 Years of Microprocessor Trend Data

  这张图的信息量很大,这里相关的是绿色的点,代表CPU的时钟频率,越高当然越快。可以看出直到2004年左右,CPU的时钟频率基本是指数上升的,背后的主要原因就是晶体管的尺寸缩小。

  另外一个重要的原因是,尺寸缩小之后,集成度(单位面积的晶体管数量)提升,这有多个好处,一来可以增加芯片的功能,二来更重要的是,根据摩尔定律,集成度提升的直接结果是成本的下降。这也是为什么半导体行业50年来如一日地追求摩尔定律的原因,因为如果达不到这个标准,你家的产品成本就会高于能达到这个标准的对手,你家就倒闭了。

  还有一个原因是晶体管缩小可以降低单个晶体管的功耗,因为缩小的规则要求,同时会降低整体芯片的供电电压,进而降低功耗。

  但是有一个重要的例外,就是从物理原理上说,单位面积的功耗并不降低。因此这成为了晶体管缩小的一个很严重的问题,因为理论上的计算是理想情况,实际上,不仅不降低,反而是随着集成度的提高而提高的。在2000左右的时候,人们已经预测,根据摩尔定律的发展,如果没有什么技术进步的线左右时,其功耗密度可以达到火箭发动机的水平,这样的芯片当然是不可能正常工作的。即使达不到这个水平,温度太高也会影响晶体管的性能。

  事实上,业界现在也没有找到真正彻底解决晶体管功耗问题的方案,实际的做法是一方面降低电压(功耗与电压的平方成正比),一方面不再追求时钟频率。因此在上图中,2005年以后,CPU频率不再增长,性能的提升主要依靠多核架构。这个被称作“功耗墙”,至今仍然存在,所以你买不到5GHZ的处理器,4G的都几乎没有。

  以上是三个缩小晶体管的主要诱因。可以看出,都是重量级的提升性能、功能、降低成本的方法,所以业界才会一直坚持到现在。

  那么是怎样缩小的呢?物理原理是恒定电场,因为晶体管的物理学通俗的说,是电场决定的,所以只要电场不变,晶体管的模型就不需要改变,这种方式被证明效果最佳,被称为Dennard Scaling,提出者是IBM。

  如何缩小尺寸?简单粗暴:将面积缩小到原来的一半就好了。面积等于尺寸的平方,因此尺寸就缩小大约0.7。如果看一下晶体管技术节点的数字:

  会发现是一个大约为0.7为比的等比数列,就是这个原因。当然,前面说过,在现在,这只是一个命名的习惯,跟实际尺寸已经有差距了。 ---------------------------------------------------------------------------------- 第二个问题,为什么现在的技术节点不再直接反应晶体管的尺寸呢?

  10nm的沟道长度,也就只有不到100个硅原子而已。晶体管本来的物理模型这样的:用量子力学的能带论计算电子的分布,但是用经典的电流理论计算电子的输运。电子在分布确定之后,仍然被当作一个粒子来对待,而不是考虑它的量子效应。因为尺寸大,所以不需要。但是越小,就越不行了,就需要考虑各种复杂的物理效应,晶体管的电流模型也不再适用。

  其次,即使用经典的模型,性能上也出了问题,这个叫做短沟道效应,其效果是损害晶体管的性能。

  短沟道效应其实很好理解,通俗地讲,晶体管是一个三个端口的开关。前面已经说过,其工作原理是把电子从一端(源端)弄到另一端(漏端),这是通过沟道进行的,另外还有一个端口(栅端)的作用是,决定这条沟道是打开的,还是关闭的。这些操作都是通过在端口上加上特定的电压来完成的。

  晶体管性能依赖的一点是,必须要打得开,也要关得紧。短沟道器件,打得开没问题,但是关不紧,原因就是尺寸太小,内部有很多电场上的互相干扰,以前都是可以忽略不计的,现在则会导致栅端的电场不能够发挥全部的作用,因此关不紧。关不紧的后果就是有漏电流,简单地说就是不需要、浪费的电流。

  这部分电流可不能小看,因为此时晶体管是在休息,没有做任何事情,却在白白地耗电。目前,集成电路中的这部分漏电流导致的能耗,已经占到了总能耗的接近半数,所以也是目前晶体管设计和电路设计的一个最主要的目标。

  决定制造工艺的最小尺寸的东西,叫做光刻机。它的功能是,把预先印制好的电路设计,像洗照片一样洗到晶片表面上去,在我看来就是一种bug级的存在,因为吞吐率非常地高。否则那么复杂的集成电路,如何才能制造出来呢?比如英特尔的奔腾4处理器,据说需要30多还是40多张不同的设计模板,先后不断地曝光,才能完成整个处理器的设计的印制。

  而稍有常识就会知道,所有用光的东西,都有一个本质的问题,就是衍射。光刻机不例外。

  因为这个问题的制约,任何一台光刻机所能刻制的最小尺寸,基本上与它所用的光源的波长成正比。波长越小,尺寸也就越小,这个道理是很简单的。

  目前的主流生产工艺采用荷兰艾斯摩尔生产的步进式光刻机,所使用的光源是193nm的氟化氩(ArF)分子振荡器(这个名称记不清了)产生的,被用于最精细的尺寸的光刻步骤。

  相比之下,目前的最小量产的晶体管尺寸是20nm (14nm node),已经有了10倍以上的差距。

  有人问为何没有衍射效应呢?答案是业界十多年来在光刻技术上投入了巨资,先后开发了各种魔改级别的暴力技术,诸如浸入式光刻(把光程放在某种液体里,因为光的折射率更高,而最小尺寸反比于折射率)、相位掩模(通过180度反向的方式来让产生的衍射互相抵消,提高精确度),等等,可歌可泣,就这样一直撑到了现在,支持了60nm以来的所有技术节点的进步。

  以上就是目前主流的深紫外曝光技术(DUV)。业界普遍认为,7nm技术节点是它的极限了,甚至7nm都不一定能够做到量产。下一代技术仍然在开发之中,被称为极紫外(EUV),其光源降到了13nm。但是别高兴地太早,因为在这个波长,已经没有合适地介质可以用来折射光,构成必须的光路了,因此这个技术里面的光学设计,全部是反射,而在如此高的精度下,设计如此复杂的反射光路,本身就是难以想象的技术难题。

  这还不算(已经能克服了),最难的还是光源,虽然可以产生所需的光线,但是强度远低于工业生产的需求,造成EUV光刻机的晶圆产量达不到要求,换言之拿来用就会赔本。一台这种机器,就是上亿美元。所以EUV还属于未来。

  有以上三个原因,其实很早开始就导致晶体管的尺寸缩小进入了深水区,越来越难,到了22nm之后,已经无法做大按比例缩小了,因此就没有再追求一定要缩小,反而是采用了更加优化的晶体管设计,配合上CPU架构上的多核多线程等一系列技术,继续为消费者提供相当于更新换代了的产品性能。

  因为这个原因,技术节点的数字仍然在缩小,但是已然不再等同于晶体管的尺寸,而是代表一系列构成这个技术节点的指标的技术和工艺的总和。 ----------------------------------------------------------------------------- 第三个问题,技术节点的缩小过程中,晶体管的设计是怎样发展的。

  首先搞清楚,晶体管设计的思路是什么。主要的无非两点:第一提升开关响应度,第二降低漏电流。

  为了讲清楚这个问题,最好的方法是看图。晶体管物理的图,基本上搞清楚一张就足够了,就是漏电流-栅电压的关系图雷火竞技,比如下面这种:

  前面说过,栅电压控制晶体管的开关。可以看出,最好的晶体管,是那种能够在很小的栅电压变化内,一下子就从完全关闭(漏电流为0),变成完全打开(漏电流达到饱和值),也就是虚线。这个性质有多方面的好处,接下来再说。

  显然这种晶体管不存在于这个星球上。原因是,在经典的晶体管物理理论下,衡量这个开关响应能力的标准,叫做Subthreshold Swing(SS,不是党卫军...),有一个极限值,约为60,背后的原因就不细说了。

  英特尔的数据上,最新的14nm晶体管,这个数值大概是70左右(越低越好)。

  并且,降低这个值,和降低漏电流、提升工作电流(提高速度)、降低功耗等要求,是等同的,因为这个值越低,在同样的电压下,漏电流就越低。而为了达到同样的工作电流,需要的电压就越低,这样等同于降低了功耗。所以说这个值是晶体管设计里面最重要的指标,不过分。

  围绕这个指标,以及背后的晶体管性能设计的几个目标,大家都做了哪些事情呢?

  先看工业界,毕竟实践是检验真理的唯一标准。下面是我的记忆,和节点的对应不一定完全准确,但具体的描述应该没错:

  strain我不知道如何翻译成中文词汇,但是其原理是通过在适当的地方掺杂一点点的锗到硅里面去,锗和硅的晶格常数不同,因此会导致硅的晶格形状改变,而根据能带论,这个改变可以在沟道的方向上提高电子的迁移率,而迁移率高,就会提高晶体管的工作电流。而在实际中,人们发现,这种方法对于空穴型沟道的晶体管(pmos),比对电子型沟道的晶体管(nmos),更加有效。

  这个也是一个里程碑的成果,我在念书的时候曾经有一位帮他搬过砖的教授,当年是在英特尔开发了这项技术的团队的主要成员之一,因此对这一点提的特别多,耳濡目染就记住了。

  这是两项技术,但其实都是为了解决同一个问题:在很小的尺寸下,如何保证栅极有效的工作。

  这是一个最基本的晶体管的结构示意图,现在的晶体管早就不长这样了,但是任何半导体物理都是从这儿开始讲起的,所以这是“标配版”的晶体管,又被称为体硅(bulk)晶体管。

  其中有一个oxide,绝缘层,前面没有提到,但是却是晶体管所有的构件中,最关键的一个。它的作用是隔绝栅极和沟道。因为栅极开关沟道,是通过电场进行的,电场的产生又是通过在栅极上加一定的电压来实现的,但是欧姆定律告诉我们,有电压就有电流。如果有电流从栅极流进了沟道,那么还谈什么开关?早就漏了。

  所以需要绝缘层。为什么叫oxide(or dielectric)而不叫insulator呢?因为最早的绝缘层就是和硅非常自然地共处的二氧化硅,其相对介电常数(衡量绝缘性的,越高,对晶体管性能来说,越好)约是3.9。一个好的绝缘层是晶体管的生命线,这个“好”的定义在这里不多说了,但是要说明,硅天然就具有这么一个性能超级好的绝缘层,对于半导体工业来说,是一件有历史意义的幸运的事情。有人曾经感慨,说上帝都在帮助人类发明集成电路,首先给了那么多的沙子(硅晶圆的原料),又给了一个完美的自然绝缘层。所以至今,硅极其难被取代,一个重要原因就是,作为制造晶体管的材料,其综合性能太完美了。

  二氧化硅虽好,在尺寸缩小到一定限度时,也出现了问题。别忘了缩小的过程中,电场强度是保持不变的,在这样的情况下,从能带的角度看,因为电子的波动性,如果绝缘层很窄很窄的话,那么有一定的几率电子会发生隧穿效应而越过绝缘层的能带势垒,产生漏电流。可以想象为穿过一堵比自己高的墙。这个电流的大小和绝缘层的厚度,以及绝缘层的“势垒高度”,成负相关。因此厚度越小,势垒越低,这个漏电流越大,对晶体管越不利。

  但是在另一方面,晶体管的开关性能、工作电流等等,都需要拥有一个很大的绝缘层电容。实际上,如果这个电容无限大的话,那么就会达到理想化的60的那个SS指标。这里说的电容都是指单位面积的电容。这个电容等于介电常数除以绝缘层的厚度。显然,厚度越小,介电常数越大,对晶体管越有利。

  那么可以看出,这里已经出现了一对设计目标上的矛盾,那就是绝缘层的厚度要不要继续缩小。实际上在这个节点之前,二氧化硅已经缩小到了不到两个纳米的厚度,也就是十几个原子层的厚度,漏电流的问题已经取代了性能的问题,成为头号大敌。

  于是聪明绝顶的人类开始想办法。人类很贪心的,既不愿意放弃大电容的性能增强,又不愿意冒漏电的风险。于是人类说,如果有一种材料,介电常数很高,同时能带势垒也很高,那么是不是就可以在厚度不缩小的情况下(保护漏电流),继续提升电容(提高开关性能)呢?

  于是大家就开始找,用几乎暴力的方法,找了许多种奇奇怪怪的材料,终于最后经过验证,确定使用一种名为HfO2的材料。这个元素我以前听都没有听过,中文念什么我都说不上来。就是这么牛。这个就叫做high-k,这里的k是相对介电常数(相对于二氧化硅的而言)。

  当然,这个工艺的复杂程度,远远超过这里描述的这么简单。具备high-k性质的材料很多,但是最终被采用的材料,一定要具备许多优秀的电学性质,因为二氧化硅真的是一项非常完美的晶体管绝缘层材料,而且制造工艺流程和集成电路的其它制造步骤可以方便地整合,所以找到这样一项各方面都符合半导体工艺制造的要求的高性能绝缘层材料,是一件了不起的工程成就。

  至于金属栅,是与high-k配套的一项技术。在晶体管的最早期,栅极是用铝制作,后来经过发展,改用重掺杂多晶硅制作,因为工艺简单,性能好。到了high-k这里,大家发现,high-k材料有两个副作用半导体,一是会莫名其妙地降低工作电流,二是会改变晶体管的阈值电压。阈值电压就是把晶体管的沟道打开所需要的最小电压值,这个值是非常重要的晶体管参数。

  这个原理不细说了(其实是说不清楚才对吧哈哈...?),主要原因是,high-k材料会降低沟内的道载流子迁移率,并且影响在界面上的费米能级的位置。载流子迁移率越低,工作电流就越低,而所谓的费米能级,是从能带论的图像上来解释半导体电子分布的一种分析方法,简单地说,它的位置会影响晶体管的阈值电压。这两个问题的产生,都和high-k材料内部的偶极子分布有关。偶极子是一端正电荷一端负电荷的一对电荷系统,可以随着外加电场的方向而改变自己的分布,high-k材料的介电常数之所以高的原因,就跟内部的偶极子有很大关系。所以这是一把双刃剑。

  于是人类又想,就想到了用金属做栅极,因为金属的自由电荷浓度极高(超过10^20),而且有镜像电荷效应,可以中和掉high-k材料的绝缘层里的偶极子对沟道和费米能级的影响。这样一来就两全其美啦:

  至于这种或这几种金属究竟是什么,很抱歉,除了掌握技术的那几家企业之外,外界没有人知道,是商业机密。

  ------------------------------------------------------- 有知友补充到,这种金属是钨,我有查阅到资料也提到是钨;钨本身也用在后端的via中; 但是在这个问题上我有些保留,主要原因是四点,第一我自己上课的时候,有多位教授都明确提到过,关于这个metal gate的资料外界知之甚少,至少他们自己不知道,或因为某种原因而不愿意说;第二,从原理上说,对于NMOS和PMOS,因为所需的功函数是不一样的,所以单一的一种金属无论如何是不可能满足整个的high-k工艺的需求,即使确实是钨,也需要进行work function engineering;第三也有很多资料提到了别的材料,譬如说TiN 系列作为metal gate(Study of High-k/Metal-Gate Work-Function Variation Using Rayleigh Distribution) 最后第四,或许也是最令人疑惑的,就是在我查阅过的资料中,虽然Intel很早就说使用了HfO2作为high-k材料,但是Intel自己却没有透露这种或这几种金属是什么,譬如它在2008年发表的iedm的文章雷火竞技,sroom/kits/advancedtech/pdfs/Natarajan_iedm_2008_text.pdf, 没有提及具体的材料,而是以metal gate作为代称。Mark Bohl在2007年发表的文章中,也明确说到如下的信息:

  更新的资料中,似乎也没有找到相关的信息,而是多以WFM (work function metal)作为指代。虽然在研究界有过关于W、TiN等多种材料的不少研究论文发表,但是我自己是无力确认关于这个metal gate材料的信息来源是什么。因为本人并不从事晶体管制造或设计的研究工作,无力回答这个问题。因此希望能有知情的知友进行补充,并且提供来源。 -------------------------------------------------------

  因为45nm英特尔取得了巨大的成功(在很多晶体管、微处理器的发展图上,45nm这一代的晶体管,会在功耗、性能等方面突然出现一个较大的进步折线nm时候继续在基础上改换更好的材料,继续了缩小尺寸的老路。当然,前代的Ge strain工艺也是继续使用的。

  这一代的晶体管,在架构上进行了一次变革。变革的最早设计可以追溯到伯克利的胡正明教授2000左右提出的三栅极和环栅晶体管物理模型,后来被英特尔变为了现实。

  为什么要这么做呢?直观地说,如果看回前面的那张“标配版”的晶体管结构图的话,在尺寸很短的晶体管里面,因为短沟道效应,漏电流是比较严重的。而大部分的漏电流,是通过沟道下方的那片区域流通的。沟道在图上并没有标出来,是位于氧化绝缘层以下、硅晶圆表面的非常非常薄(一两个纳米)的一个窄窄的薄层。沟道下方的区域被称为耗尽层,就是大部分的蓝域。

  于是有人就开始想啊,既然电子是在沟道中运动,那么我为何非要在沟道下面留有这么一大片耗尽层呢?当然这是有原因的,因为物理模型需要这片区域来平衡电荷。但是在短沟道器件里面,没有必要非要把耗尽层和沟道放在一起,等着漏电流白白地流过去。

  于是有人(IBM)开了一个脑洞:把这部分硅直接拿掉,换成绝缘层,绝缘层下面才是剩下的硅,这样沟道就和耗尽层分开了,因为电子来源于两极,但是两极和耗尽层之间,被绝缘层隔开了,这样除了沟道之外,就不会漏电啦。比如这样:

  这个叫做SOI(绝缘层上硅),虽然没有成为主流,但是因为有其优势,所以现在还有制造厂在搞。

  于是有人(英特尔)又想了,既然都是拿掉耗尽层的硅,插入一层氧化层,那么为什么非要放上一堆没用的硅在下面,直接在氧化层底下,再弄一个栅极,两边夹着沟道,岂不是更爽?你看你IBM,就是没雄心。

  但是英特尔还觉得不够,又想,既然如此,有什么必要非得把氧化层埋在硅里面?我把硅弄出来,周围三明治一样地包裹上绝缘层,外面再放上栅极,岂不是爽爆?

  于是就有了FinFET,上面这种。FinFET牛逼的地方在于,不仅大大降低了漏电流,而且因为有多一个栅极,这两个栅极一般都是连在一起的,因此等于大大地增加了前面说过的那个绝缘层电容,也就是大大地提升了晶体管的开关性能。所以又是一次革命式的进步。

  这个设计其实不难想到,难的是,能够做到。为什么呢?因为竖起来的那一部分硅,也就是用作沟道的硅,太薄了,只有不到10个纳米,不仅远小于晶体管的最小尺寸,也远小于最精密的光刻机所能刻制的最小尺寸。于是如何把这个Fin给弄出来,还得弄好,成了真正的难题。

  英特尔的做法是很聪明的,解释起来需要很多张工艺流程图,不多说,但是基本原理是,这部分硅不是光刻出来的,而是长出来的。它先用普通精度的光刻刻出一堆“架子,然后在沉淀一层硅,在架子的边缘就会长出一层很薄的硅,然后再用选择性的刻蚀把多余的材料弄走,剩下的就是这些立着的、超薄的硅fin了。当时我听说这套方法的时候,彻底跪了,这智商太碾压人了。

  ----------------------------------------------- (因为有知友问到,制作FinFET的工艺流程具体是怎样的。之前说过了,笔者并非这方面的专家,所知有限。尽所能查阅了一些资料之后,把相关的一些信息整理在下面,供大家参考)

  Double Patterning是可以提高光刻最小精度的,是目前主流采用的一种技术,有很多个版本。它的原理是这样的,譬如说,Intel是采用193nm的浸入式光刻来处理最高精度需求的步骤,这个技术的最小尺寸大约是80~90nm之间。如果使用Double Patterning的话呢,则可以将这个精度提高到约40nm左右。这个在原理上是很容易理解的,如果先pattern一批80nm精度的图样,然后再交错着pattern一批80nm精度的图样,在两次光刻之后,图样的精度,以pitch来衡量的话,就会是原来的精度的一半。这个过程在中就有说明,大家可以直接查阅Multiple patterning。

  Self-Aligned Double Patterning是其中的一种技术,它只需要一次光刻步骤就能完成,而且从原理上说,是可以用来制作fin的(制作fin的这个步骤叫做active fin formation)。我在上一些相关的器件和工艺课程的时候,自己的教授也有提到这个工艺是被用来制作fin的。但是在这方面,我并没有找到直接的资料,来自Intel 或别的几个大厂,来说明自己的active fin formation具体是怎么做的,因此这只能算是一个合理的猜测:

  在这个过程中,首先会沉积一层hard mask,又被称作mandral的材料,比如说Si3N4之类的。这层材料以普通精度的光刻进行pattern。mandral在被pattern之后,就被称作spacer。然后再生长一层绝缘层材料,譬如二氧化硅,被称作film。可以通过控制这个生长过程的时间,来控制最终的fin的厚度W。然后对film进行刻蚀,将所有水平方向的材料刻蚀掉,只剩下沿着spacer的边缘所生长出来的那部分,之后再以选择性的刻蚀将spacer材料移除,只剩下这层sidewall film。最后就是对底下的硅材料进行刻蚀,这样相当于是以这层film做了mask。

  在接下来,为了保证isolation,还需要再生长一层绝缘材料二氧化硅,这个步骤要求很高,因为fin和fin之间的那段空间,高宽比是很大的,需要让二氧化硅完全填充这个空隙,所以这个步骤被称作conformal coating。显然这个步骤之后,硅片的表面是不平整的,因此需要进行一次CMP (Chemical Mechanical Polishing),就是通过添加一定的研磨剂,用机械研磨的方式将整个晶圆的表面给弄平整。

  最后就是再对二氧化硅材料进行一次刻蚀,通过控制这次刻蚀的时间,可以控制露出来的fin的高度H。在这个fin上面,再用ALD (Atomic Layer Deposition)等步骤沉积high-k材料等栅极的stack,就基本完成了这部分的制作。

  上面这个工艺确实是存在的,也是被采用的,然而关于它有一个问题,就是我所能找到的资料,似乎显示这个工艺是被IBM、三星这系列的厂,用在SOI的finfet上面。前面提到过SOI的概念,这里应该补充一下,其实SOI和finfet并不是两种对立的技术,之前的比较,只是为了方便从晶体管物理的角度解释两种技术的思路是什么。finfet也是可以制作在SOI晶圆上面的,这是三星它们的做法。

  但是Intel似乎并没有采用这种做法,出于成本的考虑(SOI晶圆比较贵),Intel使用的是bulk finfet,沟道底下是没有埋绝缘层的。那么在这个制程下面,active fin formation是否也是用SADP这样的工艺制备的,我没有找到直接的资料证据。

  虽然在前面的采访和一些报道中,Intel普遍提到自己是用了SADP的工艺,但是这个工艺并不限于制作fin,也可以用在制作栅极的pattern以及后端的via, interconnect上面,因此我不能确定Intel 是怎么做的。

  最后给出去年12月,三星在IEDM上发表的自己最新的7nm工艺的晶体管的报告中的几张图,概述了三星\IBM(这俩是一家人...)这个系列的工艺制程的思路,它们是这样考虑的:

  台积电在同一个会议中也发表了7nm,但是语焉不详。Intel则没有发表。在Intel前年发表的14nm晶体管的文章中,同样只是一句话提到使用了SADP工艺,但是并没有像三星这样细致地说明工艺步骤,而是直接开始讲晶体管的性能,所以在这方面的信息很少。

  需要说明一下,无论是哪个工艺,其实一开始都不是这些公司自己发明的,譬如说,胡正明教授就曾经发表过SADP相关的文章,那是早在2006年finfet出来之前多年。这些公司看重了某个工艺的前景(能不能scale,成本问题,等等),然后将它整合到自己积累多年的制作流程中去,推出新一个节点的制程。因为完成一个工艺的设备的成本是极其高昂的,所以往往需要提前多年就做好规划。

  以上是补充的一点点信息,再次强调,笔者并非工艺方面的有经验人士(其实也不是晶体管方面的有经验人士...),所有的资料都提供了来源,供大家自行查阅、参考,并且欢迎在这方面有所见识的知友帮助提供更准确、更新的信息。 ----------------------------------------------------------------------------

  14nm 继续FinFET。下面是英特尔的14nm晶体管的SEM横截面图,大家感受一下,fin的宽度只有平均9nm:

  当然了,在所有的后代的技术节点中,前代的技术也是继续整合采用的。所以现在,在业界和研究界,一般听到的晶体管,都被称作high-k/metal gate Ge-strained 14 nm FinFET,整合了多年的技术精华。

  而在学术界,近些年陆续搞出了各种异想天开的新设计,比如隧穿晶体管啦,负电容效应晶体管啦,碳纳米管啦,等等。

  所有这些设计,基本是四个方向,材料、机理、工艺、结构。而所有的设计方案,其实可以用一条简单的思路概括,就是前面提到的那个SS值的决定公式,里面有两项相乘组成:

  因此,改进要么是改善晶体管的静电物理(electrostatics),这是其中一项,要么改善沟道的输运性质(transport),这是另一项。

  而晶体管设计里面,除了考虑开关性能之外,还需要考虑另一个性能,就是饱和电流问题。很多人对这个问题有误解,以为饱不饱和不重要,其实电流能饱和才是晶体管能够有效工作的根本原因,因为不饱和的话,晶体管就不能保持信号的传递,因此无法携带负载,换言之只中看,不中用,放到电路里面去,根本不能正常工作的。

  举个例子,有段时间石墨烯晶体管很火,石墨烯作沟道的思路是第二项,就是输运,因为石墨烯的电子迁移率远远地完爆硅。但直到目前,石墨烯晶体管还没有太多的进展,因为石墨烯有个硬伤,就是不能饱和电流。但是,去年貌似听说有人能做到调控石墨烯的能带间隙打开到关闭,石墨烯不再仅仅是零带隙,想来这或许会在晶体管材料方面产生积极的影响。 ----------------------------------------------------------------------------------- 希望以上部分回答了题主的问题。

  在去年的IEDM会议上,台积电已经领先英特尔,发布了7nm技术节点的晶体管样品,而英特尔已经推迟了10nm的发布。当然,两者的技术节点的标准不一样,台积电的7nm其实相当于英特尔的10nm,但是台积电率先拿出了成品。三星貌似也在会上发表了自己的7nm产品。

  可以看出,摩尔定律确实放缓了,22nm是在2010左右出来的,到了现在,技术节点并没有进步到10nm以下。而且去年,ITRS已经宣布不再制定新的技术路线图,换言之,权威的国际半导体机构已经不认为,摩尔定律的缩小可以继续下去了。

  技术节点不能进步,是不是一定就是坏事?其实不一定。28nm这个节点,其实不属于前面提到的标准的dennard scaling的一部分,但是这个技术节点,直到现在,仍然在半导体制造业界占据了很大的一块市场份额。台积电、中芯国际等这样的大代工厂,都是在28nm上玩得很转的。为何呢?因为这个节点被证明是一个在成本、性能、需求等多方面达到了比较优化的组合的一个节点,很多芯片产品,并不需要使用过于昂贵的FinFET技术,28nm能够满足自己的需求。

  但是有一些产品,比如主流的CPU、GPU、FPGA、memory这些,其性能的提升有相当一部分来自于工艺的进步。所以再往后如何继续提升这些产品的性能,是很多人心中的问号,也是新的机会。

  第一个当然是诺伊斯发明的集成电路,这是真正的祖师爷,按照Kilby的办法是做不大的,只有诺伊斯是真的可以大规模量产的,后人做的改进再大也不如他的贡献大。

  Implant,在之前都是掺杂,靠高温扩散,横向扩散和纵向一样多,线宽根本做不下去啊!有了离子注入,简直是爽呆了有木有。

  Spacer 自对准,又不要光刻又能给沟道横向扩散留出空间,搞到后来不是自对准的工艺fab都各种不爽,其实就是懒。

  Cu 导线和CMP,解决了铝线的电迁移问题,还减少了电阻提高了速度。CMP更是影响深远的工艺,已经成了标准工艺了。

  现在业界说的比较多的还有SON, Silicon On Nothing,简直是科幻。一晃想起十多年前听导师讲的课,一个个都正在变成现实半导体设备。

  现在是2022年,现在业界EUV已经是5nm标配了,下一个比较重要的工艺节点是3nm,重要的工艺技术应该是GAA,Gate All Around。怎么说呢,FINFET就像一个夹子把GATE大部分夹住,GAA就像一个管子,把GATE整个包住。有空再找图吧,现在犯懒了。

  片制程的发展就是为了提升PPAC(功耗、性能、面积、成本),或者说维系摩尔定律的进步(哪怕速度变慢了很多)。所以总体来说,芯片的发展的思路就是不断的提高晶体管密度(不完全等于缩小晶体管)的情况下保证晶体管的性能不变或提升,并保证成本可接受。

  芯片制造是一个刻晶体管的过程,不断地让晶体管变小是提升晶体管密度、降低成本的有效手段。对应的,要实现这个过程也就需要光刻手段的不断进化,不断地提升分辨率。

  所以从这个角度来看,我们这种局外人比较在意的就是光刻技术的改进了。光刻的里程碑一般由光源决定,那么重要的里程碑就是436nm的g-line,365nm的i-line,248nm的KrF,193nm 的ArF,193nm的浸润式ArF,13.5nm 0.33NA的EUV,以及0.55NA的EUV了(具体上上面的文章吧)。

  光刻系统的分辨率直接决定了芯片最小的晶体管能有多小。固然有多重曝光 SADP SAQP等可以进行一定程度的规避,但是这些多重曝光反而比直接用EUV更难更贵。Intel就是试图用SAQP+193nm浸润式DUV去做10nm,从而导致的悲剧。EUV虽然系统更贵更复杂,但是到了7nm之后,还是不得不用EUV。

  目前业界领先的节点的0.33NA的EUV,下一个节点则是0.55NA的EUV,目前最早透露相关计划的是Intel的18A工艺。 而对于大家关心的国内自主化的线nm DUV都没解决。这里多说一句,一般来说193nm DUV + 浸润式 ,单次曝光满足MMP=76nm的产品,对应的双重曝光SADP在40nm附近,四重SAQP曝光估计22-24nm之间。反正从技术上,在对齐精度足够的情况下,SAQP的分辨率是可以超过单次0.33NA的EUV的,就是成本不划算。比较现实的SADP,大概能做到三星8nm-台积电N7那个水平(台积电的N7虽然说双重曝光SADP,但是实际好像还有三重)。

  至于未来光刻机的分辨率的线NA的High NA EUV+SADP就已经足够了,未来的的工艺都不会通过直接缩小晶体管的方式来改进了,预计到2036年,MMP依旧控制在12-16nm之间。而单次曝光的0.55NA EUV能做到MMP=16nm,SAQP后应该是10-9nm之间。

  在工艺发展的初期,晶体管的缩小不但提升了晶体管密度,也降低了功耗并提升了性能。但是随着尺寸的不断微缩,量子效应开始愈发显著,直接缩小晶体管非但不能提升性能,反而会导致严重的漏电,反而可能会影响性能。 所以现在近几年,对于晶体管的创新要求也越来越高。关键技术的发明和应用,才能保证小晶体管的性能。

  工艺关键技术的创新,相对来说是Intel走的比较快和早,比较著名的关键节点技术有:90nm时代的耗尽硅、45nm时代的HKMG、22nm时代的FinFET、7nm(Intel 20A)的Nanosheet、未来的CFET。除此以外,还有一个Intel没有碰的绝缘体上硅SOI技术,不过这个现在已经被放弃了。除此以外,还有一些DTCO技术的改进,例如COAG,SDB等。总体来说,这里的改进可以分为两个思路:第一个比较明显的是依赖于改变材料,例如HKMG引入了高介电金属闸极、第二个比较明显的是结构上的改进,例如FinFet、Nanosheet等等。 而SOI的话,算是两边都有一点吧。

  我想单独说下FinFET、NanoSheet这一条路子,因为它们不但承担着改进晶体管性能的重任,还承担着未来提升晶体管密度的重任。首先,他们相对于传统的平面晶体管来说,他们都是更为立体的晶体管,从而让栅极可以更好的包裹,从而进行控制。 FinFET是三面控制,并依赖于横向增加FET,而GAA则是四面控制,主要依赖于纵向增加FET。说NanoSheet是GAA是准确的,但是GAA并不只有NanoSheet这一种形式,还有Nanowire、Forksheet、CFET等。其中,第一代GAA里,Intel 台积电和三星应该都是选择更容易制造的NanoSheet而不采用NanoWire。现在的芯片都是CMOS电路,需要一个PMOS个一个NMOS共同构成,而第二代GAA的话,主要是将PMOS和NMOS贴在一起,目前明确三家都选择了直接一步到位的垂直堆叠PMOS和NMOS成为所谓的CFET,Forksheet横向拼接始终没有太大的发展潜力,可能被放弃了。因为CFET纵向堆叠了PNMOS,所以理论上光靠这个结构创新,就能将晶体管密度提升一倍。

  目前来看,CFET已经很趋向于结构的完全体了,栅极最多就4面控制,PMOS和NMOS也已经堆叠到一起了,往后还有什么明显的结构上的更新,我就不太清楚了,目前看规划好像也没。

  通过上面的描述,大家应该看得出来,现在要提升晶体管密度并保证性能,实际上是很困难的。所以现在通过2D、2.5D、3D封装来芯片级的降低成本、提升性能已经是大势所趋了。具体大家看下面的文章吧。

  反正总体而言,AMD CPU那种CCD-IOD 2D封装那种代价很高。现在主要是2.5D和3D封装了,其中2.5D的EMIB、CoWoS之类更加偏向于在一个平面上连接多个Chiplets,而3D则是垂直堆叠,例如采用了台积电SoIC的AMD 3D-VCache。目前而言,2.5D和3D封装是需要并行的,因为3D封装难以解决散热问题,不适合所有场景。2.5D和3D都需要,并且它们可能混合出现。

  MOSFET组成的CMOS电路取代BJT组成的TTL电路。CMOS的好处是体积小,工艺简单,静态功耗几乎为零。CMOS的应用大幅降低了功耗。

  自对准。之前机器对准都要留有一定的冗余量,但栅极对冗余量容忍度很低,如果栅极稍微宽一点会由于寄生电容严重影响性能。后来ASML开发出了用多晶硅栅极作光刻掩膜,这样就消除了误差。ASML凭借自对准反超了尼康。

  1.0.5um-0.35um,CMP工艺的引入使得芯片的截面层层有序,不再杂乱无章,并给光刻提供了平整的表面(没有CMP,先进光刻无从谈起);

  3. 0.13um/90nm 部分产品采用Cu代替Al金属成为互连线,并带来BEOL集成工艺的变化;

  4. 65nm/45nm,进入12寸晶圆时代,BEOL只使用Cu金属互连线,第一代LK材料引入;

  6. 22nm,部分厂家开始使用W替代AL做为金属栅极,第三代LK材料;

020-88888888