未來芯片技術發(fā)展
【摘自“傳感器技術”】
目前,原子尺度硅材料的基本物理限制使得由摩爾定律驅動的硅技術演進路徑似乎正快速接近終點。隨著摩爾定律走向終結,人工智能、物聯(lián)網(wǎng)、超級計算及其相關應用卻提出了更高的性能要求,半導體產業(yè)步入亟需轉變突破發(fā)展的關鍵點,芯片架構、材料、集成、工藝和安全方面的創(chuàng)新研究成為新的突破方向。
1 新型晶體管技術
1.1 新架構晶體管技術
鰭式場效應晶體管(Fin Field-effect transistor,F(xiàn)inFET)是當前主流半導體制造工藝采用的晶體管架構,成功地推動了從22納米到7納米等數(shù)代半導體工藝的發(fā)展,并將拓展到5納米和4納米工藝節(jié)點。全環(huán)柵晶體管(Gate-All-Around field-effect transistors,GAAFET)是一種繼續(xù)延續(xù)現(xiàn)有半導體技術路線壽命的較主流技術,可進一步增強柵極控制能力,克服當前技術的物理縮放比例和性能限制。從3納米開始,韓國三星電子將放棄FinFET架構轉向GAAFET架構,計劃在2020年底進行3納米GAAFET產品風險試生產,2021年底進行批量生產。3納米以下晶體管潛在技術包括互補場效應晶體管(Complementary Field-Effect Transistors,CFET)、垂直納米線晶體管、負電容場效應晶體管(Negative Capacitance Field-Effect Transistors,NC-FET)、隧穿場效應晶體管(Tunnel Field-Effect Transistor,TFET)等。
1.2 新材料晶體管技術
2 新型存儲器芯片技術
3 新架構芯片技術
1)存內計算芯片
存內計算是由一系列迅速融合的軟件技術和硬件架構進步實現(xiàn)的,突破了傳統(tǒng)存儲與計算分離架構對運算能力的限制,在性能、可擴展性和分析復雜性方面有了顯著的改進,主要用于數(shù)據(jù)密集型計算的處理。人工智能和新型存儲器是推動存內計算發(fā)展的主要需求,因此預計存內計算芯片將出現(xiàn)兩種形態(tài),一種為帶有計算功能的存儲器模塊,另一種為基于存內計算的人工智能加速芯片。美國密歇根大學開發(fā)了全球首個基于憶阻器陣列的存算一體通用人工智能芯片,可快速、低能耗地執(zhí)行多種人工智能算法。合肥恒爍半導體科技公司與中國科大團隊合作研發(fā)的我國首款超低功耗存算一體人工智能芯片系統(tǒng)演示順利完成,具有邊緣計算和推理能力。
2)深度神經網(wǎng)絡專用芯片
深度神經網(wǎng)絡是識別和歸類聲音、圖像、文本等數(shù)據(jù)的統(tǒng)計模型,目前大多數(shù)神經網(wǎng)絡的訓練和推理任務由圖形處理器(Graphics Processing Unit,GPU)完成。在加速神經網(wǎng)絡運算時,深度神經網(wǎng)絡專用芯片具有比中央處理器(Central Processing Unit,CPU)和GPU更高的性能和更低的功耗。谷歌大規(guī)模部署了基于深度神經網(wǎng)絡的張量處理器(Tensor Processing Unit,TPU)芯片,英特爾、亞馬遜、華為、阿里等巨頭也分別研制了自己的神經網(wǎng)絡芯片,寒武紀、Graphcore等新創(chuàng)公司開發(fā)的深度神經網(wǎng)絡專用芯片受到了歡迎。
3)神經形態(tài)芯片
神經形態(tài)計算是一種通過構建類似動物大腦結構的計算架構以實現(xiàn)能夠模擬神經生物過程的智能系統(tǒng)的新型計算模式,它能極大提升計算系統(tǒng)的感知與自主學習能力,可以應對當前十分嚴峻的能耗問題,并有望顛覆現(xiàn)有的數(shù)字技術。盡管美國與歐盟等國家對神經形態(tài)計算都投入了大量研發(fā)資源,麻省理工學院、普渡大學、斯坦福、IBM、惠普等大學和公司開展了眾多探索性研究工作,但神經形態(tài)芯片仍處于非常早期的原型階段。英特爾推出一款名為“Pohoiki Beach”的新型神經形態(tài)芯片,內含800萬神經元,速度比現(xiàn)有的CPU快近千倍,效率高近萬倍,而耗電量僅為百分之一,所用架構為進一步擴展神經元數(shù)量奠定了基礎。清華大學開發(fā)出全球首款異構融合類腦計算芯片——“天機芯”,由多個高度可重構的功能性核組成,可同時支持機器學習算法和類腦計算算法,已成功在無人駕駛自行車上進行了實驗。
4)量子計算芯片
作為一種借助量子力學理論改進的計算模型,量子計算可超越經典計算機實現(xiàn)指數(shù)級的計算速度。近20多年來,量子計算取得了諸多突破性進展,但量子計算系統(tǒng)仍須在規(guī)?;⒃肼暋⒒ヂ?lián)方面獲取重大突破才能提供商業(yè)價值。量子計算芯片已獲得了大量資金的支持,諸多大學和企業(yè)實驗室都在開展研究。半導體量子芯片完全基于傳統(tǒng)半導體工藝,更容易達到要求的量子比特數(shù)目,只要科學家能在實驗室里實現(xiàn)樣品芯片,其大規(guī)模工業(yè)生產理論上講就不存在問題,這是它大大超越其它量子計算方案的優(yōu)勢所在。Intel公司在量子計算機研制方面就選擇了硅量子點技術,于2018年研制出首臺采用傳統(tǒng)計算機硅芯片制造技術的量子計算機。澳大利亞新南威爾士大學開發(fā)出了全球首款3D原子級硅量子芯片架構,朝著大規(guī)模量子計算機邁出了重要一步。目前,中國本源量子公司已與中國科學技術大學合作研發(fā)出第一代半導體二比特量子芯片—玄微。
5)光電集成芯片
光電集成芯片是指利用光子與微電子技術將光子元件和電子元件集成在一起的集成電路,具有高傳輸帶寬、快傳輸處理速度、高集成度和低成本等優(yōu)點。在美國、歐盟、英國、日本等國家一系列戰(zhàn)略布局的推動下,光電集成芯片取得了一定的重要研究進展,但此芯片技術研究仍處于起步階段。荷蘭研究人員開發(fā)出快速且高能效光子存儲器,有望徹底變革未來光子集成電路的數(shù)據(jù)存儲過程。日本電信電話公司在處理器中引入光網(wǎng)絡技術,開發(fā)出集成納米光子學技術的芯片,實現(xiàn)了超小型光電變換元件。
此外,隨著Intel芯片、ARM芯片和AMD芯片安全漏洞的持續(xù)暴露,芯片設計漏洞檢測成為了未來芯片技術發(fā)展的重點考慮因素之一。2019年,美國斯坦福大學開發(fā)出兩種人工智能算法,能夠更快地檢測芯片前端和后端設計漏洞,縮減芯片驗證周期;密歇根大學研究人員設計出一種新的處理器架構,所開發(fā)的“MORPHEUS”芯片可每秒20次加密和隨機重編關鍵數(shù)據(jù)比特,遠快于人類黑客和電子黑客技術的反應速度,進而主動抵御未來威脅。