發布日期:2022-04-18 點擊率:1045
AI 芯片設計是人工智能產業鏈的重要一環。 自 2017 年 5 月以來,各 AI 芯片廠商的新品競相發布,經過一年多的發展,各環節分工逐漸明顯。 AI 芯片的應用場景不再局限于云端,部署于智能手機、 安防攝像頭、及自動駕駛汽車等終端的各項產品日趨豐富。 除了追求性能提升外, AI 芯片也逐漸專注于特殊場景的優化。
自 2017 年 5 月以來發布的 AI 芯片一覽
目前, 人工智能產業鏈中,包括提供 AI 加速核的 IP 授權商,各種 AI 芯片設計公司,以及晶圓代工企業。
按部署的位置來分, AI 芯片可以部署在數據中心(云端),和手機,安防攝像頭,汽車等終端上。
按承擔的任務來分,可以被分為用于構建神經網絡模型的訓練芯片,與利用神經網絡模型進行推斷的推斷芯片。 訓練芯片注重絕對的計算能力,而推斷芯片更注重綜合指標, 單位能耗算力、時延、成本等都要考慮。
訓練芯片受算力約束,一般只在云端部署。推斷芯片按照不同應用場景,分為手機邊緣推斷芯片、安防邊緣推斷芯片、自動駕駛邊緣推斷芯片。為方便起見,我們也稱它們為手機 AI 芯片、安防 AI 芯片和汽車 AI 芯片。
由于 AI芯片對單位能耗算力要求較高,一般采用 14nm/12nm/10nm等先進工藝生產。臺積電目前和 Nvidia、 Xilinx 等多家芯片廠商展開合作,攻堅 7nm AI 芯片。
AI 芯片投資地圖
AI 芯片市場規模: 未來五年有接近 10 倍的增長, 2022 年將達到 352 億美元。根據我們對相關上市 AI 芯片公司的收入統計,及對 AI 在各場景中滲透率的估算, 2017年 AI 芯片市場規模已達到 39.1 億美元,具體情況如下:
2017 年全球數據中心 AI 芯片規模合計 23.6 億美元,其中云端訓練芯片市場規模 20.2億美元,云端推斷芯片 3.4 億美元。
2017 年全球手機 AI 芯片市場規模 3.7 億美元。
2017 年全球安防攝像頭 AI 芯片市場規模 3.3 億美元。
2017 年全球自動駕駛 AI 芯片的市場規模在 8.5 億美元。
AI 芯片市場規模及競爭格局
Nvidia 在 2017 年時指出,到 2020 年,全球云端訓練芯片的市場規模將達到 110 億美元,而推斷芯片(云端+邊緣) 的市場規模將達到 150 億美元。 Intel 在剛剛結束的 2018 DCI峰會上,也重申了數據業務驅動硬件市場增長的觀點。 Intel 將 2022 年與用于數據中心執行 AI 加速的 FPGA 的 TAM 預測,由 70 億美元調高至 80 億美元。
而同時我們也注意到:
1)手機 SoC 價格不斷上升、 AI 向中端機型滲透都將為行業創造更廣闊的市場空間。
歷代 Apple 手機芯片成本趨勢
2)安防芯片受益于現有設備的智能化升級,芯片需求擴大。
自動駕駛算力需求加速芯片升級
3)自動駕駛方面,針對豐田公司提出的算力需求,我們看到當下芯片算力與 L5 級自動駕駛還有較大差距。 英飛凌公司給出了各自動駕駛等級中的半導體價值預測, 可以為我們的 TAM 估算提供參考。
英飛凌對各自動駕駛等級中半導體價值的預測
結合以上觀點,及我們對 AI 在各應用場景下滲透率的分析,我們預測:
云端訓練芯片市場規模在 2022 年將達到 172 億美元, CAGR~54%。
云端推斷芯片市場規模在 2022 年將達到 72 億美元, CAGR~84%。
用于智能手機的邊緣推斷芯片市場規模 2022 年將達到 38 億美元, CAGR~59%。
用于安防攝像頭的邊緣推斷芯片市場規模 2022 年將達到 18 億美元, CAGR~41%。
用于自動駕駛汽車的邊緣推斷芯片市場規模 2022 年將達到 52 億美元, CAGR~44%。
云端訓練芯片: TPU 很難撼動 Nvidia GPU 的壟斷地位
訓練是指通過大量的數據樣本,代入神經網絡模型運算并反復迭代,來獲得各神經元“正確”權重參數的過程。 CPU 由于計算單元少,并行計算能力較弱,不適合直接執行訓練任務,因此訓練一般采用“CPU+加速芯片”的異構計算模式。目前 Nvidia 的 GPU+CUDA計算平臺是最成熟的 AI 訓練方案,除此還有:
AI 芯片工作流程
第三方異構計算平臺 OpenCL + AMD GPU 或 OpenCL+Intel/Xilinx 的 FPGA。
云計算服務商自研加速芯片(如 Google 的 TPU) 這兩種方案。各芯片廠商基于不同方案,都推出了針對于云端訓練的 AI 芯片。
云端訓練芯片對比
在 GPU 之外,云端訓練的新入競爭者是 TPU。 Google 在去年正式發布了其 TPU 芯片,并在二代產品中開始提供對訓練的支持,但比較下來, GPU 仍然擁有最強大的帶寬(900GB/s,保證數據吞吐量)和極高的深度學習計算能力(120 TFLOPS vs. TPUv2 45 TFLOPS),在功耗上也并沒有太大劣勢(TPU 進行訓練時,引入浮點數計算,需要逾 200W 的功耗,遠不及推斷操作節能)。目前 TPU 只提供按時長付費使用的方式,并不對外直接銷售,市占率暫時也難以和 Nvidia GPU 匹敵。
Intel
雖然深度學習任務主要由 GPU 承擔,但 CPU 目前仍是云計算芯片的主體。 Intel 于 2015年底年收購全球第二大 FPGA 廠商 Altera 以后,也積極布局 CPU+FPGA 異構計算助力 AI,并持續優化 Xeon CPU 結構。 2017 年 Intel 發布了用于 Xeon 服務器的,新一代標準化的加速卡,使用戶可以 AI 領域進行定制計算加速。得益于龐大的云計算市場支撐, Intel 數據中心組業務收入規模一直位于全球首位, 2016-17 年單季保持同比中高個位數增長。 2017年 4 季度起,收入同比增速開始爬坡至 20%左右,但相比 Nvidia 的強勁增長態勢仍有差距。
AMD
AMD 雖未單獨拆分數據中心收入,但從其計算和圖像業務的收入增長情況來看, GPU 銷量向好。目前 AMD GPU 也開始切入深度學習訓練任務,但市場規模落后于 Nvidia。
下一篇: PLC、DCS、FCS三大控
上一篇: 索爾維全系列Solef?PV