半導体パッケージテクノロジーのエキスパート

株式会社SBR テクノロジー

第3回サーバー用CPU・GPUのプレイヤー達の動向

連載・次世代パッケージ 2020 第3回
○サーバーは2・5Dが主流に
○HBMなど広帯域メモリーを搭載

サーバー用アプリケーションにおける2.5D(パッケージ)(*1)の適用動向とその後それらが2.1D(パッケージ)(*2,*3)への移行するシナリオを想定してみる。

2.5DはXilixが高機能FPGAを実現するために複数のICを接続する事から始まった。その後GPUとHBM、CPUとAPU(Acceleration Processing Unit) のチップ接続などパッケージによりICの最大限の性能実現を図ろうとしている。ただし2.5Dの持つパッケージの複雑性に起因するコスト、性能及び信頼性については不満があり、必ずしも最適なソリューションではない。
その問題点を補う構造として、2.1Dの実現化に向けて業界が活発に動きだしている。 2.1Dは従来の有機系サブストレートの表層に、シリコンサブストレート並のデザインルールとして2/2umライン/スペースレベルのファンアウトを表層に持つ構造を目指し数年前よりの基礎開発がされてきた。ガラスコアも平坦性、ビア密度や電気特性のメリットから選択肢に加わっている。

2.1/2.5D導入の活発化の背景にあるのは、データセンター及びネットワークの高性能要求である。急激にIoTデバイス接続数が増加、LTE-Aから5Gモバイル(2020年開始予定)へと通信速度が向上され、必然的にネットワークの負荷は増大し、データセンターやHPCは現在の5倍以上(2020年時点)のデータ処理が求められると予測される。

ビッグデータなどの高度な解析を担うHPCに対しては、CPUにAPU(GPU)とハイバンドメモリーを組合せて性能向上を図る。Intelは自社性APU(GPU)にHMCを、富士通は内蔵APUにHMCを、さらにIBMはNvidiaのAPU(GPU)にHBMを2.5D構造として性能を向上を図ろうとしている。AMDもAPUのマーケット確保を目指しながら、今年6月にはNvidiaに先駆けてグラフィックス製品で初めてのHBM製品の適用を開始した事で脚光を浴びた。(ここでHBMは2.5D構造を前提としており、HMCはFC-BGA構造を標準としている。)
データーセンターは事情が異なる。既存の施設では今以上に発熱を許容できない事からAPU及びHBM(あるいはHMC)構造を追加する事は、新設施設向け以外には難しい。アプリケーション特化されたサーバーに対してはFPGAをAPUとしソフトの一部をハードウエア化する方法がCPU性能向上の現実的なアプローチとされている。 IntelはCPUとFPGAをEMIB(*3)に搭載した2.1D構造を実現しようとしている。Alteraを買収した背景とも言われ、それが従来のCPUとピン互換になれば、導入がとてもスムーズになると想像できる。2016年後半の量産と言われており、そろそろ量産準備を始める時期になる。

一方、ARMコアによるサーバークラスCPUはネットワークのみならずデータセンターのマーケットに進出しようとしている。昨年後半にQualcommが本格的に参入すると宣言した事は記憶に新しく、すでに先行しているCavium、AMD、APMなどに加えてARM陣営に強力なプレイヤーが誕生する事になる。これらARM陣営は2020年までにIntelの独占マーケットの少なくとも20%を奪うとしている。
すでにCaviumは48コアのCPUをマーケットに投入し、サーバー製品もODMによる具体化しつつある。ARMコアでX86コアと同じ電力消費で性能比較した場合には70%以上の省電力を証明しており、ネットワークICなどを取り込んでさらにアプリケーション特化したケースではラックあたり50%の省電力が可能ともいわれている。熱制約で性能向上が難しいデータセンターにおいては、とても魅力的なソリューションになる。X86と同じサイズのチップをマルチにして同じパッケージ搭載できたら、同じ発熱で1.5倍から2倍の性能が出せる事になる。すでにQualcommなどはその開発を2.5Dで実現しその先には2.1Dをパッケージの中心にするロードマップと考えているようだ。

以上のように、2.5Dの構造は複数FPGAやAPU(GPU)とHBM接続においては必須で、2.1DはIntel独占のx86とCaviumやQualcommによるARMに、それぞれのアプローチで適用が進むと思われる。 IntelのEMIBが予定通り立上がるか? ARM陣営がマーケットで存在感を示せるか? 今後2.1/2.5Dのロードマップはそれぞれの動向により左右される事になる。

sbr-9

ページトップ