ディープシーク。[ホームページ キャプチャー]
中国の人工知能(AI)スタートアップ、ディープシークの登場がメモリー半導体革新につながるか注目される。膨大なデータを多量の高性能チップで学習させる「訓練」より「推論」をさらに強調したAIモデルが浮上してだ。これに伴い、演算効率をより高めるメモリー革新が要求されている。最近実現した「韓米日AI協力」に低電力半導体設計業者アームが合流したのも、「低電力・低コスト・高効率」のAIチップに対する市場の期待感を反映する。
半導体業界はディープシークが昨年12月に公開したAIモデル「ディープシークV3」の技術報告書に注目する。今回話題になった「R1」はV3をベースに推論アルゴリズムを強化したバージョンだ。ディープシークは技術報告書で広帯域メモリー(HBM)などに言及しながらハードウエア設計の提案もした。
ディープシークは「現在のプロセッサはデータの頻繁な移動で演算効率性が落ちる。速度を向上させるためHBM近くに演算ロジックを配置する近接メモリーコンピューティングなどを提案する」と書いた。効率的AIモデルとして注目されたディープシークさえ「ハードウエアの限界」を性能低下の要因と指摘し改善を促したのだ。
漢陽(ハニャン)大学融合電子工学部のパク・ジェグン碩学教授は「近接メモリーコンピューティング(PNM)とプロセッシングインメモリー(PIM)は次世代メモリー技術としてすでに注目されている。チップセット内のデータ移動距離を最小化したり最初からさまざまな半導体の機能をひとつのチップに統合して演算効率性を高める方式」と話した。PNMはメモリーの近くに演算装置を配置する構造で、PIMは最初からメモリーとAIプロセッサを結合した形態だ。
AIモデルの効率性はチップセットを構成するさまざまな装置が「データをどれだけ速く移動させるか」にかかっている。中央処理装置(CPU)、グラフィック処理装置(GPU)、DRAM間のデータ移動が速いほど結果値を算出するための計算時間が短縮され電力消費も少ない。
AIの推論機能が強調されるほどデータ処理速度が重要だ。AIが最適な答を導出するための一種の熟慮過程でデータの移動と演算が数えきれないほど繰り返されるためだ。CPU、GPU、DRAMなどが互いに物理的に離れていたり移動通路(帯域幅)が狭ければデータ伝送過程で遅延が発生しボトルネック現象が現れることがある。
ディープシークが解決策として「統合型半導体」に注目し、低電力・低コスト・高効率という性能を等しく備えた次世代メモリーに対する開発競争も加速化する兆しだ。世界メモリー1位と2位のサムスン電子とSKハイニックスもこの競争に飛び込まなければならない格好だ。
技術的課題は残っている。パク教授は「サムスン電子とSKハイニックスともPIMを開発しているが発熱問題を解決できずまだ商用化段階に達していない。過渡期段階としてデータ移動効率を上げる方式はパッケージング(組み立て)技術を通じて一部実現している」と話した。代表的にCPU、GPU、HBMなどそれぞれ異なる種類のチップを単一基板にコンパクトに集積してデータ伝送速度を高めたTSMCの先端パッケージング技術(CoWoS)が挙げられる。
祥明(サンミョン)大学半導体システム工学科のイ・ジョンファン教授は「ディープシークが完全に新しい概念を提案したものではないが、今後のAI半導体の発展方向と相対している。メモリーと非メモリーの境界を崩した半導体需要が増加するものであるため韓国企業も素早く商用化まで終えて市場を先取りしなければならない」と話した。
この記事を読んで…