スペインのバルセロナで開催されている「MWC2023」では、超巨大人工知能(AI)をめぐるインフラ技術競争が激しい。特に巨大なデータを迅速かつ正確に処理できるAI半導体が注目されている。OpenAIが開発したチャットGPTのような技術が多様なサービスに活用されるには高性能頭脳の役割をするAI半導体が必要だからだ。AI半導体の需要も爆発的に増える見込みだ。
◆サービス-半導体協業が増加
27日(現地時間)、バルセロナのフィラクランビア展示館に設置されたKTのブースには、韓国のAI半導体設計(ファブレス)スタートアップ「リベリオン」のAI半導体が展示されている。昨年KTは同社に300億ウォン(約31億円)規模の投資をした。KTはリベリオンのAI半導体を含むAIサービスが具現するのに必要なすべての要素をパッケージにした「AIフルスタック」を展示場に出した。AIアルゴリズムの超巨大AI「ミドゥム」からリベリオンのAI半導体、スタートアップ「モレ」とKTクラウドが支援するAIシステムソフトウェア、そしてこうした技術を活用した商用サービス(KT AIコールセンターなど)に続く構成だ。この構造でAI半導体は超巨大AIアルゴリズムに最適化されたハードウェアだ。リベリオンのパク・ソンヒョン代表は「フルスタックの中で領域を行き来しながらサービスに合うようハードウェア、アルゴリズムを最適化することができる」とし「車を製造する際に運転手の身長、体重などを考慮した最適化された車を作れるだろう」と話した。
KTとリベリオンのようにサービスに合わせてAI半導体のトラックレコード(運用結果)を蓄積しようという動きも活発だ。AIサービスをする企業が自らチップを生産したり、通信会社のようなサービス企業とAI半導体設計・製造企業が連合する。グーグル・アマゾン・テスラなど海外ビッグテック企業は自社専用AI半導体を開発して製品にすでに適用している。
韓国企業は協業に重点を置いている。ネイバーはサムスン電子・フュリオサAI、SKテレコムはサピオンとそれぞれ協力し、AIの頭脳の役割をする半導体を開発している。前日にSKTが公開した「K-AIアライアンス」も半導体-クラウド-サービス企業が集まった連合軍だ。サピオンのリュ・スジョン代表は「昨年出したX220の後続モデルX330を開発している。協業する事業者が必要とするバーティカル(専門領域特化)ソリューションとして提供できるだろう」と述べた。
◆カギは効率化
AIが巨大になり、コスト問題も水面上に浮上した。業界ではチャットGPTを一日1500万人が使用すれば1年間に数兆ウォンの費用が発生するとみている。過去のAIモデルに比べて超巨大AIには多くの半導体とクラウドコンピューティングの資源が必要となるからだ。アルファベットのジョン・ヘネシー会長も22日、ロイターのインタビューで「AI検索方式の費用は従来のキーワード検索に比べて10倍以上かかる」と話した。
AI半導体企業は効率を主な武器としている。KTは効率を改善するAIインフラソリューションスタートアップ「モレ」とも手を握った。モレはAIに必要なインフラを低コスト・高効率で管理するシステムソフトウェアを開発する。サピオンの関係者も「サピオンX220はエヌビディアのグラフィック処理装置(GPU)に比べて電力消費は40%、性能は1.6倍水準」と強調した。
KTが昨年11月に公開した超巨大AI「ミドゥム」も「小さいが強い」AIを強調している。通常、媒介変数が多いほどAIの学習力量が優れると評価するが、最近は「AIモデル軽量化」の流れが表れている。少ない媒介変数で運営コストを減らす方式だ。メタも24日(現地時間)、媒介変数70億・130億・330億・650億個の超巨大AI「LLaMA」を公開した。チャットGPTの媒介変数は1750億個、ミドゥムは2000億個だ。KT融合技術院AI2XL研究所のペ・スンミン所長は「実際のサービスに適用するにはミドゥムも軽量化が必要」とし「媒介変数間の連結と訓練がうまくいけば軽量モデルも競争力がある」と述べた。最近、複数のAIサービスが登場したことについては「生成AIが活発になったが、AI関連問題の95%はまだ解決していない」とし「今は一列に並べて評価するより、徐々に拡張して各企業ごとに特異なものが増えていく段階」と評価した。
◆サービス-半導体協業が増加
27日(現地時間)、バルセロナのフィラクランビア展示館に設置されたKTのブースには、韓国のAI半導体設計(ファブレス)スタートアップ「リベリオン」のAI半導体が展示されている。昨年KTは同社に300億ウォン(約31億円)規模の投資をした。KTはリベリオンのAI半導体を含むAIサービスが具現するのに必要なすべての要素をパッケージにした「AIフルスタック」を展示場に出した。AIアルゴリズムの超巨大AI「ミドゥム」からリベリオンのAI半導体、スタートアップ「モレ」とKTクラウドが支援するAIシステムソフトウェア、そしてこうした技術を活用した商用サービス(KT AIコールセンターなど)に続く構成だ。この構造でAI半導体は超巨大AIアルゴリズムに最適化されたハードウェアだ。リベリオンのパク・ソンヒョン代表は「フルスタックの中で領域を行き来しながらサービスに合うようハードウェア、アルゴリズムを最適化することができる」とし「車を製造する際に運転手の身長、体重などを考慮した最適化された車を作れるだろう」と話した。
KTとリベリオンのようにサービスに合わせてAI半導体のトラックレコード(運用結果)を蓄積しようという動きも活発だ。AIサービスをする企業が自らチップを生産したり、通信会社のようなサービス企業とAI半導体設計・製造企業が連合する。グーグル・アマゾン・テスラなど海外ビッグテック企業は自社専用AI半導体を開発して製品にすでに適用している。
韓国企業は協業に重点を置いている。ネイバーはサムスン電子・フュリオサAI、SKテレコムはサピオンとそれぞれ協力し、AIの頭脳の役割をする半導体を開発している。前日にSKTが公開した「K-AIアライアンス」も半導体-クラウド-サービス企業が集まった連合軍だ。サピオンのリュ・スジョン代表は「昨年出したX220の後続モデルX330を開発している。協業する事業者が必要とするバーティカル(専門領域特化)ソリューションとして提供できるだろう」と述べた。
◆カギは効率化
AIが巨大になり、コスト問題も水面上に浮上した。業界ではチャットGPTを一日1500万人が使用すれば1年間に数兆ウォンの費用が発生するとみている。過去のAIモデルに比べて超巨大AIには多くの半導体とクラウドコンピューティングの資源が必要となるからだ。アルファベットのジョン・ヘネシー会長も22日、ロイターのインタビューで「AI検索方式の費用は従来のキーワード検索に比べて10倍以上かかる」と話した。
AI半導体企業は効率を主な武器としている。KTは効率を改善するAIインフラソリューションスタートアップ「モレ」とも手を握った。モレはAIに必要なインフラを低コスト・高効率で管理するシステムソフトウェアを開発する。サピオンの関係者も「サピオンX220はエヌビディアのグラフィック処理装置(GPU)に比べて電力消費は40%、性能は1.6倍水準」と強調した。
KTが昨年11月に公開した超巨大AI「ミドゥム」も「小さいが強い」AIを強調している。通常、媒介変数が多いほどAIの学習力量が優れると評価するが、最近は「AIモデル軽量化」の流れが表れている。少ない媒介変数で運営コストを減らす方式だ。メタも24日(現地時間)、媒介変数70億・130億・330億・650億個の超巨大AI「LLaMA」を公開した。チャットGPTの媒介変数は1750億個、ミドゥムは2000億個だ。KT融合技術院AI2XL研究所のペ・スンミン所長は「実際のサービスに適用するにはミドゥムも軽量化が必要」とし「媒介変数間の連結と訓練がうまくいけば軽量モデルも競争力がある」と述べた。最近、複数のAIサービスが登場したことについては「生成AIが活発になったが、AI関連問題の95%はまだ解決していない」とし「今は一列に並べて評価するより、徐々に拡張して各企業ごとに特異なものが増えていく段階」と評価した。
この記事を読んで…