中国AIスタートアップ「ディープシーク」の初期画面 [ディープシーク キャプチャー]
ディープシークは20日(現地時間)、推論能力を持つLLM(大規模言語モデル)R1を発表した。昨年12月に公開したモデルV3をファインチューニング(微調整)して開発し、オープンソースとして公開された。ディープシークが公開した技術分析報告書によると、言語能力を評価するベンチマーク(MMLU)、数学能力を評価するベンチマーク(MATH)でOpenAIの推論モデルo1と似た性能を示し、一部の指標では上回っていることが明らかになった。コストも安い。同じ報告書でディープシークはR1が入力トークン100万個あたり0.55ドル、出力トークン100万個あたり2.199ドルを使うと公開した。o1の場合、入力トークン100万個あたり15ドル、出力トークン100万個あたり60ドル。ディープシークのR1は入力された内容を解釈したり推論したりする際、o1と比べてグラフィック処理装置(GPU)などコンピューティング資源をほとんど使わないということだ。
もちろんディープシーク独自の結果報告書であるだけに検証が必要という見方もある。しかし米国の対中AI半導体輸出規制にもかかわらず、中国企業が「コスパ」のよいAIに集中して成果を出しているという点で危機感を感じる人も多い。OpenAIの共同創業者アンドレイ・カーパシー氏は先月26日、X(旧ツイッター)にティープシークのV3技術報告書を共有し、「我々は持つものを浪費してはならず、これ(ディープシーク)はデータとアルゴリズムの双方で(我々が)まだやるべきことが多いということを見せている」と評価した。