|
ChatGPTの認知度が高まるにつれ、生成型人工知能技術に対する社会の注目度が高まっていることを実感できます。大規模モデルの数とモデルパラメータの量が急増するにつれ、計算能力に対する需要も高まっています。 「中国コンピューティングパワー発展指標白書」の定義によると、コンピューティングパワーとは、データを処理して特定の出力結果を達成するデバイスのコンピューティング能力です。 コンピューティングパワーの中核は、CPUやGPUといった各種コンピューティングチップであり、これらはコンピュータ、サーバー、各種スマート端末に搭載されています。膨大なデータ処理や様々なデジタルアプリケーションは、コンピューティングパワーによる処理と計算から切り離すことはできません。 では、さまざまなコンピューティング チップはどのようなアプリケーション シナリオに適しているのでしょうか。また、それらの違いは何でしょうか。 さまざまなシナリオにはどのようなタイプのコンピューティング チップが必要ですか? ヘッドフォン、携帯電話、PCなどの小型デバイスから、自動車、インターネット、人工知能、データセンター、スーパーコンピュータ、宇宙ロケットなどの大規模アプリケーションまで、コンピューティングパワーは中心的な役割を果たしています。コンピューティングのシナリオによって、チップに対する要件は異なります。 デジタル時代の中核インフラであるデータセンターは、膨大な量のデータ処理、保存、伝送といった業務を担っています。そのため、様々な複雑な計算要求に対応するには、強力なコンピューティング能力が求められます。データセンターやスーパーコンピュータには、1000TOPSを超える計算能力を持つ高性能チップが必要です。現在、スーパーコンピュータセンターはエクサスケール(10の18乗)のコンピューティング能力の時代に入り、z(10の18乗)レベルに向けて発展しています。データセンターでは、チップの低消費電力、低コスト、信頼性、汎用性に対する要求が極めて高くなっています。 インテリジェントな自動運転には、ヒューマンマシンインタラクション、視覚処理、インテリジェントな意思決定など、さまざまな側面が関わっています。車載センサー(LiDAR、カメラ、ミリ波レーダーなど)の数の増加と、リアルタイムデータ処理、複雑さ、精度に対する需要の高まりにより、車載コンピューティング能力への要求が高まっています。一般的に、業界では、レベル2の自動運転を実現するには10 TOPS未満のコンピューティング能力、レベル3には30〜60 TOPS、レベル4には300 TOPS以上、レベル5には1000 TOPS以上、さらには4000 TOPS以上のコンピューティング能力が必要だと考えています。したがって、自動運転分野のオンボードコンピューティング能力は、一般的な携帯電話やコンピューターのコンピューティング能力をはるかに上回っています。たとえば、NIO ET5のプロセッサのコンピューティング能力は1016 TOPSで、XPeng P7のプロセッサのコンピューティング能力は508 TOPSです。インテリジェントな運転では、安全性が最も重要です。したがって、このシナリオでは、コンピューティング チップの信頼性と汎用性に非常に高い要求が課せられますが、消費電力とコストの要件は比較的緩やかです。 映像処理、顔認識、異常検知といった複雑なタスクの課題に対処し、将来の技術アップグレードや拡張に十分なコンピューティングリソースを確保するために、インテリジェントセキュリティシステムには約4~20TOPSのコンピューティングパワーが必要です。これはデータセンターのコンピューティングパワーに比べればはるかに小さいものですが、インテリジェントセキュリティシステムの効率的かつ安定した運用を保証するには十分な能力です。AIセキュリティが第2フェーズに入るにつれ、コンピューティングパワーの重要性はますます高まっており、この数値は継続的に上昇しています。インテリジェントセキュリティシステムは、低コストと信頼性に対する要求が高い一方で、消費電力と汎用性に対する要求は比較的低くなっています。 スマートモバイル端末の分野では、ウェアラブルデバイスなどの小型製品へのコンピューティング能力の要求は比較的低いですが、スマートフォンやノートパソコンなどの製品へのコンピューティング能力の要求は大幅に増加しています。例えば、数年前のiPhone 12に搭載されたA14チップのコンピューティング能力は約11 TOPSで、Xiaomi 10に搭載されたSnapdragon 865チップのコンピューティング能力は15 TOPSでした。しかし、スマートフォンにおけるAI技術の統合と普及が進むにつれて、Snapdragon 888は26 TOPSのコンピューティング能力に達し、8Gen1や8Gen2などの後継チップではコンピューティング能力がさらに大幅に向上しています。スマートモバイル端末は、低消費電力と低コストに対する要求が高く、信頼性の要件が比較的高く、汎用性の制限が少ないアプリケーションシナリオでもあります。 主流のコンピューティングチップとその特徴 現在、基本的なコンピューティング能力は主にCPUベースのサーバーによって提供されており、基本的な汎用コンピューティングを対象としています。インテリジェントコンピューティング能力は主にGPU、FPGA、ASICなどのチップをベースとしたアクセラレーテッドコンピューティングプラットフォームによって提供されており、人工知能コンピューティングを対象としています。高性能コンピューティング能力は主にCPUとGPUチップを統合して構築されたコンピューティングクラスターによって提供されており、主に科学技術計算アプリケーションを対象としています。 CPUは、伝統的な汎用コンピューティングの王者であり、算術論理ユニット(ALU)、制御ユニット、メモリで構成されています。データはメモリに格納され、制御ユニットはメモリからデータを取り出し、ALUに渡して処理を行い、結果をメモリに返します。CPUは汎用性が高く、様々な計算タスクを処理できるという特徴がありますが、特定のタスク専用に設計されたチップに比べると計算効率は低くなります。 GPUは当初、グラフィックスレンダリングの高速化を目的として開発され、グラフィックス処理における強力なツールとして認識されています。近年、GPUはディープラーニングなどの分野で優れた性能を発揮し、人工知能コンピューティングにも広く利用されています。GPUは多数の並列演算ユニットを搭載しており、膨大な量のデータを同時に処理できるため、並列演算タスクにおいて高い効率性を発揮します。しかしながら、GPUはCPUほど汎用性が高くなく、特定の種類の演算タスクにしか適していません。 ASICは、特定のタスク専用に設計されたチップです。アルゴリズムをハードウェアで実装することで、特定のタスクにおいて極めて高い計算効率とエネルギー効率を実現します。ASICは特定のタスクにのみ適用できるという高い特異性が特徴ですが、その計算効率とエネルギー効率はCPUやGPUをはるかに上回っており、大規模製品や高度に成熟した製品に適しています。 FPGAはゲート回路を用いて直接計算を行うため、高速化を実現します。GPUと比較すると、FPGAは処理速度が速く、消費電力も低いという利点があります。しかし、同じ製造プロセスを採用するASICと比較すると、FPGAは依然として遅れをとっています。とはいえ、FPGAはプログラム可能であるため、ASICよりも柔軟性に優れています。FPGAは、迅速な反復処理や小ロット生産に適しています。AI分野では、FPGAチップをアクセラレータカードとして利用することで、AIアルゴリズムの計算を高速化できます。 GPGPUはGeneral Purpose Graphics Processor(汎用グラフィックスプロセッサ)の略です。最初の「GP」は汎用性、2番目の「GP」はグラフィックス処理を意味します。GPGPUの主な目的は、GPUの並列計算能力を活用して、汎用コンピューティングタスクを高速化することです。簡単に言えば、GPGPUはCPUによるグラフィックス以外の計算処理を支援するツールと理解できます。科学技術計算、データ分析、機械学習といった大規模な並列コンピューティングのシナリオに適しています。 GPU は AI にとって最適なソリューションですが、必ずしも唯一のソリューションではありません。 ChatGPTが巻き起こしたAIブームの中、GPUは最も需要の高いコンポーネントとなっています。AIの発展のため、世界をリードするテクノロジー企業はNVIDIA GPUの確保に躍起になっています。AI時代において、なぜGPUがメーカーからこれほど支持されているのでしょうか? 理由は簡単です。AI コンピューティングは、グラフィックス コンピューティングと同様に、大量の高負荷の並列コンピューティング タスクを必要とします。 具体的には、学習と推論は大規模AIモデルの基盤となるものです。学習フェーズでは、大量のデータを入力して複雑なニューラルネットワークモデルを学習します。推論フェーズでは、学習済みのモデルを用いて、大量のデータから様々な結論を導き出します。 ニューラルネットワークの学習と推論のプロセスには、行列乗算、畳み込み、再帰層処理、勾配計算といった一連の特定のアルゴリズムが含まれます。これらのアルゴリズムは通常、高度に並列化可能であり、つまり、同時に実行可能な多数の小さなタスクに分解できます。 GPU には多数の並列処理ユニットがあり、ディープラーニングに必要な行列演算を迅速に実行できるため、モデルのトレーニングと推論が高速化されます。 現在、ほとんどの企業はAIトレーニングにNVIDIA GPUクラスターを使用しています。適切な最適化を行うことで、1枚のGPUカードで数十台、あるいは数百台のCPUサーバーに相当する演算能力を提供できます。AMD、Intelなどの企業も、市場シェア拡大を目指して積極的に技術力の向上に取り組んでいます。中国の主要メーカーには、Jingjia Microelectronics、Loongson Technology、Hygon、Cambricon、VeriSiliconなどが挙げられます。 ご覧のとおり、GPUはAI分野で大きくリードしています。NVIDIAが自らを人工知能のリーダーと位置付けているように、現在業界におけるほぼすべてのAIアプリケーションはGPUに依存しています。 ここで、「今のAI時代において、GPUだけで十分なのか?」と疑問に思う人もいるかもしれません。GPUは将来のAI市場を席巻し、誰もが認める主役となるのでしょうか? 著者はそうではないと考えています。GPUは現時点では最適なソリューションですが、必ずしも唯一のソリューションではありません。 CPU がより大きな役割を果たすことができます。 現在、AI分野はGPUが圧倒的なシェアを占めていますが、いくつかの課題と限界も抱えています。例えば、サプライチェーンの問題により価格上昇や供給不足が生じ、AI開発者やユーザーにとって負担となっています。一方、CPUには競合相手やパートナーが多く、技術革新とコスト削減を促進できます。さらに、CPUは最適化技術やイノベーションの方向性がより豊富であるため、AIにおいてより大きな役割を果たすことができます。 より合理化またはコンパクトなモデルの中には、従来のCPUでも優れた動作効率を発揮するものもあり、多くの場合、より経済的でエネルギー効率に優れています。これは、ハードウェアを選択する際には、具体的なアプリケーションシナリオとモデルの複雑さに基づいて、異なるプロセッサの利点を比較検討する必要があることを示しています。例えば、HuggingFaceのチーフAIエバンジェリストであるJulien Simon氏は、Intel XeonプロセッサをベースにしたQ8-Chatと呼ばれる言語モデルのデモを行いました。このモデルは70億個のパラメータを持ち、32コアCPUで動作し、OpenAI ChatGPTに似たチャットインターフェースを提供します。これはユーザーの質問に迅速に回答でき、ChatGPTよりもはるかに高速です。 CPUは、極めて大規模な言語モデルの実行に加え、より小規模で効率的な言語モデルも実行できます。これらの言語モデルは、革新的な技術によって計算負荷とメモリ消費量を大幅に削減し、CPUの特性に適応することができます。これは、CPUがAI分野において完全に無視されているわけではなく、むしろ否定できない優位性と可能性を秘めていることを意味します。 世界のCPU市場はIntelとAMDの二大メーカーによって独占されており、両社の市場シェアは合計で95%を超えています。現在、Loongson、Shenwei、Hygon、Zhaoxin、Kunpeng、Phytiumという6つの国内主要CPUメーカーが急速に台頭し、国産CPUの開発を加速させています。 CPU + FPGA と CPU + ASIC も大きな可能性を秘めています。 さらに、AI アクセラレーション サーバーの異種混合の性質により、CPU + GPU の組み合わせに加えて、CPU + FPGA、CPU + ASIC、CPU + 複数のアクセラレータ カードなど、市場には他の多様なアーキテクチャが存在します。 技術の変化は急速であり、将来的にはより効率的でAIコンピューティングに適した新しい技術が登場する可能性は十分にあります。CPU+FPGAやCPU+ASICなどがその可能性の一つです。 CPUはロジック制御とシリアル処理に優れており、FPGAは並列処理機能とハードウェアアクセラレーションを提供します。この2つを組み合わせることで、特に複雑なタスクや大規模データを処理する場合に、システム全体のパフォーマンスを大幅に向上させることができます。FPGAのプログラマビリティにより、特定のアプリケーションシナリオに合わせて柔軟な構成とカスタマイズが可能です。つまり、CPU+FPGAアーキテクチャは、汎用コンピューティングから特定アプリケーション向けのアクセラレーションまで、FPGAの構成を調整することで、様々なニーズに適応できます。 ASICは特定の用途向けに特別に設計された集積回路であり、通常、性能と消費電力が高度に最適化されています。CPUと組み合わせて使用することで、特定のタスクを処理する際に優れた性能と効率性を実現します。さらに、ASICの設計は固定されており、一度製造されると機能が変更されることはありません。そのため、ASICは長期にわたる安定した動作と高い信頼性が求められる用途に最適です。 世界のFPGAチップ市場は、ザイリンクスとインテルの2社が独占しており、両社合わせて87%の市場シェアを占めています。国内の主要メーカーには、復旦微電子、紫光国信微電子、安論理科技などが挙げられます。Google、Intel、NVIDIAといった国際的な大手企業も、相次いでASICチップをリリースしています。国内メーカーのCambricon、Huawei HiSilicon、Horizon Roboticsも、ディープニューラルネットワークアクセラレーション用のASICチップを発売しています。 GPGPUは高水準プログラミング言語を使用できるため、優れたパフォーマンスと汎用性を提供し、現在AIアクセラレーションサーバーの主流の選択肢の一つとなっています。主要なGPGPU DEメーカーには、NVIDIA、AMD、Biren Technology、Muxi、Tianshu Zhixinなどが挙げられます。 中国の計算能力の規模はどのくらいですか? IDCの予測によると、今後3年間で世界で生成される新規データ量は、過去30年間に生成された総量を上回ると予想されています。2024年までに、世界のデータ総量は年平均成長率26%で増加し、142.6ZBに達すると予想されています。これにより、データストレージ、データ転送、データ処理の需要が指数関数的に増加し、コンピューティングリソースの需要も継続的に増加します。さらに、人工知能(AI)などの分野では、大規模モデルのトレーニングや推論にも、強力な高性能コンピューティング能力が求められます。 近年、中国はコンピューティング インフラストラクチャの構築において目覚ましい進歩を遂げています。 2023年末までに、全国のデータセンターラック総数は810万標準ラックを超え、総コンピューティングパワーは230エクサフロップス/秒(EFLOPS)に達しました。コンピューティングパワーは、政務、工業、交通、医療など、様々な業界・分野に急速に浸透しています。同時に、「東データ西コンピューティング」プロジェクトと国家統合コンピューティングパワーネットワーク構想の下、中国コンピューティングパワーネットワークの第一期であるインテリジェントコンピューティングネットワークが始動し、全国規模のコンピューティングパワー「ワンネットワーク」が構築されつつあります。 政策面では、中国は「国家統合ビッグデータセンター協創システムコンピューティングパワーハブ実施計画」「コンピューティングパワーインフラの高品質開発行動計画」「デジタル経済発展第14次5カ年計画」など、コンピューティングインフラの構築を促進するための一連の文書を相次いで発表している。さらに、中国は複数の地域でインテリジェントコンピューティングセンターの建設を推進しており、東から西へと徐々に拡大している。現在、中国では30以上の都市でインテリジェントコンピューティングセンターの建設が進行中、または計画されている。科学技術部の政策によると、「ハイブリッド公共コンピューティングパワープラットフォームにおいて、国産チップが提供するコンピューティングパワーの公称値は60%以上とし、国産フレームワークの利用を優先し、利用率は60%以上とする」とされている。国産AIチップの普及率は急速に向上すると予想されている。 IDCのデータによると、中国のインテリジェントコンピューティング能力は今後急速に成長し、2021年から2026年までの年平均成長率は52.3%になる見込みです。 |