雲中が奥飛寺から報告、QbitAI | WeChat公式アカウント QbitAIChatGPT は世界的な現象となっており、それに関連するすべてが厳しい監視下に置かれています。 OpenAIのCEOサム・アルトマン氏の一見何気ない発言が、白熱した議論の的となっている。
これはニューラル ネットワークのパラメータの数を指しているのではないかと推測する人もいますが、これは過去数年間のデータと一致しません。 これを人間や AI を含むすべてのインテリジェントエージェントの能力を包含するものと理解する人もいますが、この指標をどのように測定するかが問題になっています。 多くの学者やネットユーザーはこの評価に異議を唱えている。IBMの科学者グラディ・ブーチ氏はこれをナンセンスだと非難し、最も評価の高いコメントとなった。 こうした議論に対して、アルトマン氏はただ「まだ始まっていない」と答えた。 しかし、状況にかかわらず、コンピューティング能力は明確かつ測定可能な指標であり、AI の急速な発展に不可欠な条件です。 2018年に、OpenAIはムーアの法則に似た別の視点も発表しました。
その後まもなく、彼ら自身の GPT-3 により、この数は2 か月ごとに倍増するようになりました。 ChatGPT時代において考慮すべきなのは、AIトレーニングの計算能力だけではありません。世界中で月間1億人のアクティブユーザーを抱え、Microsoft Bing検索などの製品と統合されているため、AI推論の計算能力も重要なサポートとなります。 ChatGPT のコンピューティング能力を最も直接的に提供しているのは Microsoft Azure クラウドです。Microsoft Azure は、2019 年に OpenAI に初めて 10 億ドルの投資を行って以来、OpenAI の独占クラウド プロバイダーとなっています。 両党は、100億ドルの追加投資が行われた際の声明でこの点を繰り返した。 独占供給とは、OpenAI の開発インフラストラクチャ全体が Azure クラウド上に構築され、Azure クラウドによって提供されるツールチェーンを使用することを意味します。 これはまた、今後の AI スタートアップ企業が ChatGPT の取り組みを Azure クラウド上に置きたい場合、Azure クラウドを選択するしか選択肢がないことを意味します。 同様に、Google AI は独自の Google Cloud によってサポートされており、クラウド コンピューティング業界のリーダーである Amazon も、オープンソースの大規模モデル Bloom を展開するために HuggingFace と緊急提携しました。 ... しかし、クラウドコンピューティングはコンピューティングパワーの源泉ではありません。ChatGPTの人気の高まりの中で、コンピューティングパワーの供給面で非常に優れたパフォーマンスを発揮する企業が数多く登場しています。 すぐに名前を推測できる選手もいれば、他の業界での過去の名声のために予想外の選手もいるかもしれません。 その中には中国からの参加者もいた。 新しいムーアの法則は計算能力と切り離すことはできません。画像認識や推奨アルゴリズムに代表される AI アプリケーションの最新波が実装され、デジタル経済の発展を牽引したとき、コンピューティング能力は技術用語から経済用語へと昇格し、産業界や学界で繰り返し強調されました。 この生成型 AI の波が世界的な熱狂を呼び起こすにつれ、コンピューティング能力は再び一般人の仕事や生活に関係するようになり、一般の人々にも認識されるようになりました。 ChatGPTの料金はいくらですか? 半導体業界の調査会社 SemiAnalysis は、GPU に関しては約 3,617 台の NVIDIA HGX A100 サーバー、つまり 28,936 台の A100 が必要になると見積もっています。コストに関しては、ユーザーの質問 1 件あたり 0.36 セントかかるため、1 日の支出は 69 万ドルになります。 結論としては、ChatGPT がすべての Google 検索トラフィックを処理する場合、合計410 万個の NVIDIA A100 GPU が必要になるということです。 当然のことながら、 ChatGPTブームの恩恵を最もよく受けているのはNvidiaです。現在、NvidiaはAIチップ市場の約75%~80%のシェアを占めています。ChatGPTが話題になるたびに、Nvidiaのアカウントは金貨で埋め尽くされるかのようです。この人気の波に後押しされ、最新の財務報告によると、Nvidiaの株価は2023年に45%も上昇しました。 CEOのジェンスン・フアン氏も最近の電話会議中に次のように発言した。 「生成AIは、世界中の企業に人工知能の開発と導入の戦略的な緊急性を生み出しました。」 そしてこれはほんの始まりに過ぎません。シティバンクによると、NVIDIAのGPU売上高は今後12ヶ月で30億ドルから110億ドルに達する可能性があります。 Nvidiaのほか、GPUの上流を辿ってChatGPTボーナスを獲得したのは、チップ製造層に位置するTSMCだ。 最近の報道によると、Nvidia、AMD、Appleはいずれも将来の生産能力を確保するためTSMCに緊急注文を出しているという。 これまでTSMCの収益の柱は長年スマートフォン事業だったが、2022年にはスマートフォン販売の低迷と人工知能の爆発的な発展という二重の影響を受けて、高性能コンピューティング事業が3四半期連続で競合他社を上回り、業界の転換点の前兆となった。 さらに重要なのは、TSMCが既にこの変更を明確に示していることです。最近の公式声明において、TSMCは来年について楽観的な見通しを示しており、その表現は非常に興味深いものでした。世界的な半導体業界が景気後退に直面しているにもかかわらず、通期業績は依然として若干の増加が見込まれているのです。 もちろん、もっと単純かつ直接的な推論を用いると、Nvidia の株価が上昇すると TSMC の業績も悪くなるということはないだろう。結局のところ、サプライチェーンにおける役割と需給関係はそうなっているのだ。 この需要と供給に基づくと、ChatGPT によってもたらされるコンピューティング能力の利点は、クラウド コンピューティングおよびクラウド サービス プロバイダーにもメリットをもたらすでしょうか? はい、完全ではありません。 ChatGPT が人気を博す中、多くの分析はクラウド コンピューティングを指摘しましたが、他の分析はすぐに中間リンク、つまりサーバー、GPU とクラウド コンピューティング サービス間のリンクに注目しました。 チップが真に機能するには、サーバーをバイパスすることはできません。チップが高速で相互接続される方法、ラック全体が電力消費と放熱を制御する方法、システム設計がさまざまなワークロードに適応する方法はすべて、最終的なパフォーマンスと効率に影響します。 ガートナーは、AI サーバーと AI クラウド サービスが爆発的な成長を遂げ、世界のサーバー市場が 2025 年までに 1,350 億ドルに達すると予測しています。 そして、まさにこのセグメント、AIサーバーの領域にこそ、記事の冒頭で述べた中国のコンピューティングパワー参加者が隠れているのです。 レノボグループ。 おそらく、これまでレノボ グループといえば主に PC についてご存知だったと思いますが、PC の本質は個人のコンピューティング能力です。 Lenovo は、PC から高性能コンピューティング、そしてより広範なコンピューティング インフラストラクチャへと進化してきました。 これは最も直接的な財務データによって証明されています。レノボグループの第3四半期財務報告(2022年10月~12月)によると、同社のISG(インフラストラクチャー・ソリューションズ・グループ)インフラソリューション事業は、売上高が48%増加し、営業利益が156%増加しました。 これは、同時期の世界のサーバー出荷数が前年比7.1%減、前四半期比4.3%減となったことを示すDigiTimesの統計とは著しい対照をなしている。 Lenovo Group ISG はコンピューティング能力を中心としたインフラストラクチャ出力およびソリューションを提供しており、サーバーはその最重要事業の 1 つです。 さらに、サーバー事業についてより直接的に分析すると、今四半期の収益は前年同期比で35%増加し、世界第3位のサーバープロバイダーとなった。この成果は、GhatGPTからのコンピューティングパワー配当によるところが大きい。 しかし、ChatGPT の突然の人気の高まりにより、これまで隠れていたコンピューティング パワーの勝者としての Lenovo グループの役割が前面に出てきただけになりました。 Lenovo はどのようにしてコンピューティング能力の「隠れた」チャンピオンになったのでしょうか?レノボ・グループの会長兼CEOであるヤン・ユアンチン氏は、ChatGPTの背後で必要とされる包括的なコンピューティング・インフラストラクチャは、まさにレノボが長年にわたり開発してきた強みであると述べました。 レノボはコンピューティングパワー機器の需要を予測し、「デバイス・エッジ・クラウド・ネットワーク・インテリジェンス」という新しい IT アーキテクチャを提案しました 昨年、レノボはユビキタスコンピューティングパワーというコンセプトをさらに提唱しました。これは、データの爆発的な増加に伴い、デジタル化とインテリジェンス化の新たな時代に入り、コンピューティングパワーへの需要が急増していることを意味します。「個別」デバイスやローカルデータセンターでは、常に変化するコンピューティングニーズを満たすには程遠く、 「エッジ・クラウド・ネットワーク・インテリジェンス」という新たなITアーキテクチャが求められており、ユーザーにユビキタスなユビキタスコンピューティングパワーを提供する必要があります レノボがコンピューティング能力の「源」ではなく、むしろ「水運び屋」になりたいのは明らかだ。つまり、コンピューティング能力を効率的に放出できるチップをサーバーに統合し、外部の人間に気づかれにくくするのだ。 この役割と位置付けにおいて、レノボ グループは非常に「強力」であり、この強みには 2 つの中核的な側面があります。 まず、サーバー製品のパフォーマンス、次に生産規模です。 この分野において、サーバーコンピューティング能力を観察する上で、世界最高性能コンピューティング能力ランキングTOP500リストは最適な参考資料です。最新の世界最高性能コンピューティング能力ランキングTOP500リスト(2022年11月)を開くと、前述のレノボグループの実力がより明確に分かります。 市場シェアは32%、供給台数は160台で世界第1位であり、第2位のHPグループに12パーセントポイント近い差をつけている。 さらに、レノボ グループのコンピューティング パワー供給は、幅広く多様な顧客基盤を誇っています。 日経新聞の取材に対し、レノボ・グループのカーク・スカウゲン副社長は、世界トップ10のパブリッククラウドプロバイダーのうち8社がレノボ・グループの顧客であることをベルサイユ宮殿風に明かした。 つまり、レノボのサーバーは世界中の顧客から認められたのであり、これは国内のサーバーメーカーにとっては決して容易なことではない。 これらの顧客には、第 2 位のクラウド プロバイダーである Microsoft Azure クラウドのアクセラレーション エンジンや主要な資金提供者も含まれると推測されます。 マイクロソフトがOpenAIに巨額の投資を行った際、一部の評論家は、抜け目のないマイクロソフトCEOサティア・ナデラはOpenAIを支援するために実際の資金を使うのではなく、同等のクラウドサービスを提供するだろうと指摘しました。こうしてマイクロソフトはOpenAIの株式を取得し、トップクラスのAI研究機関との戦略的提携を実現しただけでなく、自社のAzureクラウドにも顧客と成長をもたらしました。まさにWin-Winの関係と言えるでしょう。 予想外にも、クレイジーな OpenAI は実際にその大規模モデルで名を馳せ、その偶然のイノベーションである ChatGPT が世界中のテクノロジーとインターネットに火をつけ、すべてのプレイヤーを大規模モデルと生成 AI の熱狂に巻き込んだのです。 マイクロソフトは最初に利益を得ただけでなく、古くからのライバルであるグーグルを追い詰め、Google検索のドル箱を揺るがした。ナデラ氏は最近、最高の夢を見ているに違いない。 マイクロソフトと緊密なパートナーシップを結び、2022年にマイクロソフト デバイス パートナー アワードを受賞したレノボ グループでは、そのメリットがすでに財務実績に直接反映されていることを実感しています。 さらに、この関係は、マイクロソフトCEOのサティア・ナデラ氏が2021年にレノボグループイノベーションテクノロジーカンファレンスに登壇した理由も説明しています。しかし、当時の発表はあまりにも「業界用語」であり、真に理解するには今日のChatGPTのメリットと組み合わせる必要があります。当時の発表では、「今後、両者はPC、クラウドコンピューティングとエッジコンピューティング、そしてサービスの3つの分野でより深い協力関係を築いていく」と述べられていました。 しかし、たとえLenovoがChatGPTブームのコンピューティングパワープロバイダーになったとしても、この見通しは持続可能と言えるのでしょうか?結局のところ、MicrosoftとChatGPTの事例にはそれぞれ独自の特徴があり、Lenovoの成功には幸運の要素も含まれています。 しかし、ChatGPTが確立した大規模モデルの開発方向から判断すると、この傾向は継続し、それに応じてコンピューティングパワーの供給側も方向転換を迫られるでしょう。 複数のインフラ専門家の見解に基づくCaijing Elevenの最近の結論によれば、AIのコンピューティング能力は、ムーアの法則のような指数関数的成長ロジックによって推進され、クラウドコンピューティングの財務モデルに大きな影響を与えるだろう。 まず、AIコンピューティングパワーの消費量と成長率は、汎用コンピューティングパワーをはるかに上回ります。中国情報通信研究院(CAICT)の2022年のデータによると、2021年には中国の汎用コンピューティングパワーは95EFlopsに達し、成長率は24%で、全体の47%を占めています。一方、インテリジェントコンピューティングパワーは104EFlopsに達し、成長率は85%で、全体の50%以上を占めています。これは、インテリジェントコンピューティングパワーがクラウドコンピューティングの新たな成長原動力となることを意味します。 第二に、AIコンピューティングパワーの価格は汎用コンピューティングパワーよりも高い。汎用コンピューティングパワーの価格は低下しているものの、AIコンピューティングパワーの相対的な希少性により、現在は価格が上昇している。理論上、大規模運用が可能なAIコンピューティングパワーの粗利益率は、汎用コンピューティングパワーよりも10%以上高い。 第三に、AIコンピューティングパワーと大規模モデルを垂直産業に応用することで、新たな応用モデルを生み出すことができます。例えば、金融、自動運転、医療研究開発、インテリジェント製造といった分野では、企業は通常、大規模AIモデル用のオープンソースプラットフォームを購入し、その後、自社のビジネスニーズに合わせて小規模モデルを微調整する必要があります。このPaaSベースのAIサービスは、60%以上の粗利益を生み出すことができます。これは現在、AIコンピューティングパワーとAIモデルの活用を深化させるための最良の道筋です。 特に中国市場における AI コンピューティング能力のこの方向性の変化は、さらに分析することでより具体的な影響を明らかにすることができます。 中国のクラウドベンダーがAIコンピューティング能力と大規模モデルにおいてマイクロソフトに大きく遅れをとっていることは否定できません。これは、コンピューティング規模、データ量、そしてモデルの精度の違いによるものです。例えば、ChatGPTをサポートするインテリジェントコンピューティングクラスターには、少なくとも数万基のNVIDIA A100 GPUが必要です。完全なモデルトレーニングセッション1回あたり、1,200万ドルを超えるコストがかかります。 ChatGPTを支えるインテリジェントコンピューティングクラスターは、GPU購入だけで10億元(約1000億円)以上を費やしました。現在、中国で同様のインフラをサポートできる企業は3社程度しかありません。中国のクラウドプロバイダーのデータセンターには通常、数千基のGPUしか搭載されていません。これは、最高級のNVIDIA GPUを1基購入するコストが8万元(約800万円)にも達するためです。サーバーには通常4~8基のGPUが必要で、GPUサーバーのコストは40万元(約400万円)を超えます。中国におけるサーバーの平均価格は4万~5万元(約400万円)です。つまり、GPUサーバーのコストは通常のサーバーの10倍以上になるということです。 したがって、中国のコンピューティング パワー プロバイダーが直面する課題と機会は、主に、大規模モデルによって推進されるこの技術変化の波から推測することができます。 まず、完全で成熟した安定したインテリジェント コンピューティング クラスター インフラストラクチャが必要です。 第二に、全体的なパフォーマンスに加えて、関連製品には、環境に優しくコスト効率に優れているなど、エネルギー効率の利点も必要です。 これら 2 つの結論を明らかにすることで、ChatGPT 配当の背後に隠れた勝者としての Lenovo グループが、コンピューティング パワーの将来において繁栄し続ける理由を大まかに理解できるようになります。 コンピューティング能力が新たなムーアの法則をもたらすとすれば、エネルギー消費は無視できない問題となるでしょう。国家発展改革委員会ハイテク部の高官は2021年、中国のデータセンターの年間電力消費量は社会全体の電力消費量の約2%を占めると述べました。 より直接的に言えば、三峡ダムの年間発電量の2.5倍以上の電力を消費しています。ムーアの法則は指数関数的な成長を促進しますが、三峡ダムの発電量は指数関数的に増加することはできません レノボグループは、50℃の温水を用いて循環的に熱を除去する、業界をリードする温水冷却技術「ポセイドン」を開発しました。 この技術は、チラーユニットや熱交換器を必要とせず、廃熱を建物の暖房に活用できるため、年間の電気代と排出量を42%以上削減できます。 最新のグローバル HPC Green500 リストでは、消費電力 1 ワットあたり 65 億 9100 万回の浮動小数点演算が認定されている Lenovo の Henri システムが、国内外の要件を満たしているだけでなく、世界で最もエネルギー効率に優れた高性能コンピューティング システムにもなっています。 現実には、レノボはもはや、単なるコンピューター企業というステレオタイプな企業ではありません。コンピューティング・インフラストラクチャ事業が爆発的な成長を遂げる一方で、レノボ・グループ全体としては着実に変革を遂げ、現在ではパーソナルコンピューター以外の事業からの収益が総収益の40%以上を占めています。 ChatGPT、大規模モデル、さらにはAIなど、技術革新サイクルで急上昇したコンピューティングパワーの配当は、Lenovoグループを刷新し、より正確には、コンピューティングパワー供給の舞台裏で隠れたチャンピオンを最前線に押し上げています。 |