|
Metaは本日、史上最強のオープンソース大規模モデルであるLlama 3をリリースしました。Llama 3では、事前学習済みモデルと微調整済みモデル(それぞれ8Bと70B)がリリースされました。同レベルの他のパラメトリックモデルと比較して、そのパフォーマンスは最高レベルです。 さらに、Meta は Llama 3 をベースにした AI アシスタントの Meta AI もリリースしました。これにより、ユーザーは Facebook、Instagram、WhatsApp、Messenger、Web を通じて Llama 3 の強力な機能を体験できます。 ザッカーバーグ氏はローンチに明らかに興奮しており、すぐにソーシャルメディアで宣伝しました。Llama 3のリリースに合わせて、著名なテクノロジーブロガーであるドワルケシュ・パテル氏が司会を務めた、ザッカーバーグ氏への1時間にわたる詳細なインタビューも公開されました。このインタビューでは、新しくリリースされたLlama 3とMeta AIの背景にあるストーリーが深く掘り下げられました。トピックには、ザッカーバーグ氏がLlama 3の技術ロードマップをどのように検討したか、MetaはAGIをどのように見ているか、AGIの道のりにおけるボトルネックは何か、AIは人類史上最も重要な技術か、Metaにとってオープンソースが持つ意義とAI開発における価値などが含まれていました。 まずザッカーバーグ氏は、ラマ3の技術的側面について詳しく説明し、数学と推論における70Bパラメータモデルの優れたパフォーマンスを強調した上で、マルチモーダルおよび多言語機能をサポートするより大規模なモデルのリリースを含む将来の計画を共有した。 インタビューの中で、ザッカーバーグ氏は、Project Reelsとコンテンツレコメンデーションシステムのインフラニーズに対応するため、MetaがH100 GPUを予定より前倒しで購入することを決定したことについても言及しました。さらに、ザッカーバーグ氏は、AIが人間とコンピュータのインタラクション、特にソーシャルネットワーキングとコンテンツレコメンデーションにおいてどのように変化をもたらしているかについても語りました。 ザッカーバーグ氏は、MetaのAGIへの道筋とオープンソース哲学について語り、特に汎用人工知能(AGI)への道筋において、Meta AI Research(FAIR)とGen AIチームのAI技術の発展に向けた取り組みについて説明しました。また、オープンソースの哲学と潜在的なリスクについても見解を述べ、オープンソースに関する意思決定においてバランスを取る必要がある様々な要素を強調しました。 AIの長期的な影響について議論する中で、ザッカーバーグ氏はAIがコンピューターの創造と同様に、非常に基本的な技術になると考えています。また、データセンターの規模の拡大とエネルギー制約がAIの発展に与える影響についても言及しました。 最後に、ザッカーバーグ氏はMetaが開発中のカスタムシリコンチップと、これらのチップがAIモデルのトレーニングと推論タスクの効率をどのように向上させるかを紹介しました。また、大手テクノロジー企業の成功には集中力の重要性を強調し、Metaが複数のプロジェクトをどのように管理し、集中力を維持しているかについても説明しました。 以下はインタビュー記録の翻訳です。 ラマ3ドワルケシュ・パテル:マーク、私のポッドキャストへようこそ。 マーク・ザッカーバーグ:ご招待ありがとうございます。あなたのポッドキャストの大ファンです。 Dwarkesh Patel: ありがとうございます。まずは、このインタビューと合わせて発表される技術成果についてお話ししましょう。Llama3とMeta AIについて、そしてどのような新しいエキサイティングな機能について教えてください。 マーク・ザッカーバーグ: Meta AIの新バージョンは、多くの方にお目にかかれると思います。私たちの最大の進歩は、大規模モデルへのアップグレード、Llama 3のリリース、そしてコミュニティへのオープンソースリリースです。Meta AIもLlama 3をベースに開発されます。Llama 3については、まだ詳細をお話しすべき点が数多くありますが、Meta AIは世界で最もインテリジェントで、無料で利用できるAIアシスタントになったと確信しています。さらに、GoogleとBingからのリアルタイムの知識も統合しました。 Meta AIは、FacebookやMessengerのトップページなど、様々なアプリのより目立つ位置に配置され、検索ボックスを使って直接質問できるようになります。また、皆さんに気に入っていただけるクールな作成機能もいくつか追加しました。例えば、アニメーション機能は素晴らしいです。基本的にどんな画像でもアニメーション化できます。 もう1つの本当に素晴らしい機能は、高品質な画像を素早く生成し、クエリを入力している間もリアルタイムで更新されることです。つまり、「山を背景にした野原でマカダミアナッツを食べながらビールを飲んでいる牛を見せて」といったクエリを入力すると、画像がリアルタイムで調整されます。まさに魔法のような機能で、きっと皆さんに気に入っていただけると思います。この機能はすでにいくつかの国でリリースされており、今後数週間から数ヶ月かけてさらに多くの国や地域に展開していく予定です。これは大きな進歩であり、皆様に体験していただけることを心待ちにしています。Meta AIにとって大きな前進です。 しかし、より深く掘り下げたいのであれば、 Llama 3の技術的な詳細が最も興味深いのは明らかです。現在、8パラメータモデルと70パラメータモデル(本日リリース)、そして現在トレーニング中の高密度405パラメータモデルの3つのバージョンをトレーニングしています。8パラメータモデルと70パラメータモデルの結果には非常に興奮しています。これらのモデルは、スケールにおいてトップクラスです。ベンチマーク結果をすべてまとめたブログ記事を公開し、皆様に実際にご覧いただけるようにする予定です。オープンソースなので、どなたでも実際にお試しいただけます。 ポッドキャストのリンク: https://ai.meta.com/blog/meta-l lama-3/ マルチモーダル、多言語、そしてより大きなコンテキストウィンドウを導入するリリースロードマップを策定しています。405Bパラメータモデルは今年後半にリリース予定です。現在の学習進捗状況に基づくと、MMLUスコアは約85で、複数のベンチマークでトップに立つことが期待されます。このすべてに非常に興奮しています。70Bパラメータモデルも素晴らしいもので、本日リリースします。MMLUスコアは約82で、数学的側面と推論的側面の両方で優れたパフォーマンスを示しています。これらの成果を一般の方々に直接体験していただけることは、素晴らしいことだと思います。 Dwarkesh Patel:とても興味深いですね!ベンチマークとして使われるとは思っていなかったので、本当に感心しました。 マーク・ザッカーバーグ:この 8B モデルの計算能力は、Llama 2 の最大パラメータ バージョンとほぼ同等です。そのため、最小の Llama 3 は基本的に最大の Llama 2 と同じくらい強力です。 Dwarkesh Patel:これらのモデルについて詳しく説明する前に、少し振り返ってみたいと思います。例えば、2022年にH100の購入を開始したとしましょう。具体的な時期を教えていただいても構いません。株価は暴落し、人々は投資額がどこに消えたのかと疑問を抱き、メタバースへの投資も減っていました。明らかに、H100の購入に投資しました。H100の購入が必要だと、そしてこれらのGPUが必要だと、どのようにして判断したのでしょうか? マーク・ザッカーバーグ: Reelsを開発していたからです。私たちは常に予測不可能な未来に備えたいと思っています。Reelsの開発中、モデルのトレーニングにGPUをさらに増やす必要があるという状況に遭遇しました。これは私たちのサービスにとって大きな転換点でした。私たちはもはや、フォローしているユーザーやページだけに基づいてコンテンツを推奨するのではなく、いわゆる「非関連性コンテンツ」、つまりフォローしていないユーザーやページのコンテンツを積極的に推奨するようになりました。 候補コンテンツライブラリ(皆さんにご紹介する可能性のあるコンテンツ)は、数千から数億へと膨れ上がりました。そのため、全く異なるインフラが必要になりました。開発に着手したものの、TikTokに追いつこうとする中で、インフラの限界が見えてきました。こうした状況を見て、「二度とこんなことにはならないよう、Reelsやコンテンツランキング、フィードプッシュの処理に必要なGPUを調達しよう。ただし、その倍の台数を」と考えました。私たちの信条は、常に「予測できないことは必ず起こる」というものです。 Dwarkesh Patel: 当時、それが AI になることはわかっていましたか? マーク・ザッカーバーグ:当初は、これは大規模モデルの学習に関連するものだと考えていました。そして当時は、コンテンツが関係するのではないかと予想していました。会社を経営するということはそういうもので、常に新しいことが起きるものです。当時は、リールなどのコンテンツ推奨機能が正常に動作するようにすることに全力を注いでいました。今、これはInstagramとFacebookにとって大きな進歩であり、ユーザーはフォローしていないものの、興味を持っているユーザーが投稿したコンテンツを見ることができるようになりました。 振り返ってみると、それは私たちが遅れをとっていたからこその、非常に賢明な決断でした。「ああ、あの頃はずっと先を行っていた」という話ではありません。実際、一見賢明に見える決断のほとんどは、過去に過ちを犯し、それを繰り返したくないという思いから下されるものです。 ドワルケシュ・パテル:少し話が逸れて質問させてください。2006年に会社を10億ドルで売却したわけではありませんが、ある程度の価格であれば受け入れる用意があったのは明らかですよね?当時、「当時のFacebookの実際の評価額はこれくらいで、彼らは正しく評価していなかった」と考えたことはありませんか?もし5兆ドルを提示されていたら、間違いなく売却していたでしょう。その選択肢をどのように検討したのですか? マーク・ザッカーバーグ:個人的な事情もあると思います。そういう分析ができるほど成熟していたかどうか、私には分かりません。10億ドルについて議論する人たちに囲まれていました。「それが私たちが達成すべき収益であり、到達すべき規模だ。明らかに何年も先には達成できるはずだ」などと言っていました。当時の私たちの能力をはるかに超える話でした。私には、そうした議論に深く関わるだけの金融知識がありませんでした。 しかし、心の底では、私たちがやっていることに強い信念を持っています。そして、分析もしました。「もしこれをやらなかったら、私はどうなるだろう? そうだね。私は何かを創造すること、人々のコミュニケーションを助けること、そして人と人との関係性や力学を理解することが大好きだ。だから、もしこの会社を売却するなら、おそらく似たような会社をまた作るだろう。今の会社も結構気に入っている。だから、なぜ売る必要があるんだ?」 人々が下す大きな決断の多くは、信念や価値観に基づいていると私は考えています。実際、分析を通して未来を予測するのは、往々にして非常に難しいのです。 AGIへの道におけるプログラミングDwarkesh Patel: FacebookのAI研究は長年行われてきましたが、今ではMetaの重要な部分となっているようです。AGIの開発がMetaにとって中核的な優先事項となったのはいつ頃ですか? マーク・ザッカーバーグ:少し時間が経ちましたね。FAIRを設立したのは約10年前です。汎用知能(あるいは何と呼ぶにせよ)への道のりには、あらゆるものを向上させるようなイノベーションが生まれるはずだと考えていました。ですから、私たちはFAIRを製品としてではなく、研究チームのように捉えていました。この10年間で、FAIRは様々なものを生み出し、私たちのすべての製品のパフォーマンスを向上させてきました。この分野の進歩を牽引するだけでなく、同じ分野の他の人々が私たちの製品のパフォーマンスを向上させるものを生み出す機会も提供してきました。これは素晴らしいことだと思います。 ChatGPTや画像生成のための拡散モデルの登場と発展により、ここ数年で人々がアプリケーションとインタラクションする方法は明らかに劇的に変化しました。そこで私たちは、これらの技術を製品に導入し、すべての製品を支える最先端のモデルを構築することを目標に、第二のチーム「Gen AIチーム」を立ち上げました。 私たちがこの取り組みを始めた当初の考えは、私たちがやっていることはすべてソーシャルなものだということでした。人々とクリエイターの交流、人々と企業の交流、そして企業が商品を販売したりカスタマーサービスを提供したりするのを支援するものでした。アプリ、スマートグラス、VRなど、基本的なアシスタント機能もいくつかありました。そのため、これらのユースケースをサポートするためにAGIが必要かどうかは、当初は完全には明らかではありませんでした。しかし、この探求期間を通して、答えは明確になったと思います。必要だということです。例えば、Llama 2を開発していた頃は、Meta AIにWhatsAppでコーディングに関する質問をする人はそれほど多くないだろうと考え、コーディング機能を優先しませんでした。 ドワルケシュ・パテル: 今ならそうなりますよね? マーク・ザッカーバーグ:よく分かりません。WhatsApp、Facebook、Instagramといったユーザーインターフェースは、コーディングに関する質問が多く寄せられるインターフェースではないと思います。もしかしたら、これから公開するMeta AIウェブサイトかもしれません。しかし、過去18ヶ月間で予想外の結果がありました。プログラミングは、プログラミングだけでなく、多くの分野で重要になっていることが分かりました。たとえ人々がコード関連の質問をしていなくても、モデルをプログラミングするように訓練することで、モデルはより厳密に質問に答えられるようになり、様々な分野で推論できるようになります。例えば、Llama 3では、人々が主にコード関連の質問をしていなくても、多くのコーディング訓練を行いました。これは、あらゆる面で改善につながるからです。 もう 1 つの例は推論能力です。クリエイターとチャットをしたい場合や、企業としてユーザーとのエンゲージメントを図ろうとしている場合などです。こうしたやり取りは単純な返答だけではありません。相手の目的をどのように達成するかを考える必要がある、複数のステップから成るプロセスです。顧客が来店したとき、必ずしも何を探しているのか、どのように質問すればよいのかわかっているわけではありません。そのため、AI の仕事は単に質問に答えることだけではありません。問題をより包括的に検討する必要があります。これは実際には推論の問題になります。したがって、他社が推論の問題を解決したり、推論において大きな進歩を遂げている一方で、当社がまだ基本的なチャットボットの段階にとどまっている場合、当社の製品ははるかに劣っています。最終的に、当社は汎用知能の問題を解決する必要があることに気づき、それを確実に実現するために投資を増やしました。 Dwarkesh Patel: では、すべてのユーザーのニーズを解決できる Llama バージョンは、この建物内のすべてのプログラマーを置き換えるほど強力ですか? マーク・ザッカーバーグ:これらすべては、時間の経過とともに徐々に発展していくと思います。 Dwarkesh Patel:でも、最終的には、Llama 10 のようになります。 マーク・ザッカーバーグ:この質問には多くの要素が絡んでいると思います。人を置き換えるのではなく、より多くのことを実行するためのツールを人々に提供するということだと思います。 Dwarkesh Patel:では、Llama 10 以降、このビルのプログラマーの生産性は 10 倍に増加するのでしょうか? マーク・ザッカーバーグ:それ以上のものだと信じています。人間の知能には単一の閾値があるとは考えていません。なぜなら、人それぞれに能力が異なるからです。AIは、モデルの性能次第で、ある程度、ほとんどの面で人間を超える可能性はあると思います。しかし、それは段階的なプロセスであり、AGIは様々な能力を追加すれば実現できるものではないと考えています。 マルチモーダルは現在、私たちの主要な焦点の一つです。当初は写真、画像、テキストを対象としていましたが、最終的には動画にも拡大していく予定です。メタバースに注力しているため、3Dコンテンツも重要です。私が非常に関心を持っているものの、業界ではあまり注目されていないもう一つのモダリティは、感情理解です。人間の脳の大部分は、他者の理解と解釈、そして表情や感情の理解に充てられています。私はこれを独自のモダリティだと考えています。動画や画像だけを指す場合もありますが、明らかにこの二つのモダリティの中でも非常に特殊なものです。つまり、推論と記憶をより良くしながら、これらすべての異なる能力に焦点を当てたモデルをトレーニングする必要がありますが、それ自体が困難な課題です。 将来的には、クエリコンテキストウィンドウに情報を詰め込むことで、より複雑な質問をすることが主流ではなくなると思います。異なるメモリストレージや、よりパーソナライズされたモデルが登場するでしょう。これらはすべて異なる機能です。そして、それらを大きくしたり小さくしたりすることも重要です。私たちは両方を重視しています。Meta AIのようなものを運用する場合、それは主にサーバーベースです。また、スペースが非常に限られているスマートグラス上でも動作させたいと考えています。そのため、この点で非常に効率的なものが必要です。 Dwarkesh Patel: 100億ドル、あるいは最終的には1,000億ドル規模の推論タスクに取り組む場合、産業規模でAIを活用する際の適用シナリオはどのようなものになるでしょうか?シミュレーションでしょうか?メタバースにおけるAIでしょうか?データセンターはどのように活用するのでしょうか? マーク・ザッカーバーグ:これはすべての製品を根本的に変えるだろうと予測しています。ユニバーサルなアシスタント製品が登場するでしょう。チャットボットの質問と回答形式から、複雑なタスクを解決できるものへと進化するでしょう。これには膨大な推論と計算リソースが必要になります。さらに、企業であれクリエイターであれ、他者の利益を代表する他のインテリジェントエージェントとのインタラクションが、私たちの仕事の重要な部分になると考えています。この点に関して私が特に強調したいのは、ユーザーがインタラクションできるAIは1つだけではないということです。すべての企業は、自社の利益を代表するAIを求めています。競合他社の製品を売り込むようなAIを通してユーザーとインタラクションしたいとは思っていません。 クリエイターは最も重要な応用分野の一つになると考えています。私たちのプラットフォームには約2億人のクリエイターがいます。彼らは皆、コミュニティと交流したいと考えていますが、時間に限りがあります。クリエイターがAIを所有し、独自の方法でコミュニティと交流できるようにトレーニングできるツールが開発されれば、それは非常に強力なものになるでしょう。これらすべてが、膨大なエンゲージメントを生み出すでしょう。これらは、消費者向けアプリケーションのほんの一例です。妻と私はチャン・ザッカーバーグ財団を運営しており、科学分野で多くの研究を行っています。AIは明らかに、科学、医療、その他の分野の進歩を推進します。最終的には、AIは製品開発のあらゆる分野と経済全体に影響を与えるでしょう。 ドワルケシュ・パテル:多段階のタスクを実行できるAIについてお話いただきましたが、それはモデルがより大規模になることを意味しますか?例えば、Llama 4には、適切なデータで学習させることで非常に強力になる7Bバージョンがまだあるのでしょうか?それはどのように実現されるのでしょうか?スケールアップするのでしょうか?それとも、先ほどおっしゃったように、サイズは同じでデータセットが異なるだけなのでしょうか? マーク・ザッカーバーグ:まだ明確な答えは見つかっていないと思います。一つの明確なパターンは、まずLlamaモデルを用意し、それを中心にアプリケーション固有のコードを構築することです。その一部はアプリケーションのシナリオに合わせた微調整であり、もう一つは、例えばMeta AIがGoogleやBingなどのツールと連携してリアルタイムの知識を組み込むロジックなどです。これは基本的なLlamaモデルには含まれていません。Llama 2でもこの点に触れましたが、それはむしろ手作業で設計されたプロセスでした。Llama 3の目標の一つは、こうした機能をモデル自体にさらに統合することです。 Llama 3がよりインテリジェントなエージェントのような動作を示し始めていますが、これらの機能の一部はまだ手作業による設計が必要だと考えています。Llama 4の目標は、これらの機能をさらに多くモデルに組み込むことです。各段階で、将来の潜在的な機能を予測しています。これらの機能を実験・検討することで、次期バージョンのモデルをどのようにトレーニングするかについての直感を磨き、より汎用性の高いものにすることができます。手作業によるコーディングは特定の用途の可能性を広げますが、本質的に脆弱であり、普遍的に適用できるものではありません。 Dwarkesh Patel: 「モデル自体に統合する」とは具体的にどういう意味ですか?必要な機能をモデル内で直接トレーニングするということですか? マーク・ザッカーバーグ: Llama 2ではツールの使用法が非常に限定的でしたが、Llama 3ではツールの使用法が大幅に改善されました。Google検索を利用するためのコードをすべて手動で記述する必要がなくなり、直接実行できるようになりました。コードの作成や実行など、多くのタスクにも同じことが当てはまります。この機能が実現したことで、次に何を試せるかが見えてきました。Llama 4までこれらの機能の構築を待つつもりはなかったので、まずは探索的開発を行うことができました。たとえ一時的であっても、多くの手作業によるコーディングは製品の改善につながります。これは、モデルの次のバージョンでどのような機能を搭載するかを導くのに役立ちます。 Dwarkesh Patel: Llama 3のコミュニティTweakの中で、一番興味深いものは何ですか? あなたにとって最も役立つものではないかもしれませんが、交流するのが一番楽しいものだと思います。例えば、古代をテーマにしたTweakであれば、ウェルギリウスのような古代の人々と会話できるでしょう。それについて、どのような期待をお持ちですか? マーク・ザッカーバーグ:こういったものの魅力は、嬉しい驚きがあることだと思います。何か具体的で価値のあるアイデアが思いついたら、おそらく既に開発を進めているでしょう。改良された、スケールダウンされたバージョンも出てくると思います。一つは、8パラメータでは多くのアプリケーションにとって小さすぎると感じていることです。将来的には、1~2パラメータ、あるいは5億パラメータのモデルを開発し、それらで何ができるか試してみたいと思っています。8パラメータのモデルが既に最大のLlama 2モデルとほぼ同等の性能を持っているのであれば、1パラメータのモデルでも興味深く高速な機能を実現できるはずです。これは分類タスクや、ユーザーのクエリ意図を理解し、それを最も強力なモデルに渡してヒントを正確に判断するまでに必要な基礎作業の多くに役立ちます。これはコミュニティの皆さんの協力が得られる分野だと思います。私たち自身もこれらのモデルの一部を改良することを検討しましたが、現時点ではGPUは405パラメータのモデルのトレーニングに注力しています。 ドワルケシュ・パテル:なるほど、それだけの数のGPUをお持ちですね。確か年末までに35万台になると言っていたと記憶しています。 マーク・ザッカーバーグ:これがGPUクラスター全体です。それぞれ約22,000ノードまたは24,000ノードの2つのクラスターを構築し、大規模モデルのトレーニング専用に使用しています。もちろん、他の多くの作業もカバーしています。Reelsモデル、Facebookニュースフィード、Instagramフィードのトレーニングには、かなりのリソースが投入されています。多数のユーザーにサービスを提供する必要があるため、推論は私たちにとって非常に重要です。私たちがサービスを提供するコミュニティの規模の大きさから、トレーニングの計算要件と比較した推論の計算要件は、この種の作業を行うほとんどの企業よりもはるかに高いと考えられます。 Dwarkesh Patel:教えていただいた資料の中で、特に興味深い点がありました。それは、学習データに、学習のみに最適な計算量よりも多くの計算を投入しているということです。推論はあなたとコミュニティにとって非常に重要なので、数兆個のトークンを持つモデルを持つことは理にかなっていると思います。 マーク・ザッカーバーグ:とはいえ、70億パラメータモデルについて興味深い点があります。当初は飽和がはるかに早くなると考えていたのです。約15兆トークンでトレーニングしました。限界に近づくのはもっと早いと予想していましたが、それでも最後の最後まで学習を続けていました。トークンをさらに増やせば、少しは改善されるかもしれません。企業のマネージャーとして、ある時点で、こうしたメタレベルの思考をする必要があります。この70億パラメータモデルのトレーニングにGPUを使い続けるべきか、それともできるだけ早くラマ4仮説のテストを始めるべきか?私たちはその決断を下す必要があり、現在のバージョンの70億パラメータモデルで妥当なバランスを見つけることができたと考えています。近い将来、マルチモーダル70億パラメータモデルなど、他のバージョンが登場する予定です。しかし、現在のアーキテクチャがこれほど大量のデータを処理できるというのは、非常に興味深いことです。 ドワルケシュ・パテル:それは本当に興味深いですね。これは将来のモデルにとってどのような意味を持つのでしょうか?Llama 3 8BはLlama 2 70Bよりも優れているとおっしゃっていましたね。 マーク・ザッカーバーグ:いやいや、そんなに良くないですよ。誇張したくはないんです。規模はほぼ同じくらいです。 エネルギーボトルネックドワルケシュ・パテル:これは、ラマ4 70Bがラマ3 405Bと同等の性能を持つことを意味しますか?この分野の将来はどうなるのでしょうか? マーク・ザッカーバーグ:それは大きな疑問ですよね?誰も分からないと思います。世界で最も計画が難しいものの一つは、指数関数的な成長曲線です。これはどれくらい続くのでしょうか?おそらく成長を続けるでしょう。インフラ構築に100億ドル、あるいは1000億ドルを投資することは価値があると思いますし、もしそれが続けば、本当に素晴らしいもの、並外れた製品が生まれるでしょう。この業界で、どれだけのスピードで成長し続けるかを正確に予測できる人はいないでしょう。歴史的に見て、必ずどこかでボトルネックにぶつかります。今、この分野に多大なエネルギーが投入されているので、ボトルネックはすぐに解消されるかもしれません。興味深い質問だと思います。 ドワルケシュ・パテル:こうしたボトルネックがなければ、世界はどうなるでしょうか?このペースで進歩が続くと考えるのは妥当でしょう。ラマはさておき… マーク・ザッカーバーグ:そうですね、ボトルネックは様々でしょう。ここ数年、GPUの生産にはボトルネックがありました。GPUを購入する資金力のある企業でさえ、供給制約のために必要な数量を確保できないこともありました。しかし、今ではその状況は改善していると思います。そのため、多くの企業がGPUの構築に多額の投資を検討しているのが現状です。この状況はしばらく続くと思います。まず資本の問題があります。資本投資に見合う価値がなくなるのはいつでしょうか?そのレベルに達する前に、まずエネルギーの制約に直面するでしょう。現時点では、ギガワット単位のエネルギーを消費する単一のトレーニングクラスターを構築できた企業はないと思います。 このプロセスでは、全体的な進捗を遅らせるいくつかの実際的な問題に直面するでしょう。エネルギー許可の取得は、政府によって厳しく規制されたプロセスです。ソフトウェア業界もある程度規制されていますが、私の意見では、テクノロジー業界の多くの人が認識しているよりも厳格です。もちろん、小規模な会社を立ち上げる場合は、この感覚はそれほど強くないかもしれません。私たちは世界中の政府や規制機関とやり取りしており、世界中の数多くの規則を遵守し、適切に実施されていることを確認する必要があります。しかし、エネルギー問題は議論の余地がないと私は考えています。大規模な発電所の新規建設、大規模な拡張プロジェクト、そしてそれらのために他の私有地や公有地に送電線を敷設するといった場合、これらは高度に規制された事項です。これには何年もの準備が必要です。大規模な施設を建設し、そこに電力を供給するとなると、それは長期的なプロジェクトになります。確かにこのようなことをやっている人はいますが、一部の人が想像するほど魔法のようなことではないと思います。AIが一定のレベルに達し、多額の資金を調達すると、突然モデルが…その過程で、さまざまなボトルネックに遭遇するでしょう。 Dwarkesh Patel: AI関連に限らず、Metaのような企業でさえ、十分なリソースが確保できないプロジェクトはありますか?つまり、研究開発費や設備投資予算が現在の10倍あれば着手できるようなプロジェクトでしょうか?そのプロジェクトは今まさに構想中とのことですが、Metaの現状では株式や社債の発行による資金調達すら難しいのでしょうか?予算の10倍もの規模になるような大規模なプロジェクトでしょうか? マーク・ザッカーバーグ:エネルギーもその一因だと思います。十分なエネルギー供給があれば、おそらく今よりもさらに大規模なコンピューティングクラスターを構築できるでしょう。 ドワルケシュ・パテル:根本的に、これは資金が制限されていることを意味するのでしょうか?もし1兆ドルあったらどうなるでしょうか… マーク・ザッカーバーグ:鍵となるのはタイミングだと思います。指数関数的な成長曲線がどこまで進むかによって変わります。現在、多くのデータセンターは50メガワットか100メガワット程度で、大規模なものでは150メガワットに達するものもあります。例えば、データセンター全体をモデルトレーニングに必要な機器をすべて備え、可能な限り最大のクラスターを構築するとします。多くの企業が同様のことを行っていると思います。しかし、300メガワット、500メガワット、あるいは1ギガワット(GW)のデータセンターの建設を考え始めると、まだ1ギガワットのデータセンターを建設した企業は存在しません。私は必ず実現すると思いますが、それは時間の問題です。しかし、来年には実現しないでしょう。このような施設の建設には数年かかるでしょう。例えると、1ギガワットのデータセンターは、モデルトレーニング専用のかなり大規模な原子力発電所の電力に相当します。 ドワルケシュ・パテル:アマゾンはすでにそれをやっているんじゃないですか?950メガワットのものを… マーク・ザッカーバーグ:彼らが何をしたのか、よく分かりません。彼らに聞いてみてください。 ドワルケシュ・パテル:必ずしも同じ場所で行う必要はありませんよね?分散トレーニングが実現可能であれば、分散して展開することも可能です。 マーク・ザッカーバーグ:そうですね、それは大きな疑問だと思います。具体的にどのように機能するかということです。将来的には、これらの大規模モデルのトレーニングと呼んでいるものは、モデルに入力して推論を行うための合成データを生成することの方が重要になるでしょう。その割合がどの程度になるかは分かりませんが、現時点では合成データの生成はトレーニングというよりも推論に近いと思います。もちろん、モデルをトレーニングするためにこれを行っているのであれば、それはトレーニングプロセス全体の一部です。ですから、この2つのバランス、そしてどのように進化していくべきかは未解決の問題です。 ドワルケシュ・パテル:これはラマ3、あるいはさらに後のラマ4にも当てはまるのでしょうか?つまり、これらのモデルを公開した後、誰かが大量のコンピューティングリソースを持っている場合、それらのモデルを使ってよりインテリジェントなものを作ることができるということですね。例えば、クウェートやUAEのような豊富なコンピューティングリソースを持つ国は、ラマ4を直接使ってよりインテリジェントなものを作ることができるのでしょうか? マーク・ザッカーバーグ:確かにこの傾向は現れつつあると思いますが、モデルアーキテクチャには根本的な限界もあると考えています。例えば、70個のパラメータを持つLlama 3アーキテクチャを用いたモデルは、さらに改善していく可能性があり、改善し続けることができます。先ほども申し上げたように、より多くのデータを投入したり、高価値トークンを再利用し続けたりする限り、モデルは改善し続けると確信しています。現在、多くの企業が70個のパラメータを持つLlama 2モデルアーキテクチャに基づく新しいモデルを構築しています。しかし、それでもなお、Llama 3で見られたような世代を超えた改善を達成したオープンソースプロジェクトは存在しません。特定のモデルを無限に改善することは不可能であり、限られた最適化しか実行できないのです。 AIは人類史上最も重要な技術でしょうか?ドワルケシュ・パテル:具体的なモデルや、例えば何年もかかるかもしれないエネルギー関連の認可といった時間軸から少し距離を置いて考えてみましょう。より大きな視点で見ると、今後数十年で人工知能はどうなるでしょうか?メタバースやソーシャルテクノロジーといった、新たなテクノロジーのように感じられるでしょうか?それとも、人類の歴史の中で根本的に異なる何かとして感じられるでしょうか? マーク・ザッカーバーグ:非常に根本的な変化になると思います。コンピューターそのものの誕生に近いものだと思います。インターネットや携帯電話が登場したように、あらゆる新しいアプリケーションが登場します。以前は不可能だった多くのことが可能になったため、人々は基本的にあらゆる体験を根本的に見直しました。ですから、これは起こると思いますが、それはより低レベルのイノベーションだと思います。私の感覚では、人々がコンピューターを持っていなかった状態から、コンピューターを持つ状態へと移行するようなものでしょう。これらがどのように発展していくのか、正確に推測するのは難しいです。 宇宙規模で見れば、数十年以内に実現することは明らかです。中には、制御不能になり、ある程度の知能レベルから極限の知能レベルへと急速に変化してしまうのではないかと懸念する人もいます。ただ、物理的な制約が多すぎて、実現の可能性は低いと考えています。本当に実現するとは思えません。私たちには適応する時間があるでしょう。しかし、それは間違いなく私たちの働き方を変え、人々に様々なことを実現するための創造的なツールを与えるでしょう。人々が本当にやりたいことをできるようになるでしょう。 Dwarkesh Patel:那么也许不是一夜之间,但你的观点是,在宇宙尺度上,我们可以以这种方式看待这些里程碑吗?人类进化了,然后出现了AI,然后他们走向了银河系。也许需要几十年,也许需要一个世纪,但这就是现在历史上正在发生的大局吗? Mark Zuckerberg:对不起,你是什么意思? Dwarkesh Patel:我的意思是,曾经有过其他技术,比如计算机甚至火,但AI本身的发展与人类最初进化一样重要。 Mark Zuckerberg:我认为这很棘手。人类历史一直是人们认为人类的某些方面以各种方式非常独特,然后逐渐接受事实并非如此,但人类实际上仍然非常特别。我们认为地球是宇宙的中心,而事实并非如此,但人类仍然非常棒,非常独特,对吧?我认为人们倾向于存在的另一个偏见是认为智能与生命有着根本的联系。但实际上这一点并不清楚。我不知道我们对意识或生命的定义是否足够清晰,足以彻底探究这个问题。科幻小说中充斥着创造智能的内容,让其展现出类似人类的行为等。目前的趋势看起来是,智能可以与意识、主动性和类似的东西相分离,我认为这使得它成为一个非常宝贵的工具。 开源的风险显然,很难预测这些技术会朝哪个方向发展,这就是为什么我认为没有人应该对其开发方式或计划采取什么行动抱有教条主义态度。我们应该在每次发布时审视它。我们显然是非常支持开源的,但我还没有承诺发布我们做的每一件事。我基本倾向于认为开源对社区有益,对我们也有益,因为我们能从创新中受益。然而,如果在某个时刻,这项技术的能力发生了质的变化,而我们认为开源并不负责任,那么我们就不会这么做。所有这些都很难预测。 Dwarkesh Patel:有什么特定类型的变化,当你在训练Llama 5或Llama 4时,如果看到这种变化,会让你觉得“你知道吗,我不确定是否要将其开源”? Mark Zuckerberg:这个问题在抽象层面上很难回答,因为任何产品都可能出现负面行为,只要能够控制住,就没有问题。社交媒体有其不好的一面,我们一直在努力进行管控。Llama 2也有其问题,我们花费大量时间确保它不会帮助人们实施暴力行为等。这并不意味着它是一种自主或智能的代理,只是说它对世界了解很多,可以回答一系列我们认为由它来回答并不妥当的问题。 所以我认为真正的问题不在于它会表现出什么行为,而在于它展现出某种情况后,有哪些是我们无法控制的。我觉得事物的好坏表现方式有很多,很难一开始就全部列举出来。看看我们在处理社交媒体时遇到的各种危害类型吧。我们已经识别出大约18或19种有害行为,并且基本上建立了AI系统来识别这些行为,以确保它们在我们的网络上尽可能少地发生。随着时间推移,我相信我们也能对这一问题建立起更细致的分类体系。我认为这也是我们需要投入研究的一个方面,因为我们希望对此有深入理解。 Dwarkesh Patel:在我看来,这似乎是个好主意。如果未来人工智能系统没有得到广泛应用,每个人都没有机会接触它们,我会感到失望。同时,我也希望更好地理解这些缓解措施。如果缓解措施是微调,那么开放权重的意义在于你可以移除这些通常只是在这些能力基础上附加的、较为表面的微调。如果像是在Slack上与生物研究人员交谈……我认为现在的模型还远未达到这种程度。 现在,它们更像是谷歌搜索。但如果我能向它们展示我的培养皿,它们能解释为什么我的天花样本没有生长,以及需要做哪些改变,你又该如何缓解这种情况呢?因为有人可能只是简单地在那里进行微调,对吧? Mark Zuckerberg:这是真的。我认为很多人会基本使用现成的模型,而有些怀有恶意的人会试图去除所有不良内容。所以我认为这是一个问题。另一方面,我之所以在哲学层面上如此支持开源,是因为我认为未来人工智能的集中有可能像其广泛分布一样危险。 我想很多人会思考这样的问题:“如果我们能做到这些事情,让它们在野外广泛可用是否不好?”我认为另一种情况是,一个机构拥有比其他所有机构都强大得多的人工智能,可能也非常糟糕。我想到了一个安全方面的类比。在很多不同的事物中存在如此多的安全漏洞。如果你能回到一两年前,假设你只比当时多了解一两年的安全漏洞知识,你几乎可以黑进任何系统。这并不是人工智能。因此,很难相信一个非常智能的人工智能可能无法识别一些漏洞,并且就像一个人能够回到一两年前,破坏所有这些系统一样。 那么,我们作为社会是如何应对这个问题的呢?其中一个重要的部分就是开源软件,它确保当软件得到改进时,这些改进不会仅仅停留在一家公司的产品中,而是可以广泛部署到许多不同的系统中,无论是银行、医院还是政府设施。随着软件逐渐强化——这源于更多人能够看到并对其进行测试,以及对这些系统如何运作的标准形成——世界可以迅速共同升级。 我认为在一个人工智能被广泛部署的世界里,随着时间的推移逐步强化,所有不同的系统都将受到制约,这种方式从根本上来说比我更健康。所以风险无处不在,但我认为这是一个人们谈论得不够多的风险。有一种风险是人工智能系统做出坏事。但让我夜不能寐的是,不值得信赖的行为体拥有超级强大的人工智能,无论是不值得信赖的公司还是其他什么。我认为这可能是更大的风险。 Dwarkesh Patel:他们可能做坏事,就因为他们拥有别人没有的武器? Mark Zuckerberg:或者只是制造大量混乱。我认为这种技术最终会因为经济、安全和其他原因变得非常重要和有价值。如果一个你不信任的人或对手得到了更强大的东西,那我认为这可能会成为问题。最好的缓解方法可能是拥有优秀的开源AI,让它成为标准,并在很多方面成为领导者。这可以确保竞争环境更加公平、平衡。 Dwarkesh Patel:这对我来说似乎有道理。如果真的如此,那就是我所期待的未来。我想从机制上理解,世界上存在开源AI系统这一事实如何防止有人用他们的AI系统制造混乱?以某人携带生物武器的具体例子来说,是因为我们将迅速在全球范围内进行大量研发来找出疫苗吗?到底发生了什么? Mark Zuckerberg:如果你考虑我之前提到的安全问题,我认为使用较弱AI的人试图入侵由更强AI保护的系统,其成功几率会降低。就软件安全而言。 Dwarkesh Patel:在部署这些系统的过程中,有没有可能出现这种情况:你在训练Llama 4,但它因为觉得你没注意到而对你撒谎,然后你惊呼“哇,这里发生了什么?”这在Llama 4这类系统中可能不太可能发生,但你能想象出类似的情况吗?在那里你会非常担心欺骗性,并且有数十亿份这样的系统存在于野外? Mark Zuckerberg:我的意思是,现在我们看到很多幻觉现象,而且情况可能更严重。我认为这是一个有趣的问题,即如何区分幻觉与欺骗。这其中存在许多风险和需要考虑的因素。至少在管理我们公司时,我试图在这些长期理论风险与我认为当下确实存在的现实风险之间找到平衡。谈到欺骗,我最担心的形式是人们利用它生成错误信息,然后通过我们的网络或其他途径进行传播。我们对抗这类有害内容的方式是构建比对手更智能的AI系统。 无论是Llama 4还是Llama 6,我们需要考虑我们正在观察到的行为,而不仅仅是自己。我们将其开源的部分原因在于,有很多其他人在研究这个问题。我们希望了解其他人观察到了什么,我们观察到了什么,我们可以减轻什么,然后我们会评估是否可以将其开源。在可预见的未来,我乐观地认为我们能够做到这一点。短期内,我不希望忽视人们今天试图用模型做什么真正坏事这一问题,即使它们不是生存威胁,也存在许多我们运营服务时熟知的相当严重的日常危害。实际上,这也是我们必须投入大量精力的地方。 Dwarkesh Patel:我发现这个合成数据的事情真的很有趣。以当前的模型来看,如果只是反复使用合成数据,出现一个渐近线是有道理的。但假设它们变得更聪明,你开始采用论文中讨论或即将发布的博客文章里提到的那种技术,即追踪到最正确的思维链。为什么你不认为这会导致一个循环,即它变得更聪明,生成更好的输出,继而变得更聪明,如此往复呢?当然,这不会一夜之间发生,但可能在几个月或几年的训练后,随着模型变得越来越聪明。 Mark Zuckerberg:我认为在当前模型架构的限制下,这种情况是有可能发生的。只是就目前的80B参数模型而言,我不认为其能与那些集成了最新研究的数百亿参数模型相媲美。 Dwarkesh Patel:但这些模型也会开源,对吧? Mark Zuckerberg:嗯,当然,前提是我们刚刚讨论过的所有问题都已解决,答案是肯定的。我们希望情况会如此。但在开发软件的过程中,总有很多事情可以做,但在某种程度上,软件会受到运行其上的芯片的限制。因此,总会存在不同的物理约束。模型的大小将受限于可用于推理的能源量。我对这一领域的快速进步持乐观态度,但同时也比一些人更加谨慎。我认为失控的情况不太可能发生。 Dwarkesh Patel:保持选择的开放性是有意义的。有太多我们不知道的事情。一方面,确保权力平衡非常重要,以免有人成为独裁者;另一方面,你可能不想开源架构,因为中国可能会利用它来追赶美国的人工智能,引发一场智能爆炸并最终胜出。很多事情似乎都有可能发生,考虑到所有可能性并保持选择开放似乎是合理的。 开源价值百亿美元的模型与定制硅芯片Dwarkesh Patel:我们再回到投资者和开源的话题。假设这个价值100亿美元的模型完全安全,你们已经进行了这些评估,并且与当前情况不同,评估者也可以对模型进行微调,这在未来的模型中应该是可行的。你们会将这个价值100亿美元的模型开源吗? Mark Zuckerberg:只要它对我们有所帮助,那当然会。 Dwarkesh Patel :但它真的会吗?投入了100亿美元的研发资金,现在却要将其开源。 Mark Zuckerberg:这也是一个随着时间推移我们需要不断评估的问题。我们在开源软件方面有着悠久的历史。但我们通常不会开源我们的产品,比如我们不会把Instagram的代码开源。我们会把很多底层基础设施开源。可能在我们的历史上最大的一个项目就是Open Compute Project,我们在这个项目中公开了所有服务器、网络交换机以及数据中心的设计,使之开源,并且最终证明非常有帮助。虽然很多人能够设计服务器,但整个行业现在已经标准化到了我们的设计,这意味着供应链基本上都是围绕我们的设计构建起来的。因此,产量上升了,成本对所有人都降低了,为我们节省了数十亿美元,这真是太棒了。 所以开源对我们来说有多种可能的好处。一种是如果人们找到了更经济地运行模型的方法。我们将在所有这些事物上花费数十亿甚至数百亿美元。所以如果我们能提高哪怕10%的效率,那就是节省了数十乃至上百亿美元。仅这一点本身就可能价值巨大。特别是在存在其他竞争模型的情况下,我们的模型也不具备明显的优势。 Dwarkesh Patel:那么,你的观点是训练将会被商品化吗? Mark Zuckerberg:我认为这件事可能会有多种发展路径,其中一种就是商品化。所谓“商品化”,意味着它会变得非常便宜,因为有很多选择。另一个可能的发展方向则是质量上的提升。你提到过微调。目前来说,对市面上大部分主要模型进行微调的能力还相当有限。虽然有一些选项,但通常不适用于最大的模型。如果能做到这一点,针对不同应用或使用场景进行特定的微调,或者将其融入特定的工具链中,我认为这不仅能提高开发效率,还能实现质的飞跃。 这里有一个类比来解释这个问题。我认为移动生态系统中有一个普遍存在的问题,那就是存在苹果和谷歌这两家“看门人”公司,它们可以决定你能开发什么。一方面,这是经济层面的问题,即我们开发出某项产品后,它们会从中拿走一大笔钱。但更让我感到不满的是另一层面,即质量控制。很多时候,当我们想要发布或已经发布了某个功能,苹果却说:“不行,你们不能发布那个。”这很糟糕,对吧?所以问题是,在AI领域,我们是否也会面临类似的局面?是否会有一小部分公司运营封闭的模型,控制着API接口,从而决定你能开发什么?对我们而言,为了确保不陷入那样的境地,自己构建模型是值得的。我不希望其他任何公司告诉我们能开发什么。 从开源的角度来看,我认为许多开发者也不希望这些公司对他们指手画脚。所以问题是,围绕这一领域将形成怎样的生态系统?会出现哪些有趣的新事物?这对我们的产品有多大提升?我认为在很多情况下,如果AI模型像我们的数据库、缓存系统或架构一样,我们会从社区获得有价值的贡献,使我们的产品变得更好。而我们所做的应用特定工作仍然会具有高度差异化,不会受到太大影响。我们将能够继续做我们想做的事,受益于此,我们和社区的所有系统都会因开源而变得更好。 当然,还有一种可能性,即模型本身可能成为产品的核心部分。在这种情况下,是否开源就成为一个更为复杂的经济考量,因为你是在很大程度上将自己商品化。但从我目前所见,我们似乎并未处于那种状况。 Dwarkesh Patel:你们会通过将模型授权给云服务商,从中获得可观的收入吗?也就是说,他们需要向你们支付费用才能使用这个模型。 Mark Zuckerberg:我们希望达成这样的协议,但不确定其收益会有多大。这基本上就是我们对Llama模型的授权方式。在很多方面,它类似于非常宽松的开源许可协议,只是对大型公司使用它设定了限制。这就是我们为何要设立这个限制的原因。我们并非要阻止他们使用,只是希望如果他们打算直接拿我们构建的东西进行转售并从中获利,能够先与我们沟通。比如微软Azure或亚马逊,如果要转售我们的模型,应该与我们进行收入分成。 总之,在这么做之前先来和我们谈谈。目前情况就是这样。至于Llama 2,我们已经与所有主要云服务商达成了协议,Llama 2作为托管服务在所有这些云上都可获取。我认为随着我们发布更大规模的模型,这方面会变得越来越重要。虽然这不是我们的主业,但如果这些公司要售卖我们的模型,我们理应从其中分享一部分收益。 Dwarkesh Patel:关于开源带来的其他风险,我认为您关于权力平衡以及通过更好的对齐技术等消除潜在危害的观点是完全合理的。我希望Meta能有某种框架,就像其他实验室那样,明确指出“一旦发现具体某种情况,就应停止开源甚至可能暂停部署”。将其写下来,让公司对此有所准备,员工也能对此有所预期。 Dwarkesh Patel:这个关于生存风险的观点很公正。目前我们更多关注当下所见的各类风险,即内容风险。我们不希望模型被用来帮助人们实施暴力、欺诈或其他形式的伤害。尽管探讨生存风险或许在智力层面上更有趣,但我认为真正需要投入更多精力去防范的是有人利用模型去伤害他人的情况。就当前的模型而言,我猜测下一代乃至下下代模型,这类更为日常的危害——如人们相互欺诈——仍将是主要问题。我不希望对此掉以轻心。我们认为有责任确保在这方面做得足够好。 Dwarkesh Patel:Meta是一家大公司。你们完全可以兼顾。就开源而言,我其实很想知道,你是否认为从PyTorch、React、Open Compute等项目出发的开源技术对世界的影响力,甚至超过了Meta的社交媒体方面。我跟使用这些服务的人聊过,他们认为这是有可能的,因为互联网很大一部分都依赖于这些东西运行。 Mark Zuckerberg:这是一个有趣的问题。几乎全世界有一半的人都在使用我们的消费产品,这很难超越。但我认为开源作为一种新的构建事物的方式非常强大。可能确实如此。它可能就像贝尔实验室那样,他们研究晶体管是为了实现长途通话。他们成功了,而且能够实现长途通话对他们来说非常有利可图。从那之后的5到10年,如果问他们发明的最有用的东西是什么,他们会说:“我们实现了长途通话,现在很多人都在进行长途通话。”但如果你在一百年后再问这个问题,答案可能会不同。我认为我们正在做的很多事情都是如此:Reality Labs、一些人工智能项目、一些开源项目。具体的产品会不断演变,某种程度上也会来来去去,但对人类的进步是持久的,这是我们所有人参与其中的一个很酷的部分。 Dwarkesh Patel:Llama模型何时能用上你们自己的定制硅芯片进行训练? Mark Zuckerberg:很快,但不是Llama 4。我们采取的方法是首先构建能够处理我们排名和推荐类型任务(如Reels、News Feed广告等)推理工作的定制硅芯片。这些任务原本消耗了大量的GPU资源。当我们能够将这些任务转移到自家硅芯片上时,更昂贵的NVIDIA GPU就可以全部用来训练大模型了。最终,我们希望拥有自己的硅芯片,可以先用来训练一些较简单的东西,然后逐渐用于训练这些非常大型的模型。在此期间,我要说的是这个项目进展得相当顺利,我们正在有条不紊地推进,并且有一个长期的路线图。 Mark Zuckerberg 担任谷歌+ CEODwarkesh Patel :最后一个问题。这完全是个意料之外的话题。如果你被任命为谷歌+的CEO,你能让它成功吗? Mark Zuckerberg:谷歌+?我不知道。这是一个非常困难的反事实假设。 Dwarkesh Patel :好的,那么真正的最后一个问题将是:当Gemini发布时,办公室里有没有人说过“Carthago delenda est”。 Mark Zuckerberg:不,我认为我们现在更温和了。这是个好问题。问题在于谷歌+并没有CEO,它只是公司内部的一个部门。你之前问过关于最稀缺资源的问题,但你是从美元的角度来问的。实际上,我认为对于大多数至少达到这种规模的公司来说,最稀缺的是专注力。当你还是一家初创企业时,可能你在资金上受到更多限制。你只专注于一个想法,可能没有所有必要的资源。但当你跨过某个门槛,开始从事你所做的事情的本质时,你就会同时开展多个项目。虽然你在它们之间创造了更多价值,但也变得更加受限于你能引导哪些项目走向成功。总是有一些情况下,组织中会随机发生一些很棒的事情,而我甚至都不知道。这些都是很好的。但总体而言,我认为组织的能力在很大程度上受限于CEO和管理团队能够监督和管理的范围。这是我们非常关注的一点。正如Ben Horowitz所说,“保持主次分明”,并努力专注于你的关键优先事项。 著作権侵害がございましたら、削除いたしますのでご連絡ください。参考リンク: https://www. youtube.com/watch? |