HUOXIU

中規模アジャイル GenAI モデル: エンタープライズ垂直アプリケーション向け実用的な AI

編集者注:近年、人工知能モデルの規模は継続的に拡大しており、パラメータサイズは爆発的に増加しています。GPT-3の1750億パラメータから、噂されているGPT-4は1兆8000億パラメータに達する可能性を秘めています。しかし、モデル規模の継続的な拡大に伴い、学習コストの高騰、環境への影響の深刻化、アプリケーションの展開の難しさといった問題が顕在化しています。そのため、業界では超大規模モデルの開発方向性と意義について改めて検討し始めています。

こうした背景から、「Nimble AI」が登場しました。Nimble AIとは、数百から数十億のパラメータを持つ小規模なモデルを指します。学習コストと環境への影響の面で大きな利点があり、継続的な微調整とアップグレードを通じて、新たなアプリケーションのニーズに迅速に適応できます。

本稿ではまず、アジャイルAIの定義を明確にし、メガAIモデルとの違いを多角的に分析します。著者は、アジャイルAIはメガモデルの機能を部分的に実現し、多くの実用アプリケーションにおいてより高い費用対効果を提供できると主張します。さらに、アジャイルAIの発展を推進する3つの重要な要素を詳述します。最後に、アジャイルAIの数々の利点をまとめ、AI開発における新たな方向性を示唆します。

アジャイルAIは、AI技術開発の新たな波を巻き起こす可能性のある斬新な概念です。人工知能の将来性にご興味をお持ちであれば、この記事は独自の視点と洞察を提供しており、一読の価値があります。

翻訳はこちらです、お楽しみください!

著者 | ガディ・シンガー

編纂者:岳陽

人工知能(AI)モデルの複雑性と計算需要が10年にわたって急速に増大した後、2023年にようやく状況は変わり、効率性と生成AI(GenAI)の応用に焦点が当てられました。その結果、 150億パラメータ未満の新しいAIモデル群が登場し、「機敏なAI」と呼ばれています。これらのモデルは、特定の垂直領域において、1,000億を超えるパラメータを誇るChatGPTのような大規模モデルの能力に匹敵します。GenAIが様々な業界で広く採用されるにつれて、小型で高度にインテリジェントなモデルの使用も増加しています。近い将来、GenAIアプリケーションは、少数の大規模モデルと多数の小型でより機敏なAIモデルというパターンを示すようになると予測されます。

大規模モデルは大きな進歩を遂げてきましたが、学習コストや環境コストの面では、必ずしも規模が大きいほど良いとは限りません。TrendForce[1]の推計によると、ChatGPTのGPT-4だけでも学習コストは1億ドルを超えていますが、機敏なモデルの事前学習コストは桁違いに低くなっています(例えば、MosaicMLのMPT-7Bは約20万ドル[2])。計算コストの大部分は継続的な推論プロセスで消費されており、これは特に計算負荷の高い大規模モデルにとって大きな課題となっています。さらに、サードパーティがホストする巨大モデルは、セキュリティとプライバシーの面でも課題を抱えています。

アジャイルモデルは運用コストを大幅に削減し、適応性、ハードウェアの柔軟性、大規模アプリケーションへの統合性、セキュリティとプライバシー、説明可能性など、様々な追加的なメリットを提供します(図1参照)。小規模モデルは大規模モデルよりもパフォーマンスが劣るという認識も変化しつつあります。より小規模でターゲットを絞ったモデルは、必ずしもインテリジェント性が低いわけではありません。ビジネス、消費者、そして科学的な環境において、同等、あるいはそれ以上のパフォーマンスを提供し、時間とコストを削減しながら付加価値を高めることができます。

ますます多くのアジャイルモデルが、ChatGPT-3.5レベルの巨大モデルの性能に徐々に近づいており、その性能と適用性は急速に向上し続けています。さらに、アジャイルモデルが専門分野の独自データを活用し、クエリ要件に基づいてWebコンテンツを取得できるようになると、その精度と費用対効果は巨大な汎用モデルを上回る可能性があります。

図1. GenAIのアジャイルモデルの利点。画像提供:Intel Labs

オープンソースのGenAIアジャイルモデルは進化を続け、この分野の急速な発展を牽引しています。「iPhone革命」にも似たこの革新的な技術は、「Android革命」にも似た挑戦を受けています。優れた研究者や開発者コミュニティが、互いのオープンソースの成果に基づいて、ますます強力なアジャイルモデルを構築しているからです。

01.考える、実践する、理解する: 特定のドメイン向けのアジャイル モデルは、メガ モデルの機能を部分的に実現できます。

図2. 生成型人工知能機能のカテゴリー。画像提供:Intel Labs

より小規模なモデルがいつ、どのように生成 AI をサポートできるかをさらに理解するには、アジャイル GenAI モデルと巨大な GenAI モデルの両方でタスクを実行するために次の 3 種類の機能が必要であることに注意することが重要です。

  • 思考に使用される認知能力には、言語理解、要約と一般化、推論、計画、経験からの学習、長文表現、対話型対話などがあります。

  • 特定分野における実践的なスキル:現実世界の多様で複雑なテキストデータの読み取り、グラフ/画像の読み取り、視覚認識の実行、プログラミング(コードの作成とデバッグ)、画像および音声の生成など。

  • 情報検索機能 (メモリベースまたはリアルタイム検索) : ソーシャル メディア、ニュース、調査レポート、その他の一般的なコンテンツを含むオンライン コンテンツ、または医療、金融、企業データなどの特定の分野の選択されたコンテンツ。

1.1 思考する認知能力

モデルが持つ認知能力に基づき、モデルは言語やその他の記号表現を「考え」、理解、一般化、統合、推論、整理することができます。アジャイルモデルやメガモデルはこれらの認知タスクにおいて優れたパフォーマンスを発揮しますが、これらのコア機能をサポートするために大規模なモデルサイズが必要かどうかは不明です。例えば、Microsoft ResearchのOrca [3]のようなアジャイルモデルは、複数のベンチマークにおいてChatGPTに匹敵、あるいは凌駕する理解力、論理的思考力、推論能力を示しています。さらに、Orcaは、教師モデルとして使用される大規模モデルから推論スキルを抽出できることを実証しています。

しかし、モデルの認知能力を評価するための現在のベンチマークはまだ初期段階にあります。アジャイルモデルが事前学習や微調整によってメガモデルの「思考」能力を実現できるかどうかを検証するには、さらなる研究とベンチマークが必要です。

1.2 実践的なスキル

メガモデルは一般的にオールラウンダーとして位置付けられるため、より多くのスキルと知識を備えている可能性があります。しかし、ほとんどのビジネスアプリケーションでは、モデルに必要なのは特定の範囲のスキルのみです。ビジネスアプリケーションで使用されるモデルは、将来のビジネスの成長や変化する多様なニーズに対応できるよう、俊敏性と拡張性を備えている必要がありますが、無制限の数のスキルが必要になるとは考えにくいでしょう。

GPT-4は複数の言語でテキスト、コード、画像を生成できます。しかし、数百の言語を習得しているからといって、これらのメガモデルが基礎となる認知能力において必ずしも優位性を持っているわけではありません。これらのモデルは主に、スキルの数を増やすことで、より実用的なタスクを完了する能力を獲得しています。

さらに、特定の機能が必要な場合、GenAIモデルに機能特化型のエンジンを接続することができます。例えば、ChatGPTに数学プラグイン「Wolfram superpowers[4]」をモジュールとして追加することで、モデルサイズを増やすことなく、優れた数学的機能を効果的に提供できます。例えば、GPT4のプラグインも、本質的には小規模なモデルを使用して追加機能を実現しています。GPT-4モデル自体も、GPT-3.5のような単一の巨大モデルではなく、異なるデータやタスク向けに訓練された、1000億未満のパラメータを持つ複数のハイブリッドエキスパートモデルの集合体[5]であると噂されています。

より優れたスキルの組み合わせとモデルの効率性を実現するために、将来の多機能モデルでは、各モデルのパラメータ数が 150 億未満である、より小規模で焦点を絞った「ハイブリッド エキスパート」モデルが採用される可能性があります。

図3. 特徴拡張のための検索ベースモデルは、モデルサイズにほとんど依存せず、より幅広い特徴とより関連性の高い情報を提供できます。画像提供:Intel Labs

1.3 情報取得能力(内部メモリまたはリアルタイム検索)

メガモデルは、パラメータ空間内で膨大なデータを記憶することでより多くのことを「知る」ことができますが、これは小規模なモデルよりも包括的な知識を与えるだけであり、必ずしもよりインテリジェントになるわけではありません。メガモデルは、全く新しいユースケースを扱うゼロショット環境において非常に価値があります。特定のターゲットシナリオや目標がない場合でも、メガモデルはほとんどの消費者にとって基礎的な知識を提供し、アジャイルモデルの改良とトレーニングにおける教師モデルとして機能します。しかし、特定のドメイン向けにトレーニングまたは微調整されたアジャイルモデルは、そのドメインやシナリオに合わせてカスタマイズされた優れた機能を提供できます。

図4. 検索メカニズムにより、小型モデルでも大型モデルに匹敵する価値を実現(Contriever検索法を使用)。画像出典:Intel Labs、Mallenら[6]の研究に基づく。

例えば、プログラミングシナリオ向けにトレーニングされたモデルは、医療AIシステム向けにトレーニングされたモデルとは異なる機能を持っています。さらに、適切に計画された内部および外部のデータセットからデータを取得することで、モデルの精度と適時性を大幅に向上させることができます。最近の研究[6]では、PopQAベンチマークテスト[7]において、わずか13億のパラメータを持つモデルでも、検索機能を使用することで、1750億のパラメータを持つモデルと同等のパフォーマンスを達成できることが示されています(図4を参照)。多芸多才なシステムと比較して、関連ドメイン知識と効率的な検索機能を備えたターゲットを絞ったモデルシステムは、より優れた使いやすさと拡張性を提供します。これはほとんどの企業にとって特に重要です。なぜなら、大規模なモデルアプリケーションでは、基本的な一般知識ではなく、ドメイン固有の知識を活用する必要があるからです。ここにアジャイルモデルの価値が存在します。

02アジャイルモデルの爆発的な成長を牽引する3つの要因

アジャイル モデルの利点と価値を評価するには、次の 3 つの側面を考慮する必要があります。

  1. 中程度のモデルサイズでは効率的です

  2. オープンソースまたはプロプライエタリソフトウェアとしてライセンスされます。

  3. モデルは、様々なタスクやニーズに対応できる汎用性を持つように設計することも、特定のドメインやタスクに特化して最適化することもできます。また、内部または外部のデータセットにアクセスすることでモデルの精度とパフォーマンスを向上させる、つまり検索機能も備えています。

モデル規模の面では、MetaのLLaMA-7Bおよび-13B[8]、Technology Innovation InstituteのFalcon 7B[9]などのオープンソースモデル、そしてMosaicMLのMPT-7B[10]、Microsoft ResearchのOrca-13B[11]、Salesforce AI ResearchのXGen-7B[12]などの独自モデルが急速に進化しています(図6参照)。高性能で小型のモデルを選択することは、運用コストとコンピューティング環境の選択の両方に大きな影響を与えます。

ChatGPT 175-Bパラメータモデルと、推定1兆8000億のパラメータを持つGPT-4モデル[13]はどちらも、トレーニングと微調整に十分な計算能力を提供するために、GPUなどのアクセラレータを大規模に導入する必要があります。対照的に、アジャイルモデルは通常、シングルソケットCPUからエントリーレベルのGPU、さらには大規模なアクセラレータクラスターまで、あらゆるハードウェアで推論を実行できます。13個以下のパラメータを持つモデルの優れたパフォーマンスに基づき、アジャイルAIの定義は現在、経験的に15個以下のパラメータに設定されています。全体として、アジャイルモデルは、新しいユースケースに対して、より費用対効果が高くスケーラブルなアプローチを提供します(アジャイルモデルの長所と短所に関する議論を参照)。

2つ目の側面であるオープンソースライセンスは、学界と産業界が互いのモデルを反復的に改良することを可能にし、イノベーションの急増を促進します。図5に示すように、オープンソースモデルは小規模モデルの機能を飛躍的に向上させました。

図5. 2023年上半期には、オープンソースの商用および非商用のGenAIアジャイルモデルの両方が爆発的な成長を遂げました。画像提供:Intel Labs

2023年初頭には、汎用アジャイル生成AIモデルのいくつかの例が登場した。最初のものはMetaのLLaMA[8]で、70億、130億、330億、650億のパラメータを持つモデルがある。70億と130億パラメータのモデルはLLaMAを微調整して作成されたもので、スタンフォード大学のAlpaca[14]、バークレーAI研究所のKoala[15]、カリフォルニア大学バークレー校、カーネギーメロン大学、スタンフォード大学、カリフォルニア大学サンディエゴ校、ムハンマド・ビン・ザイード人工知能大学の研究者によるVicuna[16]などがある。最近では、Microsoft ResearchがOrca[17]を紹介する論文を発表した。OrcaはLLaMAをベースにした130億パラメータのモデルで、巨大モデルの推論プロセスを模倣し、特定のドメイン向けに微調整される前から素晴らしい結果を達成している。

図6. GPT-4を用いたオープンソースチャットボットの相対的な応答品質とVicuna評価セットの比較。画像出典:Microsoft Research [17]

LLaMAから最近派生したオープンソースのアジャイルモデルの代表例としてVicunaが挙げられます。Vicuna-13Bは、複数の大学と共同で開発されたチャットボットです。Vicunaのリリース目的は、「ChatGPTなどの既存モデルのトレーニングとアーキテクチャの詳細におけるギャップを埋める」ことでした[18]。ShareGPTからの共有対話データで微調整した後、GPT-4を使用して評価したところ、ChatGPTやGoogle Bardと比較して応答品質が90%以上向上しました[16]。しかし、これらの初期のオープンソースモデルは商業的に実現可能ではありませんでした。MosaicMLのMPT-7B[10]とTechnology Innovation InstituteのFalcon 7B[9]は、LLaMA-7Bに匹敵する品質を持つ、商業的に実現可能なオープンソースモデルとして報告されました。

図7. Orca-13BはBIG-bench Hardの複雑なゼロショット推論タスクにおいてChatGPTと同等の性能を示した。画像出典:Intel Labs [17]

研究者[11]によると、Orcaは複雑なゼロショット推論ベンチマーク(Big-Bench Hard、BBH [19]など)で命令調整モデル(Vicuna-13Bなど)を100%以上上回り、BBHテストセットではChatGPT-3.5と同等のパフォーマンスを発揮しました。Orca-13Bが他のモデルと比較して優れたパフォーマンスを示したことは、巨大モデルの大規模な理由は初期のモデルトレーニングで使用されたブルートフォース手法に起因する可能性があるという見解を裏付けています。この見解は確かに、いくつかの小さなモデルの知識と手法を改良するのに役立ちますが、一般的に、モデルの推論には必ずしも多数のパラメーターが必要というわけではありません。モデルの認知能力、スキルの習熟度、知識ベースの包括的な評価は、モデルが広く展開され、使用された後にのみ行うことができることを認識することが重要です。

本稿執筆時点で、Meta社はパラメータサイズが70億、130億、700億のLlama 2モデルをリリースしている[20]。このモデルは、第一世代のリリースからわずか4か月で大幅な改善が見られた。比較チャート[21]では、アジャイルLlama 2 13Bが、以前の大規模LLaMA、MPT-30B、Falcon 40Bと同等のパフォーマンスを達成している。Llama 2はオープンソースであり、研究および商用利用に無料で利用できる。MicrosoftやIntelを含む多くのパートナーと共同でリリースされた。Meta社のオープンソースモデルへの取り組みと広範なコラボレーションは、間違いなく、現在私たちが目にしている産業界や学界全体でのこうしたモデルの急速な進歩をさらに推進するだろう。

アジャイルモデルの3つ目の側面は、特化に関係しています。新たに登場したアジャイルモデルの多くは、LLaMA、Vicuna、Orcaなどの汎用モデルです。汎用アジャイルモデルは、パラメータメモリのみに依存し、大規模言語モデル向けの低ランク適応(LoRA)[22]や検索強化型[23]生成手法(推論中に編集されたコーパスから関連する知識をリアルタイムで抽出する)などの微調整手法を通じて、低コストで更新できます。検索強化ソリューションは、LangChain [24]やHaystack [25]などのGenAIフレームワークの助けを借りて構築および強化されています。これらのフレームワークは、インデックスを簡単かつ柔軟に統合し、大規模コーパスに効率的にアクセスし、セマンティックベースの検索を可能にします。

ほとんどのエンタープライズユーザーは、特定のドメイン向けに最適化されたターゲットモデルを好みます。これらのターゲットモデルは、主要な情報資産を最大限に活用するために、検索ベースのアプローチを採用する傾向があります。例えば、医療分野のユーザーは、患者とのコミュニケーションを自動化したいと考えるかもしれません。

これらのターゲット モデルでは、主に次の 2 つの方法を採用しています。

  • まず、モデル自体は特定のタスクと必要なデータタイプに合わせて専門的に調整されています。これは、ドメイン固有の知識を用いた事前学習(例:phi-1はインターネットから収集した高品質なデータで事前学習済み)、同じサイズの汎用ベースモデルの微調整(例:Clinical Camel[26]がLLaMA-13Bモデルを微調整した方法)、巨大モデルの知識を抽出してアジャイルな学生モデルに転送する(例:OrcaはGPT-4の推論プロセスを模倣し、モデルの推論プロセス、GPT-4の段階的な思考プロセス、その他の複雑な指示を記録して追跡する)など、さまざまな方法で実現できます。

  • 次に、関連データが整理され、インデックス化されるため、リアルタイム検索が可能になります。このデータは膨大になる場合もありますが、対象となるユースケースに限定されます。このモデルは、パブリックネットワーク、個人の消費者、または企業から、継続的に更新されるコンテンツを取得できます。ユーザーはインデックスを作成するリソースを選択できるため、高品質なネットワークリソースや、より完全なプライベートデータ、あるいはエンタープライズデータを選択できます。検索テクノロジーは現在、大規模でアジャイルなシステムに統合されていますが、モデルのパフォーマンスはこれに大きく依存するため、小規模なモデルにとって非常に重要です。さらに、このテクノロジーにより、企業独自のデータやローカルに保存された情報すべてが、社内のアジャイルモデルからアクセス可能になります。

03生成AIアジャイルモデルのメリットとデメリット

将来的には、中規模アジャイルモデルのパラメータ数は200億から250億に増加する可能性がありますが、それでも1000億パラメータの範囲には遠く及びません。MPT-30B、Falcon 40B、Llama 2 70Bなど、これら2つのパラメータ数の中間のモデルも存在します。これらのモデルはゼロショットシナリオにおいては小規模モデルよりも優れた性能を発揮すると期待されていますが、明確に定義された一連のタスク(例:質問応答、翻訳、要約)においては、小規模でターゲットを絞った検索ベースのアジャイルモデルを大幅に上回る性能は期待できません。

メガモデルと比較して、アジャイルモデルにはいくつかの利点があり、モデルがターゲットを絞り、検索ベースである場合、これらの利点はさらに増幅されます。これらの利点には以下が含まれます。

  • より持続可能で低コスト:学習と推論の計算コストが大幅に削減されます[27]。推論実行時の計算コストは​​、ビジネス指向のモデルを24時間体制で使用できるかどうかを決定づける要因となる可能性があり、また、多数のモデルを展開する必要がある場合、全体的な環境への影響を大幅に削減することも非常に有意義です。アジャイルモデルは、その持続可能性、焦点、機能性により、汎用AIモデルのような野心的な目標に取り組む必要がなく、関連する公的および規制上の議論にもあまり巻き込まれません。

  • より高速な微調整反復:LoRA [28]などの適応型手法を用いてモデルに新しい情報や特徴量を追加することで、小規模なモデルであればわずか数時間(あるいはそれ以下)で微調整が可能です。これにより、より頻繁なモデル改良が可能になり、モデルがユーザーのニーズを継続的に満たすことが保証されます。

  • 検索モデルの利点: 検索システムは、モデルのパラメトリック メモリから情報を抽出するのではなく、ほとんどの情報を直接のソースから参照することで、次の方法でパフォーマンスを向上させます。

  • 解釈可能性: 検索モデルはソース属性を使用するため、情報源を追跡し、その信頼性を検証できます。

  • 適時性:最新のデータソースがインデックス化されると、追加のトレーニングや微調整を必要とせずに、モデルですぐに使用できます。これにより、関連情報をほぼリアルタイムで継続的に追加または更新できます。

  • データ範囲:検索を容易にするためにインデックス化された情報は、非常に包括的かつ詳細です。ターゲットドメインに焦点を絞ることで、モデルは広範囲かつ詳細なプライベートデータとパブリックデータをカバーできます。その垂直ドメインにおける巨大なベースモデルのトレーニングデータよりも、量と詳細度がはるかに高い可能性があります。

  • 正確性:データの生の形式、詳細、コンテキストに直接アクセスすることで、錯覚やデータの近似値化が低減され、データが検索範囲内にある限り、信頼性が高く完全な回答が得られます。小規模なモデルでは、毎回取得される追跡可能で整理された情報とメモリ内の情報との間の矛盾も少なくなります。ただし、(メガモデルと同様に)情報は古くなったり、不完全になったり、ソースの追跡可能性が欠如したりする可能性があります。

  • ハードウェアの選択:アジャイルモデルは、既にコンピューティング環境に統合されている一般的なソリューションを含め、事実上あらゆるハードウェア上で推論を実行できます。例えば、MetaのLlama 2アジャイルモデル(70億および130億パラメータ)は、Xeon、Gaudi2、Intel Data Center GPU Maxシリーズ[29]を含むIntelのデータセンター製品で良好に動作します。

  • 統合、セキュリティ、プライバシー:ChatGPTのような今日の大規模なGenAIモデルは、通常、サードパーティプラットフォームの大規模データセンター上でスタンドアロンモデルとして実行され、インターフェースを介してアクセスされます。一方、アジャイルAIモデルは、より大規模なビジネスアプリケーションに組み込み、ローカルコンピューティング環境に完全に統合できます。これは、サードパーティのモデルやコンピューティング環境と情報を交換する必要がなく、市場にあるアプリケーションのセキュリティメカニズムをすべてGenAIエンジンに適用できるため、セキュリティとプライバシーの面で重要です。

  • モデルの最適化と圧縮: モデル量子化などのモデルの最適化と圧縮の手法は、計算要件を削減することができ、アジャイル モデルで良好な結果を示しています。

アジャイル モデルのいくつかの課題は依然として注目に値します。

  • タスクスコープの絞り込み:メガジェネラルモデルは優れた汎用性を備えており、特に新しいゼロショットユースケースへの対応力に優れています。アジャイルシステムで実現可能な範囲とスコープはまだ評価されていませんが、最近のモデルはこの点で改善されているようです。アジャイルドメインモデルでは、タスクスコープが事前トレーニングと微調整中に既知かつ明確に定義されていることを前提としているため、タスクスコープを絞り込んでも関連する機能には影響しません。アジャイルドメインモデルは単一のタスクに焦点を当てるのではなく、関連する機能のセットに焦点を当てています。そのため、タスクやビジネスの特異性により、アジャイルモデルの断片化につながる可能性があります。

  • パフォーマンス向上には、少量サンプルでの微調整が必​​要になる場合があります。ドメイン固有の問題を効果的に解決するために微調整が必​​ずしも必要ではありませんが、アプリケーションに必要なタスクと情報に合わせてモデルを調整することで、人工知能の有効性を高めることができます。現在の技術では、データサイエンスの深い専門知識を必要とせずに、わずか数サンプルでこのプロセスを完了できます。

  • 検索モデルでは、すべてのソースデータのインデックス付けが必要です。モデルは推論中にインデックスマッピングを通じて必要な情報を取得しますが、情報源が欠落し、モデルで使用できなくなるリスクがあります。トレーサビリティと解釈可能性を確保するため、検索ベースのターゲットモデルは、パラメータ空間の詳細情報ではなく、必要に応じて抽出できるインデックス情報に主に依存する必要があります。

04要約

生成型人工知能(GAI)の飛躍的な進歩により、AIエージェントが自然言語で会話をしたり、魅力的なテキストや画像を生成したり、過去のイテレーションからコンテキストを活用したりするといった新たな機能が実現しています。この記事では、「アジャイルAI」の概念を紹介し、それが将来GenAIの導入における主流のアプローチとなる理由を説明します。簡単に言えば、アジャイルAIモデルは動作速度が速く、継続的な微調整によってより迅速に最新の状態を維持でき、オープンソースコミュニティにおける集合的なイノベーションを通じた迅速な技術イテレーションに適しています。

数多くの事例が示すように、メガモデルの進化が示す優れたパフォーマンスは、アジャイルモデルを巨大なメガモデルと同一視する必要がないことを示しています。基本的な認知能力を習得し、必要な機能をカスタマイズし、オンデマンドでデータを提供することができれば、アジャイルモデルは業界に最大の価値をもたらすことができます。

もちろん、アジャイルモデルがメガモデルに取って代わるわけではありません。メガモデルは、ゼロショットの即戦力シナリオにおいて、依然として優れたパフォーマンスを発揮する可能性があります。また、大規模モデルは、より小規模なアジャイルモデル(教師モデル)を改良するためのソースとしても機能します。メガモデルは、幅広い用途に対応するための豊富な追加メモリと複数のスキルを備えていますが、この汎用性はほとんどのGenAIアプリケーションにとって必ずしも必須ではありません。むしろ、ドメイン固有の情報とスキルに基づいてモデルを微調整する機能と、ローカルおよびグローバルリソースから最新の情報を取得する機能により、アジャイルモデルは多くのアプリケーションにとってより価値のある選択肢となります。

アジャイルでターゲットを絞った AI モデルを、既存のアプリケーションに組み込むことができるモジュールとして捉えると、次のような非常に魅力的な価値提案が得られます。

  • 導入コストと運用コストはほとんどかかりません。

  • さまざまなタスクや個人および企業のデータに合わせて細かく調整できます。

  • モデルは夜間に更新でき、CPU、GPU、アクセラレータなどのさまざまなハードウェアで実行できます。

  • 現在のコンピューティング環境や市場にあるアプリケーションに統合できます。

  • オンプレミスで導入することも、プライベート クラウドで実行することもできます。

  • すべてのセキュリティとプライバシー設定を実装できます。

  • 精度と解釈可能性が向上します。

より環境に優しい一方で、巨大な生成 AI モデルと同様の機能を提供します。

少数のメガモデルは今後も目覚ましい進歩を遂げるでしょう。しかし、業界に必要なのは、おそらく数十個の汎用的でアジャイルな基盤モデルだけで、それらを用いて無数のターゲットバージョンを構築できるでしょう。近い将来、GenAIは、主にアジャイルでターゲットを絞ったセキュアなインテリジェントモジュールの統合を通じて、様々な分野の成長エンジンとして、あらゆる業界に浸透すると考えています。

終わり