HUOXIU

2024年の人工知能におけるデータ管理の4つの主要トレンド

出典: データドリブンインテリジェンス

2023年が終わりに近づくにつれ、ChatGPTの登場により、世界は不可逆的な変化を遂げていることに気づくでしょう。人工知能の主流化は力強い勢いで進んでおり、この変化の激しい時代をどう乗り越えていくかは、確信の飛躍が不可欠です。人工知能は、変革をもたらす可能性と、不正確な可能性の両方を秘めている可能性があります。しかし、私たちの未来は人工知能だけではありません。データ管理を継続的に改善していく必要があるからです。

2024年のデータと人工知能(AI)のトレンドは、パイプラインとアクティベーション、特にデータ品質、プラットフォームアーキテクチャ、ガバナンスに重点を置いたAIに関連しています。複数の情報役割を担う自律エージェントとタスクアシスタントは、必要なアクティビティを部分的または完全に自動化できます。さらに、高品質なデータセットを生成するツールは、AIモデル開発ライフサイクルのあらゆる段階で継続的に改善されるモデルを提供できます。2024年の4つの主要なトレンドを以下に示します。

  1. インテリジェントデータプラットフォーム

  2. 人工知能エージェント

  3. パーソナライズされたAIスタック

  4. AIガバナンス

スマートデータプラットフォーム

今日のデータプラットフォームは、主に「記録システム(System of Records)」スタックであり、様々なエンタープライズデータベースやアプリケーションからデータを共通のリポジトリに集約しています。現在、このスタックの主なユースケースはレポート作成と分析であり、データドリブンな自動化はごく少数です。データプラットフォームにインテリジェンスを組み込み、企業全体でAIを活用したデータ製品やアプリケーションの導入を加速させる以上に優れた方法があるでしょうか。

インテリジェントデータプラットフォームとは、大規模言語モデル(LLM)インフラストラクチャがコアデータプラットフォームの一部となっているプラ​​ットフォームと定義します。このインテリジェントレイヤーは、以下の2種類のアプリケーションにインテリジェンスを注入するために使用できます。

  1. コアデータアプリケーション:これらのアプリケーションには、AI駆動型データ操作、セマンティック検索・検出エージェント、AI支援型データ取り込みツール、AI支援型データ準備・変換、データ分析のための会話型AIエージェントなどが含まれます。これらのアプリケーションの自動化は、エージェントが誤りから推論することを学習するにつれて、さらに向上します。

  2. インテリジェント アプリケーション: インテリジェント AI エージェントは、2 番目のアプリケーション トレンドを表します。

下の図は、インテリジェント データ プラットフォームと AI エージェントおよびアプリケーションを示しています。

インテリジェントデータプラットフォームは、現在のウェアハウス/レイク中心のデータプラットフォーム環境からの新たな進化形です。消費者インターフェースの簡素化への要望に後押しされ、インテリジェントアプリケーションは今後10年間の生産性向上を促進するでしょう。 2024年までに、企業は現在のデータプラットフォームアーキテクチャを真剣に検討し、データサイロ、データ品質と重複、そして断片化されたスタックコンポーネントに関連する課題に対処する必要があります。高品質でキュレーションされたデータとメタデータは、生成型AIイニシアチブの成功に不可欠です。インテリジェントデータプラットフォームは、関連するデータアプリケーションとともに、AIユースケースをサポートするための基盤となるデータおよびモデリングインフラストラクチャを提供します。

2つの人工知能エージェント

「AI エージェント」という用語は、2023 年後半に流行語になりました。AI エージェントとは、環境を認識し、推論し、特定のタスクを一連のステップに分解し、決定を下し、アクションを実行できるプログラムまたはシステムであり、これらの特定のタスクを人間のように自律的に実行します。

言語理解の究極の目標は、人間が自然言語インターフェースを通じてAIプログラムと会話し、指示し、対話できるようにすることです。しかし、AIプログラムは情報タスク(検索、抽出、コードや画像の生成など)に関する質問への回答や支援以上のことができるのでしょうか?

AIエージェントは、現在、人間の介入をより多く必要とするタスクや、高度な思考、推論、問題解決能力が求められる認知タスクの自動化を拡大できるでしょうか?例えば、市場分析、リスク評価、ポートフォリオ最適化といったタスク、あるいは、複雑さやコストの問題からこれまで自動化が困難だった複雑なタスクなどです。今日のAIエージェント/テクノロジーがビジネスの生産性とヒューマンマシンインターフェースを大幅に向上させる能力は、主に経済的価値によって左右されます。

初期の研究では、数学的に関連性のある活動、思考の連鎖/グラフ、そしてLLMに基づく多段階推論フレームワークに焦点を当てることで、複雑なタスクを自動化する能力を実証しようと試みられました。これらの初期の予測は、完全に自律的な情報エージェントアプリケーションを構築するために必要な目標には程遠いものでしたが、その可能性を示すものでした。

下の画像は、推論と行動の進歩と、このパラダイムを取り巻く過去の研究(例えば「思考連鎖」など)を組み合わせ、様々な言語推論および意思決定タスクを解決するための汎用パラダイムを提供するアーキテクチャを示しています。推論と行動を言語モデルと組み合わせることで、これらのプログラムは意思決定タスクを実行できるようになります。このパラダイムは「ReAct」と呼ばれています。

人工知能エージェントは、データ分析、BIダッシュボードの開発、プロセス最適化、データ入力、スケジュール管理、基本的な顧客サポートといったデータタスクの自動化を支援できます。また、サプライチェーンの最適化や在庫管理といったワークフロー全体の自動化も可能です。AIエージェントが実行する手順は以下に記載されており、ユーザーはアイデアや計画を動的に作成し、行動計画を調整することで推論タスクを動的に実行できるだけでなく、外部ソースと連携して推論に追加情報を組み込むことも可能です。

  1. このプロセスの最初のステップは、タスクを選択し、LLM に問題を一連のアイデア (サブヒント) に分解するように指示することです。

  2. ステップ 2、3、4 では、LLM がこれらのアイデアのクラスターをさらに細分化し、これらのサブアイデアを考え出して推論できるようになります。

  3. ステップ 5 から 8 では、アイデアやタスクを完了するために必要な情報に基づいて情報を抽出するなど、LLM が外部と対話できるようになります。

  4. 自由形式の思考/行動統合は、問題の分解、情報の抽出、常識/算術的推論の実行、検索定式化のガイド、最終的な答えの統合など、さまざまなタスクを達成するために使用されます。

AI を活用した情報エージェントは、今後何年も続くと予想されるトレンドです。2024 年までに、エージェントのインフラストラクチャ/ツールの大幅な進歩と早期導入が期待されています。現在の AI アーキテクチャがより複雑なタスクを処理できる可能性をどのように理解するかは、依然としてその可能性に大きく依存しており、多くの未解決の問題が残っていることに注意することが重要です。

それでもなお、企業は、既存のAI技術とのギャップが、ある程度、自動化の高度化という形で現れ、そしてそのギャップが年々縮まっていくことを想定した上で、実用的な方法でエージェントアプリケーションを構築する必要があります。また、今後12ヶ月間で様々なユースケースにおいて達成可能な自動化レベルも考慮する必要があります。こうした取り組みによって、こうしたプロジェクトの進化の道筋や道のりは、より明確なものとなるかもしれません。

3つのパーソナライズされたAIスタック

3 番目のトレンドは、次の 3 つの方法でモデルやその応答をパーソナライズまたはカスタマイズすることです。

  • より多くのコンテキスト データを使用してモデルを微調整します。

  • 合成データを含む、モデルのトレーニングや微調整に使用されるデータセットを改善します。

  • ベクトル検索を使用して、関連データを含むモデルを活用します。

微調整モデル

OpenAI の GPT-4 のような基礎モデルは、企業に生成 AI モデルのユースケースの可能性をプロトタイプする機会を提供しますが、企業データのプライバシーとセキュリティ、使用される視覚化データのオープン性、特定の要件に合わせてそのようなモデルをトレーニングする機能、特定のタスクに必要な精度、全体的なコスト価値提案などの問題に完全には対処していません。

プロトタイプの段階を終え、より良い結果を得るために、特にニッチな分野や垂直的なアプリケーションにおいて、カスタムまたはタスク固有のSmall Language Models(SLM)の台頭が見込まれます。これらのモデルは、ベースとなる事前学習済みの基礎モデルを出発点として、SLMの学習やドメイン/エンタープライズデータを用いた微調整を行います。下の図は、モデルの微調整ライフサイクルを示しています。

カスタム SLM の開発を簡素化し、そのようなモデルのライフサイクル管理を実装し、実験から展開に移行することは、依然として課題です。

  1. ベースライン LLM の選択:わかりやすいオプションは複数ありますが、詳細な評価を裏付ける資料が不足しているため、ベースモデルの選択が混乱を招き、困難になる可能性があります。

  2. 参照データセット:参照データセットは、学習とRLHFの微調整、そしてモデルの評価とテストにおいて必要です。参照データセットの入手と作成は依然として手間がかかり、しばしば主観的であり、人間の介入に大きく依存しています。タスク/ドメイン固有のオリジナルデータ、あるいは合成データが利用可能であれば、モデル開発を大幅に加速し、開発期間を短縮することができます。

  3. モデルの微調整:モデルを微調整し、現実世界の期待に応えるパフォーマンスに調整するために必要な重要なトレーニング手順の一つは、人間からのフィードバックを適用することです。このステップにより、モデルは錯覚、バイアス、危害を軽減し、安全性を向上させることができます。パラメトリック効率的微調整(PEFT)とRLHFは、タスク/ドメイン固有のコンテキストに基づいて基礎となるLLMを微調整するのに役立つ、広く普及している手法です。既存の手法は大幅に改善されているにもかかわらず、高品質なタスク/ドメイン固有のキュー・レスポンス・ペア/データセット、および参照データセット(必要な人間からのフィードバックを含む)は、言語応答の検証に必要な創造性のために、依然として手作業で作成され、手間がかかり、変更されやすい状況にあります。

  4. モデルのテストと評価:複雑な自然言語を処理するために微調整されたモデルの評価は、タスクの創造性と応答評価に依存しますが、これらは多くの場合、手作業で主観的に行われます。現在、様々な指標や手法が利用可能になっていますが、モデルの評価には十分ではない場合が多くあります。評価フェーズの効率を向上させるため、別の参照モデルや高レベルモデルからの応答などの手法を用いて参照評価データセットを生成します。また、モデルは安全性、バイアス、および危険性に関するテストも実施する必要があります。

モデルの微調整の成功は、まだ発展途上にあるAIガバナンスという分野にかかっています。AIガバナンスは、信頼を構築し、規制遵守を満たすために、モデルに解釈可能性を提供することが求められる新興分野です。また、パフォーマンスの低下、責任ある使用、コスト、製品の信頼性に関する問題にリアルタイムでタイムリーに対応するためにも活用されています。

これらの課題に対処し、モデル開発とライフサイクル管理を簡素化する AI モデル開発、ライフサイクル管理、展開、監視用のツールの登場は、SLM とタスク固有のモデルの成功の鍵となります。

特定のタスク向けのAIモデルはまだ実験段階にあり、多くの問題が未解決のままであることに留意してください。そのため、多くの実験が失敗する可能性が高いでしょう。しかしながら、2024年にはエコシステム全体を通じてこの分野への投資が増加するでしょう。

B. 高品質なデータエコシステム

数兆個のパラメータでトレーニングされたモデル(OpenAI の GPT-4 など)は知識ベースを拡大してきましたが、最近の実験では、より優れたデータを使用するより小規模なモデルが、非常に大規模な LLM において、OpenAI が現在「最先端」のモデルと呼んでいるものよりも優れたパフォーマンスを発揮できる可能性があることが示唆されています。

汎用モデルとカスタムモデルの両方において、高品質なデータセットの入手可能性は依然として重要な課題であり、プライバシーや著作権の問題とは無関係です。LLMの事前学習のほとんどは、インターネット上のウェブスクレイピングされたデータセット、書籍、そして学術機関や研究機関による実験データセットに基づいています。微調整フェーズでは一部のデータセットを利用できる場合もありますが、タスクやドメインに応じて、こうした既製のデータセットの選択肢はさらに狭まります。

多くの場合、モデルを学習させるのに十分なデータさえありません。例えば、不正行為を例に挙げてみましょう。組織は不正行為が蔓延しているわけではないため、不正行為のシナリオに関する理解は限られていると考えられます。しかし、幅広い不正行為の可能性を想定してモデルを学習させる必要があります。合成データは、LLMの研究開発を加速させるための高品質なデータを提供するための解決策です。

合成データとは、実世界のデータから直接得られるものではなく、実世界のデータの特性や特徴を模倣するために人工的に作成されたデータと定義できます。合成データセットは、多くのユースケースにおいて、LLMの研究開発を加速させるための高品質なデータを提供する手段となる可能性があります。

合成データを使用する主な利点の一つは、エンドユーザーのプライバシーを保護し、著作権問題を遵守し、企業が元の情報源のプライバシー要件を満たすことができることです。また、モデル開発が進む中で、意図しない情報漏洩を防ぐこともできます。合成データは、大規模言語モデルの学習に対する需要の高まりに対応するために不可欠です。適切なソリューションを使用すれば、大規模言語モデルに必要な高品質なデータを費用対効果の高い方法で提供することができ、AI研究、モデル開発、評価を継続的に推進することができます。最先端のモデル自体を用いて合成データセットを生成するというアイデアもあります。それでもなお、合成データセットの作成と使用は、ますます増加するデータ需要に対応できる可能性があることは明らかです。

タスクの性質上、このようなエコシステム/サービスラインは、高品質なデータセットのニーズに応える上で重要な役割を果たす強いインセンティブを持つことが分かっています。現在、様々なスタートアップ企業やサービスプロバイダーが、一般的なトレーニングデータのニーズに合わせて、アノテーション付きの画像やテキストデータの提供に特化しています。しかし、これらのサービスをさらに拡大し、ドメイン/タスク固有のデータセットも提供できるようになる可能性があり、この傾向は2024年に勢いを増す可能性があります

C統合ベクトルデータベース

ベクターデータベースの選択は容易ではありません。スケーラビリティ、レイテンシ、コスト、1秒あたりのクエリ数など、複数の要素が関係します。従来のデータベースの主なユースケースは、キーワードクエリとコンテキスト検索です。多くのエンタープライズアプリケーションでは、これら両方の機能が必要になる可能性があります。そのため、私たちは従来のDBMSにベクターデータベース機能を導入することにしました。

将来のエンタープライズAIアプリケーションの多くは、構造化データと非構造化データの両方を処理する必要があります。複数のデータベースを管理すると、非効率性、潜在的な競合状態、OLAPデータとベクターデータベース内のベクターインデックス間のデータ不整合、そしてデータ不整合につながる管理オーバーヘッドが発生する可能性があります。

したがって、統合ベクターデータベースは、最適なクエリ機能とセマンティック検索を必要とするアプリケーションに最適です。例えば、ベクターデータベースは、組織の財務報告書を埋め込むだけでなく、これらのデータモデルをインデックス化して同じデータベースに保存し、セマンティック検索や類似検索機能も提供します。

多くのDBMSおよびレイクハウス企業は、既存製品にベクトル埋め込みと検索機能を組み込んでいます。企業がLLMのユースケースを構築・展開するにつれて、セマンティック検索機能を備えた統合データベース/レイクハウスは2024年にさらなる注目を集める可能性があります。

AIアプリケーション構築における最も一般的な手法は、検索拡張生成(RAG)です。これは、LLM(限定言語管理)と組織のビジネスデータを組み合わせて、自然言語による質問への回答を提供します。RAGは、ベクトル化されたデータ内の類似性を検索してからLLMを呼び出してAPIを完成させるプロセスを統合することで、回答精度を向上させます。

RAGのユースケースに影響を与える2つのトレンドが見られます。1つは、データベースを経由せずに入力データを直接キャプチャするLLMコンテキストの規模の拡大です。これにより、複雑な追加RAGステップの必要性が軽減されます。しかし、ベクターデータベースの需要は減っていません。ベクターデータベースはLLMキューを事前にフィルタリングすることで、AIアプリケーションのコスト効率とパフォーマンスを向上させます。また、ベクターデータベースはキューとその応答をキャッシュするため、繰り返しクエリのためにLLMへの不要でコストのかかるAPI呼び出しを回避できます。このようにキュレーションされたデータは、組織のSLMを微調整するために使用できます。

4つの人工知能ガバナンス

経営幹部は、あらゆる構造化データ資産と非構造化データ資産からこれまでにない洞察を熱心に求めており、リーダー陣に対しAIプロジェクトの迅速な追跡を強く求めています。しかし、ITリーダーは、基盤となるデータインフラにAIを適用することが容易ではないことを認識しています。AIアプリケーションの成功は、データの品質、セキュリティ、プライバシー、そしてガバナンスの確保にかかっていることを理解しています。だからこそ、AIガバナンスが必要なのです。では、AIガバナンスとは一体何なのでしょうか?

データガバナンスと同様に、人工知能ガバナンスにも共通の定義が必要です。実際、人工知能ガバナンスはデータガバナンスと密接に連携して機能するべきです。

従来の人工知能と比較して、生成AIははるかに幅広いユーザーベースを有しています。さらに、AIエージェントはベクトル探索、RAG(Rapid Algorithm Group)、キューエンジニアリングといった新しい概念を導入しています。そのため、現代のAIガバナンスは、モデルの所有者と検証者、監査チーム、データエンジニア、データサイエンティスト、MLOpsエンジニア、コンプライアンス、プライバシー、データセキュリティチームなど、複数の役割のニーズに対応する必要があります。

最高レベルでは、AI ガバナンスは 2 つのレベルにわたって適用する必要があります。

  • モデルのトレーニングまたは微調整:ガバナンスタスクには、適切なデータソース、その忠実度、データドリフト、モデルの重み、評価結果の特定が含まれます。バージョン間でモデルメトリクスを比較する機能は、モデルのパフォーマンスの傾向を理解するのに役立ちます。特に、CPUとGPUにおける異なるモデルの反復ごとのトレーニングコストは、AIガバナンスにおいて重要な考慮事項です。現在、基本的なモデルのトレーニングはリソース要件が非常に高いため、ほとんどのベンダーが参加していません。近年、これらのコストが低下しているため、微調整を行うチームが増えています。コストがさらに低下するにつれて、独自のモデルをトレーニングする組織や部門が増えると予想されます。

  • モデルの使用/推論:ガバナンスタスクは、ビジネスにおける安全な利用を確保する必要があります。これらのタスクには、リスクの特定と軽減、モデルの解釈可能性、コスト、そしてAIモデルを用いたビジネスユースケースの目標達成におけるパフォーマンスが含まれます。

下の図は、人工知能ガバナンス イニシアチブの構成要素を示しています。

AIガバナンスイニシアチブは、次の4つの構成要素で構成されています。

1. モデルの発見

モデルの数は急速に増加しており、この分野のダイナミックで拡大し続ける性質を反映しています。2023年末までに、Hugging Faceには約50万のモデルが登録されました。問題は、これらのモデルがAIフレームワーク(Google CloudのVertex Model GardenやAWS Bedrockなど)に導入されると、開発者はリスク管理チームやコンプライアンスチームの承認の有無にかかわらず、その一部を使い始めてしまうことです。この問題を克服するために、多くの企業がモデルカタログの導入を始めています。

このディレクトリの目的は、使用中のモデル、そのバージョン番号、および承認状況を特定することです。また、モデルの所有者、目的、および使用目的も記録します。承認済みモデルの場合、このディレクトリには、モデルのトレーニングに使用されたデータセット、モデルの評価方法、および公平性スコアが表示されます。リスクスコアカードは、モデルの脆弱性とその影響を記録しており、リスクが閾値内に収まっていることを確認するために定期的にレビューする必要があります。

理想的には、モデル カタログはデータ カタログの拡張であるべきであり、それによってデータと AI ガバナンスの断片化が排除されます。

2. モデルの消費

モデルの利用において、AIガバナンスの焦点は、ビジネスユースケースを承認済みモデルにマッピングし、データセキュリティリスクを特定することにあります。AIガバナンスのこの部分は、企業データの安全でない利用、ヒントインジェクション、データ損失に関する懸念に対処します。

また、法務、CISO、CDO、監査人などの承認からモデルの廃止に至るまで、モデルのライフサイクル全体を追跡します。この管理体制により、モデルの本番環境への展開を加速できます。

ガバナンスツールは、バイアス、危害、情報開示、知的財産権侵害といった分野におけるリスクの特定を可能にするだけでなく、リスク軽減戦略を文書化することも重要です。AIガバナンスツールは、モデルの解釈可能性の向上にも貢献する必要があります。

3. 継続的な監視

承認されたモデルが展開されたら、そのパフォーマンスを大規模に追跡し、幻覚などの危険なコンテンツがないか応答を自動的にスキャンするメカニズムが必要です。AIモデルの最大の問題の一つは、不確実な応答が幻覚につながる可能性があることです。そのため、精度と関連性の監視が不可欠です。2024年にはさらに多くのAIモデルが実稼働するようになり、そのパフォーマンスとコストの追跡が極めて重要になります。

上記のリスク領域において、説明のつかない変化や異常がないか継続的に監視する必要があります。異常が検知された場合は、「アラーム疲れ」を回避するために、アラートと通知をインテリジェントに発信する必要があります。

データ セキュリティとプライバシーは AI ガバナンスのあらゆる側面に浸透するタスクですが、ユーザー、その権利、および関連するセキュリティ戦略を監視することは重要な要素です。

4. リスク管理

モデルスコアカード、推論/使用状況モニタリングデータセットとダッシュボード、そしてワークフロー自動化は、AIアプリケーションの健全性を維持し、予測されるパフォーマンス低下にタイムリーに対処するために不可欠です。自動化されたワークフローは、データとモデルの推論KPIを作成し、必要に応じてアラートをトリガーすることで、モデル所有者が確実に是正措置を開始できるようにします。

ツールは、インシデント解決のために実行された手順を文書化するインシデント管理機能を備えている必要があります。さらに、ワークフローは、NIST AIリスク管理フレームワークなどの関連するAI規制へのコンプライアンス評価を可能にする必要があります。

AIガバナンスは、あらゆるAIイニシアチブの成功の基盤となります。2024年までに、従来のデータカタログ企業やIBMのような大手プラットフォームプロバイダーを含む複数のベンダーが、AIガバナンスに重点を置くようになると予想されます。DatabricksのUnity Catalogは、既にデータカタログとAIモデルのメタデータを統合しています。

2023年の年末に発表されたいくつかの新たな規制や規格は、この重点をさらに加速させました。EUのAI法からISO 42001、そしてOpenAIの準備フレームワークに至るまで、それらはすべて人工知能の責任ある利用を促進することを目的としています。例えば、OpenAIフレームワークには、モデルリスクの「追跡、評価、予測、そして保護」という4つの目標があります。