HUOXIU

Amazon Web Services 2024 re:Invent China ツアーのハイライト: ジェネレーティブAIによる包括的な革命

Amazon Web Services(AWS)のグローバルカンファレンス「re:Invent」は13年連続で開催されています。テクノロジーイノベーションのトレンドセッターとして、今年のカンファレンスは再び中国で開催され、生成型AI、データ戦略、そしてクラウドサービスがもたらす無限の可能性を探りました。

ご存知の通り、re:Inventでは毎年数多くの主要製品が発表されており、過去2年間はほぼ全てが生成AIに焦点が当てられてきました。昨年と比較すると、今年はいくつかの重要な兆候が見られます。1. 製品の実用化とツールの最適化への重点が強化されていること。2. 生成AIイノベーション製品のリリースペースが大幅に加速していること。3. データの保存とガバナンスから管理に至るまで、AIによるデータ活用の簡素化を目指したプロセス全体の改善が進んでいること。

▲ Amazon Web Services Greater China プロダクト部門ゼネラルマネージャー Chen Xiaojian 氏

「Amazon Web Services(AWS)は、グローバルクラウドコンピューティングのパイオニアでありリーダーであるだけでなく、企業が生成型AIを構築・適用するための最適な選択肢でもあります。今年のre:Inventグローバルカンファレンスにおける一連の重要な発表は、このことをさらに裏付けています」と、Amazon Web Servicesグレーターチャイナ製品部門ゼネラルマネージャーの陳暁建氏は述べています。陳氏はさらに、AWSの一連のイノベーションの根底にある基本的な考え方は、コアクラウドサービスを基盤として継続的にイノベーションを起こし、チップからモデル、アプリケーションに至るまで、テクノロジースタック全体にわたってブレークスルーを達成することだと付け加えました。

ボリュームパラメータやパフォーマンスからボリュームシナリオに至るまで、今日の生成AIのブレークスルーポイントは、技術革新を実稼働アプリケーションにどのように移行するかにあります。陳小建氏が述べたように、生成AIが技術とアプリケーションの距離を縮めるには、モデル、コスト、データ、そして信頼性といったいくつかの重要な問題を解決する必要があります。

1. 豊富なオプションモデルをご用意しております。

大規模モデルのパラメータとパフォーマンスレベルは向上し続けていますが、現在主流のモデルが今後数か月でその地位を維持するとは限らない可能性があります。そのため、Amazon Web Services の生成AIにおける戦略的ポジショニングは、Amazon Bedrock を通じてすべての優れたモデルにアクセスし、基盤となるインフラストラクチャ、モデル、アプリケーション(3層のテクノロジースタック)を強化することで、ユーザーの本番環境シナリオの堅牢性を確保し、大規模モデルアプリケーションがモデルの変更の影響を受けないようにすることです。

このような背景から、新たにリリースされた6つの基本Amazon Novaモデル(Nova Micro、Nova Lite、Nova Pro、Nova Premier、Nova Canvas、Nova Reel)と以前のAmazon TitanはすべてAmazon Bedrockに統合され、基本モデルの参入障壁を下げることを目指しています。同時に、ユーザーにより多くの選択肢を提供するために、Amazon Bedrockはより人気のある、新興の、そしてプロフェッショナルなモデルも統合します。例えば、Luma AIとPoolsideモデルを最初に提供し、最新のStability AIモデルを更新し、新しく立ち上げられたAmazon Bedrock Marketplaceを通じて顧客に100以上のモデルを提供しました。これらすべてのアクションは、最終的に幅広いモデルの選択肢を提供するプラットフォームの構築を目指しています。

アマゾン ウェブ サービス (AWS) は、基本モデルの最適化とモデル プラットフォームのサポート機能の強化にとどまらず、アプリケーション シナリオを継続的に拡大しています。今年の re:Invent グローバル カンファレンスでは、Amazon Q Developer に、ユニットテスト、ドキュメント作成、コードレビューのプロセスを自動化できる 3 つの新しいエージェントが追加され、GitLab との緊密な統合によってアプリケーション シナリオが拡大しました。インテリジェント アプリケーションがミッション クリティカルなシナリオに到達できるように、Amazon Q Developer では機能も更新され、Windows.NET、VMware、メインフレームのワークロードの移行と最新化が加速され、ユーザーのビジネス変革の時間が短縮され、コストが削減されます。さらに、ビジネス レベルでの多次元のエンパワーメントは、Amazon Q Business と Amazon Q in QuickSight のより多くの機能強化にも反映されています。AWS は、さまざまなレベルで複雑なユーザー ワークフローの自動化を簡素化しています。

2. 持続可能な開発を実現し、モデルのトレーニングと推論のコストを効果的に管理できます。

モデルプラットフォームの構築は、単にモデルを接続するだけでなく、持続可能な開発も考慮する必要があります。ユーザーがさまざまなモデルをより有効に活用し、利用コストを削減できるようにするために、Amazon Web Servicesは、最適化された推論、モデルの蒸留、プロンプトワードのキャッシュ、GraphRAGのサポート、自動推論チェック、マルチエージェントコラボレーションなど、数多くのアップデートを実施してきました。これらはすべて、モデルプラットフォームの継続的な進化を示しています。

重要なインフラストラクチャ レベルでは、Amazon Web Services (AWS) は、Amazon SageMaker HyperPod の新しいトレーニング レシピ、柔軟なトレーニング計画とタスク ガバナンス、顧客が主流のモデルを迅速に導入できるように Amazon SageMaker で AWS パートナーの一般的な AI アプリケーションを使用する機能など、Amazon SageMaker AI の 4 つのイノベーションを導入しました。

トレーニングの面では、Amazon SageMaker HyperPod に 3 つの強力な新機能が追加され、トレーニングリソースとトレーニングプランを効果的に管理し、コストを 40% 削減できます。推論の面では、Amazon Bedrock の 3 つのアップデートによってもコストを大幅に削減できます。キューワードキャッシングはコストを最大 90% 削減し、レイテンシーを最大 85% 削減できます。キューワードインテリジェントルーティングは精度に影響を与えずにコストを最大 30% 削減できます。モデル蒸留はプロセスを 500% 高速化し、運用コストを 75% 削減できます。

3. データをより有効に活用し、AI に統合します。

データは企業にとって最も重要な資産であり、生成 AI をコアビジネス シナリオに導入できるかどうかの鍵となります。

以前のデータ管理システムでは、Amazon Web Services (AWS) が最も包括的で詳細な専用サービスのポートフォリオを提供していました。これには、データウェアハウス用の Amazon Aurora Redshift、ビッグデータ処理用の Amazon Aurora、検索分析用の Amazon Elasticsearch Service (OpenSearch)、ストリーミングデータ分析用の Amazon Kinesis と Amazon MSK、データ集約用の Amazon Glue、クロス分析用の Amazon Athena、ビジネスインテリジェンス用の Amazon QuickSight が含まれます。多くのお客様がすでにこれらのサービスを使用してデータ分析アプリケーションを構築しています。たとえば、リアルタイムの不正検出システムを構築している金融機関のお客様は、独自に構築したデータカタログサービスを使用してデータを分類し、データウェアハウスにインポートして保存し、SQL 分析を実行します。次に、Amazon Glue の ETL 機能を活用して、データウェアハウスと Amazon EMR の間に信頼性の高いデータパイプラインを確立し、最後に AI データのトレーニングと分析のためにデータを Amazon SageMaker にインポートして、クラウドでのリアルタイムの不正検出システムの導入を完了します。

重要なビジネスデータ分析ニーズとAIシナリオのデータ要件の両方を満たす、よりシンプルなデータ処理方法はないでしょうか?Amazon Web Servicesは、データ分析とAIコンバージェンスの分野において包括的な統合を実現しました。

社内の企業データをより有効に活用し、データと AI の統合を実現するために、次の更新が行われました。

Amazon Bedrock ナレッジベースでは、構造化データと GraphRAG のサポートが開始され、お客様が独自のデータを活用してカスタマイズされた生成 AI エクスペリエンスを提供する方法がさらに広がりました。

Amazon Bedrock Data Automation: コーディングを必要とせずに、非構造化のマルチモーダルデータを構造化データに自動的に変換し、顧客がより多くのデータを生成 AI と分析に適用できるようにします。

自動推論チェック: これは、モデルの錯覚によって引き起こされる事実上のエラーを防ぐのに役立つ、生成 AI の最初で唯一の安全策であり、最高の精度を必要とする生成 AI の新しい使用例を可能にします。

マルチエージェントコラボレーション:複数の AI エージェントを簡単に構築およびオーケストレーションして共同で問題を解決できるようにすることで、生成 AI を適用して最も複雑なユースケースを解決する方法が広がります。

次世代の Amazon SageMaker は、高速 SQL 分析、ペタバイト規模のビッグデータ処理、データの探索と統合、モデルの開発とトレーニング、生成型人工知能 (AI) など、お客様が必要とする機能を単一の統合プラットフォームに統合します。

4. 信頼の問題を解決する。

企業による生成型AIの導入は長期的なプロセスです。信頼の問題を解決することによってのみ、持続的な投資が可能になります。

生成AIをプロトタイプ段階から実稼働段階へと推進するため、Amazon Web Services (AWS) はツールレベルであらゆる障害を取り除きます。これには、錯覚問題の防止とモデルの錯覚が事実上の誤りに与える影響の軽減、マルチエージェントコラボレーションの実現、RAGを利用したナレッジグラフの構築によるプライベートデータの有効活用、遅延推論の最適化などが含まれます。これらのアプリケーションは、お客様が実際の実稼働シナリオで直面する課題に効果的に対処します。

今後、生成AIは様々な業界に急速に浸透し、エンタープライズインテリジェント化のさらなる可能性を広げます。顧客ニーズはより複雑になり、モデルの選択だけでなく、多様な技術サポートも必要になります。Amazon Bedrockの究極の目標は、モデルマーケットプレイスの提供だけでなく、さらに重要な点として、モデルの実行に必要なフルスタックの生産性向上ツールと本番環境ツールを提供することです。これこそがAmazon Bedrockの真の価値です。