|
責任ある人工知能 (AI) 戦略の一環として、Amazon Bedrock の Guardrails (プレビュー) を使用して、ユースケースに合わせた安全対策と責任ある AI ポリシーを実装し、ユーザーと生成 AI アプリケーション間の安全なやり取りを促進できるようになりました。 Amazon Web Servicesは、責任ある人間中心の方法で生成AIを開発することに尽力しており、開発者が責任あるAIをライフサイクル全体にわたって統合できるよう、教育と科学を重視しています。Amazon Bedrock向けのGuardrailsを使用すると、企業のポリシーと原則に従い、ユーザーに適切かつ安全なエクスペリエンスを提供するための安全対策を継続的に実施できます。Guardrailsは、拒否トピックとコンテンツフィルターを定義し、ユーザーとアプリケーションのインタラクションから不適切で有害なコンテンツを排除するのに役立ちます。これにより、ベースモデル(FM)に組み込まれている様々な保護機能に加え、追加の制御が可能になります。 Amazon Bedrock のすべての大規模言語モデル(LLM)にガードレールを装備できます。これには、カスタムモデルや Amazon Bedrock エージェントも含まれます。これにより、アプリケーション間のデプロイメント設定の一貫性が向上し、必要に応じてユーザーエクスペリエンスを綿密に管理しながら、安全にイノベーションを進めることができます。セキュリティとプライバシーの管理を標準化することで、Amazon Bedrock のガードレールは、責任ある AI の目標に沿った生成型 AI アプリケーションの構築を支援します。 以下は、Amazon Bedrock の Guardrails が提供する主要なコントロールの概要です。 キーコントロール Guardrails for Amazon Bedrock を使用すると、アプリケーションを保護するために次のポリシーセットを定義できます。 トピックを拒否 - 簡潔な自然言語記述を使用して、アプリケーションのコンテキストにおいて望ましくないトピックのセットを定義できます。例えば、銀行の開発者であれば、オンラインバンキングアプリケーションに投資アドバイスの提供を避けるアシスタントを設定したい場合があります。 私は「投資アドバイス」という拒否トピックを指定し、「投資アドバイスとは、収益の創出や特定の財務目標の達成を目的とした資金や資産の管理や配分に関する問い合わせ、ガイダンス、または推奨を指します」などの自然言語による説明を提供しました。 コンテンツフィルター - ヘイトスピーチ、侮辱、性的コンテンツ、暴力など、様々な種類の有害コンテンツをフィルタリングするためのしきい値を設定できます。多くの基本モデルには、望ましくない有害な反応を防ぐための安全対策が既に組み込まれていますが、Guardrailsは、ユースケースと責任あるAIポリシーに基づいて、そのようなインタラクションを必要なレベルにフィルタリングするための追加制御を提供します。フィルター強度が高いほど、フィルタリングはより厳格になります。 PII 編集 (計画中) - 名前、電子メール アドレス、電話番号など、基本モデルによって生成された応答で編集できる個人を特定できる情報 (PII) のセットを選択したり、ユーザーが PII を含むコンテンツを入力するのをブロックしたりできるようになります。 Guardrails for Amazon Bedrock は Amazon CloudWatch と統合されているため、Guardrails で定義されたポリシーに違反するユーザー入力と基礎となるモデル応答を監視および分析できます。 プレビューに追加 本日の Guardrails for Amazon Bedrock リリースは限定プレビューです。Guardrails for Amazon Bedrock のご利用をご希望の場合は、通常の Amazon Web Services (AWS) サポート担当者までお問い合わせください。 プレビュー期間中、Guardrails は Amazon Bedrock のすべての大規模言語モデル (LLM) に適用できます。これには、Amazon Titan Text、Anthropic Claude、Meta Llama 2、AI21 Jurassic、Cohere Command が含まれます。Guardrails は、Amazon Bedrock のカスタムモデルやエージェントにも使用できます。 詳細については、Guardrails for Amazon Bedrock の Web ページをご覧ください。 |