著者 | シーラ・テオ 編纂者:岳陽 先月、私はシンガポール政府技術庁(GovTech)が主催し、400人を超える優秀な参加者を集めたシンガポール初のGPT-4プロンプトエンジニアリングコンテストで賞を受賞するという栄誉に浴しました。 プロンプトエンジニアリングは、芸術と科学を融合させた分野です。テクノロジーの理解だけでなく、創造性と戦略的思考も求められます。以下は、私が学習中に学んだプロンプトエンジニアリングの戦略をまとめたものです。これらの戦略は、あらゆる大規模言語モデル(LLM)を要件を正確に実行し、さらにはそれを超える成果へと導くことができます。
このシリーズの記事には以下の内容が含まれており、🔵 は初心者に適した迅速なテクニック、🔴 は高度な戦略を示しています (詳細は近日中に公開されます)。 1. [🔵] CO-STAR フレームワークを使用してプロンプトを構築します。 2. [🔵] 区切り文字を使用してプロンプトをセクションに分割します。 3. [🔴] LLMガードレールを使用してシステムプロンプトを作成します。 (翻訳者注:「ガードレール」とは、大規模言語モデルによって生成されたコンテンツが特定の標準または要件に準拠していることを保証し、不正確、不適切、または有害な情報の生成を防止するために使用される保護メカニズムまたは制限を指します。) 4. [🔴] LLM のみを使用してデータセットを分析する (プラグインやコードは不要) – このセクションでは、GPT-4 を使用して実際の Kaggle データセットを分析する実用的な例を紹介します。 01 [🔵] CO-STARフレームワークを使用してプロンプトを構築するLLMから最適な回答を得るには、効果的な質問文の構成が不可欠です。シンガポール政府科学技術庁のデータサイエンス・人工知能チームが考案したCO-STARフレームワークは、質問文を作成するための便利なテンプレートとして機能します。このフレームワークは、LLM回答の有効性と関連性に影響を与えるすべての主要な側面を考慮しており、LLM回答を効果的に最適化します。 CO-STARフレームワーク — 著者による画像 その動作原理は次のとおりです。
1.1 CO-STARの実用的応用 CO-STARフレームワークがなぜ役立つのか、実例を挙げてご紹介します。あなたはソーシャルメディアマネージャーで、会社の新製品を宣伝するためのFacebook投稿の作成に助けが必要な状況を想定してみましょう。 CO-STAR を使用しないプロンプトは次のようになります。
GPT-4の出力結果は次のとおりです。
コンテンツは十分でしたが、出力は非常に一般的であり、他の製品と比較して、会社の視聴者の共感を得るために必要な微妙な差別化とターゲットを絞った訴求力が欠けていました。 以下は CO-STAR フレームワークの使用例です。この使用例では、ターゲット タスクに関する追加情報、特に以前のクイック プロンプトに欠けていた STYLE、TONE、AUDIENCE などの情報をプロンプトに追加するように通知します。
CO-STAR フレームワークを使用することで、GPT-4 応答はよりターゲットを絞った効果的なものになります。
CO-STAR フレームワークは、タスクに関連するすべての重要な情報を LLM に体系的に提供し、ニーズに基づいてカスタマイズされ最適化された回答を提供できるようにガイドします。 02 [🔵] 区切り文字を使用してプロンプトをセクションに分割するDALL·E 3によって生成された画像 区切り文字は、LLMがプロンプトを複数の部分に分割し、どの部分が意味の単位を構成するかを判断するために使用する特別なトークンです。これは、プロンプト全体が長いトークンの文字列としてLLMに入力されるため重要です。プロンプトの特定の部分を分割し、それぞれ異なる処理を施すことで、区切り文字はトークンのシーケンス全体に論理的な構造を提供します。 単純なタスクの場合、区切り記号はLLM応答の質に影響を与えない可能性があることは注目に値します。しかし、タスクが複雑になるほど、区切り記号がLLM応答に与える影響は大きくなります。 2.1特殊文字を区切り文字として使用する 区切り文字は、通常は一緒に現れないような特別な文字の並びで構いません。例えば、
選択された特殊文字の数と種類は、LLM がそれらを通常の句読点ではなくコンテンツ区切りとして解釈できるほど十分に一意である限り、重要ではありません。 次の例は、プロンプトでこのタイプのセパレーターを使用する方法を示しています。
上記の例では、区切り文字 ### を使用してコンテンツを区切っており、「EXAMPLE CONVERSATIONS」と「EXAMPLE OUTPUTS」という見出しは大文字で他のコンテンツと区別されています。感情分析が必要な対話は「<<<CONVERSATIONS>>>」内にグループ化され、プロンプトの下部で説明テキストなしでLLMに直接提供されます。しかし、「<<<」と「>>>」という区切り文字があるため、LLMはこれらの対話に対して感情分析を実行する必要があることを認識しています。 以下は GPT-4 からの出力です。感情分析の結果のみが他の雑多なコンテンツなしで直接出力されており、まさに私たちが要求したとおりです。
2.2 XMLタグを区切り文字として使用する XMLタグを区切り文字として使用する方法もあります。XMLタグは山括弧で囲まれたタグで、開始タグと終了タグが含まれます。例えば、`<tag>`と`</tag>`です。大規模言語モデル(LLM)は多くのXML形式のWebコンテンツで学習されており、この形式を理解することを学習しているため、このアプローチは非常に効果的です。 以下は同じプロンプトですが、構造を構築するために XML タグを区切り文字として使用しています。
XMLタグでは、説明文で使用している名詞と同じ名詞を使用することをお勧めします。上記のプロンプトで提供している説明は以下の通りです(この記事では、「説明」とは、前述のプロンプトで示されている具体的な手順またはルールを指します) 。
指示書では「会話」、「クラス」、「例」という用語を使用しました。そのため、区切り文字として使用できるXMLタグは、`<conversations>`、`<classes>`、`<example-conversations>`、`<example-classes>`です。これにより、LLMは指示書と区切り文字として使用されるXMLタグの関係を理解できるようになります。 同様に、これらの区切り文字を使用することで、命令を明確かつ秩序正しく分割することができ、GPT-4 が要件に応じて正確に回答を生成できるようになります。
読んでくれてありがとう! 次回の記事では、LLMガードレールを用いたシステムプロンプトの作成方法や、LLMプロンプトワードを用いたデータセットの分析方法など、高度なテクニックをご紹介します。それでは次回! 終わり |
大規模なモデルテンプレートに効果的なプロンプトを作成するにはどうすればよいでしょうか。コンテスト優勝者が共有する経験談(基礎)。
関連するおすすめ記事
-
大規模ベクターデータベースシナリオにおけるBESの探究と実践
-
Yuanxin Technology と Baidu Wenxin Yiyan は提携し、テクノロジーを通じて患者にさらなるサービス価値を提供します。
-
信頼できるデータ循環時代の新たなコンピューティングパワーを探る:隠された言語の年次カーニバルのハイライトを垣間見る
-
AI の新たな火花 | 売却を余儀なくされ、CEO が辞任、幹部が退社 – またひとつの AI ユニコーンが困難に直面。
-
「キャッシュバーニング」モデル:コスト分解と最適化手法の初期検討
-
広州交易会の調理ロボットは大型モデルを使用しており、技術サポートは Alipay Mini Program Cloud から提供されています。