Files
2025-10-09 16:47:16 +08:00

5.9 KiB
Raw Permalink Blame History

発電用ユーティリティ

このページには、[~generation.GenerationMixin.generate] で使用されるすべてのユーティリティ関数がリストされています。

出力を生成する

[~generation.GenerationMixin.generate] の出力は、次のサブクラスのインスタンスです。 [~utils.ModelOutput]。この出力は、返されたすべての情報を含むデータ構造です。 [~generation.GenerationMixin.generate] によって作成されますが、タプルまたは辞書としても使用できます。

以下に例を示します。

from transformers import GPT2Tokenizer, GPT2LMHeadModel

tokenizer = GPT2Tokenizer.from_pretrained("openai-community/gpt2")
model = GPT2LMHeadModel.from_pretrained("openai-community/gpt2")

inputs = tokenizer("Hello, my dog is cute and ", return_tensors="pt")
generation_output = model.generate(**inputs, return_dict_in_generate=True, output_scores=True)

generation_output オブジェクトは、できる限り [~generation.GenerateDecoderOnlyOutput] です。 以下のそのクラスのドキュメントを参照してください。これは、次の属性があることを意味します。

  • sequences: 生成されたトークンのシーケンス
  • scores (オプション): 各生成ステップの言語モデリング ヘッドの予測スコア
  • hidden_states (オプション): 生成ステップごとのモデルの隠れた状態
  • attentions (オプション): 生成ステップごとのモデルのアテンションの重み

ここでは、output_scores=Trueを渡したので scores がありますが、hidden_states はありません。 attentions は、output_hidden_states=Trueまたはoutput_attentions=Trueを渡さなかったためです。

通常と同じように各属性にアクセスできます。その属性がモデルから返されなかった場合は、 は「なし」を取得します。ここで、たとえばgeneration_output.scoresは、生成されたすべての予測スコアです。 言語モデリングのヘッドであり、generation_output.attentionsNoneです。

generation_output オブジェクトをタプルとして使用する場合、None 値を持たない属性のみが保持されます。 たとえば、ここには 2 つの要素、loss、次にlogitsがあります。

generation_output[:2]

たとえば、タプル (generation_output.sequences,generation_output.scores) を返します。

generation_output オブジェクトを辞書として使用する場合、None を持たない属性のみが保持されます。 ここでは、たとえば、sequencesscoresという 2 つのキーがあります。

ここではすべての出力タイプを文書化します。

PyTorch

autodoc generation.GenerateDecoderOnlyOutput

autodoc generation.GenerateEncoderDecoderOutput

autodoc generation.GenerateBeamDecoderOnlyOutput

autodoc generation.GenerateBeamEncoderDecoderOutput

LogitsProcessor

[LogitsProcessor] を使用して、言語モデルのヘッドの予測スコアを変更できます。 世代。

PyTorch

autodoc AlternatingCodebooksLogitsProcessor - call

autodoc ClassifierFreeGuidanceLogitsProcessor - call

autodoc EncoderNoRepeatNGramLogitsProcessor - call

autodoc EncoderRepetitionPenaltyLogitsProcessor - call

autodoc EpsilonLogitsWarper - call

autodoc EtaLogitsWarper - call

autodoc ExponentialDecayLengthPenalty - call

autodoc ForcedBOSTokenLogitsProcessor - call

autodoc ForcedEOSTokenLogitsProcessor - call

autodoc InfNanRemoveLogitsProcessor - call

autodoc LogitNormalization - call

autodoc LogitsProcessor - call

autodoc LogitsProcessorList - call

autodoc MinLengthLogitsProcessor - call

autodoc MinNewTokensLengthLogitsProcessor - call

autodoc NoBadWordsLogitsProcessor - call

autodoc NoRepeatNGramLogitsProcessor - call

autodoc PrefixConstrainedLogitsProcessor - call

autodoc RepetitionPenaltyLogitsProcessor - call

autodoc SequenceBiasLogitsProcessor - call

autodoc SuppressTokensAtBeginLogitsProcessor - call

autodoc SuppressTokensLogitsProcessor - call

autodoc TemperatureLogitsWarper - call

autodoc TopKLogitsWarper - call

autodoc TopPLogitsWarper - call

autodoc TypicalLogitsWarper - call

autodoc UnbatchedClassifierFreeGuidanceLogitsProcessor - call

autodoc WhisperTimeStampLogitsProcessor - call

StoppingCriteria

[StoppingCriteria] を使用して、(EOS トークン以外の) 生成を停止するタイミングを変更できます。これは PyTorch 実装でのみ利用可能であることに注意してください。

autodoc StoppingCriteria - call

autodoc StoppingCriteriaList - call

autodoc MaxLengthCriteria - call

autodoc MaxTimeCriteria - call

Streamers

autodoc TextStreamer

autodoc TextIteratorStreamer