Files
2025-10-09 16:47:16 +08:00

7.2 KiB

생성을 위한 유틸리티 utilities-for-generation

이 페이지는 [~generation.GenerationMixin.generate]에서 사용되는 모든 유틸리티 함수들을 나열합니다.

출력을 생성하기 (Generate Outputs) generate-outputs

[~generation.GenerationMixin.generate]의 출력은 [~utils.ModelOutput]의 하위 클래스의 인스턴스입니다. 이 출력은 [~generation.GenerationMixin.generate]에서 반환되는 모든 정보를 포함하는 데이터 구조체이며, 튜플 또는 딕셔너리로도 사용할 수 있습니다.

다음은 예시입니다:

from transformers import GPT2Tokenizer, GPT2LMHeadModel

tokenizer = GPT2Tokenizer.from_pretrained("openai-community/gpt2")
model = GPT2LMHeadModel.from_pretrained("openai-community/gpt2")

inputs = tokenizer("Hello, my dog is cute and ", return_tensors="pt")
generation_output = model.generate(**inputs, return_dict_in_generate=True, output_scores=True)

generation_output 객체는 [~generation.GenerateDecoderOnlyOutput]입니다. 아래 문서에서 확인할 수 있듯이, 이 클래스는 다음과 같은 속성을 가지고 있습니다:

  • sequences: 생성된 토큰 시퀀스
  • scores (옵션): 각 생성 단계에서 언어 모델링 헤드의 예측 점수
  • hidden_states (옵션): 각 생성 단계에서 모델의 은닉 상태
  • attentions (옵션): 각 생성 단계에서 모델의 어텐션 가중치

output_scores=True를 전달했기 때문에 scores는 포함되어 있지만, output_hidden_states=True 또는 output_attentions=True를 전달하지 않았으므로 hidden_statesattentions는 포함되지 않았습니다.

각 속성은 일반적으로 접근할 수 있으며, 모델이 해당 속성을 반환하지 않았다면 None이 반환됩니다. 예를 들어, generation_output.scores는 언어 모델링 헤드에서 생성된 모든 예측 점수를 포함하고 있으며, generation_output.attentionsNone입니다.

generation_output 객체를 튜플로 사용할 경우, None 값이 아닌 속성만 포함됩니다. 예를 들어, losslogits라는 두 요소가 포함된 경우:

generation_output[:2]

위 코드는 (generation_output.sequences, generation_output.scores) 튜플을 반환합니다.

generation_output 객체를 딕셔너리로 사용할 경우, None 값이 아닌 속성만 포함됩니다. 예를 들어, sequencesscores라는 두 개의 키를 가질 수 있습니다.

여기서는 모든 출력 유형을 문서화합니다.

PyTorch transformers.generation.GenerateDecoderOnlyOutput

autodoc generation.GenerateDecoderOnlyOutput

autodoc generation.GenerateEncoderDecoderOutput

autodoc generation.GenerateBeamDecoderOnlyOutput

autodoc generation.GenerateBeamEncoderDecoderOutput

LogitsProcessor logitsprocessor

[LogitsProcessor]는 생성 중 언어 모델 헤드의 예측 점수를 수정하는 데 사용됩니다.

PyTorch transformers.AlternatingCodebooksLogitsProcessor

autodoc AlternatingCodebooksLogitsProcessor - call

autodoc ClassifierFreeGuidanceLogitsProcessor - call

autodoc EncoderNoRepeatNGramLogitsProcessor - call

autodoc EncoderRepetitionPenaltyLogitsProcessor - call

autodoc EpsilonLogitsWarper - call

autodoc EtaLogitsWarper - call

autodoc ExponentialDecayLengthPenalty - call

autodoc ForcedBOSTokenLogitsProcessor - call

autodoc ForcedEOSTokenLogitsProcessor - call

autodoc InfNanRemoveLogitsProcessor - call

autodoc LogitNormalization - call

autodoc LogitsProcessor - call

autodoc LogitsProcessorList - call

autodoc MinLengthLogitsProcessor - call

autodoc MinNewTokensLengthLogitsProcessor - call

autodoc MinPLogitsWarper - call

autodoc NoBadWordsLogitsProcessor - call

autodoc NoRepeatNGramLogitsProcessor - call

autodoc PrefixConstrainedLogitsProcessor - call

autodoc RepetitionPenaltyLogitsProcessor - call

autodoc SequenceBiasLogitsProcessor - call

autodoc SuppressTokensAtBeginLogitsProcessor - call

autodoc SuppressTokensLogitsProcessor - call

autodoc TemperatureLogitsWarper - call

autodoc TopKLogitsWarper - call

autodoc TopPLogitsWarper - call

autodoc TypicalLogitsWarper - call

autodoc UnbatchedClassifierFreeGuidanceLogitsProcessor - call

autodoc WhisperTimeStampLogitsProcessor - call

autodoc WatermarkLogitsProcessor - call

StoppingCriteria transformers.StoppingCriteria

[StoppingCriteria]는 생성이 언제 멈출지를 결정하는 데 사용됩니다 (EOS 토큰 외). 이 기능은 PyTorch 구현에만 제공됩니다.

autodoc StoppingCriteria - call

autodoc StoppingCriteriaList - call

autodoc MaxLengthCriteria - call

autodoc MaxTimeCriteria - call

autodoc StopStringCriteria - call

autodoc EosTokenCriteria - call

스트리머 (Streamers) transformers.TextStreamer

autodoc TextStreamer

autodoc TextIteratorStreamer

캐시 (Caches) transformers.Cache

autodoc CacheLayerMixin - update - get_seq_length - get_mask_sizes - get_max_cache_shape - reset - reorder_cache

autodoc DynamicLayer - update - crop - batch_repeat_interleave - batch_select_indices

autodoc StaticLayer - update

autodoc StaticSlidingWindowLayer - update

autodoc QuantoQuantizedLayer - update

autodoc HQQQuantizedLayer - update

autodoc Cache - update - get_seq_length - get_mask_sizes - get_max_cache_shape - reset - reorder_cache - crop - batch_repeat_interleave - batch_select_indices

autodoc DynamicCache - to_legacy_cache - from_legacy_cache

autodoc QuantizedCache

autodoc QuantoQuantizedCache

autodoc HQQQuantizedCache

autodoc OffloadedCache

autodoc StaticCache

autodoc OffloadedStaticCache

autodoc HybridCache

autodoc HybridChunkedCache

autodoc SlidingWindowCache

autodoc EncoderDecoderCache - to_legacy_cache - from_legacy_cache

워터마크 유틸리티 (Watermark Utils) transformers.WatermarkDetector

autodoc WatermarkDetector - call