LLM 输入#

vllm.inputs.PromptType[source]#

别名:Union[str, TextPrompt, TokensPrompt, ExplicitEncoderDecoderPrompt]

class vllm.inputs.TextPrompt[source]#

基类:TypedDict

文本提示的模式。

prompt: str[source]#

在传递给模型之前要进行分词的输入文本。

multi_modal_data: NotRequired[MultiModalDataDict][source]#

可选的多模态数据,如果模型支持,则传递给模型。

mm_processor_kwargs: NotRequired[dict[str, Any]][source]#

可选的多模态处理器 kwargs,用于转发到多模态输入映射器和处理器。请注意,如果多个模态为正在考虑的模型注册了映射器等,我们尝试将 mm_processor_kwargs 传递给它们中的每一个。

class vllm.inputs.TokensPrompt[source]#

基类:TypedDict

分词提示的模式。

prompt_token_ids: list[int][source]#

要传递给模型的 token ID 列表。

token_type_ids: NotRequired[list[int]][source]#

要传递给交叉编码器模型的 token 类型 ID 列表。

multi_modal_data: NotRequired[MultiModalDataDict][source]#

可选的多模态数据,如果模型支持,则传递给模型。

mm_processor_kwargs: NotRequired[dict[str, Any]][source]#

可选的多模态处理器 kwargs,用于转发到多模态输入映射器和处理器。请注意,如果多个模态为正在考虑的模型注册了映射器等,我们尝试将 mm_processor_kwargs 传递给它们中的每一个。