llmcompressor.utils.dev
函数
-
dispatch_for_generation–调度模型的自回归生成。这意味着模块被调度
-
patch_transformers_logger_level–修改 transformers 日志器级别的上下文
-
skip_weights_download–在不下载模型的情况下初始化模型的上下文管理器
dispatch_for_generation
调度模型的自回归生成。这意味着模块被平均调度到可用设备上,并尽可能保持加载。会移除先前可能存在的任何 HF 钩子。
参数
-
(modelPreTrainedModel) –要分发的模型
返回
-
PreTrainedModel–将被调度的模型
源文件位于 llmcompressor/utils/dev.py
patch_transformers_logger_level
修改 transformers 日志器级别的上下文
这可以与 skip_weights_download 一起使用,以抑制与检查点中缺失参数相关的警告。
参数
-
(级别int, default:ERROR) –transformers 日志器的新日志级别。级别低于此级别的日志将不会被记录。
源文件位于 llmcompressor/utils/dev.py
skip_weights_download
上下文管理器,在此期间模型在不下载模型权重文件的情况下进行初始化。这与 init_empty_weights 不同,因为它将权重以随机值分配到指定的设备上,而不是在 meta 设备上。
参数
-
(model_classType[PreTrainedModel], default:AutoModelForCausalLM) –需要修改的类,默认为
AutoModelForCausalLM
源文件位于 llmcompressor/utils/dev.py
skip_weights_initialize
与 transformers.model_utils.no_init_weights 非常相似,但它还修改了 torch.Tensor 的初始化函数,以处理不在 meta 设备上初始化的张量。