AI文摘

blog-thum
如何对大模型进行LoRA微调

《讲一讲现在最流行的微调方法LoRA》粗略谈了LoRA的技术原理,huggingface的transformers库集成了peft库,所以微调LoRA非常简单。首先微调,先加载peft配置:from

read more
blog-thum
LoRA的工作原理

背景在自然语言处理领域,预训练-微调(pretrain-finetune)范式非常流行。通过指令微调,大语言模型能够更好地学习遵循和执行人类指令。但是,由于大语言模型的参数量巨大,进行全参数微调。预

read more