LoRA微调

现在的大模型动辄几十、上百亿参数,如果我们想要对模型进行微调,放到本地一般而言很少有足够的显存。 大模型微调的几种方法: 低秩微调LoRA LoRA(Low-Rank Adaptation)简介:高效的深度学习模型微调方法 在深度学习领域,尤其是大规模预训练模型(如BERT、GPT系列等)的微调过程