跳至主要內容
基于QLoRA微调大语言模型

基于QLoRA微调大语言模型

LoRA的核心思想就是通过低秩分解来模拟参数的改变量,从而以极小的参数量来实现大模型的间接训练。AdaLoRA是对LoRA的一种改进,它根据重要性评分动态分配参数预算给权重矩阵。而本文要讲的QLoRA的核心思想就是在不降低任何性能的情况下微调量化为4 bit的模型。


最后的开神-wkyc大约 5 分钟微调技术LLaMALoRALLM