LoRA 论文精读:低秩适配如何让大模型微调更高效April 22, 2026LLMPEFTLoRAPaper ReadingLoRA 通过冻结预训练权重并注入低秩更新,在接近全量微调效果的同时显著降低可训练参数量、显存占用与部署成本。