
大模型微调:Alpaca-lora
2025.08.13Preface 用LoRA调了两个星期的LLaMA-7B, 记录并且分享一下我遇到的问题,总结一下经验 LLaMA介绍 LLaMA 全称 Large Language Model Meta AI , 是由 Meta团队
Read PostPosts collected under this category.

Preface 用LoRA调了两个星期的LLaMA-7B, 记录并且分享一下我遇到的问题,总结一下经验 LLaMA介绍 LLaMA 全称 Large Language Model Meta AI , 是由 Meta团队
Read Post
Preface 最好先读懂Transformer再来看这个实现,这次我没有具体讲每一行代码,主要是记录这次实现 代码链接: https://github.com/sukiAme7/G2P/tree/main 项目介绍 G
Read Post
Preface 很开心这周先是回重庆了,趁着有空于是便顺着以前的好奇心接着读了Transformer一文.Transformer作为当今LLM的基座模型,我认为每一个入行ai的学者都绕不过这关,熟悉理解Transfo
Read Post
Understanding Diffusion Models: A Unified Perspective -论文笔记 🔗生成式模型介绍 已知一个感兴趣分布的观测样本 x ,生成式模型目标是去学习建模它的真实数据分布
Read Post