会员服务
default sy_dh
在线客服
微调大模型不再难:LoRA方法带你轻松节省99%的训练成 - AI副业赚钱 - 富裕者联盟社区 - Affiliate营销圈

回答

收藏

微调大模型不再难:LoRA方法带你轻松节省99%的训练成

AI副业赚钱 AI副业赚钱 224 人阅读 | 0 人回复 | 2024-03-30

微调大模型不再难:LoRA方法带你轻松节省99%的训练成本!

微调大模型不再难:LoRA方法带你轻松节省99%的训练成本!
我们之前说大模型有四种玩家,其中前三种都是要做模型训练的。而大部分公司或个人,都是在第二种开源大模型的基础上来做训练。


而这种训练方式又分为两种。一种要么就是从头训练,要么就Fine-tuning接着开源模型来训练,在基座模型已经训练好的基础上去做微调。





网上有个很火开源模型,叫羊驼。





其实是这个人Vallejo利用Meta公司开源的LLama 7B的模型微调出来的全新模型,依然是开源的。他仅仅用了52KB大小的数据集,然后把Llama训练出来的能力竟然约等于GPT-3.5,而且它的训练成本很低,不到600美金,他只是在8个80G的H100 GPU上训练3个小时,这个训练费用这个花费其实才不到100美金,更费钱的其实是数据的收集,因为他只是一个研究学者,他没有数据,于是他利用OpenAI的API,相当于调用GPT-3.5一问一答,生成了一批数据,调用API花了500美金。假如他本身就有数据的话,他可能连这500美金都不用花。可见这个微调模型的成本其实是挺低的。


下面这个羊驼就是这个模型的logo,现在羊驼的变体也出了很多,也是基于不同数据训练出来的。其实对我们大部分团队来说,如果要训练一个大模型,从头开始训练的话,得考虑清楚几点,一个是周期很长,第二是数据量会要求很多,第三个也是最重要的一个就是成本很高,这个普通玩家玩不起的,所以这也是为什么更多团队现在都倾向于做这种垂直大模型的微调。


最常用的微调方式就是这种,叫LoRA,名字挺好记的,全称是Low-Ra























加入社区,可阅读全站10w+资源

 非会员试读19%,加入社区后可阅读全文 

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
分享到:
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭