设为首页
收藏本站
开启辅助访问
切换到窄版
登录
立即注册
只需一步,快速开始
首页
BBS
剑灵怀旧服
Unity
美术资源
UE
全套源码
其他内容
奖励任务
分享
Share
每日任务中心
搜索
搜索
怀旧插件
怀旧脚本数据
怀旧攻略
公益服开服通知
AI工具分享
Unity插件
Unity问题答疑
Unity学习教程
Unity AI算法
Unity源码
其他美术文件
MAY文件
3D Max
FBX模型
UE技术讨论
UE学习视频
UE源码
网站源代码
手机游戏源代码
PC游戏
游戏捏脸
其他插件
OFFER摸吧
魔兽地图
单机游戏
本版
帖子
用户
爱开源网
»
首页
›
AIGC
›
AI工具分享
›
快速训练自己的大语言模型:基于LLAMA-7B的lora指令微调 ...
返回列表
发新帖
快速训练自己的大语言模型:基于LLAMA-7B的lora指令微调
[复制链接]
600
|
0
|
2023-8-8 16:03:02
|
显示全部楼层
|
阅读模式
前言:
系统:ubuntu 18.04
显卡:A100-80G(蹭的,嘿嘿~)
(本次主要记录如何快速进行大模型的指令微调)
1. 选用工程:lit-llama
地址:https://github.com/Lightning-AI/lit-llama
2. 下载工程
git clone https://github.com/Lightning-AI/lit-llama.git
复制代码
3. 安装环境
切换到工程目录
cd ./lit-llama
复制代码
使用pip安装依赖库
pip install -r requirements.txt
复制代码
(当然,这里可能会遇到网络问题,安装不了lightning)
可使用以下方式安装:
下载lightning工程
解压进入工程目录,使用以下命令安装
python setup.py install
复制代码
查看lightning是否安装成功:
pip list|grep lightning
复制代码
(这里注意lightning的版本是2.1.0)
4. 下载LLAMA-7B模型
这里我们要基于LLAMA-7B做指令微调,所以要先下载模型权重,并作一系列转换。
切换到 lit-llama 所在位置,使用以下命令下载权重:
python scripts/download.py --repo_id openlm-research/open_llama_7b --local_dir checkpoints/open-llama/7B
复制代码
(文件有点大,需要等待一些时间)
下载完毕之后,会得到如下的文件:
5. 做模型转换
还是切换到 lit-llama 所在位置,使用以下指令进行转换
python scripts/convert_hf_checkpoint.py --checkpoint_dir checkpoints/open-llama/7B --model_size 7B
复制代码
转换完毕之后,在 lit-llama/checkpoints/lit-llama/7B 位置,会得到大小为26G左右的 lit-llama.pth 文件,在上一级目录(lit-llama/checkpoints/lit-llama)还有一个tokenizer.model文件
6. 初步测试
在命令行,使用如下命令运行:
python generate.py --prompt "Today is a"
复制代码
使用中文测试,发现效果不好(开始胡说八道了~)
7. 为什么要进行指令微调?
因为原始的预训练LLAMA模型是一个大语言模型(废话~),会根据前面的单词预测下一个词语,如果你问它问题,它不会正确回答你,你问它一个问题,它可能会续写一些跟你一样的句子,例如,
Prompt为 “What is the capital of China?”,它的回复如下所示:
8. 开始进行指令微调
8.1. 数据准备
这里使用alpaca的52k指令数据进行微调,使用如下指令:
python scripts/prepare_alpaca.py
复制代码
如果下载不下来的话,我们直接打开scripts/prepare_alpaca.py文件,如下所示:
直接打开链接 https://raw.githubusercontent.com/tloen/alpaca-lora/main/alpaca_data_cleaned_archive.json,然后全选页面复制,再保存到新建的文件里。
得到alpaca_data_cleaned_archive.json(看名字的clean应该是清洗过的),每条指令包含"instruction"、“input”、"output"三个关键字,本次先不具体展开讲解,如下所示:
运行指令后,还会作数据划分,train-49759, val-2000如下所示:
最后,会在lit-llama/data/alpaca路径下得到以下文件:
8.2 开始模型训练
使用以下指令:
python finetune/lora.py
复制代码
训练过程如下所示:
整个训练过程大约要1.5个小时(16:51 ~ 18:22)
训练完毕之后,会在out/lora/alpaca得到一系列lora的权重文件,如下图所示:
8.3 模型测试
使用如下指令进行提问,其中prompt为"what is the capital of China?",
python generate/lora.py --prompt "what is the capital of China?"
复制代码
得到的结果如下所示
可以看到,经过指令微调之后,模型已经可以正常回答我们的问题了。
(ps:其他细节可以参考工程的README,写的很清楚~)
结束。
来源:
https://blog.csdn.net/weixin_43508499/article/details/131412735
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
返回列表
发新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
孤独的晶鱼
20
主题
0
回帖
60
积分
注册会员
注册会员, 积分 60, 距离下一级还需 290 积分
注册会员, 积分 60, 距离下一级还需 290 积分
积分
60
加好友
发消息
回复楼主
返回列表
AI工具分享
AI开源
其他
图文推荐
非绿色-黑鳍自动换角色组队吃药自动没疲劳刷金
2024-09-21
绿色-剑灵怀旧完整主线(10月更新)有韩服
2024-09-12
非绿色-定制AI全自动黑鳍V1.2
2024-09-14
剑灵三系精修端 星术咒3鬼3 T2 饰品属性外观
2023-08-16
Unity 超级马里奥
2023-08-22
热门排行
1
非绿色-黑鳍自动换角色组队吃药自动没疲劳
2
非绿色-定制AI全自动黑鳍V1.2
3
绿色-剑灵怀旧完整主线(10月更新)有韩服
4
剑灵三系精修端 星术咒3鬼3 T2 饰品属性外
5
Unity 超级马里奥
6
AI绘画stable-diffusion-webui指定GPU运行
7
非绿色-武神塔合集
8
非绿色-使用教程攻略
9
非绿色 3号自动切线 黑骑 钓鱼 蓝蛙
10
绿色-黑鳍脚本合集