【AI实战】开源中文 llama2 来了,30 分钟搭建 130 亿参数大模型 Llama2-Chinese-13b-Chat
- 简介
- 环境配置
- 环境搭建
- 依赖安装
- 代码及模型权重拉取
- 拉取 Llama2-Chinese
- 拉取 Llama2-Chinese-13b-Chat 模型权重及代码
- 终端测试
- 页面测试
- 安装 gradio
- 加载模型并启动服务
- 国内 Llama2 最新下载地址
- 参考
简介
Llama2
2023年7月19日:Meta 发布开源可商用模型 Llama2。Llama2 是一个预训练和微调的生成文本模型的集合,其规模从70亿到700亿个参数不等。
LLaMA2 的详细介绍可以参考这篇文章:【大模型】更强的 LLaMA2 来了,开源可商用、与 ChatGPT 齐平
Llama2-Chinese
Llama2中文社区
Llama2-Chinese GitHub地址
Llama2 中文 Hugging Face仓库 FlagAlpha: https://huggingface.co/FlagAlpha
Llama2在线体验链接 llama.family
模型数据:
中文微调参数:
环境配置
环境搭建
系统环境
- Ubuntu 20.04LTS
- CUDA 11.8
- Docker 18.09.5
创建docker容器
拉取docker镜像
docker pull nvcr.io/nvidia/pytorch:21.08-py3
创建docker
nvidia-docker run -it -d \--name llama2_chinese \-p 15550:15550 \-p 15551:15551 \-v /xx/xx/llm:/notebooks \-e TZ='Asia/Shanghai' \--shm-size 16G \nvcr.io/nvidia/pytorch:21.08-py3# docker exec -it llama2_chinese env LANG=C.UTF-8 /bin/bash
修改 /xx/xx/llm 为自己的路径
进入容器内:
docker exec -it llama2_chinese env LANG=C.UTF-8 /bin/bash
- 安装conda
下载:
cd /notebookswget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
安装:
bash Miniconda3-latest-Linux-x86_64.sh
安装提升安装即可
将miniconda加入PATH路径:
export PATH="/root/miniconda3/bin:$PATH"
创建 conda 环境:
conda create -n llama2 python=3.10.9
- 安装依赖库
conda activate llama2conda init
exit退出docker,重新进入docker
docker exec -it llama2_chineseenv LANG=C.UTF-8 /bin/bashcd /notebooksconda activate llama2
依赖安装
安装依赖库:
pip install -r requirements-2.txt-i https://pypi.tuna.tsinghua.edu.cn/simple
代码及模型权重拉取
拉取 Llama2-Chinese
git clone https://github.com/FlagAlpha/Llama2-Chinese.git
github网站偶尔会抽风,需要耐心等待,如果失败了,执行 rm -rf Llama2-Chinese,再重新拉取
拉取 Llama2-Chinese-13b-Chat 模型权重及代码
cd Llama2-Chinesegit clone git clone https://huggingface.co/FlagAlpha/Llama2-Chinese-13b-Chat
由于权重文件特别大,如果失败了,执行 rm -rf Llama2-Chinese-13b-Chat,再重新拉取。
建议中午时间拉取,速度比较快,大概 1 小时(和你的网络带宽有很大关系!)。
文件大小查看:
du -sh Llama2-Chinese-13b-Chat
输出:
25GLlama2-Chinese-13b-Chat
如果文件大小不一致,或者太小,说明权重文件下载识别,
请执行: rm -rf Llama2-Chinese-13b-Chat, 再重新拉取
或者 按照后面的方法去下载权重文件
查看文件列表:
ls -l Llama2-Chinese-13b-Chat/
输出:
# ls -l Llama2-Chinese-13b-Chat/total 25421840-rw-r--r-- 1 root root 1514 Jul 27 06:33 README.md-rw-r--r-- 1 root root683 Jul 27 06:33 config.json-rw-r--r-- 1 root root327 Jul 27 07:12 down.sh-rw-r--r-- 1 root root175 Jul 27 06:33 generation_config.json-rw-r--r-- 1 root root 9948728430 Jul 24 23:12 pytorch_model-00001-of-00003.bin-rw-r--r-- 1 root root 9904165024 Jul 24 12:44 pytorch_model-00002-of-00003.bin-rw-r--r-- 1 root root 6178983625 Jul 24 12:14 pytorch_model-00003-of-00003.bin-rw-r--r-- 1 root root33444 Jul 27 06:33 pytorch_model.bin.index.json-rw-r--r-- 1 root root414 Jul 27 06:33 special_tokens_map.json-rw-r--r-- 1 root root131 Jul 27 06:33 tokenizer.model-rw-r--r-- 1 root root749 Jul 27 06:33 tokenizer_config.json
【】如果大文件下载识别,按照下面的方法下载模型文件;
wget https://huggingface.co/FlagAlpha/Llama2-Chinese-13b-Chat/resolve/main/pytorch_model-00001-of-00003.binwget https://huggingface.co/FlagAlpha/Llama2-Chinese-13b-Chat/resolve/main/pytorch_model-00002-of-00003.binwget https://huggingface.co/FlagAlpha/Llama2-Chinese-13b-Chat/resolve/main/pytorch_model-00003-of-00003.bin
如果还是没法下载,参考下面的“国内 Llama2 最新下载地址” 进行下载
终端测试
进入python环境:
python3
输入代码:
import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel = AutoModelForCausalLM.from_pretrained('Llama2-Chinese-13b-Chat',device_map='auto',torch_dtype=torch.float16,load_in_8bit=True)model =model.eval()tokenizer = AutoTokenizer.from_pretrained('Llama2-Chinese-13b-Chat',use_fast=False)tokenizer.pad_token = tokenizer.eos_tokeninput_ids = tokenizer(['Human: 介绍一下深圳\nAssistant: '], return_tensors="pt",add_special_tokens=False).input_ids.to('cuda')generate_input = {"input_ids":input_ids,"max_new_tokens":512,"do_sample":True,"top_k":50,"top_p":0.95,"temperature":0.3,"repetition_penalty":1.3,"eos_token_id":tokenizer.eos_token_id,"bos_token_id":tokenizer.bos_token_id,"pad_token_id":tokenizer.pad_token_id}generate_ids= model.generate(**generate_input)text = tokenizer.decode(generate_ids[0])print(text)
页面测试
使用 gradio 搭建页面
安装 gradio
pip install gradio -i https://pypi.tuna.tsinghua.edu.cn/simple
加载模型并启动服务
修改端口;
vi /notebooks/Llama2-Chinese/examples/chat_gradio.py
到94行:
demo.queue().launch(share=False, debug=True, server_name="0.0.0.0")
修改为:
demo.queue().launch(share=False, debug=True, server_name="0.0.0.0", server_port=15550)
启动脚本:
python examples/chat_gradio.py --model_name_or_path Llama2-Chinese-13b-Chat
如果出现下面的错误:
File "/notebooks/Llama2-Chinese/examples/chat_gradio.py", line 94demo.queue().launch(share=False, debug=True, server_name="0.0.0.0") ^SyntaxError: invalid character ',' (U+FF0C)
则按照下面的步骤修改代码:
vi /notebooks/Llama2-Chinese/examples/chat_gradio.py:94 修改中文逗号,为英文逗号,94demo.queue().launch(share=False, debug=True, server_name="0.0.0.0")=>94demo.queue().launch(share=False, debug=True, server_name="0.0.0.0")
测试
浏览器打开地址:http://10.192.x.x:15550/
国内 Llama2 最新下载地址
Llama2-7B官网版本:https://pan.xunlei.com/s/VN_kR2fwuJdG1F3CoF33rwpIA1" />参考1.https://github.com/FlagAlpha/Llama2-Chinese
2.https://huggingface.co/FlagAlpha/Llama2-Chinese-13b-Chat/tree/main
3.https://github.com/facebookresearch/llama
4.https://huggingface.co/meta-llama