文章目录
- 1. ChatGLM模型介绍
- 2. 基于 P-Tuningv2的高效参数微调方法
- 2.1 环境配置
- 2.3 P-TuningV2 教程
- 2.3.1 训练
- 2.3.1.1 P-Tuning v2
- 2.3.1.2 Finetune
- 2.3.1.3 LoRA
- 2.3.2 推理
- 2.3.2.1 示例1
- 2.3.2.2 示例2
- 2.3.3 评估结果
1. ChatGLM模型介绍
ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB