文章目录

  • 1. ChatGLM模型介绍
  • 2. 基于 P-Tuningv2的高效参数微调方法
    • 2.1 环境配置
    • 2.3 P-TuningV2 教程
      • 2.3.1 训练
        • 2.3.1.1 P-Tuning v2
        • 2.3.1.2 Finetune
          • 2.3.1.3 LoRA
      • 2.3.2 推理
        • 2.3.2.1 示例1
        • 2.3.2.2 示例2
      • 2.3.3 评估结果

1. ChatGLM模型介绍

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB