课程简介
大模型技术发展迅速,很多人一知半解,不知如何下手,除了打基础的底层深度学习及相关技术,大模型技术可以分为四个部分,GPT预训练模型、微调与prompt、lanchain套件、多模态。
目标收益
1. 系统化了解AIGC生态体系和发展趋势
2. 系统化了解LLMs大语言模型生态体系和发展趋势
3. 掌握大语言模型LLama2的基座模型微调方法
4. 掌握大语言模型LLama2的应用模型微调方法
5. 掌握大语言模型开发框架Langchain的使用方法。
6. 收获一个完整项目的开发过程和经验
培训对象
课程大纲
第一天 AIGC AI内容生成全景视图(上午) |
1.AIGC的概念定义:内涵、外延 2.AIGC的体系结构:七大领域 3.AIGC的发展演进:从AI->AIGC 4.AIGC的关键技术:算法模型 5.AIGC的核心框架:商业&开源项目 6.AIGC的生态图谱:生态体系 7.AIGC的行业应用:文本、图像、视频、语音等 8.AIGC的发展现状: 9.AIGC的未来趋势: |
第一天 LLMs大语言模型全景视图(下午) |
1.LLMs大语言模型的概念定义 2.LLMs大语言模型的发展演进 3.LLMs大语言模型的生态体系: 4.LLMs大语言模型的关键技术:Transforer& 5.LLMs大语言模型的核心框架:商业&开源 6.LLMs大语言模型的行业应用 7.LLMs大语言模型的发展现状:通用&垂类 8.LLMs大语言模型的未来趋势:多模态&细分 |
第二天 LLMs大语言模型-核心算法(上午) |
1.Llms大语言模型算法模型发展演进2.Transformer算法模型理论基础 3.Transformer算法模型体系结构 4.Transformer算法模型工作流程 5.Transformer算法模型开源实现6.RLHF 基于人类反馈的强化学习算法模型基础理论 7.RLHF 基于人类反馈的强化学习算法模型体系结构 8.RLHF 基于人类反馈的强化学习算法模型工作流程 9.RLHF 基于人类反馈的强化学习算法模型开源实现 |
第二天 LLMs大语言模型微调方法(下午) |
1.LLMs大语言模型微调对象和层次 2.LLMs大语言模型微调的主流方法 3.LLMs SFT监督微调基本概念、工作流程和主流方法 4.LLMs LoRA微调方法概念、特点、基本原理和工作步骤 5.LLMs P-tuning v2微调方法概念、特点、基本原理和工作步骤 6.LLMs Freeze微调方法概念、特点、基本原理和工作步骤 |
第三天 Llama3.1 Fine-Tuning环境准备(上午) |
1.Llama3.1大语言模型开源框架简介 2.Llama3.1本地开发环境安装部署 3.Llama3.1预训练模型下载和配置 4.Llama2本地开发环境运行和演示 5.Llama recipes本地环境安装部署 6.Llama recipes微调基础模型转换 7.Llama recipes Fine-Tuning方法 |
第三天 Llam3.1 Fine-Tuning操作实战(下午) |
1.Llama recipes 准备训练脚本 2.Llama recipes 数据格式说明 3.Llama recipes 准备数据集合 4.Llama recipes 准备转换模型 5.Llama recipes 中文微调 6.Llama recipes 训练监控 7.Llama recipes 模型推理 8.Llama recipes 模型评估 |
第四天 LangChain应用开发框架(上午) |
1.LangChain应用开发框架简述2.LangChain框架主要核心概念 3.LangChain支持的语言模型 4.LangChain六大功能组件 5.LangChain环境安装部署 6.LangChain操作案例教程 |
第四天 LangChain程序设计案例实战(下午) |
1.LangChain程序设计案例1:非结构化数据问答 2.LangChain程序设计案例2:SQL结构化数据问答 3.LangChain程序设计案例3:聊天机器人 4.LangChain程序设计案例4:代码理解 5.LangChain程序设计案例5:API交互 6.LangChain程序设计案例6:文档摘要 |
第五天 Llama3.1+langchain构建本地化客服系统上 |
1.LLMs_QA基于语言模型本地化QA系统 2.LLMs_QA本地化客服系统业务需求 3.LLMs_QA本地化客服系统数据需求 4.LLMs_QA本地化客服系统工作流程 5.LLMs_QA本地化客服系统交互逻辑 6.LLMs_QA本地化客服系统体系结构 |
第五天Llama3.1+langchain构建本地化客服系统下 |
1.LLMs_QA开发环境安装部署 2.LLMs_QA数据文件预处理 3.LLMs_QA数据文件向量化和存储 4.LLMs_QA语言模型集成 5.LLMS_QA管道和链程序设计 6.LLMS_QA本地化QA系统运行演示 |
第一天 AIGC AI内容生成全景视图(上午) 1.AIGC的概念定义:内涵、外延 2.AIGC的体系结构:七大领域 3.AIGC的发展演进:从AI->AIGC 4.AIGC的关键技术:算法模型 5.AIGC的核心框架:商业&开源项目 6.AIGC的生态图谱:生态体系 7.AIGC的行业应用:文本、图像、视频、语音等 8.AIGC的发展现状: 9.AIGC的未来趋势: |
第一天 LLMs大语言模型全景视图(下午) 1.LLMs大语言模型的概念定义 2.LLMs大语言模型的发展演进 3.LLMs大语言模型的生态体系: 4.LLMs大语言模型的关键技术:Transforer& 5.LLMs大语言模型的核心框架:商业&开源 6.LLMs大语言模型的行业应用 7.LLMs大语言模型的发展现状:通用&垂类 8.LLMs大语言模型的未来趋势:多模态&细分 |
第二天 LLMs大语言模型-核心算法(上午) 1.Llms大语言模型算法模型发展演进2.Transformer算法模型理论基础 3.Transformer算法模型体系结构 4.Transformer算法模型工作流程 5.Transformer算法模型开源实现6.RLHF 基于人类反馈的强化学习算法模型基础理论 7.RLHF 基于人类反馈的强化学习算法模型体系结构 8.RLHF 基于人类反馈的强化学习算法模型工作流程 9.RLHF 基于人类反馈的强化学习算法模型开源实现 |
第二天 LLMs大语言模型微调方法(下午) 1.LLMs大语言模型微调对象和层次 2.LLMs大语言模型微调的主流方法 3.LLMs SFT监督微调基本概念、工作流程和主流方法 4.LLMs LoRA微调方法概念、特点、基本原理和工作步骤 5.LLMs P-tuning v2微调方法概念、特点、基本原理和工作步骤 6.LLMs Freeze微调方法概念、特点、基本原理和工作步骤 |
第三天 Llama3.1 Fine-Tuning环境准备(上午) 1.Llama3.1大语言模型开源框架简介 2.Llama3.1本地开发环境安装部署 3.Llama3.1预训练模型下载和配置 4.Llama2本地开发环境运行和演示 5.Llama recipes本地环境安装部署 6.Llama recipes微调基础模型转换 7.Llama recipes Fine-Tuning方法 |
第三天 Llam3.1 Fine-Tuning操作实战(下午) 1.Llama recipes 准备训练脚本 2.Llama recipes 数据格式说明 3.Llama recipes 准备数据集合 4.Llama recipes 准备转换模型 5.Llama recipes 中文微调 6.Llama recipes 训练监控 7.Llama recipes 模型推理 8.Llama recipes 模型评估 |
第四天 LangChain应用开发框架(上午) 1.LangChain应用开发框架简述2.LangChain框架主要核心概念 3.LangChain支持的语言模型 4.LangChain六大功能组件 5.LangChain环境安装部署 6.LangChain操作案例教程 |
第四天 LangChain程序设计案例实战(下午) 1.LangChain程序设计案例1:非结构化数据问答 2.LangChain程序设计案例2:SQL结构化数据问答 3.LangChain程序设计案例3:聊天机器人 4.LangChain程序设计案例4:代码理解 5.LangChain程序设计案例5:API交互 6.LangChain程序设计案例6:文档摘要 |
第五天 Llama3.1+langchain构建本地化客服系统上 1.LLMs_QA基于语言模型本地化QA系统 2.LLMs_QA本地化客服系统业务需求 3.LLMs_QA本地化客服系统数据需求 4.LLMs_QA本地化客服系统工作流程 5.LLMs_QA本地化客服系统交互逻辑 6.LLMs_QA本地化客服系统体系结构 |
第五天Llama3.1+langchain构建本地化客服系统下 1.LLMs_QA开发环境安装部署 2.LLMs_QA数据文件预处理 3.LLMs_QA数据文件向量化和存储 4.LLMs_QA语言模型集成 5.LLMS_QA管道和链程序设计 6.LLMS_QA本地化QA系统运行演示 |