工程师
其他
架构设计
变革
企业级
推荐课程
average > 0 ? $model->average . '分' : '10.0分' ?>

大模型底层原理深度剖析解密

李善思

前阿里巴巴 数据架构师

前阿里巴巴数据架构师,对大数据、自然语言处理、图像识别、Python、Java相关技术有深入的研究,积累了丰富的实践经验。在工业领域曾参与了燃煤优化、设备故障诊断项目,正泰光伏电池片和组件EL图像检测项目;在自然语言处理方面,担任导购机器人项目的架构师,主导开发机器人的语义理解、短文本相似度匹配、上下文理解,以及通过自然语言检索产品库,在项目中构建了NoSQL+文本检索等大数据架构,也同时负责问答对的整理和商品属性的提取,带领NLP团队构建语义解析层。具备深厚的大模型理论知识和实践经验,熟悉国内外大模型的发展趋势和应用场景。曾在实际项目中应用RAG,对色差检测有深入理解和实践操作、并使用大模型提取关键信息等。
重要参与项目:
1.正泰太阳能单多晶电池片(组件)的EL瑕疵检测:使用人工智能图像识别算法智能判断瑕疵,帮助节省人工。本项目还与MES对接得到太阳能组件信息以及瑕疵缺陷的标准(每个客户的瑕疵定义不同)用以帮助算法正确判断是否是缺陷。
2.化纤丝饼表面瑕疵检测项目:使用人工智能图像识别算法结合拍摄装置输入软硬一体的解决方案,并且与现场设备进行对接获取必要信息,帮助节省人工检测成本。
3.数字化工厂项目:针对工厂的数字化、自动化、智能化做详细的调研与方案的撰写。

前阿里巴巴数据架构师,对大数据、自然语言处理、图像识别、Python、Java相关技术有深入的研究,积累了丰富的实践经验。在工业领域曾参与了燃煤优化、设备故障诊断项目,正泰光伏电池片和组件EL图像检测项目;在自然语言处理方面,担任导购机器人项目的架构师,主导开发机器人的语义理解、短文本相似度匹配、上下文理解,以及通过自然语言检索产品库,在项目中构建了NoSQL+文本检索等大数据架构,也同时负责问答对的整理和商品属性的提取,带领NLP团队构建语义解析层。具备深厚的大模型理论知识和实践经验,熟悉国内外大模型的发展趋势和应用场景。曾在实际项目中应用RAG,对色差检测有深入理解和实践操作、并使用大模型提取关键信息等。 重要参与项目: 1.正泰太阳能单多晶电池片(组件)的EL瑕疵检测:使用人工智能图像识别算法智能判断瑕疵,帮助节省人工。本项目还与MES对接得到太阳能组件信息以及瑕疵缺陷的标准(每个客户的瑕疵定义不同)用以帮助算法正确判断是否是缺陷。 2.化纤丝饼表面瑕疵检测项目:使用人工智能图像识别算法结合拍摄装置输入软硬一体的解决方案,并且与现场设备进行对接获取必要信息,帮助节省人工检测成本。 3.数字化工厂项目:针对工厂的数字化、自动化、智能化做详细的调研与方案的撰写。

课程费用

6800.00 /人

课程时长

2

成为教练

课程简介

课程介绍大模型底层关键技术、底层架构原理以及核心框架技术,通过对大语言模型体系化的讲解和实战演练,帮助学员深入深度揭秘大模型技术内幕,为企业培养数智化人。
【课程收益】
1、梳理大语言模型知识体系,帮助学员了解中外前沿科技、方法工具和业内最佳实践;
2、通过案例讲解,帮助学员掌握大模型的底层原理和企业级智能应用架构设计;
3、帮助单位完善数字化人才梯队培养,助力企业快速度融入数智化变革浪潮;

目标收益

培训对象

希望掌握大模型底层原理、底层架构、提示词工程的在校学生、软件开发人员、售前工程师、在咨询顾问及业务人员。

课程大纲

第一天上午:算法框架篇 1. 介绍Transformer
Transformer模型的背景和发展
Transformer的核心组件:自注意力机制、位置编码、编码器-解码器结构等
Hugging Face库简介
2. Transformer模型架构
Transformer的编码器和解码器结构
多头注意力机制的原理和作用
位置编码的重要性和实现方式
3. Hugging Face库入门
Hugging Face库的安装和基本使用
加载和使用预训练的Transformer模型
对文本数据进行编码和解码
案例练习:结合工业界应用场景对知识点进行代入式讲解,深入浅出帮助学员从道、法、术、器层面对大模型底层原理、核心技术、产业生态、商业应用有一个系统性的认识。
第一天下午: 4. Transformer在NLP中的应用
介绍Transformer在自然语言处理中的应用领域
Transformer在机器翻译、文本生成等任务中的成功案例
5. 实践案例:文本分类任务
使用Hugging Face库和Transformer模型进行文本分类
数据准备、模型训练和评估
作业布置
练习使用Hugging Face库加载不同的Transformer模型
完成一个简单的文本生成任务
案例研讨:结合课程内容进行讲解
第二天上午:
BERT
介绍BERT
BERT模型的背景和创新之处
BERT的预训练机制和微调方法
BERT模型架构和特点
2. BERT模型细节
BERT的嵌入层、Transformer编码器和输出层
BERT的Masked Language Model (MLM) 和 Next Sentence Prediction (NSP)任务
3. Fine-tuning BERT
BERT模型微调的步骤和技巧
使用Hugging Face库进行BERT模型微调
第二天下午:
BERT案例
4. BERT在NLP中的应用
介绍BERT在自然语言处理领域的广泛应用
BERT在问答、命名实体识别等任务中的成功案例
5. 实践案例:情感分析任务
使用BERT模型进行情感分析任务
数据处理、模型微调和结果评估
6. 总结和展望
总结Transformer和BERT模型的重要性和应用价值
展望Transformer模型的未来发展方向
第一天上午:算法框架篇
1. 介绍Transformer
Transformer模型的背景和发展
Transformer的核心组件:自注意力机制、位置编码、编码器-解码器结构等
Hugging Face库简介
2. Transformer模型架构
Transformer的编码器和解码器结构
多头注意力机制的原理和作用
位置编码的重要性和实现方式
3. Hugging Face库入门
Hugging Face库的安装和基本使用
加载和使用预训练的Transformer模型
对文本数据进行编码和解码
案例练习:结合工业界应用场景对知识点进行代入式讲解,深入浅出帮助学员从道、法、术、器层面对大模型底层原理、核心技术、产业生态、商业应用有一个系统性的认识。
第一天下午:
4. Transformer在NLP中的应用
介绍Transformer在自然语言处理中的应用领域
Transformer在机器翻译、文本生成等任务中的成功案例
5. 实践案例:文本分类任务
使用Hugging Face库和Transformer模型进行文本分类
数据准备、模型训练和评估
作业布置
练习使用Hugging Face库加载不同的Transformer模型
完成一个简单的文本生成任务
案例研讨:结合课程内容进行讲解
第二天上午:
BERT
介绍BERT
BERT模型的背景和创新之处
BERT的预训练机制和微调方法
BERT模型架构和特点
2. BERT模型细节
BERT的嵌入层、Transformer编码器和输出层
BERT的Masked Language Model (MLM) 和 Next Sentence Prediction (NSP)任务
3. Fine-tuning BERT
BERT模型微调的步骤和技巧
使用Hugging Face库进行BERT模型微调
第二天下午:
BERT案例
4. BERT在NLP中的应用
介绍BERT在自然语言处理领域的广泛应用
BERT在问答、命名实体识别等任务中的成功案例
5. 实践案例:情感分析任务
使用BERT模型进行情感分析任务
数据处理、模型微调和结果评估
6. 总结和展望
总结Transformer和BERT模型的重要性和应用价值
展望Transformer模型的未来发展方向

活动详情

提交需求