

红蜘蛛图谱项目
1.通过完善系统的知识图谱知识体系,涵盖知识表示、知识抽取、知识存储、知识补全、知识推理相关内容
2.高效的NER实体抽取解决方案,以及RE关系抽取解决方案,涵盖模型方法和规则方法,双渠道保证信息抽取的高效性和完备性
3.基于前缀树和意图识别,搭建红蜘蛛医疗机器人,通过访问Neo4j图数据库达成多轮医疗对话的功能
金融关系分析、商品推荐、品牌挖掘、医疗辅助分析
蜂窝头条投满分项目
1.项目背景介绍:投满分项目在今日头条中的作用,数据集的样式等。快速实现基于随机森林的基线模型1.0,和基于FastText的基线模型2.0
2.迁移学习优化:实现基于BERT的迁移学习模型搭建和训练,并对比模型关键指标的提升
3.模型的量化:实现对大型预训练模型的量化,并对比原始模型与量化模型的差异
4.模型的剪枝:实现对模型的剪枝的操作,包含主流的对特定网络模块的剪枝、多参数模块的剪枝、全局剪枝、用户自定义剪枝
5.迁移学习微调:包含BERT模型微调、AlBERT模型、T5模型、Transformer-XL模型、XLNet模型、Electra模型、Reformer模型的详细介绍,以及消融实验的介绍
6.模型的知识蒸馏:详细解析知识蒸馏的原理和意义,并实现知识蒸馏模型的搭建,对比知识蒸馏后的新模型的优异表现,并做详细的对比测试
金融文本分类、情感分析、医疗报告的自动分类、新闻内容的自动分类
微博文本信息抽取项目
1.项目介绍:理解信息抽取任务以及文本分类的业务意义及应用场景
2.项目流程介绍:完整的实现整个任务的逻辑框架
3.数据预处理:修改数据格式适配大模型训练、数据张量的转换等
4.ChatGLM-6B模型解析,LoRA方法讲解、P-Tuning方法解析
5.基于ChatGLM-6B+LoRA方法实现模型的训练和评估
6.基于ChatGLM-6B+P-Tuning方法实现模型的训练和评估
7.基于Flask框架开发API接口,实现模型线上应用
问答系统、知识图谱构建、医疗行业信息抽取
物流信息咨询智能问答项目
1.项目介绍:理解什么是RAG系统
2.项目流程梳理:从本地知识库搭建,到知识检索,模型生成答案等流程介绍
3.数据预处理:本地文档知识分割、向量、存储
4.LangChain框架的详解讲解:6大组件应用原理和实现方法
5.基于本地大模型ChatGLM-6B封装到LangChain框架中
6.实现LangChain+ChatGLM-6B模型的知识问答系统搭建
客户服务、医疗咨、新闻和媒体
新零售行业评价决策系统
1.项目意义:新零售行业背景和需求
2.BERT模型介绍:架构、预训练任务、应用场景
3.P-Tuning方法的原理:定义、作用、优点
4.PET方法的原理:定义、作用、优点
5.模型训练调优:数据清洗、参数选择、模型训练
6.模型性能评估:构建评估指标(Precision、Recall)、评估方法(混淆矩阵)
金融行业、供应链管理、市场营销、保险航月、电信行业
大模型AI Agent开发应用
1.大模型Function Call函数调用功能的原理和实现方式
2.开发Function Call实现大模型:实时查询天气、订机票、数据库查询等功能
4.解析Assistant API的原理及应用方式
5.基于Assistant API开发实用的聊天机器人应用
6.拆解AI Agent的原理及对比与传统软件的区别
7.基于CrewAI框架开发自动写信并发送邮件的AI Agent
客户服务于支持、个人助理、金融服务、制造业、人力资源
多风格英译汉翻译机项目
1.多风格翻译机的介绍、应用场景
2.翻译机前端界面的搭建:stream、streamlit、websocket
3.星火大模型API的调用方式:key、value
4.翻译风格的设计:提示词工程的应用
电子商务平台、时尚零售、娱乐行业、社交媒体
基于讯飞大模型定制平台的财经新闻项目
1.准备数据集:正负面新闻标题数据集中包含17149条新闻数据,包括input和target两个字段
2.上传数据集:大模型定制训练平台
3.模型定制:BLOOMZ-7B是一个由BigScience研发并开源的大型语言模型(LLM),参数量为70亿。它是在一个包含46种语言和13种编程语言的1.5万亿个tokens上训练的,可用于多种自然语言处理任务
4.模型训练:LoRa、学习率、训练次数
5.效果评测:提升效果(%)=优化后(正确/已选) - 优化前(正确/已选)
6.模型服务:可使用webAPI的方式进行调用,也可在线体验服务的应用
创意产业、文学和出版、新闻和媒体、游戏和应用开发
没有工作经验,期待学习有前景的AI大模型技术
零基础,对AI人工智能或者大模型感兴趣,有想法致力于通过AI人工智能或AI大模型解决实际问题
具备Java、前端、大数据、运维等开发经验,面临职场瓶颈期,期待自我提升
黑马程序员AI人工智能学员 年度就业报告
学员就业信息统计数据为数据库中实时获取的真实相关数据,非广告宣传
大模型专家平均经验10年、985/211研究生学历背景团队
课程大纲
基础班
1. 大模型开发入门
高手班
1. 大模型语言进阶 2. 数据处理与统计分析 3. 机器学习基础 4. 数据挖掘项目实战 5. 深度学习基础 6. NLP自然语言处理基础 7. 自然语言处理项目1 8. 自然语言处理项目2 9. 自然语言处理实战 10. 大模型微调开发项目 11. 大模型Agent开发项目 12. 大模型RAG开发项目 13. 大模型核心专题 14. 面试加强课 15. 图像分析基础 16. 多模态大模型项目
人工智能开发 V6.5版本
课时:8天 技术点:60项 测验:1次 学习方式:线下面授
1.基于Ollama的私有化大模型入门| 2.基于Ollama+LobeChat可视化聊天机器人| 3.Python调用本地大模型API| 4.基于Python调用基于Ollama部署本地大模型API实现聊天机器人
1. 聊天机器人的项目介绍与搭建零基础入门AI大模型开发的开始,包含了以下技术点:
01-项目介绍:AI大模型搭建聊天机器人需求分析、AI大模型搭建聊天机器人步骤和流程| 02-环境搭建:AI大模型搭建聊天机器人必备语言和工具、项目环境搭建
2. 基于ollama+ChatBox实现chatBot掌握私有化大模型部署,包含了以下技术点:
01-Linux基础:Linux核心命令| 02-虚拟机VMware基础:虚拟机配置、网络、VMware| 03-Ollama安装、命令、基于Ollama本地部署|DeepSeek和QWen大模型等
3. 大模型编程语言基础_Python编程掌握大模型必备的Python语言,包含了以下技术点:
01-Python基础语法:变量、标识符和关键字、输入和输出、数据类型转换、PEP8编码规范、比较/关系运算符、if判断语句语法格式、三目运算符、while语句语法格式、while 循环嵌套、break 和 continue、while 循环案例、for循环| 02-Python数据处理:字符串定义语法格式、字符串遍历、下标和切片、字符串常见操作、列表语法格式、列表的遍历、列表常见操作、列表嵌套、列表推导式、元组语法格式、元组操作、字典语法格式、字典常见操作、字典的遍历| 03-函数:函数概念和作用、函数定义、调用、函数的参数、函数的返回值、函数的注释、函数的嵌套调用、可变和不可变类型、局部变量、全局变量、组包和拆包、引用| 04-文件读写:文件的打开与关闭、文件的读写|、文件目录操作及案例、os模块文件与目录相关操作| 05-异常处理:异常概念、异常捕获、异常的传递| 06-模块和包:模块介绍、模块的导入、包的概念、包的导入、模块中的__all__ 、模块中__name__
4. Python调用Ollama部署QWen/DeepSeek大模型API实现聊天机器人能够实现Python调用本地部署大模型,包含了以下技术点:
01-streamlit框架的安装、基于streamlit完成聊天机器人界面设计| 02-基于Python调用本地私有大模型API实现聊天机器人
课时:7天 技术点:8项 测验:1次 学习方式:线下面授
1.初步建立面向对象的编程思维| 2.掌握类和对象的基本使用方式| 3.掌握网络编程技术,能够实现网络通讯| 4.知道通讯协议原理| 5.掌握开发中的多任务编程实现方式| 6.知道多进程多线程的原理|
1. 面向对象从逐步建立起面向对象编程思想,再到会使用对象,到创建对象,再到真正理解为什么封装对象,包含了以下技术点:
01_面向对象介绍| 02_类的定义和对象的创建| 03_添加和获取对象属性| 04_self 参数| 05_init方法| 06_继承| 07_子类方法重写| 08_类属性和实例属性| 09_类方法、实例方法、静态方法|
2. 网络编程主要学习通讯协议,以及Python实现TCP、HTTP通讯,包含了以下技术点:
01_IP地址的介绍| 02_端口和端口号的介绍| 03_TCP的介绍| 04_Socket的介绍| 05_TCP网络应用的开发流程| 06_基于TCP通信程序开发|
3. 多任务编程主要学习Python中多线程、多进程,包含了以下技术点:
01_多任务介绍| 02_多进程的使用| 03_多线程的使用| 04_线程同步|
4. 高级语法主要学习Python的高级语法,包含以下技术点:
01_闭包| 02_装饰器| 03_正则
5. Python数据结构主要学习主要查找算法、排序算法、关键数据结构
01_时间复杂度| 02_线性表| 03_链表| 04_常用数据结构 05_二分查找| 06_冒泡、选择、插入、快排
课时:7天 技术点:105项 测验:1次 学习方式:线下面授
1.掌握 Linux 常用命令,为数据开发后续学习打下的良好基础| 2.掌握 MySQL 数据库的使用| 3.掌握 SQL 语法| 4.掌握使用 Python 操作数据库| 5.掌握 Pandas 案例| 6.知道常见绘图库使用| 7.掌握 Pandas 数据 ETL| 8.掌握 Pandas 数据分析项目流程|
1. Linux掌握Linux操作系统常用命令和权限管理,包含以下技术点:
01_Linux命令使用| 02_Linux命令选项的使用| 03_远程登录| 04_Linux权限管理| 05_vi编辑器使用
2. MySQL与SQL零基础小白通过MySQL数据库,掌握核心必备SQL,包含以下技术点:
01_数据库概念和作用| 02_MySQL数据类型| 03_数据完整性和约束| 04_数据库、表基本操作命令| 05_表数据操作命令| 06_where子句| 07_分组聚合| 08_连接查询| 09_外键的使用| 10_PyMySQL
3. Numpy矩阵运算库Numpy矩阵运算库技术,包含以下技术点:
01_Numpy运算优势,数组的属性,数组的形状| 02_Numpy实现数组基本操| 03_Numpy实现数组运算,矩阵乘法
4. Pandas数据清洗Pandas数据清洗技术,包含以下技术点:
1.数据组合:01_Pandas数据组合_concat连接;02_Pandas数据组合_merge数据;03_Pandas数据组合_join| 2.缺失值处理:01_缺失值处理介绍;02_缺失值处理_缺失值数量统计;03_缺失值处理;04_缺失值处理_删除缺失值;05_缺失值处理_填充缺失值| 3.Pandas数据类型| 4.apply函数:01_Series和DataFrame的apply方法;02_apply使用案例
5. Pandas数据整理Pandas数据处理技术,包含以下技术点:
1.数据分组: 01_单变量分组聚合; 02_通过调用agg进行聚合; 03_分组后transform; 04_transform练习| 2.Pandas透视表: 01_透视表概述&绘员存量增量分析; 02_绘员增量等级分布; 03_增量等级占比分析&整体等级分布; 04_线上线下增量分析| 3.datetime数据类型: 01_日期时间类型介绍; 02_提取日期分组案例; 03_股票数据处理; 04_datarange函数; 05_综合案例
6. Pandas数据可视化Pandas数据可视化技术,包含以下技术点:
1.Matplotlib可视化| 2.Pandas可视化| 3.Seaborn可视化|
7. Pandas数据分析项目利用所学的Python Pandas,以及可视化技术,完成数据处理项目实战
RFM客户分群案例: 01_RFM概念介绍| 02_RFM项目_数据加载和数据处理| 03_RFM项目_RFM计算| 04_RFM项目_RFM可视化| 05_RFM项目_业务解读和小结|
课时:8天 技术点:80项 测验:1次 学习方式:线下面授
1.掌握机器学习算法基本原理| 2.掌握使用机器学习模型训练的基本流程| 3.掌握 Sklearn 等常用机器学习相关开源库的使用| 4.熟练使用机器学习相关算法进行预测分析|
1. 机器学习该部分主要学习机器学习基础理论,包含以下技术点:
01_人工智能概述| 02_机器学习开发流程和用到的数据介绍| 03_特征工程介绍和小结| 04_机器学习算法分类| 05_机器学习模型评估| 06_数据分析与机器学习
2. K近邻算法该部分主要学习机器学习KNN算法及实战,包含以下技术点:
01_K近邻算法基本原理| 02_K近邻算法进行分类预测| 03_sklearn实现knn| 04_训练集测试集划分| 05_分类算法的评估| 06_归一化和标准化| 07_超参数搜索| 08_K近邻算法总结
3. 线性回归该部分主要学习机器学习线性回归算法及实战,包含以下技术点:
01_线性回归简介| 02_线性回归API使用初步| 03_导数回顾| 04_线性回归的损失函数和优化方法| 05_梯度下降推导| 06_波士顿房价预测案例| 07_欠拟合和过拟合| 08_模型的保存和加载| 09_线性回归应用-回归分析
4. 逻辑回归该部分主要学习机器学习逻辑回归算法及实战,包含以下技术点:
01_逻辑回归简介| 02_逻辑回归API应用案例| 03_分类算法评价方法| 04_逻辑回归应用_分类分析
5. 聚类算法该部分主要学习机器学习聚类算法及实战,包含以下技术点:
01_聚类算法的概念| 02_聚类算法API的使用| 03_聚类算法实现原理| 04_聚类算法的评估| 05_聚类算法案例
6. 决策树该部分主要学习机器学习决策树算法及实战,包含以下技术点:
01_决策树算法简介| 02_决策树分类原理| 03_特征工程-特征提取| 04_决策树算法api| 05_决策树案例
7. 集成学习该部分主要学习机器学习集成算法算法及实战,包含以下技术点:
01_集成学习算法简介| 02_Bagging和随机森林| 03_随机森林案例| 04_Boosting介绍| 05_GBDT介绍| 06_XGBOOST
8. 数据挖掘案例数据挖掘案例部分,包含以下技术点:
01_数据探索性分析| 02_特征工程| 03_模型训练与特征优化| 04_模型部署上线
课时:4天技术点:20项测验:0次学习方式:线下面授
1.数据挖掘项目:时间序列预测、电力负荷预测项目背景、对电力负荷预测任务进行机器学习建模、了解项目优化方向| 2.解决方案:时间序列数据分析方案、时间序列数据特征工程解决方案、时间序列数据模型选择与模型训练方案、时间序列数据不同场景下的预测方案| 3.模型优化:从特征工程、算法选择、预测(推理)速度、扩展性角度介绍时序预测任务还可以进一步优化的方向 | 实战案例:人才流失建模实战 |数据分析解决方案、特征工程解决方案、机器学习模型调参解决方案、模型融合解决方案
南方电网电力负荷预测项目,是实现电力供需的平衡,有效整合可再生能源,满足日益增长的电力需求,同时降低碳排放并确保电网稳定运行非常重要的一个任务。该项目根据脱敏后的时间戳,历史电力负荷数据,充分提取时间特征,滑动时间窗口内电力负荷特征,历史电力负荷特征,构建机器学习模型,对未来一个时间步的电力负荷进行预测。
1.时间序列数据分析方案| 2.时间序列数据特征工程解决方案| 3.时间序列数据模型选择与模型训练方案| 4.时间序列数据不同场景下的预测方案
1.时间序列预测介绍,了解什么是时间序列预测,有哪些应用,有几种分类场景以及时间序列预测有哪些算法| 2.电力负荷预测项目背景介绍,电力负荷预测的重要性与价值分析| 3.对电力负荷预测任务进行机器学习建模,涉及数据分析,特征工程,XGBoost模型训练与调优,模型评价,模型保存,模型预测等功能实现| 4.了解项目优化方向,包括从特征工程、算法选择、预测(推理)速度、扩展性角度介绍时序预测任务还可以进一步优化的方向
课时:7天 技术点:70项 测验:1次 学习方式:线下面授
1.Pytorch 工具处理神经网络涉及的关键点| 2.掌握神经网络基础知识| 3.掌握反向传播原理| 4.了解深度学习正则化与算法优化| 5.掌握卷积神经网络(CNN)| 6.掌握循环神经网络(RNN)|
1. 神经网络基础该部分主要学习神经网络基础,包含以下技术点:
01_神经网络基础:神经网络的构成、激活函数、损失函数、优化方法及正则化|02_反向传播原理:梯度下降算法、链式法则、反向传播算法、改善反向传播算法性能的迭代法|03_深度学习正则化与算法优化:L1、L2、DroupOut、BN、SGD、RMSProp、Adagrad、Adam;04_实现多层神经网络案例|
2. 深度学习多框架对比该部分主要学习深度学习多框架对比,包含以下技术点:
01_Pytorch| 02_Tensorflow| 03_MxNet| 04_PaddlePaddle|
3. Pytorch框架该部分主要学习Pytorch深度学习框架,包含以下技术点:
01_Pytorch介绍|02_张量概念|03_张量运算|04_反向传播|05_梯度,自动梯度|06_参数更新|07_数据加载器|08_迭代数据集|
课时:12天 技术点:100项 测验:1次 学习方式:线下面授
1.掌握NLP领域前沿的技术解决方案| 2.了解NLP应用场景| 3.掌握NLP相关知识的原理和实现| 4.掌握传统序列模型的基本原理和使用| 5.掌握非序列模型解决文本问题的原理和方案| 6.能够使用Pytorch搭建神经网络| 7.构建基本的语言翻译系统模型| 8.构建基本的文本生成系统模型| 9.构建基本的文本分类器模型| 10.使用FastText进行快速的文本分类
1. NLP入门该部分主要学习NLP基础,包含以下技术点:
01_NLP简介|02_NLU简介|03_文本生成简介|04_机器翻译简介|05_智能客服介绍|06_机器人写作介绍|07_作文打分介绍
2. 文本预处理该部分主要学习文本预处理技术,包含以下技术点:
01_文本处理的基本方|02_文本张量表示方法|03_文本语料的数据分析,文本特征处理,数据增强方法|04_分词,词性标注,命名实体识别|05_one-hot编码,Word2vec,Word Embedding|06_标签数量分布,句子长度分布,词频统计与关键词词云
3. RNN及变体该部分主要学习RNN、LSTM、GRU等技术,包含以下技术点:
01_传统RNN,LSTM,Bi-LSTM,GRU,Bi-GRU|02_新闻分类案例,机器翻译案例|03_seq2seq,遗忘门,输入门,细胞状态,输出门,更新门,重置门
4. Transfomer原理该部分主要学习Transform技术,包含以下技术点:
01_输入部分,输出部分,编码器部分,解码器部分,线性层|02_softmax层,注意力机制,多头注意力机制|03_前馈全连接层,规范化层,子层连接结构,语言模型|04_wikiText-2数据集,模型超参数|05_模型的训练,模型验证
5. 迁移学习该部分主要学习迁移学习,包含以下技术点:
01_fasttext工具,进行文本分类|02_CBOW模式,skip-gram模式,预训练模型|03_微调,微调脚本,训练词向量|04_模型调优|05_n-gram特征|06_CoLA 数据集,SST-2 数据集,MRPC 数据集|07_BERT,GPT,GPT-2,08_pytorch.hub
课时:7天技术点:80项测验:0次学习方式:线下面授
1. 基于大规模业务留存数据构建快速文本分类系统| 2. 基于推荐系统内部分频道投递的需求,快速搭建短文本精准分类投递的模型| 3. 基于随机森林和FastText搭建快速基线模型, 验证业务通道的能力| 4. 基于BERT的迁移学习优化模型搭建的能力| 5. 实现神经网络量化的优化与测试| 6. 实现神经网络剪枝的优化与测试| 7. 实现神经网络知识蒸馏的优化与测试| 8. 更多主流预训练模型的优化与深度模型剖析| 9. BERT模型在生成式任务和工程优化上的深入扩展 |
蜂窝头条投满分项目是结合今日头条真实场景下的海量数据, 快速搭建随机森林和FastText的基线模型, 以验证商业化落地的可行性. 更多聚焦在深度学习的优化方法上, 搭建基于BERT的初版微调模型, 应用量化,剪枝,预训练模型微调,知识蒸馏等多种手段,反复迭代,反复优化模型的离线效果,在线效果。
1.海量文本快速分类基线模型解决方案| 2.基于预训练模型优化的解决方案| 3.模型量化优化的解决方案| 4.模型剪枝优化的解决方案| 5.模型知识蒸馏优化的解决方案| 6.主流迁移学习模型微调优化的解决方案
1. 项目背景介绍, 项目快速实现基于随机森林的基线模型1.0, 和基于FastText的基线模型2.0| 2. 迁移学习优化, 实现基于BERT的迁移学习模型搭建和训练, 并对比模型关键指标的提升| 3. 模型的量化, 实现对大型预训练模型的量化, 并对比原始模型与量化模型的差异| 4. 模型的剪枝, 实现对模型的剪枝的操作, 包含主流的对特定网络模块的剪枝, 多参数模块的剪枝, 全局剪枝, 用户自定义剪枝, 包含处理细节和理论知识| 5. 迁移学习微调, 包含BERT模型微调| 6. 模型的知识蒸馏, 详细解析知识蒸馏的原理和意义, 并实现知识蒸馏模型的搭建, 对比知识蒸馏后的新模型的优异表现, 并做详细的对比测试
课时:12天技术点:80项测验:0次学习方式:线下面授
1.图谱全流程管理:掌握从数据获取到图谱构建的全生命周期| 2.图谱理论与应用:熟悉知识图谱定义、类型及多领域应用| 3.Neo4j 技术:精通图数据库的存储与查询优化| 4.深度学习 NER:掌握 CRF、BERT、BiLSTM+CRF 等实体识别方法| 5.多样化关系抽取:熟练运用规则、Pipeline 与 Casrel 模型提取关系| 6.知识融合与消歧:掌握实体消歧和关系对齐技术| 7.医疗问答开发:实现意图识别与对话管理的智能问答系统| 8.NLP 语义处理 :精通自然语言理解(NLU)与生成(NLG)| 9.模型工程化:掌握数据预处理与模型训练全流程| 10.垂直领域图谱:构建医疗、商业等领域的定制知识图谱|
医疗知识图谱项目是一款基于知识图谱的多功能问答机器人项目, 主要解决当前NLP领域中大规模知识图谱构建的问题和图谱落地的问题.知识图谱的构建主要分为知识构建和知识存储两大子系统.知识构建部分将重点完成命名实体识别和关系抽取的模型搭建与优化,深入解析并实现Casrel模型实现文本自动关系抽取的实现.并深入解析实体对齐和实体消歧的NLP难题解决方案, 深度结合工业界流行的解决方案. 最终呈现一个基于知识图谱的问答机器人。
1.数据获取与预处理|2.非结构化文本实体识别(NER)|3.非结构化文本多样化关系抽取|4.知识融合与实体消歧|5.Neo4j图数据库存储与查询优化|6.医疗问答系统|7.工程化部署|
1.智能搜索优化 —— 利用语义理解与实体关联提升搜索准确性(图谱智能搜索)| 2.医疗诊断与研发 —— 构建医疗知识图谱,支持疾病诊断及药物研发| 3.高效知识存储与查询 —— 基于 Neo4j 存储与查询 SPO 三元组数据| 4.智能问答系统 —— 结合 NLU 与知识图谱实现精准问答| 5.异构数据整合 —— 通过实体抽取融合多源数据构建一致知识图谱
课时:2天技术点:20项测验:0次学习方式:线下面授
1.NER命名实体识别任务实战| 2.关系抽取任务实战
实战项目旨在通过新闻报道数据,完成命名实体识别(NER)任务,抽取人物、地点和组织三种实体。项目从数据收集到模型部署,涵盖了完整的NLP任务流程。学生通过分工协作,使用Doccano进行数据标注,采用BIO格式预处理数据,基于BERT+BiLSTM+CRF模型训练NER系统,并开发预测函数与API接口,最终通过Web界面展示结果并完成答辩汇报。
1.数据标注与审核:收集新闻报道数据;使用标注工具完成人物、地点、组织标注| 2.数据预处理:BIO标签预处理| 3.BERT+BiLSTM+CRF模型:BERT:提取上下文语义特征;BiLSTM:捕捉长距离依赖关系。CRF:优化标签序列,解决非法标签问题| 4.预测函数与API封装:加载训练好的模型,处理输入文本,输出BIO标签并解析实体
1.命名实体识别(NER)与BIO标注:NER识别实体,BIO标注将文本转为序列标签| 2.BERT+BiLSTM+CRF模型原理:BERT提取语义,BiLSTM捕获依赖,CRF优化序列| 3.数据预处理与模型训练:BIO格式预处理,CRF损失训练,F1评估模型| 4.API封装与Web部署:Flask构建API,HTML+JS实现前后端交互| 5.团队协作与项目管理:Git版本控制,Trello任务管理,团队分工协作| 6.模型评估与优化:F1分数评估,超参数调优与数据增强优化
课时:8天学习方式:线下面授
基于FFT的全量微调项目
基于P-Tuning的提示词微调
基于LoRA的PEFT微调
该项目基于GPT-2模型构建了一个医疗问诊对话系统,旨在为用户提供初步的医疗咨询服务。通过自然语言对话,系统能够了解用户的症状,提供可能的疾病建议和健康管理指导,帮助用户进行自我照顾,并在必要时建议就医。该项目不仅提升了医疗服务的便捷性,还减轻了医疗机构的负担,具有广泛的应用前景和实用价值。
了解医疗问诊机器人的开发背景及企业中聊天机器人的应用场景,掌握基于GPT2模型搭建医疗问诊机器人的实现过程
1.GPT2模型基础原理及架构分析解决方案| 2.GPT2模型输入输出工作机制解决方案| 3.数据清洗方法解决方案| 4.GPT2模型微调评估解决方案| 5.Flask框架API开发解决方案
1.项目介绍:理解聊天机器人的意义及实际应用场景| 2.项目实现流程介绍(数据预处理+模型训练+模型评估+上线)| 3.项目环境配置以及开发框架的选择| 4.解析GPT2模型架构及原理| 5.实现医疗数据的预处理,适配GPT2模型训练| 6.基于GPT2模型实现问答模型的微调训练| 7.基于Flask框架开发API接口,实现模型线上应用
项目旨在基于BERT+P-Tuning和PET两种方式,构建一个新零售行业的评价决策系统。系统通过对客户评价文本进行准确分类,基于深度分析结果生成针对不同业务场景的决策建议,帮助企业改进产品和服务质量,从而提升客户满意度。
了解企业面向超大规模模型的Prompt-Tuning方法类型,理解Prefix-Tuning、Adapter-Tuning、LoRA三种大模型参数微调方法的原理
1.BERT模型基础原理及架构分析解决方案 2.PET以及P—Tuning微调方法原理及应用机制解决方案 3.数据格式转换、适配模型训练的解决方案 4.BERT模型微调评估解决方案 5.Flask框架API开发解决方案
1. 项目意义:新零售行业背景和需求 2.BERT模型介绍:架构、预训练任务、应用场景 3.P-Tuning方法的原理:定义、作用、优点 4.PET方法的原理:定义、作用、优点 5.模型训练调优:数据清洗、参数选择、模型训练 6.模型性能评估:构建评估指标(Precision、Recall)评估方法(混淆矩阵)
基于QWen/DeepSeek+LoRA微调实现微博文本信息抽取+文本分类的多任务,通过一个大模型同时解决多种任务开发和应用,项目基于LLM进行混合任务开发应用的实现,利用QWen/DeepSeek大模型进行P-Tuning微调的方式,基于Flask框架实现API接口开发和应用。
1、掌握基于BERT+PET及BERT+P-Tuning方式实现文本分类 2、通过金融行业动态方向评估项目掌握利用Few-shot、Zero-shot方式基于ChatGLM-6B实现文本分类、信息抽取、文本匹配任务
1.联合任务数据预处理适配模型训练的解决方案| 2.实现QWen/DeepSeek+LoRA训练的解决方案| 3.实现QWen/DeepSeek+P-Tuning训练的解决方案| 4.基于Flask框架实现模型API接口开发的解决方案|
1.项目介绍:理解信息抽取任务以及文本分类的业务意义及应用场景| 2.项目流程介绍(完整的实现整个任务的逻辑框架)| 3.数据预处理:修改数据格式适配大模型训练、数据张量的转换等| 4.QWen/DeepSeek模型解析,LoRA方法讲解、P-Tuning方法解析| 5.基于QWen/DeepSeek+LoRA方法实现模型的训练和评估| 6.基于QWen/DeepSeek+P-Tuning方法实现模型的训练和评估| 7.基于Flask框架开发API接口,实现模型线上应用
课时:6天学习方式:线下面授
基于Dify+RagFlow的Agent智能体搭建
基于CrewAI智能体搭建
项目基于Ollama私有化部署DeepSeek R1:8b模型,基于Docker结合Dify大模型应用开发平台构建可视化聊天界面,并搭建人工智能技术答疑场景的RAG系统,通过集成DeepSeek构建专属AI助手,解决模型幻觉问题。项目实现了AI大模型从私有化部署、聊天机器人搭建、RAG系统到Agent智能体构建。
1.掌握智能体核心原理、机制、概念及主流大模型剖析。 2.掌握Dify大模型应用开发平台使用,掌握基于Dify构建RAG系统
1.大模型私有化部署方案| 2.Dify搭建聊天机器人| 3.搭建本地知识库解决方案| 4.大模型智能体解决方案
1、大模型私有化部署:Ollama、DeepSeek/QWen| 2、聊天机器人搭建:基于Dify搭建可视化聊天机器人| 3、RAG构建:基于Dify搭建本地知识库| 4、Agent智能体构建:基于Dify+RagFlow搭建Agent智能体
本项目深入探索大模型AI Agent的开发与应用,包括大模型Function Call函数调用的原理和实现,涵盖实时天气查询、订机票和数据库查询操作的实际案例;详细分析GPTs和Assistant API的原理及其应用方式,开发学习答疑聊天机器人和水果收银助手;并研究AI Agent的原理及其与传统软件的区别,基于CrewAI框架开发自动写信并发送邮件的AI Agent。通过这些内容,将全面掌握大模型AI Agent的开发技术及其在实际场景中的应用。
1.通过创建具备查询实时天气及查询航班功能的聊天机器人,了解Function Call概念及原理,掌握Function Call开发应用 2.了解AI Agent和传统软件的区别和联系,掌握基于CrewAI框架,实现多个AI Agent协同工作,并完成自动写书信以及发送邮件的项目案例 3.了解GPTs、Coze平台、Assistant API,掌握基于Coze平台打造个人学习助手,掌握基于Assistant API开发个人助手
1.基于Function Call实现实时查询天气的解决方案| 2.基于Function Call实现订机票的解决方案| 3.基于Function Call实现数据库查询的解决方案| 4.基于GPTs实现学习答疑助手的解决方案| 5.基于Assistant API实现水果收银助手的解决方案| 6.基于CrewAI实现自动写信并发送邮件的AI Agent的解决方案
1.大模型Function Call函数调用功能的原理和实现方式| 2.开发Function Call实现大模型:实时查询天气、订机票、数据库查询等功能| 4.解析GPTs和Assistant API的原理及应用方式| 5.基于GPTs store和Assistant API开发实用的聊天机器人应用| 6.拆解AI Agent的原理及对比与传统软件的区别| 7.基于CrewAI框架开发自动写信并发送邮件的AI Agent
课时:6天学习方式:线下面授
基于物流大模型RAG项目
基于教育领域EduRAG项目
项目基于LangChain+ChatGLM-6B实现电商物流 本地知识库问答机器人搭建,让模型根据本地信 息进行准确回答,解决大模型的“幻觉”问题, 实现精准问答。通过项目皆在掌握LangChain工 具的基本使用方式,理解向量知识库以及实现知 识库的技术原理,快速构建检索增强生成 (RAG)系统
1.了解LangChain基本概念、明确LangChain主要组件的作用、了解LangChain常见的使用场景 2.掌握基于LangChain+ChatGLM-6B模型实现本地知识库的问答实现原理+过程 3.RAG 系统开发与优化:掌握从数据分片到答案生成的 RAG 全流程,熟练应用 HyDE、子查询等检索增强策略提升系统性能。
1.LangChain工具使用介绍解决方案| 2.ChatGLM-6B模型集成到问答系统中的解决方案| 3.向量知识库的构建和检索的解决方案| 4.搭建RAG系统的解决方案
1.项目介绍:理解什么是RAG系统| 2.项目流程梳理(从本地知识库搭建,到知识检索,模型生成答案等流程介绍)| 3.数据预处理:本地文档知识分割,向量,存储| 4.LangChain框架的详解讲解:6大组件应用原理和实现方法| 5.基于本地大模型ChatGLM-6B封装到LangChain框架中| 6.实现LangChain+ChatGLM-6B模型的知识问答系统搭建
EduRAG 是一个企业级智能问答系统,专为教育场景设计,整合了基于 MySQL 的快速 FAQ 检索和基于 RAG(Retrieval-Augmented Generation)的复杂问题处理能力。系统通过结合 MySQL 数据库的高效查询和 Milvus 向量数据库的语义检索,实现了从常见问题到专业咨询的全方位问答支持。系统支持多来源过滤(如 AI、Java、测试、运维、大数据),并通过 Redis 缓存优化性能,使用 LLM 提供高质量答案生成。
1.大模型应用实践:能够集成 LLM(如 OllamaLLM)并设计高效 Prompt,解决知识问答中的业务定制化需求。 2.智能查询路由设计:实现规则、相似度和 LLM 三层路由,精准分发查询并优化复杂意图识别效率。 3.后端服务与前端开发:使用 FastAPI 开发高并发 API 并通过 Gradio 构建交互界面,满足企业级服务与用户体验要求。 4.数据处理与多源集成:熟练处理结构化与非结构化数据,结合 MySQL 和向量搜索打造高效知识检索系统。 5.企业级问题解决能力:通过日志调试和高并发设计,具备定制化开发与性能优化的实战技能,适配智能客服等场景。
1.数据获取与预处理| 2.非结构化文本实体识别(NER)| 3.非结构化文本多样化关系抽取| 4.知识融合与实体消歧| 5.Neo4j图数据库存储与查询优化| 6.医疗问答系统| 7.工程化部署
1.智能搜索优化 —— 利用语义理解与实体关联提升搜索准确性(图谱智能搜索)| 2.医疗诊断与研发 —— 构建医疗知识图谱,支持疾病诊断及药物研发| 3.高效知识存储与查询 —— 基于 Neo4j 存储与查询 SPO 三元组数据| 4.智能问答系统 —— 结合 NLU 与知识图谱实现精准问答| 5.异构数据整合 —— 通过实体抽取融合多源数据构建一致知识图谱
课时:3天学习方式:线下面授
企业级大模型平台开发
大模型蒸馏解决方案
利用计算机视觉技术,上传照片,选择不同的服装进行试穿,使得用户无需到实体店,就能够在线上体验不同的风格,更方便地进行购物决策。该项目利用人体数据、服装图像和文本提示,扩 散模型Diffusion Model在人体数据和服装图像的控制因子下,分别处理文本提示,最后进行信息的融合,实现逼真的试衣效果。
1.大模型优化加速原理及落地应用扩展 2.企业级大模型平台开发
1.虚拟试衣的常见解决方案| 2.阿里PAI平台使用的解决方案| 3.PAI—DSW环境搭建的解决方案| 4.虚拟试衣实践的解决方案
1.虚拟试衣简介:背景,应用场景,优势,方法| 2.阿里PAI平台:介绍,平台意义,产品结构,PAI的架构,PAI的注册与开通| 3.PAI-DSW环境搭建:DSW介绍,产品特点,环境搭建方法| 4.虚拟试衣实践:Diffusers,加速器accelerate,下载SD模型,Lora微调,模型部署,推理验证
项目目标是将已知的某个大规模语言模型的特性或领域知识,迁移到一个小规模语言模型上。通过自动化构建和清洗语料集、高效的训练和部署方式,快速高效地完成蒸馏任务。
1.大模型蒸馏专题应用 2.主流大模型核心原理、论文剖析
1.0基础建立语料集解决方案| 2.LLaMA-Factory实施硬标签蒸馏解决方案| 3.vllm高效部署解决方案+业务场景扩展
1、使用公开底座的大模型,全自动化地建立和清洗语料集| 2、通过蒸馏的方式,迁移大模型地特性或领域知识| 3、高效部署大模型服务
课时:3天 技术点:40项 测验:0次 学习方式:线下面授
1.熟悉模型部署常用方法| 2.掌握核心的机器学习和深度学习算法,应对工作中多应用场景落地| 3.掌握NLP项目核心流程和常见模型| 4.可胜任NLP、大模型算法工程师常见工作任务,并持续优化与迭代算法
1. 服务化框架实战该模块主要介绍服务化框架内容,相关内容如下:
01-Flask作用与流程、Flask入门Hello World、Flask表单使用、Flask服务交付(json)| 02-基于Flask的中文垃圾邮件分类服务封装实战
2. 模型容器化部署实战该部分主要学习模型容器化部署的相关内容:
01-Gradio简介、Gradio安装及基本用法、Gradio基本参数(Interface+Blocks)、Gradio应用分享| 02-【案例】基于Gradio的文本分类服务封装案例实战| 03-【案例】基于Gradio的图像分类服务封装案例实战| 04-Docker介绍安装、Docker快速入手、Docker镜像操作、Docker容器操作| 05-Docker手动构建镜像、Docker自动构建镜像、Docker镜像推送| 06-【案例】中文垃圾邮件分类项目Docker部署实战
3. 自然语言处理核心项目串讲该部分主要学习NLP面试核心的相关知识:
01-Pandas数据处理与统计分析回顾| 02-机器学习回顾+面试高频题讲解| 03-深度学习回顾+面试高频题讲解
4. 大模型核心项目串讲及简历优化该部分主要介绍大模型核心项目及高频面试题的内容:
01-大模型高频面试题讲解| 02-大模型应用框架(推理框架+应用框架)| 03-项目简历优化及面试话术
课时:5天 技术点:100项 测验:1次 学习方式:线下面授
1.熟悉深度学习主要及前沿网络模型的架构原理及在实际业务场景中的应用|2.掌握深度学习在计算机视觉中的应用,包括但不限于分割检测识别等等 3.掌握实际工作中深度学习的具体流程,数据及标注处理,建模训练,及模型部署应用等|4.可胜任深度学习算法工程师,图像与计算机视觉算法工程师等,并持续优化与迭代算法
1. 图像与视觉处理介绍该模块主要介绍计算机视觉的定义,发展历史及应用场景
01_计算机视觉定义、计算机视觉发展历史|02_计算机视觉技术和应用场景、计算机视觉知识树和几大任务
2. 图像分析该部分主要学习图像分析的相关内容:
01_图像的表示方法;| 02_图像的几何变换;| 03_颜色变换;| 04_mixup;| 05_copypaste|
3. 图像分类该部分主要学习图像分类的相关知识:
01_分类的思想;| 02_经典网络结构;AlexNet;| 03_InceptionNet;| 04_ResNet;| 05_模型微调策略|
4. 图像分割该部分主要介绍图像分割的内容:
01_分割思想| 02_Unet;| 03_FCN Net;| 04_MaskRCNN|
课时:5天技术点:40项测验:0次学习方式:线下面授
1.知道AIGC是什么,理解AIGC的产品形态| 2.知道图像生成的常用方式| 3.理解GAN ,VAE,Diffusion的思想| 4.掌握Stable Diffusion的网络结构| 5.理解文图匹配的clip模型| 6.理解Unet网络和采样算法的作用| 7.知道VAE解码器的作用| 8.知道dreambooth和LoRA的模型训练方式| 9.能够搭建图像生成的小程序
基于Stable Diffusion的图像生成项目是一种基于深度学习的图像生成方法,旨在生成高质量、逼真的图像。该项目利用稳定扩散过程,通过逐渐模糊和清晰化图像来实现图像生成的过程。这种方法在图像生成领域具有广泛的应用,包括艺术创作、虚拟场景生成、数据增强等。
图像生成的常见解决方案| 文图匹配的解决方案| 扩散模型噪声去除的解决方案| 潜在空间扩散模型的解决方案| 扩散模型训练的解决方案| 小程序搭建的解决方案
1.AIGC的详解:AIGC简介,类型,应用场景,产品形态| 2.图像生成算法:GAN; VAE ;Diffusion; DALLe; imagen| 3.StableDiffusion的详解:Diffusion,latent diffusion ;satble diffusion| 4.stablediffusion实践: 模型构建,模型训练,lora,dreambooth,图像生成效果| 5.图像生成小程序搭建: 基于stablediffusion构建图像生成的小程序
课程名称:主要针对:主要使用开发工具:
↑ 上拉查看下阶段课程
专职课研团队专职教学团队
标准化研发人才画像
多维面试(五面)
研究院小组诊断测评
全链路面试流程监控
课研人员素质考核
课程设计考核
大纲设计考核
讲义撰写考核
视频录制考核
课堂试炼考核
产品全方位审评
考核答辩
技术开源历练
技术私享会
大牛技术沙龙
企业技术共享
应用市场调研+大
数据分析
获取前沿发展方向
前沿热门课题深入
剖析+技术攻坚,
保障课程前瞻性
基于市场主流技术研
发解决方案,
应对职场难题
基于热门行业领域联合
大牛顾问团,
研发“大厂级”项目
来自华为、IBM等百人大牛团,每年斥巨资,
研发行业标杆优质课程
标准化讲师画像初试技术深度
复试授课质量终试价值观
定制个性化考核方案讲师素质考核
视频录制考核排课、备课产出物考核
教育心理考核教学方法考核
课堂试讲考核正式授课答辩
学员满意度打分阶段课程评审
多维培养计划讲师晋升通道
情景式教学法将教学过程形象化的一种授课方法,集风趣、
知识、故事场景于一体,可大大提高学员对
知识的理解和吸收
场景式授课通过分析场景特点、梳理场景流程、呈
现给定场景下技术的实现3个步骤,向学
员清晰的展现了开发的全流程。
Open教学法OPEN
教学法是由传智教育培训院首创的一套
教学方法论,旨在「用更短的时间讲明白一个
知识点」