尚硅谷AI大模型之深度学习
- 网盘分类:百度,阿里,夸克 
- 资源分类:学习区 
- 资源标签:AI  大模型  深度学习 
- 资源链接:https://wpfx.org.cn/ziyuan/8727.html
- 资源详情:
来源官方
尚硅谷AI大模型之深度学习
尚硅谷AI大模型之深度学习视频教程,是机器学习的后续课程,也是NLP的前置课程。
内容分为神经网络基本原理、深度学习技巧、深度学习框架PyTorch和特殊结构网络四大部分。教程深入剖析了深度学习的底层原理,介绍了业界主流框架PyTorch的使用,通过大量应用案例和代码练习进行讲解,带你从0开始手动搭建深度神经网络。
教程前置知识:
一、数学基础,讲解中涉及一些数学原理和公式推导;二、编程基础,需要熟练掌握Python语言;三、机器学习知识,深度学习课程是机器学习课程的延伸和深入,需要首先了解机器学习的基本概念和原理。
教程目录:
001_教程简介
002_深度学习_概述
003_神经网络_基本概念和结构
004_神经网络_感知机和激活函数
005_激活函数_阶跃、Sigmoid和Tanh
006_激活函数_ReLU
007_激活函数_Softmax
008_其它激活函数
009_简单神经网络_信号传递
010_简单神经网络_代码实现
011_神经网络案例_手写数字识别_整体思路
012_神经网络案例_手写数字识别_具体实现
013_神经网络案例_手写数字识别_小批量计算
014_损失函数_MSE
015_损失函数_交叉熵误差
016_损失函数_分类和回归任务常见损失函数
017_数值微分_求导
018_数值微分_计算切线
019_数值微分_偏导数和梯度
020_数值微分_计算梯度
021_定义神经网络类
022_神经网络的梯度计算
023_梯度下降法_原理和代码实现
024_梯度下降法案例_求最小值
025_梯度下降法_超参数的影响
026_梯度下降法_训练相关概念
027_梯度下降法_SGD基本原理
028_梯度下降法_SGD案例_神经网络类实现
029_梯度下降法_SGD案例_加载数据和定义超参数
030_梯度下降法_SGD案例_模型训练和测试
031_反向传播_计算图和反向求导
032_反向传播_链式法则
033_反向传播_加法和乘法节点
034_反向传播_激活函数层_ReLU
035_反向传播_激活函数层_Sigmoid
036_反向传播_仿射层Affine
037_反向传播_输出层_基本介绍
038_反向传播_输出层_原理推导
039_反向传播_输出层_代码实现
040_综合应用案例_手写数字识别_定义网络类
041_综合应用案例_手写数字识别_模型训练和测试
042_深度神经网络
043_梯度消失和梯度爆炸
044_学习优化方法_SGD
045_学习优化方法_动量法
046_学习优化方法_学习率衰减
047_学习优化方法_AdaGrad
048_学习优化方法_RMSProp
049_学习优化方法_Adam
050_学习优化方法_综合对比
051_学习优化方法_超参数的调节
052_参数初始化_常数初始化及其问题
053_参数初始化_Xavier和He初始化
054_正则化_Batch Norm
055_正则化_权值衰减和Dropout
056_PyTorch_基本介绍
057_PyTorch_安装流程及CUDA介绍
058_PyTorch_安装完成验证
059_PyTorch_张量创建_按内容
060_PyTorch_张量创建_按形状
061_PyTorch_张量创建_按类型
062_PyTorch_张量创建_指定区间
063_PyTorch_张量创建_按数值填充
064_PyTorch_张量创建_随机生成
065_PyTorch_随机排列和随机数种子
066_PyTorch_张量转换_元素数据类型转换
067_PyTorch_张量转换_张量和ndarray的转换
068_PyTorch_张量转换_张量和标量的转换
069_PyTorch_张量数值计算_基本运算
070_PyTorch_张量数值计算_哈达玛积和矩阵乘法
071_PyTorch_节省内存
072_PyTorch_张量统计运算函数
073_PyTorch_张量索引操作_简单索引和范围索引
074_PyTorch_张量索引操作_列表索引
075_PyTorch_张量索引操作_布尔索引
076_PyTorch_张量形状操作_交换维度
077_PyTorch_张量形状操作_调整形状
078_PyTorch_张量形状操作_增减维度
079_PyTorch_张量拼接和堆叠
080_PyTorch_自动微分模块_计算梯度基本流程
081_PyTorch_自动微分模块_梯度计算原理
082_PyTorch_自动微分模块_分离张量
083_PyTorch_自动微分模块_detach对梯度计算的影响
084_PyTorch_自动微分模块_detach与data的区别
085_PyTorch_线性回归案例_模块和流程介绍
086_PyTorch_线性回归案例_代码实现
087_PyTorch深度学习_激活函数_Sigmoid
088_PyTorch深度学习_激活函数_Tanh
089_PyTorch深度学习_激活函数_ReLU
090_PyTorch深度学习_激活函数_Softmax
091_PyTorch深度学习_全连接层和参数初始化
092_PyTorch深度学习_Dropout层
093_PyTorch深度学习_神经网络搭建
094_PyTorch深度学习_查看模型参数
095_PyTorch深度学习_查看模型结构和参数数量
096_PyTorch深度学习_device设置
097_PyTorch深度学习_使用Sequential创建神经网络
098_PyTorch深度学习_损失函数_BCE
099_PyTorch深度学习_损失函数_CrossEntropyLoss
100_PyTorch深度学习_损失函数_回归任务损失函数
101_PyTorch深度学习_损失函数_综合测试
102_PyTorch深度学习_动量法
103_PyTorch深度学习_学习率衰减_等间隔
104_PyTorch深度学习_学习率衰减_指定间隔和指数衰减
105_PyTorch深度学习_AdaGrad和RMSProp
106_PyTorch深度学习_Adam
107_房价预测案例_数据分析和导入模块
108_房价预测案例_特征工程
109_房价预测案例_模型创建
110_房价预测案例_定义损失函数
111_房价预测案例_训练模型和测试
112_CNN_基本结构
113_CNN_卷积层_基本介绍
114_CNN_卷积层_数学上的卷积
115_CNN_卷积层_CNN的卷积运算
116_CNN_卷积层_填充
117_CNN_卷积层_步幅和输出形状计算
118_CNN_卷积层_3维数据卷积运算
119_CNN_卷积层_API调用和测试
120_CNN_池化层_基本概念和特点
121_CNN_池化层_API调用和测试
122_CNN_深度卷积神经网络
123_服装分类案例_加载数据集
124_服装分类案例_创建模型
125_服装分类案例_模型训练
126_服装分类案例_模型测试
127_NLP概述
128_词向量和词嵌入
129_嵌入层API使用
130_词嵌入应用和NLP模型
131_RNN_基本结构和原理
132_RNN_API调用
133_RNN_输入输出形状
134_古诗生成案例_数据预处理
135_古诗生成案例_创建数据集
136_古诗生成案例_创建模型
137_古诗生成案例_模型训练
138_古诗生成案例_生成新诗
资源链接: 本站最新使用说明! 如何升级VIP会员? 链接失效请发表评论反馈!
发表评论(审核通过后显示) 取消回复