时间 | 内容 | 案例实践与练习 |
Day1上午 准备工作 准备工作 决策树 | 准备工作(1) - 概念与术语
- Python(Anaconda)的安装
- Pycharm的安装与使用
- Jupyter Notebook的安装与使用
- Tensorflow与pytorch的安装
- Opencv、Sklearn工具包的运用
决策树(2) - 分类和预测
- 熵减过程
- 贪心法
- ID3与C4.5
- 其他改进方法
- 决策树剪枝
| 案例实践: - Anaconda安装
- Pip install的技巧
- Tensorflow-GPU的安装
- pytorch的安装
- Jupyter Notebook的使用
- Opencv的基本例子
|
Day1下午 基础模型 聚类 BP神经网络 性能评价指标 | 聚类(3) - 监督学习与无监督学习
- K-means
- k-medoids
- 判断最优聚类个数的调参方法
- 基于层次、密度、网格的方法
BP神经网络 (4) - 人工神经元及感知机模型
- Sigmoid激活函数
- 前向神经网络的架构
- 梯度下降
- 误差反向传播详解
性能评价指标(5) - 精确率;
- P、R与F1
- ROC与AUC
- 对数损失
- 泛化性能评价:k折验证验证
| 案例实践: - 验证一下:聚类算法是不稳定的
- 手肘法分析NBA球队的最佳聚类个数
- 各种聚类方式的图形化展示
- 皮马印第安人糖尿病风险:验证多种模型
- 绘制ROC并计算AUC
- 手算神经网络BP算法
- 只用numpy,手推BPNN
|
Day2上午 深度学习基础 支持向量机 深度学习基础知识 | 支持向量机 (1) - “双螺旋”问题
- 基本模型与惩罚项
- 求解对偶问题
- 核函数:映射到高维
- 从二分类到多分类
- 用于连续值预测的支持向量机
深度学习基础知识(2) - 连接主义的兴衰
- 深度学习与神经网络的区别与联系
- 目标函数与激励函数
- 学习步长
- 权重初始化
- 权重衰减(Weight Decay)
- 梯度下降的方法:Adagrad \ RMSprop \ Adam
- 避免过适应
| 案例实践: - SVM实现人脸识别应用
- 通过深度BP网络实现手写数字的识别
- 各种梯度下降方法的实战效果
- Batch normalization的实战效果
|
Day2下午 图像分类 CNN 图像分类CNN | 图像分类CNN(3) - 图像分类概述
- AlexNet
- ZF-Net
- 卷积层的误差反向传播
- 池化层的误差反向传播
- VGG(5层变为5组)
- 迁移学习
- GoogLenet和Inception模块
- 模型退化与ResNet
- DenseNet(充分利用特征)
- 最新的efficientnet
| 案例实践: - VGG各层的可视化展现
- 迁移学习:识别猫和狗
- Resnet用于图像分类
|
Day3上午 目标检测 二阶段目标检测与一阶段目标检测 | 二阶段目标检测(1) - 目标检测项目介绍
- R-CNN
- SPPNET(全图卷积、SPP层)
- Fast-RCNN(多任务)
- Faster-RCNN(RPN)
一阶段目标检测(2) - YOLO-v1(一切都是回归)
- YOLO -v2(9000)
- YOLO -v3(多尺度)
| 案例实践: - 基于Faster-RCNN的通用目标检测示例
- 基于YOLO v3的通用目标快速检测示例
|
Day3下午 人体姿态识别 | 最新的一阶段目标检测(3) - YOLO -v4
- YOLO -v5
- YOLO -v6/v7
人体姿态识别(4) - 早期人体姿态识别
- AlphaPose
- OpenPose
- RMPE
| 案例实践: - DeepSOCIAL
- RMPE的演示
|
Day4上午 自然语言处理 自然语言处理初步 隐马尔科夫模型 | 自然语言处理初步(1) - 语言模型
- Bi-Gram与N-Gram
- 机械分词与统计分词
- 词性标注
- 命名实体识别
- 情感分析
隐马尔科夫模型(2) - HMM形式化定义
- 向前向后算法解评估问题
- Viterbi算法处理解码问题
- 鲍姆韦尔奇算法解学习问题
| 案例实践: - jieba的分词效果
- 《绝代双骄》人物关系分析
- SnowNLP:褒义的中性词
- 出现这种情况可能吗?
- 今天身体怎么样?
|
Day4下午 强化学习 强化学习初步 强化学习经典方法 | 强化学习初步(3) - agent的属性
- 马尔科夫奖励/决策过程
- exploration and exploitation
- 状态行为值函数
- Bellman期望方程
- 最优策略
强化学习经典方法(4) - 策略迭代与价值迭代
- 蒙特卡洛法
- 时序差分法
- DP、MC、TD的关系
| 案例实践: - 财宝在右
- 格子世界
- 机器人走迷宫
- 谷底的小车
- 倒立摆
|
Day5上午 深度强化学习 深度强化学习 | 深度强化学习(1) - 值函数的参数化表示
- 值函数的估计过程
- 深度学习与强化学习的结合
- 基础的DQN 方法
- Double DQN
- Prioritized Replay
- Dueling Network
深度强化学习(2) - 策略梯度方法介绍
- 常见的策略表示
- 减小方差的方法
- 引入基函数与修改估计值函数
| 案例实践: - 井字棋
- 笨鸟先飞:DQN
|
Day5下午 深度强化学习及其他 深度强化学习 GAN | 深度强化学习(3) - 围棋AI的难点
- MCTS
- 策略网络
- 价值网络
- Alpha Go的完整架构
- Alpha Go zero
GAN(4) - 生成对抗网络(GAN)
- KL散度与JS散度
- 改进的GAN:DCGAN
- 加上约束:infoGAN
- 根本上解决:Wasserstein GAN
| 案例实践: - alphazero版五子棋
- 计算机想象的数字
- 特朗普的孩子?
|