小象学院《深度学习》第三期
第八课 给予深度学习的目标检测
本主题需向作者支付 666 资源币 才能浏览 购买主题
感谢楼主的分享,学习一下主讲老师:
李伟, 美国纽约城市大学博士
研究领域包括深度学习,计算机视觉,人脸计算以及人机交互,即将毕业加入美国顶级云计算平台人工智能研究组。在CVPR,ECCV等顶级会议上发表了多篇学术文章,同时他还是WACV,ACCV,ECCV等重要视觉会议以及MVA,CVIU等期刊的审稿人。
课程简介:
本次的深度学习课程主要包括三大部分:
1) 深度学习核心原理。了解深度学习运行的最核心数学原理,从而对后续的知识点扩展,模型设计与优化技能打下基础。
2) 深度学习知识点连接。会涵盖主流的深度学习研究工程应用中碰到的大部分知识点,与大部分学习资料孤立进行知识点介绍不同,会结合主讲人自身总结找到所有知识点之间的联系,便于系统掌握。
3) 介绍不同知识点的代表应用。结合所学的原理以及知识点,介绍比较重要的图像和语言方面的应用,如增强学习,迁移学习,GAN等, 方便学员针对自身兴趣的目标进行强化训练。
面向人群:
1. 想了解和学习深度学习的学习者
2. 想学习深度学习的相关从业人员
3. 想转行从事深度的学习者
2. 想学习深度学习的相关从业人员
3. 想转行从事深度的学习者
学习收益:
通过本课程的学习,学员将会收获:
1. 帮助学员系统性的掌握深度学习的基本原理,以及从基本概念到各个先进模型的转化思路
1. 帮助学员系统性的掌握深度学习的基本原理,以及从基本概念到各个先进模型的转化思路
2. 了解研究过程中定义问题设计模型的思路
3. 培养学员面对工程及学术问题的思考解决能力
4. 快速积累深度学习项目经验
4. 快速积累深度学习项目经验
课程大纲:
第一课 深度学习总体介绍
1. 神经网络:传统到现代
2. 深度学习应用特点
3. 深度学习发展方向
4. 深度学习框架比较:用Tensorflow进行课程学习
第二课 传统神经网络
1. 线性回归
2. 非线性激励函数
3. loss 函数,常见问题:过拟合,正则化,dropout
实例:传统神经网络络实现
第三课 反向反馈:深度学习模型优化基础
1. SGD 梯度下降介绍
2. 神经网络的梯度优化
3. 神经网络训练
实例:反向梯度优化对比
第四课 卷积神经网络
1. 卷积核以及卷积层
2. AlexNet 最早的现代神经网络
3. VGG,GoogleNet,,ResNet. 近期的高级网络
实例:利用已有模型进行物体分类/特征提取
第五课 迁移学习
1. 理论分析
2. 迁移模型&原始训练模型
3. 如何设计新的的网络
实例:表情识别/人脸识别/动物识别
第六课 与时域信息相关的深度学习
1. RNN
2. LSTM
3. 图片标题生成
4. 视频处理
实例:LSTM用于图片标题生成
第七课 自然语言处理
1. 处理之前:speech to text
2. 词语表达,word2vect
3. 语句生成LSTM
实例:根据上下文回答问题
第八课 给予深度学习的目标检测
1. 传统的目标检测方法
2. 初代算法: Region CNN
3. 升级: SPP Net, Fast RCNN, Faster RCNN
4. 深度学习另辟蹊径: YoLo 和SSD
实例: 自动驾驶的核心:实时目标检测
第九课 深度卷积神经偶的重要应用
1. 图片问答
2. 图像模式转换
3. 图像高清化
4. 围棋程序, Alpha go
5. 自动游戏机器人,DeepMind Atari
实例: 图片艺术风格转化
第十课 无监督学习:对抗网络GAN
1. 传统无监督学习 Autoencode,K Means,Sparse Coding
2. RBM 限制博斯曼机,深度学习的另一支
3. 生成对抗网络 GAN
实例: 机器生成图片,以假乱真
- 第一课_深度学习总体介绍
- 视频-第一课_深度学习总体介绍
- 第二课_传统神经网络
- 视频-第二课_传统神经网络
- 第三讲_卷积神经网络-基础篇
- 视频-第三讲_卷积神经网络-基础篇
- 第四讲_卷积神经网络-高级篇
- 视频-第四讲_卷积神经网络-高级篇
- 第五讲_卷积神经网络-目标分类
- 视频-第五讲_卷积神经网络-目标分类
- 第六讲_卷积神经网络-目标探测
- 视频-第六讲_卷积神经网络-目标探测
- 第七讲_递归神经网络
- 视频-第七讲_递归神经网络
- 第八讲_卷积网络+递归网络
- 视频-第八讲_卷积网络+递归网络
- 第九讲_生成对抗网络
- 视频-第九讲_生成对抗网络
- 第十讲_增强学习
- 视频-第十讲_增强学习
资源共享吧真是一个好地方! 膜拜神贴,后面的请保持队形! 111 666666666666666666 学习》第三期 [修改]
高级模式
小象学院《深度学习》第三期 6666666666 66