blaire
👩🏻💻星洲小课堂 SinClass
NLTK Python上著名的自然语言处理库。
能够将序列模型应用到自然语言问题中,包括文字合成。
这次我们要学习专项课程中第五门课 Sequence Models.
第一周: Recurrent Neural Networks 已被证明在时间数据上表现好,它有几个变体,包括 LSTM、GRU 和双向神经网络.
如何进行 误差分析、标注错误数据、定位数据不匹配偏差与方差
知道如何应用端到端学习、迁移学习以及多任务学习
这次我们要学习专项课程中第三门课 Structured Machine Learning Projects
学完这门课之后,你将会:
- 理解如何诊断机器学习系统中的错误
- 能够优先减小误差最有效的方向
- 理解复杂ML设定,例如训练/测试集不匹配,比较并/或超过人的表现
- 知道如何应用端到端学习、迁移学习以及多任务学习
很多团队浪费数月甚至数年来理解这门课所教授的准则,也就是说,这门两周的课可以为你节约数月的时间
Hyperparameter Tuning process、Normalizing Activations in a network
Fitting Batch Norm into a neural network、Why does Batch Norm work?、Batch Norm at test time
Softmax regression、TensorFlow
Mini-batch、指数加权平均-偏差修正、Momentum、RMSprop、Adam、学习率衰减、局部最优
这节课每一节的知识点都很重要,所以本次笔记几乎涵盖了全部小视频课程的记录
这次我们要学习专项课程中第二门课 Improving Deep Neural Networks
学完这门课之后,你将会:
- 能够高效地使用神经网络通用的技巧,包括
初始化、L2和dropout正则化、Batch归一化、梯度检验
。- 能够实现并应用各种优化算法,例如
Mini-batch、Momentum、RMSprop、Adam,并检查它们的收敛程度
。- 理解深度学习时代关于如何 构建训练/开发/测试集 以及 偏差/方差分析 最新最有效的方法.
- 能够用TensorFlow实现一个神经网络
这门课将会详尽地介绍深度学习的基本原理,而不仅仅只进行理论概述.
本周重点任务是使用Python要实现一个任意层的神经网络, 并在cat数据上测试.
正式进入神经网络的学习. 当然, 我们先从简单的只有一个隐藏层的神经网络开始。
在学习完本周内容之后, 我们将会使用 Python 实现一个单个隐藏层的神经网络。
本周我们将要学习 Logistic Regression, 它是神经网络的基础.
Logistic Regression 可以看成是一种只有输入层和输出层(没有隐藏层)的神经网络.
本文主要基于周志华《机器学习》一书第八章 集成学习内容做的整理笔记,此外查阅了网上的一些博客和问答网站
Support Vecor Machine, 自一诞生便由于它良好的分类性能席卷了机器学习领域,并牢牢压制了神经网络领域好多年。 如果不考虑集成学习的算法,不考虑特定的训练数据集,在分类算法中的表现SVM说是排第一估计是没有什么异议的.