Normalization and Regularization
Normalization: usually rescales features to .
Regularization: Different from the feature scaling techniques mentioned above, regularization is intended to solve the overfitting problem.
2018-07-03 / 3 min read
Normalization: usually rescales features to .
Regularization: Different from the feature scaling techniques mentioned above, regularization is intended to solve the overfitting problem.
决策树本事上是一棵树,树的根节点包含了样本全集,从根出发到叶节点的路径对应了一个判定测试序列,而每个内部节点包含的样本集合则根据相应属性的测试结果而划分到子节点中。
注:决策树在 Coursera 和 Stanford 的公开课中并未提到,相关知识完全通过《机器学习》和互联网获得。
在 Liner Regression 中 是一个连续值,那么当我们解决一个二分类问题时 则是一个离散值,只有两个取值( 或 ),这时可以通过广义线性模型来解决。通过广义线性模型,我们找到一个单调可微函数将分类任务的标记 与线性模型的预测值联系起来。最后我们找到 Logistic Function 来作为线性模型。
在统计学中,线性回归(Linear Regression)是利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。
机器学习中,我们通过线性回归得到的模型对其它的输入值预测出相对应的输出值。上述的模型我们称它为 假设,函数表达为