其中g(z)被称为逻辑函数或者Sigmiod函数,其函数图形如下:
理解预测函数hθ(x)的意义:其实函数hθ(x)的值是系统认为样本值Y为1的概率大小,可表示为hθ(x)=P(y=1|x;θ)=1-P(y=0|x;θ).
决策边界(Decision boundary):y=0和y=1的分界线,由逻辑函数图形可知,当y=1时,g(z)>=0.5,z>=0,也就是说θTX>=0,这样我们就可以通过以xi为坐标轴,作出θTX=0这条直线,这条直线便是决策边界。如下图所示:代价函数(Cost Function)J(θ):一定要是一个凸函数(Convex Function),这样经过梯度下降方便找到全局最优 。根据以上两幅图我们可以看出,当预测值hθ(x)和实际值结果y相同时,代价值为0;当预测值hθ(x)和实际结果y不同时,代价值无穷大。组合在一起可以写为:向量化后可写为:
梯度下降算法:和线性回归中使用的一样向量化:高级优化方法(用来代替梯度下降选择参数θ):Conjugate gradient(共轭梯度法)、BFGS、L-BFGS,只需要掌握用法即可,不需了解原理。优点:不需要手动选择学习速率α,收敛速度比梯度下降快,更复杂。 %首先写一个函数用来计算代价函数和代价函数的梯度function [jVal, gradient] = costFunction(theta) jVal = [...code to compute J(theta)...]; gradient = [...code to compute derivative of J(theta)...]; end%然后在命令行中通过调用fminunc()函数来计算参数θoptions = optimset('GradObj', 'on', 'MaxIter', 100);initialTheta = zeros(2,1); [optTheta, functionVal, exitFlag] = fminunc(@costFunction, initialTheta, options);
多分类问题:可以转化为n+1个二分类问题看待,如下:通过这种形式,我们可以预测出结果最接近哪个y值。
Underfit:欠拟合问题具有高偏差;Overfit:过拟合问题具有高方差。
过拟合的定义:如果训练集中有过多的特征项,训练函数过于复杂,而训练数据又非常少。我们学到的算法可能会完美的适应训练集,也就是说代价会接近与0。但是却没有对新样本的泛化能力。
解决方法:手动的选择合适的特征;或者使用模型选择算法(用来选取特征变量)。
正规化(Regularization):正则化中我们将保留所有的特征变量,但是会减小特征变量的数量级(参数数值的大小θ(j)),相当于减少参数θ(j)所对应的多项式对整个预测函数的影响。以下内容以线性回归为例。正规化代价函数:其中λ过大会导致欠拟合。正规化梯度下降:θ0不需要
其中当参数Θ不为θ0时,梯度下降形式又可以改写为:
正规化正规方程:其中L为(n+1)*(n+1)维矩阵。
正规化逻辑回归:
代价函数:
梯度下降形式和线性回归相同。
正规化逻辑回归中高级的求解参数θ方法:无~~~~
转载于:https://www.cnblogs.com/LoganGo/p/8562575.html
相关资源:垃圾分类数据集及代码