线性回归与 logistic回归
線性回歸
算法方程:hθ(x)=∑i=0nθixi=θTxh_{\theta}(x)=\sum_{i=0}^{n} \theta_{i} x_{i}=\theta^{T} xhθ?(x)=∑i=0n?θi?xi?=θTx
損失函數(shù):J(θ0,θ1,…,θn)=12m∑i=1m(hθ(x(i))?y(i))2J\left(\theta_{0}, \theta_{1}, \ldots, \theta_{n}\right)=\frac{1}{2 m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)^{2}J(θ0?,θ1?,…,θn?)=2m1?∑i=1m?(hθ?(x(i))?y(i))2
將損失函數(shù)看做是關(guān)于θ\thetaθ的函數(shù)。
最小化損失函數(shù):凸函數(shù)可以找到全局最優(yōu)解,算法梯度下降。
θ0:=θ0?α1m∑i=1m(hθ(x(i))?y(i))x0(i)θ1:=θ1?α1m∑i=1m(hθ(x(i))?y(i))x1(i)θ2:=θ2?α1m∑i=1m(hθ(x(i))?y(i))x2(i)…\begin{array}{l}{\theta_{0}:=\theta_{0}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{0}^{(i)}} \\ {\theta_{1}:=\theta_{1}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{1}^{(i)}} \\ {\theta_{2}:=\theta_{2}-\alpha \frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{2}^{(i)}} \\ {\ldots}\end{array}θ0?:=θ0??αm1?∑i=1m?(hθ?(x(i))?y(i))x0(i)?θ1?:=θ1??αm1?∑i=1m?(hθ?(x(i))?y(i))x1(i)?θ2?:=θ2??αm1?∑i=1m?(hθ?(x(i))?y(i))x2(i)?…?
學(xué)習(xí)率:θ1:=θ1?αddθ1J(θ1)\theta_{1}:=\theta_{1}-\alpha \fracvt6mr5x{d \theta_{1}} J\left(\theta_{1}\right)θ1?:=θ1??αdθ1?d?J(θ1?)
與收斂速度相關(guān)
過擬合與欠擬合:我們的假設(shè)函數(shù)曲線對原始數(shù)據(jù)擬合得非常好,但喪失了一般推到性,以致于預(yù)測效果很差。
解決方法:正則化
作用:控制參數(shù)幅度;限制參數(shù)搜索空間
J(θ)=12m[∑i=1m(hθ(x(i))?y(i))2+λ∑j=1nθj2]J(\theta)=\frac{1}{2 m}\left[\sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)^{2}+\lambda \sum_{j=1}^{n} \theta_{j}^{2}\right]J(θ)=2m1?[∑i=1m?(hθ?(x(i))?y(i))2+λ∑j=1n?θj2?]
假設(shè)原始線程方式是hθ(x)=θ1x1+θ2x2+θ3x3+θ4x4h_{\theta}(x)=\theta_1x_1+\theta_2x_2+\theta_3x_3+\theta_4x_4hθ?(x)=θ1?x1?+θ2?x2?+θ3?x3?+θ4?x4?,在線訓(xùn)練過程中,根據(jù)訓(xùn)練集數(shù)據(jù)大小,每一個θ\thetaθ的都可能非常大,或者非常小,這條線抖動非常大。如果在損失函數(shù)中加入∑j=1nθj2\sum_{j=1}^{n} \theta_{j}^{2}∑j=1n?θj2?,因?yàn)閾p失函數(shù)要求最小值,所以每一個θ\thetaθ的值就不可能很大。
λ\lambdaλ是一個超參數(shù)。λ\lambdaλ太小,正則化項(xiàng)不起作用;λ\lambdaλ太大,學(xué)習(xí)到的參數(shù)主要由正則化項(xiàng)決定,與訓(xùn)練數(shù)據(jù)無關(guān),也是錯誤的。
通常使用L1、L2正則化。
logistic回歸
線性回歸在分類問題上使用,健壯性差,所以使用logistic回歸。
sigmoid函數(shù)值域在(0,1)之間,可以看做一個概率函數(shù)。
在線性回歸外面套一層sigmoid函數(shù)。
算法方程:hθ(x)=g(θ0+θ1x1+θ2x2)h_{\theta}(x)=g\left(\theta_{0}+\theta_{1} x_{1}+\theta_{2} x_{2}\right)hθ?(x)=g(θ0?+θ1?x1?+θ2?x2?)
hθ(x)=g(θ0+θ1x1+θ2x2+θ3x12+θ4x22)h_{\theta}(x)=g\left(\theta_{0}+\theta_{1} x_{1}+\theta_{2} x_{2}+\theta_{3} x_{1}^{2}+\theta_{4} x_{2}^{2}\right)hθ?(x)=g(θ0?+θ1?x1?+θ2?x2?+θ3?x12?+θ4?x22?)
損失函數(shù):cost?(hθ(x),y)={?log?(hθ(x))if?y=1?log?(1?hθ(x))if?y=0\operatorname{cost}\left(h_{\theta}(x), y\right)=\left\{\begin{aligned}-\log \left(h_{\theta}(x)\right) & \text { if } y=1 \\-\log \left(1-h_{\theta}(x)\right) & \text { if } y=0 \end{aligned}\right.cost(hθ?(x),y)={?log(hθ?(x))?log(1?hθ?(x))??if?y=1?if?y=0?
J(θ)=?1m[∑i=1my(i)log?hθ(x(i))+(1?y(i))log?(1?hθ(x(i)))]J(\theta)=-\frac{1}{m}\left[\sum_{i=1}^{m} y^{(i)} \log h_{\theta}\left(x^{(i)}\right)+\left(1-y^{(i)}\right) \log \left(1-h_{\theta}\left(x^{(i)}\right)\right)\right]J(θ)=?m1?[∑i=1m?y(i)loghθ?(x(i))+(1?y(i))log(1?hθ?(x(i)))]
梯度下降優(yōu)化公式:θj:=θj?α??θjJ(θ)\theta_{j}:=\theta_{j}-\alpha \frac{\partial}{\partial \theta_{j}} J(\theta)θj?:=θj??α?θj???J(θ)
加入正則化:J(θ)=[?1m∑i=1my(i)log?(hθ(x(i))+(1?y(i))log?1?hθ(x(i))]+λ2m∑j=1nθj2J(\theta)=\left[-\frac{1}{m} \sum_{i=1}^{m} y^{(i)} \log \left(h_{\theta}\left(x^{(i)}\right)+\left(1-y^{(i)}\right) \log 1-h_{\theta}\left(x^{(i)}\right)\right]+\frac{\lambda}{2 m} \sum_{j=1}^{n} \theta_{j}^{2}\right.J(θ)=[?m1?∑i=1m?y(i)log(hθ?(x(i))+(1?y(i))log1?hθ?(x(i))]+2mλ?∑j=1n?θj2?
總結(jié)
以上是生活随笔為你收集整理的线性回归与 logistic回归的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 关灯看视频(Turn Off the L
- 下一篇: F5 IIS Log获取客户端源IP