UA MATH571A 多元线性回归V 自相关与非线性模型简介
UA MATH571A 多元線性回歸V 自相關(guān)與非線性模型簡介
- 一階誤差自相關(guān)模型
- Durbin-Watson檢驗
- 一階自相關(guān)的消去
- Cochrane-Orcutt方法
- Hildreth-Lu方法
- 非線性回歸及其最小二乘估計
- 神經(jīng)網(wǎng)絡簡介
- Penalized Least Square
一階誤差自相關(guān)模型
時間序列數(shù)據(jù)誤差項可能存在自相關(guān),比較簡單的處理方法是假設誤差項服從一階自相關(guān)模型(First-order Auto-correlation Error Model)。假設Yt,t=1,2...,TY_t,t=1,2...,TYt?,t=1,2...,T表示被解釋變量的時間序列數(shù)據(jù),XtX_tXt?表示常數(shù)項以及p?1p-1p?1個被解釋變量的時間序列數(shù)據(jù)
Yt=Xtβ+?t?t=ρ?t?1+utY_t = X_t \beta + \epsilon_t \\ \epsilon_t = \rho \epsilon_{t-1} + u_t Yt?=Xt?β+?t??t?=ρ?t?1?+ut?
其中參數(shù)ρ\rhoρ需要滿足∣ρ∣<1|\rho|<1∣ρ∣<1以保證平穩(wěn)性,另外ut~N(0,σ2)u_t \sim N(0,\sigma^2)ut?~N(0,σ2),且Cov(ut,us)=0,t≠sCov(u_t,u_s)=0, t \ne sCov(ut?,us?)=0,t?=s。誤差項具有如下性質(zhì)
假設誤差項同分布,則
E(?t)=ρE(?t?1)+0?E(?t)=0,?tE(\epsilon_t) = \rho E(\epsilon_{t-1}) + 0 \Longleftrightarrow E(\epsilon_t)=0, \forall t E(?t?)=ρE(?t?1?)+0?E(?t?)=0,?t
Var(?t)=ρ2Var(?t?1)+σ2?Var(?t)=σ21?ρ2,?tVar(\epsilon_t) = \rho^2 Var(\epsilon_{t-1}) + \sigma^2 \Longleftrightarrow Var(\epsilon_t)=\frac{\sigma^2}{1-\rho^2}, \forall t Var(?t?)=ρ2Var(?t?1?)+σ2?Var(?t?)=1?ρ2σ2?,?t
根據(jù)誤差項的遞推關(guān)系
?t=ρ(ρ?t?2+ut?1)+ut=ρ2?t?2+(ut+ρut?1)=...=ρs?t?s+∑j=0s?1ρjut?j\epsilon_t = \rho(\rho\epsilon_{t-2}+u_{t-1})+u_{t} = \rho^2 \epsilon_{t-2} + (u_t+\rho u_{t-1}) \\ = ... = \rho^s \epsilon_{t-s} + \sum_{j=0}^{s-1} \rho^ju_{t-j} ?t?=ρ(ρ?t?2?+ut?1?)+ut?=ρ2?t?2?+(ut?+ρut?1?)=...=ρs?t?s?+j=0∑s?1?ρjut?j?
Cov(?t,?t?s)=ρsVar(?),Corr(?t,?t?s)=ρsCov(\epsilon_t,\epsilon_{t-s})=\rho^s Var(\epsilon), Corr(\epsilon_t,\epsilon_{t-s})=\rho^s Cov(?t?,?t?s?)=ρsVar(?),Corr(?t?,?t?s?)=ρs
Durbin-Watson檢驗
在使用一階誤差自相關(guān)模型之前,要先驗證誤差項的一階自相關(guān)關(guān)系是否顯著,Durbin-Watson檢驗(簡稱DW檢驗)可以達到這個目的。
H0:ρ=0Ha:ρ>0H_0: \rho = 0 \\ H_a: \rho > 0 H0?:ρ=0Ha?:ρ>0
首先擬合多元回歸模型并計算殘差et,t=1,2,...,Te_t,t=1,2,...,Tet?,t=1,2,...,T,然后計算DW統(tǒng)計量
DW=∑t=2T(et?et?1)2∑t=1Tet2DW = \frac{\sum_{t=2}^T (e_t - e_{t-1})^2}{\sum_{t=1}^T e_t^2} DW=∑t=1T?et2?∑t=2T?(et??et?1?)2?
這個統(tǒng)計量的精確分布難以獲得,但Durbin和Watson給出了它的上界dUd_UdU?和下界dLd_LdL?。若DW>dUDW>d_UDW>dU?,接受原假設;若DW<dLDW<d_LDW<dL?,接受備擇假設;其他情況無法下結(jié)論。
一階自相關(guān)的消去
一階誤差自相關(guān)模型可以看成是一個比較簡單的兩層模型,多元回歸是測量方程,誤差的一階自回歸是狀態(tài)方程。盡管如此,這個模型還是不夠直觀,因此在確定誤差項存在一階自回歸后可以采取一些變換使得變換后的模型是線性回歸。若誤差項存在一階自回歸,則被解釋變量也會存在一階自回歸。定義
Yt?=Yt?ρYt?1,Xt?=Xt?ρXt?1Y_t^{*} = Y_t - \rho Y_{t-1}, X_t^* = X_t - \rho X_{t-1} Yt??=Yt??ρYt?1?,Xt??=Xt??ρXt?1?
根據(jù)一階自相關(guān)誤差模型,
Yt?=Yt?ρYt?1=Xtβ+?t?ρ(Xt?1β+?t?1)=(Xt?ρXt?1)β+(?t?ρ?t?1)=Xt?β+utY_t^{*} = Y_t - \rho Y_{t-1} = X_t \beta + \epsilon_t - \rho(X_{t-1} \beta + \epsilon_{t-1} ) \\ = (X_t - \rho X_{t-1})\beta + (\epsilon_t-\rho \epsilon_{t-1}) = X_t^* \beta + u_t Yt??=Yt??ρYt?1?=Xt?β+?t??ρ(Xt?1?β+?t?1?)=(Xt??ρXt?1?)β+(?t??ρ?t?1?)=Xt??β+ut?
這樣就實現(xiàn)了將兩層的線性模型化為多元線性回歸。然而這個方法需要已知ρ\rhoρ,或者先給出ρ\rhoρ的估計量。以下給出三種具體的操作方法。
Cochrane-Orcutt方法
先直接擬合多元線性回歸Yt=Xtβ+?tY_t=X_t\beta + \epsilon_tYt?=Xt?β+?t?得到殘差ete_tet?,按估計相關(guān)性系數(shù)的方法估計rhorhorho,假設估計量為rrr
r=∑t=2Tetet?1∑t=2Tet?12r = \frac{\sum_{t= 2}^T e_t e_{t-1}}{\sum_{t=2}^T e_{t-1}^2} r=∑t=2T?et?12?∑t=2T?et?et?1??
用這個估計量對數(shù)據(jù)做變換,并估計回歸模型Yt?=Xt?β+utY_t^{*} = X_t^* \beta + u_tYt??=Xt??β+ut?。需要注意的是,還需要對這個回歸殘差做Durbin-Watson檢驗,如果這個變換后的回歸模型誤差項是否還有自相關(guān),如果還存在自相關(guān),就再做一個這個操作。
Hildreth-Lu方法
假設系數(shù)的估計量為β^\hat{\beta}β^?,則模型的SSE為
SSE=∑t=1T(Yt??Y^t?)2SSE = \sum_{t=1}^T (Y_t^{*} - \hat{Y}_t^{*})^2 SSE=t=1∑T?(Yt???Y^t??)2
Hildreth-Lu方法和之前說過的Box-Cox找λ\lambdaλ類似。因為SSE中數(shù)據(jù)的變換與系數(shù)估計量β^\hat{\beta}β^?都取決于ρ\rhoρ,因此可以使用一些搜尋算法找使得SSE最小的ρ\rhoρ的值作為其估計量。
非線性回歸及其最小二乘估計
假設回歸方程為
Yi=f(Xi,γ)+?iY_i = f(X_i,\gamma) + \epsilon_i Yi?=f(Xi?,γ)+?i?
其中γ\gammaγ是回歸系數(shù),如果fff關(guān)于γ\gammaγ是線性函數(shù),則模型是線性回歸;如果fff關(guān)于γ\gammaγ是非線性函數(shù),則模型是非線性回歸。系數(shù)γ\gammaγ的估計可以采用最小二乘法
min?γQ=∑i=1N(Yi?f(Xi,γ))\min_{\gamma} Q=\sum_{i=1}^N (Y_i - f(X_i,\gamma) ) γmin?Q=i=1∑N?(Yi??f(Xi?,γ))
求解這個最優(yōu)化可以得到系數(shù)的最小二乘估計量,能否找到解析解完全取決于fff的形式,但大多數(shù)時候都只能用數(shù)值方法求解。比較常用的是Gauss-Newton算法、最速下降法以及Marquardt算法等。
神經(jīng)網(wǎng)絡簡介
這里介紹一下兩層前饋神經(jīng)網(wǎng)絡(one-hidden-layer,feedforward NN)。Hi∈Rm,i=1,2,...,NH_i \in \mathbb{R}^m,i=1,2,...,NHi?∈Rm,i=1,2,...,N表示derived predictors,fff是非線性函數(shù),
Yi=f(Hiβ)+?iY_i = f(H_i \beta) + \epsilon_i Yi?=f(Hi?β)+?i?
其中HiH_iHi?由被解釋變量決定,定義Hi0=1H_{i0}=1Hi0?=1
Hij=gj(Xiαj),j=1,2,...,m?1H_{ij} = g_j(X_i\alpha_j), j = 1,2,...,m-1 Hij?=gj?(Xi?αj?),j=1,2,...,m?1
其中gjg_jgj?是激活函數(shù)。在這個模型中,假設激活函數(shù)為gj(z)=zg_j(z)=zgj?(z)=z,則模型退化為非線性回歸;若進一步假設fff是線性函數(shù),則模型退化為線性回歸。
Penalized Least Square
上述模型中的參數(shù)為β\betaβ與α\alphaα,共有m+(m?1)pm+(m-1)pm+(m?1)p個參數(shù)需要估計,相比多元線性回歸的p個而言算是相當多了。如果樣本數(shù)量無法保證N>>m+(m?1)pN>>m+(m-1)pN>>m+(m?1)p,就需要注意以下模型是否會過擬合(over fit)。通常處理方法是在最小二乘的基礎(chǔ)上加一個懲罰項(penalty):
min?β,αQ=∑i=1N[Yi?f(g(Xα)β)]2+pλ(α,β)\min_{\beta,\alpha} Q = \sum_{i=1}^N [Y_i-f(g(X\alpha)\beta)]^2 + p_{\lambda}(\alpha,\beta) β,αmin?Q=i=1∑N?[Yi??f(g(Xα)β)]2+pλ?(α,β)
pλ(α,β)=λ(∣∣β∣∣22+∣∣α∣∣22)p_{\lambda}(\alpha,\beta) = \lambda(||\beta||_2^2 + ||\alpha||_2^2) pλ?(α,β)=λ(∣∣β∣∣22?+∣∣α∣∣22?)
參數(shù)λ\lambdaλ的作用是在過擬合與欠擬合(under fit)之間作一個trade-off,如果λ\lambdaλ取得太小,懲罰項就沒什么意義,同樣可能過擬合;如果λ\lambdaλ取得太大,殘差項沒什么意義,相當于只是在一味地限制系數(shù)的大小而不去考慮擬合得好不好,這樣就會欠擬合。
總結(jié)
以上是生活随笔為你收集整理的UA MATH571A 多元线性回归V 自相关与非线性模型简介的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: UA MATH571A 多元线性回归IV
- 下一篇: UA Stat PhD Qualify