Consistency(一致性):

当样本无限增加时,估计值无限接近真实值。

对于  ϵ>0\forall\ \epsilon >0 ,以及 nn \to \infty,如果

P(θnθ<ϵ)1P(|\theta_n-\theta|<\epsilon)\to 1

那么估计θn\theta_n是总体参数θ\theta的一致估计,记为 plim θn=θplim\ \theta_n=\theta

定理5.1 OLS的一致性

在假定MLR.1MLR.1MLR.4MLR.4下,对所有j=0,1,...kj=0,1,...kOLSOLS估计量βj^\hat{\beta_j}都是βj\beta_j的一致估计,即 plim βj^=βjplim\ \hat{\beta_j}=\beta_j

对一元回归的证明:

y1=β0+β1xi1+uiy_1=\beta_0+\beta_1 x_{i1}+u_i代入β1^\hat{\beta_1},可以化简得:

β1^=i=1n(xi1xˉ1)yii=1n(xi1xˉ1)2=β1+n1i=1n(xi1xˉ1)uin1i=1n(xi1xˉ1)2\hat{\beta_1}=\frac{\sum_{i=1}^n(x_{i1}-\bar{x}_1)y_i}{\sum_{i=1}^n(x_{i1}-\bar{x}_1)^2}=\beta_1+\frac{n^{-1}\sum_{i=1}^n(x_{i1}-\bar{x}_1)u_i}{n^{-1}\sum_{i=1}^n(x_{i1}-\bar{x}_1)^2}

再依据大数定理

plim(n1i=1n(xi1xˉ1)2)=Var(x1)plim(n^{-1} \sum_{i=1}^n(x_{i1}-\bar{x}_1)^2)=Var(x_1)

plim(n1i=1n(xi1xˉ1)ui)=Cov(x1,u)=E(x1u)E(x1)E(u)=E(x1u)plim(n^{-1} \sum_{i=1}^n(x_{i1}-\bar{x}_1)u_i)=Cov(x_1,u)=E(x_1u)-E(x_1)E(u)=E(x_1u)

证明:

根据假设MLR.4MLR.4 :E(ux)=0E(u|x)=0,可得Cov(x1,u)=0Cov(x_1,u)=0,故:

plim β^1=β1+Cov(x1,u)Var(x1)=β1plim\ \hat\beta_1 =\beta_1+\frac{Cov(x_1,u)}{Var(x_1)} =\beta_1

Cov(x1,u)0Cov(x_1,u) \not =0时,就会产生不一致性InconsistencyInconsistency), 其偏误值wei

plim β^1β1=Cov(x1,u)Var(x1)plim\ \hat\beta_1 - \beta_1=\frac{Cov(x_1,u)}{Var(x_1)}

假定 MLR.4MLR.4'(零均值和零相关)

j=1,2...k\forall j=1,2...k,都有E(u)=0\pmb{E(u)=0}Cov(xj,u)=0\pmb{Cov(x_j,u)=0}

对比假定MLR.4MLR.4 : $\ E(u|x_1,…,x_n)=0 ,可以发现,可以发现MLR.4’$是一个更弱的假设,因为:

E(u)=0Cov(x1,u)=E(x1u)=EX1(E(x1ux1))=EX1(x1E(ux1))E(u)=0 \Longrightarrow Cov(x_1,u)=E(x_1u) =E_{X_1}(E(x_1u|x_1))=E_{X_1}(x_1E(u|x_1))

(这里运用了期望的迭代法则或者说重期望公式)

由上式,当E(ux1)=0E(u|x_1)=0,可以推出 Cov(x1,u)=0Cov(x_1,u)=0E(u)=0E(u)=0,反之不成立。故MLR.4MLR.4是一个更强的假设。

直观上理解:E(ux1)=0E(u|x_1)=0 以为着uux1x_1的任意形式都不相关,而Cov(x1,u)=0Cov(x_1,u)=0 仅仅以为这uux1x_1的一次形式不相关,故E(ux1)=0E(u|x_1)=0更严格。

遗漏变量的渐近性类似问题

当变量被遗漏时,自变量会被误放到误差项uu中,导致其余自变量出现相关性。

真实模型:

y=β0+β1x1+β2x2+vy=\beta_0 +\beta_1 x_1+\beta_2 x_2 +v

错误模型:

y=β0+β1x1+[β2x2+v]=β0+β1x1+uy =\beta_0 +\beta_1 x_1 +[\beta_2 x_2+v]=\beta_0 +\beta_1x_1+u

于是:

plim β1^=β1+Cov(x1,u)Var(x1)=β1+β2Cov(x1,x2)Var(x1)=β1+β2δplim\ \hat{\beta_1}=\beta_1 +\frac{Cov(x_1,u)}{Var(x_1)} =\beta_1 +\beta_2 \frac{Cov(x_1,x_2)}{Var(x_1)}=\beta_1 +\beta_2 \delta

渐近正态与大样本推断

定理5.2 (Asymptotic normality of OLSAsymptotic\ normality\ of\ OLSOLSOLS的渐近正态性

在假设MLR.1MLR.5MLR.1-MLR.5下:

β^jβjse(βj^)aN(0,1)β^jβjsd(βj^)aN(0,1)\frac{\hat\beta_j-\beta_j}{se(\hat{\beta_j})} \overset{a}{\sim} N(0,1) \\ \frac{\hat\beta_j-\beta_j}{sd(\hat{\beta_j})} \overset{a}{\sim} N(0,1)

plim σ^2=σ2plim\ \hat{\sigma}^2=\sigma^2

n(βj^βj)aN(0,σ2aj2)\sqrt{n}(\hat{\beta_j}-\beta_j) \overset{a}{\sim} N(0,\frac{\sigma^2}{a_j^2})

其中,aj2=plim(n1i=1nr^ij2)a_j^2=plim(n^{-1} \sum_{i=1}^n \hat{r}_{ij}^2)r^ij\hat{r}_{ij}xjx_j对其余自变量进行回归所得到的残差。

该定理表明,无论uu的总体分布如何,合理标准化之后的OLSOLS估计量都是近似于服从正态分布的。

在大样本下,OLSOLS估计量的方差估计值:

Var^(βj^)=σ^2SSTj(1Rj2)     ,j=1,2...k\hat{Var}(\hat{\beta_j})=\frac{\hat{\sigma}^2}{SST_j(1-R_j^2)} \ \ \ \ \ ,j=1,2...k

其中,SSTjSST_j依概率收敛于 nVar(xj)nVar(x_j)

σ^2\hat{\sigma}^2收敛于σ2\sigma^2 , 1Rj21-R_j^2 收敛于某一个固定值

所以当样本增加时,n Var^(βj^)n\ \hat{Var}(\hat{\beta_j}) 收敛于一个常数,或者说:

Var^(βj^)=常数n\hat{Var}(\hat{\beta_j})=\frac{常数}{n}

可以说 Var^(βj^)\hat{Var}(\hat{\beta_j})1/n1/n的速度收敛于0

se(βj^)=常数nse(\hat{\beta_j})=\frac{常数}{\sqrt{n}}

标准误以1/n\sqrt{1/n} 的速度收敛于0。

定理5.3 OLSOLS的渐近有效性

i=1ngj(xi)(yiβ~0β~1xi1...β~kxik)=0,j=0,1,...k\sum_{i=1}^n g_j(x_i)(y_i-\tilde{\beta}_0-\tilde{\beta}_1 x_{i1}-...-\tilde{\beta}_k x_{ik})=0,j=0,1,...k

在高斯-马尔科夫假定下,令βj~\tilde{\beta_j}表示从求解形如上式的方程所得到的估计量,而βj^\hat{\beta_j}表示OLSOLS估计量。那么,对j=0,1,2,...,kj=0,1,2,...,kOLSOLS估计量具有最小的渐近方差:

Avarn(βj^βj)Avarn(βj~βj)Avar\sqrt{n}(\hat{\beta_j}-\beta_j) \leq Avar \sqrt{n}(\tilde{\beta_j}-\beta_j)