发布网友 发布时间:2022-04-30 18:03
共2个回答
热心网友 时间:2022-06-28 19:25
1、Assumption MLR.1(linear in parameters):假设一要求所有的母集团参数为常数,用来保证模型为线性关系。
即如果母集团方程为y=a+b1x1+b2x2+...+bkxk+u,所有的a,b1,b2...bk必须为常数。同时u为无法检测的误差项,即实验过程中模型没有包含的因素。
2、Assumption MLR.2 (Random sampling)假设二: 假设我们有n个调查的样本,那么这n个样本必须是从母集团里面随机抽样得出的。以假设一的方程为例,{(xi1,xi2, xi3.....xik,yi): i=1,2,3...n}。
3、Assumption MLR.3 (No perfect collinearity)假设三:在样本(母集团)中, 没有独立变量(independent variable)是常数,并且独立变量之间不能有完全共线性。(根据矩阵方程的定义,方程会无解)。
4、Assumption MLR.4 (Zero conditional mean)假设四: 母集团方程的误差项的均值为 0,并且均值不受到独立变量的影响,可以表示为:E(U/ X1, X2...Xk)=0。
5.Assumption MLR.5 (Homoscedasticity): 假设五:同方差性, 误差项u的方差不受到独立变量的影响为一个固定不变的值,可以表示为: Var(u/X1,X2...Xk)=σ。
扩展资料
在统计学中,高斯-马尔可夫定理(Gauss-Markov Theorem)陈述的是:在线性回归模型中,如果误差满足零均值、同方差且互不相关,则回归系数的最佳线性无偏估计(BLUE,Best Linear unbiased estimator)就是普通最小二乘法估计。
这里最佳的意思是指相较于其他估计量有更小方差的估计量,同时把对估计量的寻找*在所有可能的线性无偏估计量中。
值得注意的是这里不需要假定误差满足独立同分布(iid)或正态分布,而仅需要满足零均值、不相关及同方差这三个稍弱的条件。
参考资料来源:百度百科-高斯马尔科夫定理
参考资料来源:百度百科-高斯—马尔可夫定理
热心网友 时间:2022-06-28 19:26
高斯—马尔科夫假定(Gauss-Markov Assumptions):一组假定(假定MLR.1至MLR.5或假定TS.1至TS.5),在这之下OLS是BLUE 。