1. 总离差平方和可分解为回归平方和与残差平方和。( 对 )
2. 整个多元回归模型在统计上是显著的意味着模型中任何一个单独的解释变量均是统计显著的。( 错 )
3. 多重共线性只有在多元线性回归中才可能发生。( 对 ) 4. 通过作解释变量对时间的散点图可大致判断是否存在自相关。( 错 )
5. 在计量回归中,如果估计量的方差有偏,则可推断模型应该存在异方差( 错 ) 6. 存在异方差时,可以用广义差分法来进行补救。( 错 )
7. 当经典假设不满足时,普通最小二乘估计一定不是最优线性无偏估计量。( 错 ) 8. 判定系数检验中,回归平方和占的比重越大,判定系数也越大。( 对 ) 9. 可以作残差对某个解释变量的散点图来大致判断是否存在自相关。( 错 )做残差的当期值与其滞后期的值的散点图来判断是否存在自相关 10. 遗漏变量会导致计量估计结果有偏。( 错 )只影响有效性 1. 正态分布是以均值为中心的对称分布。( √ )
2. 当经典假设满足时,普通最小二乘估计量具有最优线性无偏特征。( √ ) 5. 在对数线性模型中,解释变量的系数表示被解释变量对解释变量的弹性。( √ ) 6. 虚拟变量用来表示某些具有若干属性的变量。( √ ) 8. 存在异方差时,可以用加权最小二乘法来进行补救。( √ ) 10.戈雷瑟检验是用来检验异方差的( √ )
1、在经济计量分析中,模型参数一旦被估计出来,就可将估计模型直接运用于实际的计量经济分析。错,参数一经估计,建立了样本回归模型,还需要对模型进行检验,包括经济意义检验、统计检验、计量经济专门检验等。
2、假定个人服装支出同收入水平和性别有关,由于性别是具有两种属性(男、女)的定性因素,因此,用虚拟变量回归方法分析性别对服装支出的影响时,需要引入两个虚拟变量。错,是否引入两个虚拟变量,应取决于模型中是否有截距项。如果有截距项则引入一个虚拟变量;如果模型中无截距项,则可引入两个虚拟变量。
3、双变量模型中,对样本回归函数整体的显著性检验与斜率系数的显著性检验是一致的。正确,一元线性回归仅有一个解释变量,因此对斜率系数的T检验等价于对方程的整体性检验。
4、随机扰动项的方差与随机扰动项方差的无偏估计没有区别。错,随机扰动项的方差反映总体的波动情况,对一个特定的总体而言,是一个确定的值。在最小二乘估计中,由于总体方差在大多数情况下并不知道,所以用样本数据去估计?:?2
2
2
?2??ei2/(n?k)。其中
?是?线性无偏估计,为一个随机变量。 n为样本数,k为待估参数的个数。?5、经典线性回归模型(CLRM)中的干扰项不服从正态分布的,OLS估计量将有偏的。错,,
即使经典线性回归模型(CLRM)中的干扰项不服从正态分布的,OLS估计量仍然是无偏的。
?2)?E(?2?因为E(??K?)??ii22,该表达式成立与否与正态性无关。
1、在简单线性回归中可决系数R与斜率系数的t检验的没有关系。错误,在简单线性回归中,由于解释变量只有一个,当t检验显示解释变量的影响显著时,必然会有该回归模
型的可决系数大,拟合优度高。
2、异方差性、自相关性都是随机误差现象,但两者是有区别的。正确,异方差的出现总是与模型中某个解释变量的变化有关。自相关性是各回归模型的随机误差项之间具有相关关
系。3、通过虚拟变量将属性因素引入计量经济模型,引入虚拟变量的个数与模型有无截距项无关。错误,模型有截距项时,如果被考察的定性因素有m个相互排斥属性,则模型中引入m-1个虚拟变量,否则会陷入“虚拟变量陷阱”;模型无截距项时,若被考察的定性因素有m个相互排斥属性,可以引入m个虚拟变量,这时不会出现多重共线性。
4、满足阶条件的方程一定可以识别。错误,阶条件只是一个必要条件,即满足阶条件的的方程也可能是不可识别的。
5、库依克模型、自适应预期模型与局部调整模型的最终形式是不同的。错误,库依克模型、自适应预期模型与局部调整模型的最终形式是相同的,其最终形式都是一阶自回归模型。 2、多重共线性问题是随机扰动项违背古典假定引起的。错误,应该是解释变量之间高度相关引起的. 3、在模型
Yt??1??2X2t??3X3t?ut的回归分析结果报告中,有
,则表明解释变量
F?263489.23,F的p值?0.000000是显著的。错误,解释变量
X2t 对
Yt的影响
X2t和
X3t对
Yt的联合影响是显著的
4、结构型模型中的每一个方程都称为结构式方程,结构方程中,解释变量只可以是前定变量.错误,结构方程中,解释变量可以是前定变量,也可以是内生变量。
1.在实际中,一元回归没什么用,因为因变量的行为不可能仅由一个解释变量来解释。错,在实际中,一元回归是很多经济现象的近似,能够较好的反映回归的核心思想,是很有的。3、在异方差性的情况下,常用的OLS法必定高估了估计量的标准误。错,有可能高估也有可能低估。
5、设估计模型为???171.4412?0.9672PDIPCEttt?(?7.4809)R2?0.9940(119.8711)DW?0.5316错,
由于R2?0.9940,表明模型有很好的拟合优度,则模型不存在伪(虚假)回归。存在虚假回归可能,因为判定系数高于DW值。
(1) 随机误差项ui与残差项ei是一回事。(错)
(2) 总体回归函数给出了对应于每一个自变量的因变量的值。(错) (3) 线性回归模型意味着因变量是自变量的线性函数。(错)
(4) 在线性回归模型中,解释变量是原因,被解释变量是结果。(对) 1、 虚拟变量的取值只能取0或1 (对)
2、 通过引入虚拟变量,可以对模型的参数变化进行检验 (对)
1、简单线性回归模型与多元线性回归模型的基本假定是相同的。错
在多元线性回归模型里除了对随机误差项提出假定外,还对解释变量之间提 出无多重共线性的假定。
2、在模型中引入解释变量的多个滞后项容易产生多重共线性。对
在分布滞后模型里多引进解释变量的滞后项,由于变量的经济意义一样,只 是时间不一致,所以很容易引起多重共线性。
3、DW 检验中的DW值在 0 到 4 之间,数值越小说明模型随机误差项的自相关度越小,数值越大说明模型随机误差项的自相关度越大。错
DW 值在 0 到 4 之间, DW 落在最左边 0 < DW < d L )最右边( 4 ? d L < DW< 4 )时,分别为正自相关、负自相关;中间( dU < DW < 4 ? dU )为不存在自相关区域;其次为两个不能判定区域。
3、通过虚拟变量将属性因素引入计量经济模型,引入虚拟变量的个数与样
本容量大小有关。错,引入虚拟变量的个数样本容量大小无关,与变量属性,模型有无截距项有关。
5、如果联立方程模型中某个结构方程包含了所有的变量, 则这个方程不可识别。正确 没有唯一的统计形式
3、在异方差性的情况下,若采用 Eviews 软件中常用的 OLS 法,必定高估了 估计量的标准误。错,有可能高估也有可能低估。 4、拟合优度检验和 F 检验是没有区别的。错
5、联立方程组模型根本不能直接用 OLS 方法估计参数。错
递归方程可以用 OLS 方法估计参数,而其它的联立方程组模型不能直 接用 OLS 方法估计参数。
1、在对参数进行最小二乘估计之前,没有必要对模型提出古典假定。错误 在古典假定条件下,OLS 估计得到的参数估计量是该参数的最佳线性无 偏估计(具有线性、无偏性、有效性)。总之,提出古典假定是为了使所作 出的估计量具有较好的统计性质和方便地进行统计推断。 2、当异方差出现时,常用的 t 和 F 检验失效;正确
由于异方差类似于 t 比值的统计量所遵从的分布未知;即使遵从 t-分
布,由于方差不在具有最小性。这时往往会夸大 t-检验,使得 t 检验失效;
由于 F-分布为两个独立的 χ 2 变量之比,故依然存在类似于 t-分布中的问题。 3、解释变量与随机误差项相关,是产生多重共线性的主要原因。错误 产生多重共线性的主要原因是:经济本变量大多存在共同变化趋势;模 型中大量采用滞后变量;认识上的局限使得选择变量不当
5、由间接最小二乘法与两阶段最小二乘法得到的估计量都是无偏估计。错误 间接最小二乘法适用于恰好识别方程的估计,其估计量为无偏估计; 而两阶段最小二乘法不仅适用于恰好识别方程,也适用于过度识别方程。 两阶段最小二乘法得到的估计量为有偏、一致估计。
5、秩条件是充要条件,因此,单独利用秩条件就可以完成联立方程识别状 态的确定。
错误。虽然秩条件是充要条件,但其前提是,只有在通过了阶条件的条件 下。在对联立方程进行识别时,还应该结合阶条件判断是过度识别,还是恰 好识别。
1、半对数模型 Y = β 0 + β 1 ln X + μ 中,参数 β 1 的含义是 X 的绝对量变化,引起 Y 的绝对量变化。错误
半对数模型的参数 β1 的含义是当 X 的相对变化时,绝对量发生变化,引起因变量 Y 的平均值绝对量的变动。
2、对已经估计出参数的模型不需要进行检验。错误
有必要进行检验。我们所建立的模型,所用的方法,所用的统计数据,还可能违反计量经济的基本假定,这是也会导致错误的结论。
4、在有 M 个方程的完备联立方程组中,当识别的阶条件为 H ? N i(H 为联立方程组中
5
内生变量和前定变量的总数, i 为第 i 个方程中内生变量和前定变量的总数)N时,则表示第 i 个方程不可识别。错误 。 表示第 i 个方程过度识别 。
1.在研究经济变量之间的非确定性关系时,回归分析是唯一可用的分析方法。(X ) 2.最小二乘法进行参数估计的基本原理是使残差平方和最小。( Y)
3.无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。(Y ) 4.当我们说估计的回归系数在统计上是显著的,意思是说它显著地异于0。( Y )
5.总离差平方和(TSS)可分解为残差平方和(ESS)与回归平方和(RSS)之和,其中残差平方和(ESS)表示总离差平方和中可由样本回归直线解释的部分。(X ) 6.多元线性回归模型的F检验和t检验是一致的。(X )
7.当存在严重的多重共线性时,普通最小二乘估计往往会低估参数估计量的方差。( X) 8.如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差项的
自相关。( X )
9.在存在异方差的情况下,会对回归模型的正确建立和统计推断带来严重后果。(Y ) 10.DW(Y ) ..检验只能检验一阶自相关。1.残差(剩余)项ei的均值e=(?e)i( Y ) n=0。
2.所谓OLS估计量的无偏性,是指参数估计量的数学期望等于各自的真值。( Y )
3.样本可决系数高的回归方程一定比样本可决系数低的回归方程更能说明解释变量对被解释变量的解释能力。( X )
4.多元线性回归模型中解释变量个数为k,则对回归参数进行显著性检验的t统计量的自由度一定是n?k?1。( Y )
5.对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。( X ) 6.若回归模型存在异方差问题,可以使用加权最小二乘法进行修正。( Y ) 7.根据最小二乘估计,我们可以得到总体回归方程。(X )
8.当用于检验回归方程显著性的F统计量与检验单个系数显著性的t统计量结果矛盾
时,可以认为出现了严重的多重共线性( Y )
9.线性回归模型中的“线性”主要是指回归模型中的参数是线性的,而变量则不一定是线性的。( Y )
10.一般情况下,用线性回归模型进行预测时,单个值预测与均值预测相等,且置信区间也相同。(X )
(X )1、在研究经济变量之间的非确定性关系时,回归分析是惟一可用的分析方法。
( X )2、对应于自变量的每一个观察值,利用样本回归函数可以求出因变量的真实值。 ( Y )3、OLS回归方法的基本准则是使残差平方和最小。
( X )4、在存在异方差的情况下,OLS法总是高估了估计量的标准差。
( Y)5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。 ( Y )6、线性回归分析中的“线性”主要是指回归模型中的参数是线性的,而变量则
不一定是线性的。
(Y )7、当我们说估计的回归系数在统计上是显著的,意思是说它显著异于0。 ( X )8、总离差平方和(TSS)可分解为残差平方(ESS)和与回归平方和(RSS),
其中残差平方(ESS)表示总离差平方和可由样本回归直线解释的部分。
( X )9、所谓OLS估计量的无偏性,是指回归参数的估计值与真实值相等。
(X )10、当模型中解释变量均为确定性变量时,则可以用DW统计量来检验模型的随
机误差项所有形式的自相关性。
(X )1、一般情况下,在用线性回归模型进行预测时,个值预测与均值预测结果相等,且
它们的置信区间也相同。
(Y )2、对于模型Yi=β0+β1X1i+β2X2i+……+βkXki+μi,i=1,2, ……,n;如果X2=X5 +X6, 则模型必然存在解释变量的多重共线性问题。
( X )3、OLS回归方法的基本准则是使残差项之和最小。
( Y )4、在随机误差项存在正自相关的情况下,OLS法总是低估了估计量的标准差。 (Y )5、无论回归模型中包括多少个解释变量,总离差平方和的自由度总为(n-1)。 ( Y )6、一元线性回归模型的F检验和t检验是一致的。
( X )7、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误
差项的序列相关。
( Y )8、在近似多重共线性下,只要模型满足OLS的基本假定,则回归系数的最小二
乘估计量仍然是一BLUE估计量。
( X)9、所谓参数估计量的线性性,是指参数估计量是解释变量的线性组合。
22
( Y )10、拟合优度的测量指标是可决系数R或调整过的可决系数,R越大,说明回
归方程对样本的拟合程度越高。
(Y )1、最小二乘法进行参数估计的基本原理是使残差平方和最小。
(X )2、一般情况下,用线性回归模型进行预测时,个值预测与均值预测相等,且置信
区间也相同。
( X )3、如果随机误差项的方差随解释变量变化而变化,则线性回归模型存在随机误差
项的序列相关。
( Y )4、若回归模型存在异方差问题,应使用加权最小二乘法进行修正。 ( X )5、多元线性回归模型的F检验和t检验是一致的。 (Y )6、DW检验只能检验随机误差项是否存在一阶自相关。
( X )7、总离差平方和(TSS)可分解为残差平方(RSS)和与回归平方和(ESS),其中
残差平方(RSS)表示总离差平方和可由样本回归直线解释的部分。
(Y )8、拟合优度用于检验回归方程对样本数据的拟合程度,其测量指标是可决系数或
调整后的可决系数。 ( Y )9、对于模型Yi??0??1X1i?...??nXni?ui i?1,2,...,n;如果X2?X3?X1,则模型必然存在解释变量的多重共线性问题。
( Y )10、所谓OLS估计量的无偏性,是指参数估计量的数学期望等于各自真值。