社会科学统计分析方法

Created by 杨志宏

Version: 0.11.3

基本概念

变量

随机变量(random variable) 是指由随机实验结果来决定其取值的变量。它具有两个关键属性:随机性和变异性。

抽样

总体与样本、参数值与统计值

概率分布:离散变量的概率分布类型有二点分布、二项分布、超几何分布、泊松分布等;连续变量的概率分布有均匀分布、指数分布、正态分布等。

期望值:期望值是一个平均数,不同于平均值的是,期望代表的是整个总体的平均数、一个未知的总体参数,因此,它只是一个理论值。

测量

变量测量层次:定类、定序、定距、定比;还可分为连续变量与离散变量。

相关性

所谓相关,是指一个变量的变化与另一个变量的变化有连带性。

如教育水平和人生志愿、性别和内容消费行为的偏好等等。

相关的强度与方向

大多数的统计方法是以 0 代表无相关,以 1 代表完全相关。不同测量层次有着不同的相关系数。

相关系数 关联程度
0.10 以下 微弱相关或无相关
[0.11-0.39] 低度相关
[0.40-0.69] 中度相关
[0.70-0.99] 高度相关
1 完全相关

相关还有方向的区分,如正相关表示一个变量增加时,另外一个变量也在增加。

相关与因果

相关的两个变量,不一定有因果关系,可能是共同变化。

在研究中,会假定某变量是因,称为自变量(independent variable),另一个变量为结果,称为因变量(dependent variable)。

因果关系的三个条件

保罗·拉扎斯菲尔德提出了两个变量存在因果关系的三个条件:

  1. 原因出现在结果之前;
  2. 变量之间存在相关关系;
  3. 两个变量之间的相关性不能被与这两个变量都相关的第三个或更多变量所解释。

还有学者提出如下条件:

  1. 存在事件的时间顺序,原因事件在结果事件之前。这称之为时间优先(temporal precedence)。
  2. 原因事件呈现时,结果事件发生。原因事件不呈现时,结果事件不发生。这称之为原因与结果的协变化(covariation of cause and effect)。
  3. 除了原因变量外,没有其他因素能够是观察到的结果的原因。这称之为排除备择解释(alternative explanations)。

统计方法的选择

选用哪种统计方法,要看资料的性质,尤其是测量层次。

还需要看研究问题的类型。不同类型的问题,解决的方法也不同。

基础统计分析

统计方法的分类

  1. 描述统计(Description Statistics)

    描述统计是帮助简化资料的方法。例如用平均数表示总体的特征(年龄、家庭规模等等)。

  2. 推论统计(Inferential Statistics)

    推论统计就是根据抽样得到的资料推论出总体的情况。

描述统计

描述统计按照变量的多少,可分为单变量的描述统计与双变量及多变量的描述统计。

单变量的描述统计

单变量的描述统计较为简单,只需注意测量层次即可。

多选题的统计

  1. 多选题在 SPSS 中,无法直接处理,需要先定义,才能进行描述统计。
  2. 选择分析菜单中的多重响应即可完成。
  3. 通常选择定义变量集中的二分法编码方式
  4. 分析结果最好在其他软件(如 Excel)中排序。

排序题的统计

  • 排序题与多选题处理类似,但稍微复杂一些。
  • 在编码时:没有被选择的选项,编码为 0,被排序的选项,编码为 1、2、3 等等。
  • 选择二分法编码,但是编码值不再只有 0 和 1 两个值。
  • 有几个排序,则新建几个多选题变量,而不是只有一个变量。

双变量的描述统计

双变量的描述统计,根据变量层次不同,有不同的分析方式。

定类与定类

两个定类变量的关系描述使用交互分类(cross classification)。

所谓交互分类,就是同时依据两个变量的值,将所研究的个案分类。

通常用列联表进行交互分类。

列联表的设置

通常我们将自变量放在列,因变量放在行。

为能相互比较,应使用百分比使其标准化。

以自变量作为计算百分率的方向。

定类与定类变量之间的相关系数

如果两个变量都属于定类测量层次,可用 Lambda 相关测量法,也可用古德曼和古鲁斯卡的 tau-y 相关测量法。

Lambda 相关测量法,其基本逻辑是计算以一个定类变量的值来预测另一个变量的值时,如果以众值作为预测的准则,可以减少多少误差。

Lambda 相关测量法有两种形式,一种是对称形式,简写λ系数。另外一种是不对称形式,简写λy系数。

tau-y 相关测量法是不对称相关测量法,系数值具有消除误差比例的意义。

tau-y 在计算时考虑全部的次数,故其敏感度高于 Lambda 相关测量法。

Lambda 与 tau-y 在 SPSS 中的实现过程

定序与定序

如果两个变量都属于定序测量层次,可用古德曼和古鲁斯卡的 Gamma 系数,也可用萨莫司的dy系数。

基本逻辑是根据任何两个个案在某变量上的等级来预测它们在另一个变量上的等级时,可以减少的误差是多少。

Gamma 系数是对称相关测量法,如果我们认为相关不对称,则最好采用适用于不对称关系的萨莫司dy系数。

Gamma 与dy系数的 SPSS 实现过程

定距与定距

如果两个变量都属于定距测量层次,可用线性回归分析法以自变量的数值预测因变量的值,用皮尔逊(Pearson)的积矩相关系数(简写为 r)来测量两个变量的相关程度和方向,还可用回归系数 b 表示。

r 系数与简单线性回归分析都是假定 X 与 Y 的关系具有直线的性质,因此,在使用这两种方法之前,最好通过散点图观察变量的分布状况。

如果观察到近似线性分布,则先计算 r 系数,如果 r 系数值相当大,就可用简单线性回归法来预测数值。如果 r 系数比较小,就不要用线性回归法做预测。

在 SPSS 中制作散点图

下载演示数据文件

r 积矩相关系数

r 系数假定两个变量的关系是对称的,即不区分自变量和因变量。其值在 [-1,1] 之间。r2称为决定系数(coefficient of determination)。r2具有消除误差的意义。

相对系数绝对值 决定系数 关联程度
r<0.4 r2<0.16 低度相关
0.4≤r≤0.7 0.16≤r2≤0.49 中度相关
r>0.7 r2>0.7 高度相关

r 系数的 SPSS 实现过程

下载演示数据文件

回归系数 b 的 SPSS 实现过程

简单线性回归方程式为Y = bX + a

b 值,也称为回归系数,表示自变量对因变量影响的大小和方向。它是一个分析不对称关系的统计方法。

a 表示截距。

上面的演示中,得出: =  − 0.83 + 5.33下载演示数据文件

定类与定距

定类与定距的相关性,可采用 eta 平方系数(E2),又叫相关比率(correlation ratio),进行描述, eta 平方系数是以一个定类变量的值来估计一个定距变量的均值。eta 平方系数具有消减误差比例的意义。

eta 平方系数的 SPSS 实现过程

下载演示数据文件

定类与定序

由于定序测量层次具有定类测量层次的特质,大部分社会研究都将定序变量作为定类变量看待,也就是采用 Lambda 或者 tau-y 系数测量定类与定序的关系。

定序与定距

大部分社会研究都将定序变量作为定类变量看待,也就是采用相关比率测量定序与定距的关系。

推论统计

对样本资料进行描述统计后,我们还要根据样本的研究结果来推测总体的情况。

以样本的数值来推算总体,结论可能正确,也可能错误,而运用概率论原理,我们可以求出推论统计犯错的可能性大小。

只要我们是采用随机抽样方法,就可以根据抽样分布,以样本的数值来推测总体的情况。

推论统计的分类

推论统计一般分为两大类:参数估计(parameter estimation)和假设检验(hypothesis testing)。

参数估计是根据随机样本的统计值来估计总体的参数值。

假设检验是先提出假设总体的情况,再以随机样本的统计值来检验这个假设是否正确。

社会研究大多数采用假设检验的推论统计分析方法。

假设检验基础知识

研究假设与虚无假设

否定域与显著度

单侧与双侧检验

两种误差

参数与非参数检验法

假设检验的步骤

研究假设与虚无假设

科学研究一般是先成立假设,即假设总体中存在某种情况,这个假设,称为研究假设(research hypothesis),简写为H1

例如:

H1:媒介评价正向影响媒介参与意向。

与研究假设相对立的假设,在统计学上称为虚无假设(null hypothesis),简写为H0

例如:

H0:媒介评价与媒介参与意向不相关。

虚无假设的检验

如果在样本中发现两个变量存在相关,固然存在总体的情况确实如此,但也可能是由于抽样误差或者偶然引起的。

假设检验的基本原则是直接检验H0,从而间接地检验H1,目的是排除抽样误差的可能性。

如果我们能证明H0对的可能性很小,那么就认为H1“可能”是对的。

否定域与显著度

否定域就是抽样分布中一端或两端的小区域,如果样本的统计值在此区域范围内,则否定虚无假设。显著度(level of significance)表示否定域在整个抽样分布中所占的比例。

p 值

在实际研究中,假设虚无假设正确时,利用观测数据得到与虚无假设相一致结果的概率成为 p 值(p-value)。

p 值并不是零假设正确的概率,而是指假如零假设正确的话,样本观测结果在抽样分布中可能发生的概率。

显著性水平α和 p 值的关系在于,显著性水平α是研究者假定的理论值,而 p 值是利用样本计算得出的实际值。

随着 p 值的减少,结论的可靠性越来越强,在社会科学研究中,通常把 p≤0.05 作为显著水平的标准。但实际上,“显著”与“不显著”之间是没有清楚的界限的。

单侧与双侧检验

否定域只在一端,称为单侧检验,如果否定域在两端的位置,称为双侧检验。

研究假设的方向决定选择单侧还是双侧。

H1:媒介评价正向影响媒介参与意向。

选择单侧检验。

H1:关注海外媒介和网络新闻对媒介参与意向有何影响? 选择双侧检验。

两种类型的错误

用样本的值推测总体,不管是否接受研究假设,都存在犯错的可能。

所谓第一类错误(type Ⅰ error),是指否定H0,但实际上H0是对的。第一类错误的可能性就是显著度。通常我们把犯这种错误的概率记为α。

第二类错误(type Ⅱ error),是指不否定H0,但实际上H0是错的。通常我们把犯这种错误的概率记为β。

第一类错误和第二类错误是相对立的,要消除两种误差的矛盾是不可能的。但增大样本量,可在一定程度上同时减少两者的可能性。

假设检验的两种方法

假设检验的方法可以分为两大类:参数检验法及非参数检验法。参数检验法原则上在假设检验时,犯第二类错误的可能性小于非参数检验法。

参数检验法要求总体具备某些条件,如正态分布或者标准差相等。

非参数检验法,不要求总体数值具备特殊的条件。但当样本量足够大时,非参数检验法的检验力也是很有保证的。

假设检验的步骤

  1. 确定研究假设和虚无假设;
  2. 选择适当的检验统计方法;
  3. 确定抽样分布;
  4. 决定显著度(在社会科学中,α一般取 0.05、0.01、0.001),根据研究假设选择单侧还是双侧;
  5. 计算出 p 值;
  6. 根据计算结果,作出决策(如果 p 值小于或等于α,则否定虚无假设;反之则不否定虚无假设)。

在研究报告中,需要汇报研究假设、显著度和单侧或双侧检验。

单变量推论统计

需要补充内容

双变量相关性的推论统计

在样本中发现的相关性,不能直接推论到总体中去,需要进行推论统计分析。

推论统计都是以抽样分布为基础,来检验虚无假设,进而知道研究假设的正确可能性。

常用的方法有卡方检验、Gamma 检验、F 检验、积矩相关 r 与回归系数 b 的检验。

χ2检验

如果两个变量都为定类变量,可用χ2检验来推论在总体中两者是否有关,卡方检验是非参数检验法的一种。

使用前提:①样本随机、②两个变量为定类。

之前介绍过,两个定类变量相关程度用 Lambda 和 tau-y 表示。还可以根据χ2的值来测量两个定类变量的相关性。

Phi 相关系数、列联相关系数以及克拉默的 V 相关系数是基于卡方值发展出来的相关系数,但这三个系数都没有消除误差比例的意义。

χ2检验的 SPSS 实现

下载演示数据

χ2 检验结果的解读

卡方检验表格中的数据显示,双侧渐进显著度大于 0.05,表明应该接受虚无假设,即不同商店的顾客满意度不存在统计显著性差异,处于同一水平。

Gamma 检验

如果两个变量都为定序变量,使用 Z 检验或 t 检验来推论总体中的 Gamma 是否等于 0。

使用前提:①样本随机,②两个变量为定序,③样本较大(最好大于 100)。

定序变量相关性检验的 SPSS 实现

下载演示数据文件

定序相关性检验结果的解读

检验结果表明,不同系数的渐进显著性都小于 0.05,我们可以得出结论,购买频率和总体满意度之间存在统计显著性关系。然而,各相关系数都小于 0.15,表明这两个变量之间的相关性非常弱。

平均数差异检验——t 检验

独立样本 t 检验适用于两个群体平均数的差异检验,其自变量为二分定类变量,因变量为定距变量。

使用前提:①样本随机,②有一个变量是定距变量,③自变量只有两个值,④两组群体间具有方差同质性。

H1:不同性别的运动员在社会支持方面是否存在显著差异?

独立样本 t 检验的 SPSS 实现

下载演示数据文件

独立样本 t 检验结果的解读

先看莱文方差等同性检验结果,如果该栏检验的显著性 p>0.05,则表明方差同质,看假定方差相等一行的内容,否则看不假定方差相等一行。根据这一规则,我们看到社会支持一行的显著性为 0.025,小于 0.05,因此拒绝虚无假设,接受研究假设,即不同性别的运动员社会支持方面存在统计显著性差异,从表中可以看出,男性运动员获得的社会支持高于女性运动员。

定类与定距变量之间的相关系数

独立样本 t 检验通过后,可以计算 Eta 的平方,反映出变量之间的关系强度。具体操作参见 eta 平方系数的 SPSS 实现过程。

单因素方差分析与 F 检验

分析一个定类变量和一个定距变量之间的关系,可以用相关比率。其推论检验常用单因方差分析(one-way analysis of variance)中的 F 检验,其目的是推算各组总体中的均值是否相等。

使用前提:①样本随机,②有一个变量是定距变量,③各组总体都是正态分布,④具有相等的方差。

方差分析的原理是将全部方差分解为两部分:消解方差和剩余方差,然后从相互比较中推论变量在总体中是否相关。

F 比率就是消解方差与剩余方差的对比,如果 F 值越大,两个变量相关的可能性也越大。

单因素方差分析的 SPSS 实现

下载演示数据文件

单因素方差分析结果解读流程

单因素方差分析流程图

ANOVA 表格解读

从计算结果可以看出,F 检验的显著性都小于 0.05,可以说,不同年龄的运动员在生活压力、社会支持、身心倦怠方面存在显著性差异。

但具体是在哪几对配对组上存在显著性差异,还需要根据事后比较方能得知,必须从多重比较摘要表中进行判断。

而多重比较摘要表的数据阅读,又要依据方差同质性检验结果。因此,应该再看方差同质性检验结果。

方差同质性检验结果

根据表格中的显著度,可以认为,该群体样本中的社会支持变量方差不具有同质性。

在实际操作中,当方差违反同质性假定时,我们选择 SPSS 提供的四种异质事后比较方法:塔姆黑尼 T2、邓尼特 T3、盖姆斯-豪厄尔、邓尼特 C。

如果方差同质,则选择假定等方差中的 LSD、scheffe、Tukey HSD 等事后比较方法。

多重比较结果

tips:查看平均差异列中的数值为整数且加注星号的组合即可,负数者可不理会。

社会支持变量的方差不同质,因此在看多重比较结果时,应该看塔姆黑尼 T2、邓尼特 T3、盖姆斯-豪厄尔、邓尼特 C 等行的结果。而不看方差同质的事后比较结果。从表中数据可以看出,社会支持变量在邓尼特 T3 法事后检验中没有体现出显著性差异,而在采用邓尼特 C 事后检验法中,“25 岁以下”年龄组的社会支持显著高于“31 岁以上”年龄组。

事后比较方法

常用的事后比较方法有:

  1. HSD(honestly significant difference) 最实在显著差异法
  2. N-K(Newman-Keul’s method)纽曼氏法
  3. S(Scheffe’s method) 薛氏法

S 法较 HSD 和 N-K 法严格,进行组别间的事后比较时,不容易达到显著水平。

积矩相关与回归系数的检验

积矩相关系数及回归系数的检验,在 SPSS 计算系数的结果中,就已经实现了。具体操作见简单线性回归分析的 SPSS 实现过程。

双变量相关性及其检验方法总结

两变量的测量层次 相关测量法 假设检验
定类-定类 λ,tau-y χ2
定类-定序
定序-定序 G,Dy Z 检验或 t 检验
定类-定距 Eta Eta2 F 检验或 t 检验
定序-定距
定距-定距 r、r2、b

高级统计分析

多变量统计分析

社会现象是复杂的,两个变量之间的关系往往受其他变量的影响。除了进行单变量和双变量的统计分析之外,还要进行多变量的分析。

多变量分析可依据研究目的分为三大类:①详析分析,②多因分析,③多项相互关系分析。

详析分析

详析分析所关心的是两个变量的关系,从而引进其他变量,加深了解这两个变量的相互关系。

多因分析

多因分析的目的是要了解多个自变量对某个因变量的共同影响和相对效应。

多项相互关系分析

多项相互关系分析的目的是简化众多变量之间的相互关系。

回归分析

回归是英国统计学家弗朗西斯·高尔顿在研究父代身高与子代身高之间的关系时提出来的。

回归分析既可以用于探索和检验自变量与因变量之间的因果关系,也可以给予自变量的取值来预测因变量的取值,还可以用于描述自变量与因变量之间的关系。

回归的特点就在于它把观测值分解成两部分——结构部分和随机部分。结构部分表示因变量与自变量之间的结构关系,表现为“预测值”,随机项部分表示观测项中未被结构项解释的剩余部分(被忽略的结构因素、测量误差和随机干扰)。

回归分析的相关概念

净相关与部分相关:

所谓净相关(或称为偏相关 partial correlation),是指在计算两个连续变量的相关时,将第三个变量与两个相关变量的相关予以排除之后的纯净相关。部分相关(part correlation)是指进处理第三个变量与两个变量中的某一个变量的相关所计算出来的相关系数。

残差:残差是指将 X 值带入回归方程所得到的数值与观察值之间的差值。表示利用回归方程无法准确预测的误差。

简单回归方程

通常采用最小二乘法(ordinary least squares)计算回归系数。

了解简单回归的原理是学习多元回归的基础。

多元线性回归分析

多元线性回归分析是多因分析的一种。回归分析中的自变量也称为预测变量或解释变量,而因变量又称为效标变量或反应变量。多元线性回归分析的目的在于找出一个自变量的回归方程式,以便说明一组预测变量与效标变量之间的关系。

研究问题案例:

H1:第三人效果强度与性别、学历、专业、节目收看量、认知卷入度、外部行为卷入度、心理相对理性度、短信投票、粉丝身份、节目质量评价之间的关系。

“心理相对理性度”对于“第三者效果强度”的影响最为显著。

多元回归的优势在于它能够提供在控制其它因素以后某一自变量对因变量的偏效应或净效应。

多元线性回归分析对自变量的要求

自变量应该为定距变量。

若自变量为定类变量最好不要纳入到回归分析中,除非此定类变量与效标变量关系甚为密切。

如果要将定类变量纳入预测变量,则先要将定类变量转化为虚拟变量(dummy variable)。

虚拟变量

如果自变量不是定距变量,在纳入回归分析模型前,应先转化为虚拟变量。

例如:家庭类型,1 代表完整家庭,2 代表单亲家庭,3 代表他人照顾家庭,4 代表隔代教养家庭。转化为如下 3 个虚拟变量:

id 家庭类型 fam1 fam2 fam3
1 1 1 0 0
2 2 0 1 0
3 3 0 0 1
4 4 0 0 0

上述参照组为水平 4(隔代教养家庭),虚拟变量 fam1 为“完整家庭组与隔代教养家庭组”的对比,其它两个类似。

SPSS 多元线性回归分析的不同方法

SPSS 提供 5 种选取变量的方法:强迫进入法(enter)、逐步(stepwise)、向前(forward)、向后(backward)、删除法(remove)。

强迫进入法将所有预测变量同时纳入模型中,用于解释所有自变量对因变量的整体预测力。

逐步多元回归,挑选只对因变量有显著预测力的自变量,其余未达到显著水平的自变量会被排除在回归模型之外。

多元线性回归分析的使用前提

  1. 正态性,效标变量在预测变量的各个水平上需为正态分布。
  2. 效标变量的各个观察值必须是独立的。
  3. 各预测变量之间没有多元共线性关系,即自变量之间没有高度相关(相关系数>0.70)。
  4. 预测变量与效标变量之间呈线性关系。
  5. 残差独立性假定。不同预测变量产生的残差之间的相关性为 0。
  6. 残差等分散性。

共线性诊断

共线性问题是影响多元回归分析的最重要因素之一。

统计软件一般提供容忍度(tolerance)或方差膨胀因素(variance inflation factor,VIF)来评估共线性的影响。

除了个别解释变量的共线性检验之外,整体回归模型的共线性诊断也可以通过特征值(eigenvalue)与条件指数(conditional index,CI)来判断。

CI 值低于 30,表示共线性问题缓和,30-100 之间,表示回归模型具有中至高度共线性,100 以上,则表示严重的共线性。

强迫进入变量法的 SPSS 实现

下载演示数据

强迫进入变量法输出结果的解读-相关性

相关性结果显示,7 个自变量与因变量之间存在显著性相关关系;但有自变量之间的相关系数大于 0.7,可能存在共线性问题。

如果两个自变量存在共线性问题,则可以选取一个比较重要的进入回归模型。

回归分析的假设检验

回归分析的假设检验包括两方面的内容:

  1. 模型整体检验,即检验根据样本数据建立的回归方程在总体中是否也有解释力;
  2. 回归系数检验,即检验该方程中自变量对因变量的影响在总体中是否存在。

强迫进入变量法输出结果的解读-模型解释力

R2的值为 0.58,表明回归模型中的所有自变量,可以解释因变量的 58%的变异量。

强迫进入变量法输出结果的解读——模型整体检验

方差分析的显著性检验 p 小于 0.05, 表明回归模型整体解释达到显著水平,至于是哪些回归系数达到显著,还需要看其他表。

强迫进入变量法输出结果的解读-回归系数检验

标准化回归模型为:组织效能=0.08 福利措施+0.21 同侪关系+0.21 适应学习+0.02 创新学习+0.18 知识获取+0.04 知识流通+0.15 知识创新

自变量是否有多元共线性问题,可有三个数据判别:容忍度小于 0.1、方差膨胀因素大于 10、条件指标大于 30。

表中的容忍度、方差膨胀因素表明,自变量多元共线性问题不是很明显。

强迫进入变量法输出结果的解读-CI

自变量是否有多元共线性问题,可有三个数据判别:容忍度小于 0.1、方差膨胀因素大于 10、条件指标大于 30。

表中条件指标中有三个变量大于 30,表明自变量有轻微共线性问题。

强迫进入变量法输出结果的解读–正态

图中形状表明,样本观察值大致符合正态性的假定。

强迫进入变量法输出结果的解读-整体

总体而言,分析结果表明,多元回归分析的前提条件基本满足,回归分析模型具有显著性,7 个自变量整体能解释 58%的变异量,模型具有一定的解释力,其中同侪关系、适应学习对组织效能有较高的解释力,未达到显著性的自变量(创新学习、知识流通)对组织效能的变异解释较小。

逐步多元回归分析

逐步多元回归分析是一种探索性的多元线性回归方法,此方法同时使用前进选取和后退删除方法,计算出最佳的多元回归分析模型。

逐步多元回归分析的操作及结果解释和强制进入分析法类似。

量表项目分析

项目分析基本理念

项目分析的主要目的在于检验编制的量表或测验个别题项的适合或可靠程度,项目分析的检验就是探究高低分受试者在每个题项的差异或进行题项间同质性检验,项目分析的结果可作为个别题项筛选或修改的依据。

测试分析指标


P = (PH + PL) ÷ 2

D = PH − PL

在试题分析时,将测验总得分前 25%-33%设为高分组,测验总得分后 25%-33%设为低分组。其中 P 为试题的总难度,PH 代表高分组在某个题项答对人数的百分比,PL 代表低分组在某个题项答对人数的百分比。

鉴别度表示的是高分答对组答对的比例与低分组答对百分比的差异值。

P 值越大,题目越容易,建议在 [0.2,0.8] 之间。D 值在 [-1,1] 之间,为负值时,表示不具鉴别度,为正值时,越大鉴别度越高,建议在 0.3 以上。

量表临界比值法

量表项目分析的判别指标中,最常用的临界比值法(critical ration),又称为极端值法。主要目的在于求出题项的决断值(或叫临界比)。决断值根据高分组与低分组在每个题项的平均数差异的显著性而定,其原理与独立样本 t 检验相同。

可使用独立样本 t 检验求得的 t 值作为决断值或临界比值,t 值越高,表示题项的鉴别度越高。

项目分析的主要操作步骤

  1. 确定题项的方向与分值。
  2. 计算所有受试者的总分。
  3. 通过总分排序,求出高低分组的临界点。
  4. 找出高低分组上下 27% 处的分数。
  5. 按照临界值将量表得分进行分组。
  6. 检验高低组在每个题项的差异。
  7. 将未达到显著性的题项删除。

27% 分组法适用于测试,在量表检验中,采用 25%-33% 的分组法均可,样本少,就用低比例。

如果题目数量充足,还可删除鉴别力比较低(t 值小于 3)的题项。

根据相关系数筛选题项

还可以采用同质性检验作为筛选的指标,如题项与总分的相关越高,表示题项与整体量表的同质性越高,所要测量的心理特质或潜在行为更为接近。

相关系数小于 0.4,或者相关系数未达到显著的题项,最好删除。

下载练习数据

同质性检测——信度检测

信度(reliability)代表量表的一致性或稳定性,信度系数也可以作为同质性检验指标之一。

在社会科学领域,采用最多的是克隆巴赫 α 系数(Cronbach α),该系数又称为内部一致性α系数。

如果题项删除后量表整体信度系数比原先的信度系数(内部一致性 α 系数)高出许多,则此题项与其他题项所要测量的属性或心理特质可能不相同,代表同质性不高,在项目分析时可考虑删除。

克隆巴赫 α 系数在 SPSS 中的实现

选择分析菜单中的刻度,再选择可靠性分析,统计量中选择删除项后的标度

下载练习数据

克隆巴赫 α 系数输出结果分析

一份理想的量表,其总量表的内部一致性 α 系数至少要在 0.8 以上。

修正的项目总相关系数,是每一个题项与其他题项加总后(不包含原题项)的相关系数,该系数小于 0.4,表示该题项与其余题项之间的同质性不高。

在采用内部一致性 α 系数作为判断指标时,必须注意不同维度的题项应分别处理。

同质性检测——共同性与因素负荷量

共同性表示题项能解释共同特质或属性的变异量。因素负荷量(factor loading)则表示题项与概念因素关系的程度。

在 SPSS 中计算量表题项的共同性与因素负荷量

执行分析菜单中降维模块,选自因子,再选择提取,将要提取的因子数,设置为 1,点击确定即可。

量表题项的共同性与因素负荷量结果解读

共同性萃取值,是个别题项与共同因素间多元相关系数的平方,相当于回归分析中的R2。共同值若低于 0.2,表示个别题项与共同因素之间的关系不密切,可考虑删除。

解释总变异表中,可看出只抽取的一个共同因素的特征值和可以解释量表变量的比例。

成分矩阵表中的第二列为因素负荷量,相当于回归分析中的回归权数。若题项的因素负荷量小于 0.45,可考虑删除题项。

项目分析时的一般判断指标总结

  1. 极端组比较法,使用决断值,一般要求决断值大于等于 3。
  2. 题项与总分的相关法,一般要求题项的总分的相关值,大于等于 0.4。
  3. 使用同质性检验的方法,一般要求题项删除后的 α 小于等于量表信度值;共同性大于等于 0.2,因素负荷量大于等于 0.45.

量表因素分析

效度的基本概念

所谓效度,是指能够测到该测验所欲测心理或行为特质到何种程度。研究的效度包括内在效度和外在效度。

内在效度是指研究叙述的正确性与真实性;外在效度则研究推论的正确性。

  1. 效度是指测验结果的正确性或可靠性,而非测验工具本身。
  2. 效度并非全有或全无,只是程度上有高低不同的差别。
  3. 一份高效度的测验工具,适用于特定的群体,施测于不同的受试者,可能会导致测验结果的不正确。
  4. 效度无法实际测量,只能从现有信息中做逻辑推论或做统计检验。

APA 从不同维度,将效度分为三类:

  1. 内容效度(content validity) 也叫作逻辑效度,指量表内容的适切度。
  2. 效标关联效度(criterion-related validity) 指测验与外在效标间关系的程度。
  3. 建构效度(construct validity)指能够测量出理论的特质或概念的程度,指实际的测验分数能解释多少某一心理(概念)特质。

此外,有学者建议还可采用专家效度。专家效度,指根据专家学者的意见,统计分析题项。

建构效度检验

由于建构效度有理论的逻辑分析为基础,同时又根据实际所得的数据来检验理论的正确性,因此是一种最严谨的效度检验方法,并且可以避免内容效度有逻辑分析,但无实证依据的问题。

建构效度检验的步骤:

  1. 建立假设性理论建构
  2. 编制量表
  3. 试调查
  4. 用统计方法对试调查数据进行分析

统计学上,检验建构效度的最常用方法就是因素分析。

因素分析的基本原理

因素分析可以抽取变量间的共同因素,以较少的构念代表原来较复杂的数据结构。它根据变量间彼此的相关,找出变量间潜在的关系结构,变量间简单的结构关系称为成分(components)或因素(factors)

因素分析的目的,即在因素结构的简单化,希望以最少的共同因素对总变异量作最大的解释,因而抽取的因素越少越好,但抽取因素的累积解释的变异量则越大越好。

因素分析的步骤

  1. 计算变量间相关矩阵或共变量矩阵
  2. 估计因素负荷量
  3. 决定转轴方法
  4. 决定因素并命名

计算变量间相关矩阵或共变量矩阵

如果一个变量与其他变量相关很低,在因素分析中,结合变量的共同性与因素负荷量,可考虑剔除此变量。

估计因素负荷量

决定因素负荷量的方法,有:

  1. 主成分分析法(principle components analysis)
  2. 主轴因素法(principle axis factoring)
  3. 一般化最小平方法
  4. 未加权最小平方法
  5. 极大似然法
  6. Alpha 因素抽取法
  7. 映象因素抽取法

最常用的为主成分分析法与主轴因素法。

主成分分析法

主成分分析法是以线性方程式将所有变量加以合并,计算所有变量共同解释的变异量,该线性组合称为主要成分。

第一次线性组合所解释的变异量最大,分离此变异量后剩余的变异量经第二个方程式的线性组合,可以抽离出第二个主成分。

以此类推,每一成分的解释变异量依次递减。

主成分分析适用于单纯简化变量成分,以及作为因素分析的先前预备历程。

主轴因素法

主轴因素法是一种利用反复计算以估计共同性及其解值的方法,此一方法前半段的估计与主成分法类似,然后再以指标间的相关系数矩阵并应用主成分估计法获取结果,之后,经综合判断所需萃取的共同因素个数,再根据相关数据估计各变量的共同性。

主轴因素法与主成分分析法不同的是,主轴因素法并没有就此结束,而是要再利用估计所得的结果进行下一回合估计,并不断反复估计,直到共同性收敛到一个数值为止。

决定转轴方法

常用的转轴方法,有:

  1. 最大变异法
  2. 四次方最大值法
  3. 相等最大值法
  4. 直接斜角转轴法
  5. 最优转轴法

其中,前三者属于直交转轴法(因素与因素间没有相关),后两者属于斜交转轴法(因素与因素之间彼此有某种程度的相关)。

转轴的主要目的是协助因素更具心理解释意义,亦即达成简单结构的原则。

转轴方法的选择

有学者(Nunnally、Bernstein)认为,当因素间的相关系数在 0.3 以上时,最好采用斜交转轴法,反之采用直交转轴法。也有学者建议在因素分析时,同时采用斜交转轴法和直交转轴法,并进行两者之间的比较。若因素数量和因素包含的变量内容差不多,则直接采用直交转轴法的结果,否则,采用斜交转轴法结果去解释。

因素分析的筛选原则

  1. Kaiser 的特征值大于 1 的方法
  2. 陡坡图检验法(scree plot test)
  3. 方差百分比决定法
  4. 事先决定准则法

因素分析在 SPSS 中的操作程序

  1. 选择分析菜单中的降维中的因子分析,
  2. 描述选项卡中,选择系数显著性水平再生决定因子反映像以及KMO 检验
  3. 提取选项卡中,选择合适的方法,在输出中,选择碎石图
  4. 旋转选项卡中,选择最大方差法直接斜交法,选择负荷图
  5. 得分选项卡中,选择保存为变量
  6. 选项选项卡中,选择按大小排序
  7. 点击确认,进行因素分析。

下载练习数据

因素分析结果的解读

相关性矩阵

该表为变量的相关性系数矩阵即显著水平,最下方的数据为相关矩阵的行列式值,数值为 0,则无法进行因素分析。

若一个变量与其他多数变量的相关系数均未达到显著,或相关系数均很低,则表示此变量与其他变量所欲测出的概念特征的同质性不高,可以考虑将此变量删除。

KMO 和巴特利特检验

KMO 值介于 0 和 1 之间,该值越大,表示变量间的共同因素越多,变量间的净相关系数越低,越适合进行因素分析。KMO 小于 0.5,则不适合进行因素分析。

球形检验的结果,若通过检验,则代表总体的相关矩阵间有共同因素存在,适合进行因素分析。

反映像矩阵

若以第 n 个题项为因变量,其余各题项为自变量进行多元回归分析,此第 n 个因变量能被自变量预测的部分称为Pn,不能被预测的部分称为EnPn为该变量的映像,En即为该变量的反映像。根据每个变量的反映像En,即可求出各变量的反映像矩阵。

反映像相关系数越小,表示变量间共同因素越多,变量越适合进行因素分析。

反映像相关矩阵的对角线数值代表每一个变量的取样适当性量数(Measure of Sampling Adequacy), MSA 类似于 KMO,越接近 1,表示越适合进行因素分析,一般而言,如果 MSA 值小于 0.5,表示该题项不适合进行因素分析。

公因子方差

与项目分析时的筛选标准一致,若共同性低于 0.2,可考虑删除题项

总方差解释

选择特征值大于 1 以上的,作为保留成分的标准。在决定成分题项的时候,还需要考虑碎石图、题项的数量(大于 3)、是否包含共同因素、是否存在实质性意义等等因素对因素进行命名。

合理的因素:题项最少三个;题项具有类似的潜在特质,且可以命名。

若萃取后保留的因素联合解释变异量能达到 60% 以上,表明萃取后保留的因素相当理想。如果萃取后的因素能联合解释所有变量 50% 以上的变异量,则萃取的因素也可以接受。

碎石图

碎石图可以帮助使用者决定因素的数目,判断标准是取坡线突然剧升的因素,删除坡线平坦的因素。

成分矩阵

矩阵中的数值为各题项在因素中的负荷量,该值越大,表示该题项变量与这个因素间的关联越大。

该表应和旋转后的成分矩阵一起解读。

因素分析的建议

  1. 应先进行探索性的分析,然后删除不适合因素分析的题项后,再进行正式的因素分析。
  2. 对社会科学的量表进行因素分析时,建议采用正交和斜交互相验证的方式。
  3. 因素的命名要有理论依据,或在理论依据的基础上进行发展。

常见问题

使用 SPSS 打开数据文件时出现乱码

出现该问题的原因是编码方式不同,只需要修改合适的编码方式即可。

  1. 打开一个空的 SPSS,注意是不能有数据的。
  2. 然后选择偏好设置》language》Character Encoding for Data and Syntax部分改为Locale's writing system, 下拉菜单中选择Chinese-***,应用设置。

或者修改为 Unicode

参考资料

专著

  1. 社会研究中的统计应用
  2. 调查研究中的统计分析法
  3. 社会统计学
  4. 回归分析
  5. 问卷统计分析实务——SPSS 操作与应用
  6. SPSS 统计分析实用教程
  7. 量化研究与统计分析——SPSS 数据分析范例解析

手册

  1. SPSS 软件帮助文件

THE END