SEM简单介绍,以下资料来源
因果关系:SEM一般用于建立因果关系模型,但是本身却并不能阐明模型的因果关系。
一般应用于:测量错误、错漏的数据、中介模型(mediation model)、差异分析。
历史:SEM 包括了 回归分析,路径分析(wright, 1921),验证性因子分析(confirmatory factor analysis)(Joreskog, 1969).
SEM也被称为 协方差结构模型(covariance structure modelling),协方差结构分析和因果模型。
因果关系:
究竟哪一个是“真的”? 在被假设的因果变量中其实有一个完整的因果链。
举一个简单的例子: 吃糖果导致蛀牙。这里涉及2个变量,“吃糖果”和“蛀牙”,前者是因,后者是果。 如果上一个因果关系成立,那将会形成一个因果机制,也许会出现这样的结构:
3. 这时还有可能出现更多的潜在变量:
这里我又举另外一个例子,回归模型
在这里,回归模型并不能很好的描述出因果次序,而且也不能轻易的识别因果次序或者未测量的因子。这也是为什么在国外学术界SEM如此流行的原因。
我们在举另外一个例子“路径分析”
路径分析能让我们用于条件模型(conditional relationships),上图中的模型是一种调解型模型或者中介模型,在这里Z 是作为一个中介调节者同时调节X和Y这两个变量的关系。
在这里我们总结一下:
回归分析简单的说就是:X真的影响Y 吗?
路径分析:为什么/如何 X 会影响Y? 是通过其他潜在变量Z 来达到的吗?例子:刷牙(X)减少蛀牙(Y)通过减少细菌的方法(Z)。------测量和测试中介变量(例如上图中的Z变量)可以帮助评估因果假设。
在这里要提一下因素模型(factor model)
在这个模型当中,各个变量有可能由于受到未被观察到的变量所影响,变得相互有内在的联系,一般来说那些变量都很复杂、混乱,而且很多变量是不能直接被观察到的。
举个例子:“保龄球俱乐部的会员卡”和“本地报纸阅读”,是被观察到的变量,而“社会资产”则是未被观察到的变量。另一个例子:“房屋立法”和“异族通婚”是被观察到的变量,而“种族偏见”是未被观察到的变量。
相互关系并不完全由被观察到的变量的因果关系所导致,而是由于那些潜在的变量而导致。
这些被观察到变量(y1--y4)也有可能由一个潜在的变量(F)所影响。
其实应该说是最大似然法和最小二乘法的区别吧。采用OLS的回归分析方法存在几方面的限制:
(1)不允许有多个因变量或输出变量
(2)中间变量不能包含在与预测因子一样的单一模型中
(3)预测因子假设为没有测量误差
(4)预测因子间的多重共线性会妨碍结果解释
(5)结构方程模型不受这些方面的限制
SEM的优点:
(1)SEM程序同时提供总体模型检验和独立参数估计检验;
(2)回归系数,均值和方差同时被比较,即使多个组间交叉;
(3)验证性因子分析模型能净化误差,使得潜变量间的关联估计较少地被测量误差污染;
(4)拟合非标准模型的能力,包括灵活处理追踪数据,带自相关误差结构的数据库(时间序列分析),和带非正态分布变量和缺失数据的数据库。
构方程模型最为显著的两个特点是:
(1)评价多维的和相互关联的关系;
(2)能够发现这些关系中没有察觉到的概念关系,而且能够在评价的过程中解释测量误差。
1、最小二乘法的典型应用是求解一套x和y的成对数据对应的曲线(或者直线)方程。
其思想是:设y和x之间的关系可以用一个公式在表示,但其系数为待定系数。然后,将各个点的实测数据与计算求得的数据相减,得到“误差”或者不符值(有正有负,但其平方都是正的),将这些不符值的平方相加,得到总的“误差”。通过调整公式中的各个系数,使得误差平方和最小,那么就确定了y和x之间的方程的最好结果。求解最小二乘问题的过程中没有提及概率问题。
2、而极大似然估计值,是用于概率领域的一种方法,和最小二乘法是两个领域的。这种方法是应用求极大值的方法,让某一个公式求导值为0,再根据情况判断该极值是否是合乎要求。极大似然估计法可以用于正态分布中 μ, σ2的极大似然估计。极大似然估计法就是要选取类似的数值作为参数的估计值,使所选取的样本在被选的总体中出现的可能性为最大。
R包lavaan可以做
https://www.codetd.com/article/916129
软件AMOS可以做
https://mp.weixin.qq.com/s?__biz=MjM5MTI5MDgxOA==&mid=2650098738&idx=1&sn=319fcc4198fbcd36fc30fd1329e27bf0&chksm=beb6289f89c1a189115d96bb0f9bc3114a752f9bf1fed4c9979b2e965322d8e38c60844316de&scene=21#wechat_redirect
https://mp.weixin.qq.com/s?__biz=MjM5MTI5MDgxOA==&mid=2650098759&idx=1&sn=0099b81e77a2f8b6324e88a5b49773ed&chksm=beb628ea89c1a1fcdb4c068466e6f099e0bd1af0909bbc538aca4247477978b4b52b3b9aa036&scene=21#wechat_redirect
https://www.jianshu.com/p/d698dc099dec
https://www.jianshu.com/p/e0938fb35c45
https://blog.csdn.net/yjj20007665/article/details/66967966
χ2 卡方拟合指数 检验选定的模型协方差矩阵与观察数据协方差矩阵相匹配的假设。原假设是模型协方差阵等于样本协方差阵。如果模型拟合的好,卡方值应该不显著。
RMR 是残差均方根。RMR 是样本方差和协方差减去对应估计的方差和协方差的平方和,再取平均值的平方根。RMR应该小于0.08,RMR越小,拟合越好。
RMSEA 是近似误差均方根 RMSEA应该小于0.06,越小越好。
GFI 是拟合优度指数,范围在0和1间,但理论上能产生没有意义的负数。按照约定,要接受模型,GFI 应该等于或大于0.90。
CFI 是比较拟合指数,其值位于0和1之间。CFI 接近1表示拟合非常好,其值大于0.90表示模型可接受,越接近1越好。
同时要求样本和指标之间有一个最低数量比例
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)