如果存在多重共线性还能用Sem吗

如果存在多重共线性还能用Sem吗,第1张

能。

首先SEM更加灵活,更加综合。传统方法的模型是提前规定的或者说是默认的,而做结构方程的时候,它对变量关系的限制几乎没有,需要你自己根据理论知识设定变量之间的关系。SEM既包含显变量又有潜变量,而传统的方法之分析显变量。在SEM中我们认为误差是存在的,你甚至可以规定不同变量之间误差的关系,但是传统的方法认为误差是没有的。传统方法能够输出变量间关系的直接的显著性检验结果,而SEM没有这样的结果,我们得用拟合指标来评价模型。结构方程模型可以很好地容忍多重共线性。

    结构方程模型(SEM)包括连续潜变量之间的回归模型(Bollen, 1989Browne &Arminger, 1995Joreskog &Sorbom, 1979)。也就是说,这些潜变量是连续的。这里需要注意的是:1. 潜变量(latent variables)是与观察变量(Observed variables)相对的,可通过数据分析观察;2. 观察变量可以是连续的(continuous)、删失的(censored)、二进制的(binary)、有序的(ordinal)、无序的(nominal)、计数的(counts),或者是这些类别的组合形式。

    SEM有两个部分:一个测量模型(measurement model)和一个结构模型(structural model)。

     测量模型 相当于一个多元回归模型(multivariate regression model),用于描述一组可观察的因变量和一组连续潜变量之间的关系。在此,这一组可观察的因变量被称为因子指标(factor indicators),这一组连续潜变量被称为因子(factors)。

    如何描述它们之间的关系?可以通过以下方式:

1. 若因子指标是连续的,用线性回归方程(linear regression equations);

2. 若因子指标是删失的,用删失回归或膨胀删失回归方程(censored normal or censored-inflated normal regression equations);

3. 若因子指标是有序的类别变量,用profit或logistic回归方程(probit or logistic regression equations);

4. 若因子指标是无序的类别变量,用多元logistic回归方程(multinomial logistic regression equations);

5. 若因子指标是计数的,用Poisson或零膨胀Poisson回归方程(Poisson or zero-inflated Poisson regression equations)。

     结构模型 则在一个多元回归方程中描述了三种变量关系:

1. 因子之间的关系;

2. 观察变量之间的关系;

3. 因子和不作为因子指标的观察变量之间的关系。

    同样,这些变量有不同的种类,所以要根据它们的类别来选择合适的方程进行分析:

1. 若因子为因变量,及可观察的因变量是连续的,用线性回归方程(linear regression equations);

2. 若可观察的因变量是删失的,用删失回归或膨胀删失回归方程(censored normal or censored-inflated normal regression equations);

3. 若可观察的因变量是二进制的或者是有序的类别变量,用profit或logistic回归方程(probit or logistic regression equations);

4. 若可观察的因变量是无序的类别变量,用多元logistic回归方程(multinomial logistic regression equations);

5. 若可观察的因变量是计数的,用Poisson或零膨胀Poisson回归方程(Poisson or zero-inflated Poisson regression equations)。

    在回归中,有序的类别变量可通过建立比例优势(proportional odds)模型进行说明;最大似然估计和加权最小二乘估计(maximum likelihood and weighted least squares estimators)都是可用的。

    以下特殊功能也可以通过SEM实现:

1. 单个或多组分析(Single or multiple group analysis);

2. 缺失值(Missing data);

3. 复杂的调查数据(Complex survey data);

4. 使用最大似然估计分析潜变量的交互和非线性因子(Latent variable interactions and non-linear factor analysis using maximum likelihood);

5. 随机斜率(Random slopes);

6. 限制线性和非线性参数(Linear and non-linear parameter constraints);

7. 包括特定路径的间接作用(Indirect effects including specific paths);

8. 对所有输出结果的类型进行最大似然估计(Maximum likelihood estimation for all outcome types);

9. bootstrap标准误差和置信区间(Bootstrap standard errors and confidence intervals);

10. 相等参数的Wald卡方检验(Wald chi-square test of parameter equalities)。

    以上功能也适用于CFA和MIMIC。

其实应该说是最大似然法和最小二乘法的区别吧。

采用OLS的回归分析方法存在几方面的限制:

(1)不允许有多个因变量或输出变量

(2)中间变量不能包含在与预测因子一样的单一模型中

(3)预测因子假设为没有测量误差

(4)预测因子间的多重共线性会妨碍结果解释

(5)结构方程模型不受这些方面的限制

SEM的优点:

(1)SEM程序同时提供总体模型检验和独立参数估计检验;

(2)回归系数,均值和方差同时被比较,即使多个组间交叉;

(3)验证性因子分析模型能净化误差,使得潜变量间的关联估计较少地被测量误差污染;

(4)拟合非标准模型的能力,包括灵活处理追踪数据,带自相关误差结构的数据库(时间序列分析),和带非正态分布变量和缺失数据的数据库。

构方程模型最为显著的两个特点是:

(1)评价多维的和相互关联的关系;

(2)能够发现这些关系中没有察觉到的概念关系,而且能够在评价的过程中解释测量误差。

1、最小二乘法的典型应用是求解一套x和y的成对数据对应的曲线(或者直线)方程。

其思想是:设y和x之间的关系可以用一个公式在表示,但其系数为待定系数。然后,将各个点的实测数据与计算求得的数据相减,得到“误差”或者不符值(有正有负,但其平方都是正的),将这些不符值的平方相加,得到总的“误差”。通过调整公式中的各个系数,使得误差平方和最小,那么就确定了y和x之间的方程的最好结果。求解最小二乘问题的过程中没有提及概率问题。

2、而极大似然估计值,是用于概率领域的一种方法,和最小二乘法是两个领域的。这种方法是应用求极大值的方法,让某一个公式求导值为0,再根据情况判断该极值是否是合乎要求。极大似然估计法可以用于正态分布中 μ, σ2的极大似然估计。极大似然估计法就是要选取类似的数值作为参数的估计值,使所选取的样本在被选的总体中出现的可能性为最大。


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/468011.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-06-05
下一篇2023-06-05

发表评论

登录后才能评论

评论列表(0条)

    保存