采用OLS的回归分析方法存在几方面的限制:
(1)不允许有多个因变量或输出变量
(2)中间变量不能包含在与预测因子一样的单一模型中
(3)预测因子假设为没有测量误差
(4)预测因子间的多重共线性会妨碍结果解释
(5)结构方程模型不受这些方面的限制
SEM的优点:
(1)SEM程序同时提供总体模型检验和独立参数估计检验;
(2)回归系数,均值和方差同时被比较,即使多个组间交叉;
(3)验证性因子分析模型能净化误差,使得潜变量间的关联估计较少地被测量误差污染;
(4)拟合非标准模型的能力,包括灵活处理追踪数据,带自相关误差结构的数据库(时间序列分析),和带非正态分布变量和缺失数据的数据库。
构方程模型最为显著的两个特点是:
(1)评价多维的和相互关联的关系;
(2)能够发现这些关系中没有察觉到的概念关系,而且能够在评价的过程中解释测量误差。
1、最小二乘法的典型应用是求解一套x和y的成对数据对应的曲线(或者直线)方程。
其思想是:设y和x之间的关系可以用一个公式在表示,但其系数为待定系数。然后,将各个点的实测数据与计算求得的数据相减,得到“误差”或者不符值(有正有负,但其平方都是正的),将这些不符值的平方相加,得到总的“误差”。通过调整公式中的各个系数,使得误差平方和最小,那么就确定了y和x之间的方程的最好结果。求解最小二乘问题的过程中没有提及概率问题。
2、而极大似然估计值,是用于概率领域的一种方法,和最小二乘法是两个领域的。这种方法是应用求极大值的方法,让某一个公式求导值为0,再根据情况判断该极值是否是合乎要求。极大似然估计法可以用于正态分布中 μ, σ2的极大似然估计。极大似然估计法就是要选取类似的数值作为参数的估计值,使所选取的样本在被选的总体中出现的可能性为最大。
计算SEM自由度有两种方法:1、 一种是计算数据中observed variables indicators (变量)
之间的相关系数(correlations)的个数,一般用k来表示变量的个数,其相关系数的个数则为 k X
(k–1) / 2。如你的例子中有12个变量,它们之间的相关系数应该有12 X 11 / 2 = 66。
2、另一种是计算数据所有变量之间的variance-covariance (方差-协方差) 的个数,公式为 k X (k + 1) / 2。在本例中,共有
12 X 13 /2 = 78。
3、“模型所需的信息”也有两种对应的算法。与相关系数对应的算法是模型中所需估计的parameters
(参数),包括factor loadings (因子负荷,即λ,本例中有12个)、coefficients of exogenous factors
(自变量因子对因变量因子的影响系数,即γ,本例中有2个)、 coefficients of endogenous factors
(因变量因子对因变量因子的影响系数,即в,本例中有1个),三者相加共有 12 + 2 + 1 = 15个参数需要被估计。
如果按方差-协方差计算的话,那么需要被估计的参数,除了以上的λ、γ和в以外,还需要加上每个errors
of indicators(变量的残差,即δ和ε,本例中有12个),四者相加为 12 + 2 + 1 + 12 = 27。
区别在于广义化线性模型中的联系函数的形式。logit 采用对数形式。应用上,普通logit的响应变量是二元的。 logit的响应变量可以是多元的。统计软件 spss中: logit属于对数线性模型,分析结果主要为因变量和自变量之间的关系,可以细化到各分类因变量与分类自变量之间。sem属于回归分析,分析结果为估计出自变量参数。
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)