简单点总结就是:
1、排名倾向:自己使用出价系数,希望关键词达到自己期望的排名。
2、排名胜出:设置对手后使用出价系数,与对手竞争排名。风险与收益各半。
3、点击最大化:针对部分(新增或潜力)的关键词或整个账户关键词使用,尽可能获取更多优质点击。
你也可以选择第三方工具帮助优化工作, SEM方面九枝兰的系统做的就不错。
其实应该说是最大似然法和最小二乘法的区别吧。采用OLS的回归分析方法存在几方面的限制:
(1)不允许有多个因变量或输出变量
(2)中间变量不能包含在与预测因子一样的单一模型中
(3)预测因子假设为没有测量误差
(4)预测因子间的多重共线性会妨碍结果解释
(5)结构方程模型不受这些方面的限制
SEM的优点:
(1)SEM程序同时提供总体模型检验和独立参数估计检验;
(2)回归系数,均值和方差同时被比较,即使多个组间交叉;
(3)验证性因子分析模型能净化误差,使得潜变量间的关联估计较少地被测量误差污染;
(4)拟合非标准模型的能力,包括灵活处理追踪数据,带自相关误差结构的数据库(时间序列分析),和带非正态分布变量和缺失数据的数据库。
构方程模型最为显著的两个特点是:
(1)评价多维的和相互关联的关系;
(2)能够发现这些关系中没有察觉到的概念关系,而且能够在评价的过程中解释测量误差。
1、最小二乘法的典型应用是求解一套x和y的成对数据对应的曲线(或者直线)方程。
其思想是:设y和x之间的关系可以用一个公式在表示,但其系数为待定系数。然后,将各个点的实测数据与计算求得的数据相减,得到“误差”或者不符值(有正有负,但其平方都是正的),将这些不符值的平方相加,得到总的“误差”。通过调整公式中的各个系数,使得误差平方和最小,那么就确定了y和x之间的方程的最好结果。求解最小二乘问题的过程中没有提及概率问题。
2、而极大似然估计值,是用于概率领域的一种方法,和最小二乘法是两个领域的。这种方法是应用求极大值的方法,让某一个公式求导值为0,再根据情况判断该极值是否是合乎要求。极大似然估计法可以用于正态分布中 μ, σ2的极大似然估计。极大似然估计法就是要选取类似的数值作为参数的估计值,使所选取的样本在被选的总体中出现的可能性为最大。
最好是大于0.9,甚至于大于0.95,这些拟合指标的临界值都是通过大量的数据模拟得到的,也就是说如果达不到这些指标,模型很可能就是误设模型,不过我也有看到一篇数据模拟的论文里提到当样本量小于500的时候,srmr是最合适的指标,如果小于0.05,可以肯定模型正确,若大于0.08,可以肯定是误设的(适用于数据正态时,偏态时大于0.11认为模型误设),而其他的拟合指标表现不稳定,那这个时候主要参考srmr就可以,其他的指标过得去就行,如果样本量大于1000,NNFI,CFI,IFI这些指标比较合适,0.95以上可以认为模型正确,0.85以下可以断定模型错误(适用于数据偏态时,正态时0.95以下即认为误设)你自己根据自己的的数据情况看吧,对于你提到的指标,我相信90%的文献都说是0.9以上为标准的,这个经验值还是很可信的,如果你不是正在写论文,那完全可以接受这个结果,如果你一定想要结果好,那就要么好好处理处理数据,重新做一下结构方程的分析,要么就找到相关的文献支持,以表明你用0.9以下的指标数值是合理的
如果是论文答辩或者发论文,只是0.8过一些那很可能要被答辩老师或者审稿人质疑的,接近0.9应该还勉强可以
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)