贝叶斯sem间接效应怎么看

贝叶斯sem间接效应怎么看,第1张

贝叶斯sem间接效应看法

模型是一个简单中介模型,假设是A对B有显著正向影响,做完路径分析之后,直接效应不显著,间接效应和总效应显著,那在报告结果的时候,是说直接效应不显著,所以假设不成立...

如图,我的模型是一个简单中介模型,假设是A对B有显著正向影响,做完路径分析之后,直接效应不显著,间接效应和总效应显著,那在报告结果的时候,是说直接效应不显著,所以假设不成立,还是说总效应显著,假设成立?

Amos有这个功能的,一般采用Bootstrap来处理。如果涉及多重中介,则需要使用贝叶斯语法自定义公式。

BN学习的目的就是要找到一个最能真实反映当前研究问题中现有的各研究对象之间相互依赖关系的BN模型,BN学习可以分为以下两个阶段:①结构学习(Structure Learn-ing),即网络拓扑结构的学习。②参数学习(Parameter Learning),即网络中每个节点变量的局部先验条件概率分布的学习。

比较简单的BN学习方法是先依据专家知识确定BN的拓扑结构,然后通过给定的样本数据学习BN的概率分布(参数)。比较复杂的BN学习方法是BN的拓扑结构和概率分布都是通过给定样本数据学习得出,这也是现在的研究热点。结构学习和参数学习是相互联系的,一方面BN的结构是由联合概率分布函数来直接决定另一方面,节点的条件概率依赖于BN的拓扑结构。

2.2.1 贝叶斯网络结构学习

BN结构学习就是利用训练样本数据,寻找对数据和先验知识拟合的最好的网络拓扑结构。学习分为完备数据结构学习和不完备数据结构学习两种情况。目前,具有完备数据的 BN 结构学习方法比较成熟,而从不完备数据中学习 BN 结构比较困难,现有算法仍存在缺陷。

2. 2. 1. 1 具有完备数据的贝叶斯网络结构学习

当训练样本完备时,常用的 BN 结构学习算法可以分为两种: 基于搜索记分的方法和基于统计测试的方法。

( 1) 基于搜索评分的结构学习算法。基于搜索评分的结构学习算法将结构学习视为搜索最佳网络问题。其核心思想是: 首先添加任一条边,然后使用搜索方法添加新的边,最后利用评分函数评分,测试新旧网络分值的大小。学习的目的就是找到评分最大的结构。这是个连续进行的过程,直到老模型的分数不再比新模型的分数低为止。评分方法有很多,如基于熵的评分、最小描述长度( LMS) 的评分以及贝叶斯评分。这类算法有一个共同点: 为每个候选的 BN 定义一种评价网络结构与样本集吻合程度的测度,然后,通过遗传和进化算法、模拟退火法或者爬山算法搜索具有最佳测度的拓扑网络结构。

( 2) 基于统计测试的结构学习算法。该学习算法的核心思想是: 首先进行训练样本统计测试,尤其是测试条件独立性然后,利用节点集间的条件独立性构造 DAG( 有向无环图) ,以尽可能地囊括这些条件独立性,它将独立的概念从构造结构中分离出来。

具有代表性的统计测试的结构学习算法有: ①Spirtes 等( 1993) 提出 SGS 算法,是一个典型的用条件独立性测试确定拓扑结构的算法,该算法从无向完全图出发,如果相邻结点间存在无向分隔割集,则删除它们的边,然后通过统计测试来确定剩余边的方向。②Acid 等( 1999) 提出了有向图构造算法 EP,证明有向图模型无论是否为单连接结构都对分类问题的影响效果不大。③Cheng Jie 等( 2002) 年将统计测试与信息论结合,通过相互信息量的计算来确定节点间的条件独立性,用相互信息量代替条件独立测试,从而构造多连接有向图模型。

2. 2. 1. 2 缺失数据情况下的贝叶斯网络结构学习

在数据不完整的情况下,BN 结构学习会比较困难,现有的研究算法主要是基于打分的结构学习。数据不完备会导致出现以下两方面问题: ①一些充分统计因子不存在,导致无法直接进行结构打分②打分函数不再具有可分解形式,因此不能进行局部搜索。围绕这两方面问题相继出现了一些解决的方法,如 Friedman( 1997) 借鉴参数学习的选择 - 期望最大算法,提出模型的 EM 结构学习方法Sebastian 等( 1997) 将 BC 算法应用于结构学习Fried-man( 1998) 引入一种使用贝叶斯打分方法学习概率模型的新方法,贝叶斯结构期望最大算法,简称为 Bayesian - SEM 算法。

2. 2. 2 贝叶斯网络参数学习

BN 参数学习的目标是: 给定训练样本和网络拓扑结构,利用先验知识,确定 BN 模型各个节点处的条件概率。参数学习同样可以分为完备数据和不完备数据两种情况。数据完备时的参数学习算法包括由 Fayyad( 1990) 提出的贝叶斯估计方法和 Spiegelhalter( 1996) 提出的最大似然估计 ( MLE) 方法从不完备的数据中学习概率参数的算法主要有 Gibbs 样本法( Heckerman,1995) 和期望-最大 ( EM) 算法( Spiegelhalter,1990Mallet,1991Lauritzen,1991等) 。

2. 2. 3 贝叶斯网络推理

概率推理是 BN 应用的主要目的之一。BN 推理是根据某些已知给定值的节点,估计未知节点的值。即在给定一个 BN 模型的情况下,依据已知条件,利用贝叶斯概率中条件概率的计算方法,计算出所感兴趣的目标节点发生的概率。在 BN 推理中主要包括以下 3 种推理方式:

( 1) 因果推理: 也称自上向下的推理,目的是由原因推出结论。已知证据 ( 原因) ,根据BN 的推理计算,求出在该证据 ( 原因) 发生的情况下结果发生的概率。

( 2) 诊断推理: 也称自下向上的推理,目的是由结论推出原因。是在已知结果情况下,根据 BN 推理计算,得到导致该结果发生的原因即其发生的概率。该推理常用在故障诊断、病理诊断中,目的是找到故障发生、疾病发生的原因。

( 3) 支持推理: 目的是对原因之间的相互影响进行分析,提供用以支持所发生现象的解释。

BN 推理算法大体可以分为精确推理算法和近似推理算法两大类。理论上,所有类型的 BN 都可以用精确推理算法进行概率推理,但实际上 BN 精确推理是一个 NP-hard 问题( Cooper,1990) ,尤其当模型结构较复杂、包含大量的变量时,精确推理就变得尤为困难。而近似推理相比精确推理来说,是解决复杂网络模型的一个较好办法,它可以大大简化计算和推理过程。因此,现阶段 BN 研究中许多情况下都采用近似算法。


欢迎分享,转载请注明来源:夏雨云

原文地址:https://www.xiayuyun.com/zonghe/209236.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-04
下一篇2023-04-04

发表评论

登录后才能评论

评论列表(0条)

    保存