BN学习的目的就是要找到一个最能真实反映当前研究问题中现有的各研究对象之间相互依赖关系的BN模型,BN学习可以分为以下两个阶段:①结构学习(Structure Learn-ing),即网络拓扑结构的学习。②参数学习(Parameter Learning),即网络中每个节点变量的局部先验条件概率分布的学习。
比较简单的BN学习方法是先依据专家知识确定BN的拓扑结构,然后通过给定的样本数据学习BN的概率分布(参数)。比较复杂的BN学习方法是BN的拓扑结构和概率分布都是通过给定样本数据学习得出,这也是现在的研究热点。结构学习和参数学习是相互联系的,一方面BN的结构是由联合概率分布函数来直接决定另一方面,节点的条件概率依赖于BN的拓扑结构。
2.2.1 贝叶斯网络结构学习
BN结构学习就是利用训练样本数据,寻找对数据和先验知识拟合的最好的网络拓扑结构。学习分为完备数据结构学习和不完备数据结构学习两种情况。目前,具有完备数据的 BN 结构学习方法比较成熟,而从不完备数据中学习 BN 结构比较困难,现有算法仍存在缺陷。
2. 2. 1. 1 具有完备数据的贝叶斯网络结构学习
当训练样本完备时,常用的 BN 结构学习算法可以分为两种: 基于搜索记分的方法和基于统计测试的方法。
( 1) 基于搜索评分的结构学习算法。基于搜索评分的结构学习算法将结构学习视为搜索最佳网络问题。其核心思想是: 首先添加任一条边,然后使用搜索方法添加新的边,最后利用评分函数评分,测试新旧网络分值的大小。学习的目的就是找到评分最大的结构。这是个连续进行的过程,直到老模型的分数不再比新模型的分数低为止。评分方法有很多,如基于熵的评分、最小描述长度( LMS) 的评分以及贝叶斯评分。这类算法有一个共同点: 为每个候选的 BN 定义一种评价网络结构与样本集吻合程度的测度,然后,通过遗传和进化算法、模拟退火法或者爬山算法搜索具有最佳测度的拓扑网络结构。
( 2) 基于统计测试的结构学习算法。该学习算法的核心思想是: 首先进行训练样本统计测试,尤其是测试条件独立性然后,利用节点集间的条件独立性构造 DAG( 有向无环图) ,以尽可能地囊括这些条件独立性,它将独立的概念从构造结构中分离出来。
具有代表性的统计测试的结构学习算法有: ①Spirtes 等( 1993) 提出 SGS 算法,是一个典型的用条件独立性测试确定拓扑结构的算法,该算法从无向完全图出发,如果相邻结点间存在无向分隔割集,则删除它们的边,然后通过统计测试来确定剩余边的方向。②Acid 等( 1999) 提出了有向图构造算法 EP,证明有向图模型无论是否为单连接结构都对分类问题的影响效果不大。③Cheng Jie 等( 2002) 年将统计测试与信息论结合,通过相互信息量的计算来确定节点间的条件独立性,用相互信息量代替条件独立测试,从而构造多连接有向图模型。
2. 2. 1. 2 缺失数据情况下的贝叶斯网络结构学习
在数据不完整的情况下,BN 结构学习会比较困难,现有的研究算法主要是基于打分的结构学习。数据不完备会导致出现以下两方面问题: ①一些充分统计因子不存在,导致无法直接进行结构打分②打分函数不再具有可分解形式,因此不能进行局部搜索。围绕这两方面问题相继出现了一些解决的方法,如 Friedman( 1997) 借鉴参数学习的选择 - 期望最大算法,提出模型的 EM 结构学习方法Sebastian 等( 1997) 将 BC 算法应用于结构学习Fried-man( 1998) 引入一种使用贝叶斯打分方法学习概率模型的新方法,贝叶斯结构期望最大算法,简称为 Bayesian - SEM 算法。
2. 2. 2 贝叶斯网络参数学习
BN 参数学习的目标是: 给定训练样本和网络拓扑结构,利用先验知识,确定 BN 模型各个节点处的条件概率。参数学习同样可以分为完备数据和不完备数据两种情况。数据完备时的参数学习算法包括由 Fayyad( 1990) 提出的贝叶斯估计方法和 Spiegelhalter( 1996) 提出的最大似然估计 ( MLE) 方法从不完备的数据中学习概率参数的算法主要有 Gibbs 样本法( Heckerman,1995) 和期望-最大 ( EM) 算法( Spiegelhalter,1990Mallet,1991Lauritzen,1991等) 。
2. 2. 3 贝叶斯网络推理
概率推理是 BN 应用的主要目的之一。BN 推理是根据某些已知给定值的节点,估计未知节点的值。即在给定一个 BN 模型的情况下,依据已知条件,利用贝叶斯概率中条件概率的计算方法,计算出所感兴趣的目标节点发生的概率。在 BN 推理中主要包括以下 3 种推理方式:
( 1) 因果推理: 也称自上向下的推理,目的是由原因推出结论。已知证据 ( 原因) ,根据BN 的推理计算,求出在该证据 ( 原因) 发生的情况下结果发生的概率。
( 2) 诊断推理: 也称自下向上的推理,目的是由结论推出原因。是在已知结果情况下,根据 BN 推理计算,得到导致该结果发生的原因即其发生的概率。该推理常用在故障诊断、病理诊断中,目的是找到故障发生、疾病发生的原因。
( 3) 支持推理: 目的是对原因之间的相互影响进行分析,提供用以支持所发生现象的解释。
BN 推理算法大体可以分为精确推理算法和近似推理算法两大类。理论上,所有类型的 BN 都可以用精确推理算法进行概率推理,但实际上 BN 精确推理是一个 NP-hard 问题( Cooper,1990) ,尤其当模型结构较复杂、包含大量的变量时,精确推理就变得尤为困难。而近似推理相比精确推理来说,是解决复杂网络模型的一个较好办法,它可以大大简化计算和推理过程。因此,现阶段 BN 研究中许多情况下都采用近似算法。
【AAAI-2019】【University College London/Noah's Ark Lab】 Top-N Recommendation with Counterfactual User Preference Simulation
文章旨在解决现有L2R场景下,训练样本系数且不平衡对推荐模型造成的影响。作者把推荐形式化为因果推断问题,并从观测数据中学习SEM,基于此从反事实的角度模拟用户的反馈。利用learning-based方法学习如何高效选取反事实样本,基于模拟数据和观测数据训练目标排序模型。并从理论上分析了生成样本数量和模型预测误差的关系,基于此提出利用启发式的方法控制预测误差带来的负面影响。
数据稀疏和不平衡严重影响了推荐模型的性能,同时不断地训练会持续放大偏差。反事实思想是解决这一问题的可靠方向,然而在推荐系统中应用反事实的方法面临着许多挑战,
为解决上述问题,作者提出了CPR框架。
CPR包括推荐数据模型器(实际就是样本生成器,可以理解为样本增强的一种)和目标排序模型。文章的主要工作在于如何实现推荐模拟器,一言以蔽之,
接下来首先,看看如何定义所谓的推荐模拟器以及如何学习模拟器模型的参数,再看如何通过最大化目标排序模型的损失,来高效的、可学习的寻找反事实样本。
作者,模拟器定义为SEM,并利用观测数据学习其参数。模型的定义和符合归纳如下,
因为 是一个列表,如果考虑所有联合概率 ,结果是在全部物品集合上的组合,计算量巨大。因此,作者忽略了不同物品之间的交叉组合的因果效应,使得联合概率分布可以被分解为每个物品单独出现概率的乘积,具体公式如下图所示。
表示推荐列表 的具体取值,其中每一个物品独立出现在推荐列表中的概率被表示为softmax的形式。 分别表示用户和物品的embedding, 是外生变量的权重,通过优化学习目标学习得到。
类似的,可以构建 。 分别表示用户和物品的embedding。 这里作者刻意选择了不同的embedding,保证学习到服务于不同目的的信息 。 是用户选择交互的物品列表的具体取值, 类似 是外生变量的权重。
有了因子分解后的联合概率,可以结合负采样技术[18, 26]来优化如下目标函数学习 的参数。其中 表示负样本。外生变量 是从正态分布中采样的。
由于用户可选择的物品只在展示给用户的列表里,因此,在 的学习过程中不需要进行负采样,可以直接利用softmax进行优化。
学习了F的参数之后,即得到了SEM,可以基于此生成反事实样本。作者采用Pearl’s “abduction-action-prediction”[2]实现反事实干预的估计。具体做法是,
本节描述了CPR框架的整体结构以及其中因果结构模型(SEM)的参数学习的方法,下一节继续介绍如何高效的选取反事实样本,以及作者如何利用理论分析得到启发式的方法,来控制预测误差的负面影响。
整个反事实干预的过程或者说干预过程的重点集中在估计推荐列表中的哪个物品会被点击。也就是说,反事实只发生在点击阶段, 而没有发生在推荐列表产生阶段 。模拟生成的只是用户的反馈。个人理解,这样做的好处可以减小噪声带来的方差,同时不会引入过多偏差。但是可生成的内容会不会比较局限,可能需要看具体场景。
[1] David M Blei, Alp Kucukelbir, and Jon D McAuliffe. 2017. Variational inference: A review for statisticians. Journal of the American statistical Association 112, 518 (2017), 859–877.
[2] Judea Pearl, Madelyn Glymour, and Nicholas P Jewell. 2016. Causal inference in statistics: A primer. John Wiley &Sons.
[3] Xiangnan He, Lizi Liao, Hanwang Zhang, Liqiang Nie, Xia Hu, and Tat-Seng Chua. 2017. Neural collaborative filtering. In Proceedings of the 26th interna- tional conference on world wide web. International World Wide Web Conferences Steering Committee, 173–182.
[4] SteffenRendle,ChristophFreudenthaler,ZenoGantner,andLarsSchmidt-Thieme. 2009. BPR: Bayesian personalized ranking from implicit feedback. In Proceedings of the twenty-fifth conference on uncertainty in artificial intelligence. AUAI Press, 452–461.
欢迎分享,转载请注明来源:夏雨云
评论列表(0条)