一:重要原理
(1)链规则:
(2)贝叶斯定理:
(3)变量间条件独立性:
二:主要问题
2.1贝叶斯网络概率推理
2.2结构学习:发现变量之间的图关系
结构学习算法:
(1)K2算法: 通过为每个结点寻找父结点集合来学习贝叶斯网络结构。它不断往父结点集中添加结点,并选择能最大化数据和结构的联合概率的结点集。
(2)HillClimbing (operators: edge addition, edge deletion, edge reversion) 从一个无边结构开始,在每一步,它添加能最大化BIC的边。算法在通过添加边不能再提高结构得分时停止。
(3)缺失数据结构学习算法:SEM
SEM不是每次迭代都同时优化模型结构和参数,而是先固定模型结构进行数次参数优化后,再进行一次结构加参数优化,如此交替进行。 目的:减小计算复杂度。
2.3参数学习:决定变量之间相互关联的量化关系
(1)最大似然估计 完全基于数据,不需要先验概率
(2)贝叶斯估计 假定在考虑数据之前,网络参数服从某个先验分布。先验的主观概率,它的影响随着数据量的增大而减小。
(3)缺值数据最大似然估计:EM算法 (迭代算法)
2.4分类
2.5隐变量和隐结构学习