在第2章中,我们讨论了指数族概率分布和它们的共轭先验的重要作用。对于本书中讨论的许多模型来说,完整数据是服从指数族分布的。然而,通常这对于观测数据的边缘似然函数来说是不成立的。例如,在混合高斯模型中,观测数据和对应的隐含变量的联合概率分布是指数族分布的成员,但是的边缘概率分布是高斯混合分布,因此不是指数族的成员。
目前为止,我们将模型中的变量分为了观测变量和隐含变量两组。我们现在进一步地将潜在变量和参数区分开。潜在变量(记作 )是分散的(extensive),它的数量随着数据集规模的增大而增大。参数(记作)是聚集的(intensive),它的数量固定,与数据集的规模无关。例如,在高斯混合模型中,指示变量(表示哪个分量对生成数据点起作用)表示潜在变量,而均值、精度以及混合系数表示参数。
考虑独立同分布数据的情形。我们将数据的值记作其中,对应的潜在变量为。现在假设观测变量和隐含变量的联合概率分布为指数族分布的成员,参数为自然参数,即
使用的共轭先验,可以把它写成
回忆一下,共轭先验分布的意义为,对于向量来说,所有值为的观测的先验数量。现在考虑一个变分分布,它可以在潜在变量和参数之间进行分解,即。使用一般的结果(10.9),我们可以解出这两个因子,如下所述。
因此我们看到它可以分解为一组相互独立的项的和,每个都对应于一项,因此的解可以在上进行分解,即。这是诱导分解的一个例子。两侧取指数,我们有
其中标准化系数已经通过与指数族分布的标准形式进行比较的方式得到。
类似的,对于参数上的变分分布,我们有
同样的,两侧取指数,然后通过观察法确定标准化系数,我们有
其中我们已经定义了
注意,的解与的解相互偶合,因此我们可以使用一个两阶段的迭代方法进行求解。在变分E步骤中,我们使用潜在变量上的当前后验概率分布计算充分统计量的期望,并且使用这个结果计算参数上的修正的后验概率分布。然后,在接下来的变分M步骤中,我们使用修正后的参数后验概率分布寻找自然参数的期望,它给出了潜在变量上的修正后的变分分布。