降低具有大量权值参数的网络复杂度的一种方法是将权值分组,然后令分组内的权值相等。这是5.5.6节中讨论的将网络对于图像的平移不变性整合到网络的构建过程中的权值共享的方法。然而,它只适用于限制的形式可以事先确定的问题中。这里,我们考虑软权值共享(soft weight sharing)(Nowlan and Hinton, 1992)。这种方法中,权值相等的硬限制被替换为一种形式的正则化,其中权值的分组倾向于取近似的值。此外,权值的分组、每组权值的均值,以及分组内的取值范围全都作为学习过程的一部分被确定。

回忆一下,式(5.112)给出的简单的权值衰减正则化项可以被看成权值上的高斯分布的负对数。我们可以将权值分为若干组,而不是将所有权值分为一个组。分组的方法是使用高斯混合概率分布。混合分布中,每个高斯分量的均值、方差,以及混合系数,都会作为可调节的参数在学习过程中被确定。于是,我们有形式为

p(w)=ip(wi)

的概率密度。其中

p(wi)=Mj=1πjN(wi|μj,σ2j)

πj为混合系数。取负对数,即可得到形式为

ω(w)=iln(Mj=1πjN(wi|μj,σ2j))

正则化函数。从而,总的误差函数为

˜E(w)=E(w)+λω(w)

其中,λ是正则化系数。这个误差函数同时关于权值wi和混合模型参数{pij,μj,σj}进行最小化。如果权值是常数,那么混合模型的参数可以由第9章讨论的EM算法确定。然而,权值分布本身在学习过程中是不断变化的,因此为了避免数值的不稳定性,我们同时关于权值和混合模型参数进行最优化。可以使用标准的最优化算法(例如共轭梯度法或拟牛顿法)来完成这件事。

为了最小化总的误差函数,计算出它关于各个可调节参数的导数是很有必要的。为了完成这一点,比较方便的做法是把{πj}当成先验概率,然后引入对应的后验概率。根据式(2.192),后验概率由贝叶斯定理给出的形式为

γi(w)=πjN(w|μj,σ2j)kπkN(w|μk,σ2k)

这样,总误差函数关于权值的导数为

˜Ewi=Ewi+λjγj(wi)(wiμj)δ2j

于是,正则化项的效果是使用大小为正比于对于给定权值的高斯分布的后验概率的力把每个权值拉向第j个高斯分布的中心,拉力。这恰好就是我们要寻找的效果。

误差函数关于高斯分布的中心的导数也很容易的得到结果:

˜Eμj=λiγj(wi)(μiwj)σ2j

它具有简单的直观含义,因为它使用大小为第j个高斯分量产生的权值参数的后验概率的力把μj拉向了权值的平均值。类似地,关于方差的导数为

˜Eσj=λiγj(wi)(1σj(wjμj)2σ3j)

它将σj拉向权值在对应的中心muj附近的偏差的平方的加权平均,加权平均的权系数与之前一样,等于由第j个高斯分量产生的权值参数的后验概率。注意,在实际执行过程中,我们会引入一个由

σ2j=exp(ξj)

定义的新变量ξj。且,最小化的过程是关于ξj进行的。这确保了参数σj是正数。此外,它还能够倾向于避免找到病态解,即一个或多个σj趋于零,对应高斯分量退化为权参数的值。9.2.1节会在高斯混合模型的问题中详细讨论这样的解。

对于关于混合系数πj的导数,需要考虑限制条件:

jπj=1,0πj1

这个限制的产生,是因为我们把πj看成了先验概率。可以这样做:将混合系数通过一组辅助变量{ηj}用softmax函数表示,即

πj=exp(ηj)Mk=1exp(ηk)

这样,正则化的误差函数关于{ηj}的导数的形式为

˜Eηj=i{πjγj(wi)}

我们看到,πj被拉向第j个高斯分量的平均后验概率。

results matching ""

    No results matching ""