线性判别式的最简单形式是取输入向量的线性函数,即

y(x)=wTx+w0

其中w被称为权向量(weight vector),w0是偏置(不要与统计中的偏置混淆)。偏置的相反数有时被称为阈值(threshold)。如果y(x)0则把输入向量x分到类C1中,否则分到C2中。因此,对应的决策边界由y(x)=0确定,它对应着D维空间中的一个(D1)维超平面。考虑两个点xA,xB都处在超平面上的情形。由于y(xA)=y(xB)=0,得到wT(xAxB)=0,所以向量w与在决策面上的所有向量都正交,因此w确定了决策面的方向。同样的,如果x在决策面,那么y(x)=0,所以原点到决策面的标准距离由

wTxw=w0w

所以我们看到偏置参数w0确定了决策面的位置。图4.1阐释了D=2情况下的这些性质。

图 4-1
图 4.1 二维线性判别函数的几何表示

此外,我们注意到y(x)的值给出了点x到决策面的垂直距离r的一个有符号的度量。为了证明这点,考虑任意点x并令x是它在决策面上的正交投影,即

x=x+rww

两边同时乘以wT并加上w0,再利用y(x)=wTx+w0,y(x)=wTx+w0=0得到

r=y(x)w

图4.1阐释的这个结果。

与第3章线性回归模型相同,有时引入一个额外的虚“输入”x0=1来使记号更简洁,会比较方便。然后定义˜w=(w0,w)˜x=(x0,x),然后

y(x)=˜wT˜x

在这种情况下,决策面是一个穿过D+1维扩展输入空间原点的D维超平面。

results matching ""

    No results matching ""