线性判别式的最简单形式是取输入向量的线性函数,即
y(x)=wTx+w0
其中w被称为权向量(weight vector),w0是偏置(不要与统计中的偏置混淆)。偏置的相反数有时被称为阈值(threshold)。如果y(x)≥0则把输入向量x分到类C1中,否则分到C2中。因此,对应的决策边界由y(x)=0确定,它对应着D维空间中的一个(D−1)维超平面。考虑两个点xA,xB都处在超平面上的情形。由于y(xA)=y(xB)=0,得到wT(xA−xB)=0,所以向量w与在决策面上的所有向量都正交,因此w确定了决策面的方向。同样的,如果x在决策面,那么y(x)=0,所以原点到决策面的标准距离由
wTx∥w∥=−w0∥w∥
所以我们看到偏置参数w0确定了决策面的位置。图4.1阐释了D=2情况下的这些性质。
图 4.1 二维线性判别函数的几何表示
此外,我们注意到y(x)的值给出了点x到决策面的垂直距离r的一个有符号的度量。为了证明这点,考虑任意点x并令x⊥是它在决策面上的正交投影,即
x=x⊥+rw∥w∥
两边同时乘以wT并加上w0,再利用y(x)=wTx+w0,y(x⊥)=wTx⊥+w0=0得到
r=y(x)∥w∥
图4.1阐释的这个结果。
与第3章线性回归模型相同,有时引入一个额外的虚“输入”x0=1来使记号更简洁,会比较方便。然后定义˜w=(w0,w)˜x=(x0,x),然后
y(x)=˜wT˜x
在这种情况下,决策面是一个穿过D+1维扩展输入空间原点的D维超平面。