邻近算法
KNN 算法的决策过程 k-Nearest Neighbor algorithm
右图中,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果 K=3,
由于红色三角形所占比例为 2/3,绿色圆将被赋予红色三角形那个类,如果 K=5,由于蓝色
四方形比例为 3/5,因此绿色圆被赋予蓝色四方形类。

K 最近邻(k -Nearest Neighbor,KNN)分类算法,是一个理论上比较成熟的方法,也
是最简单的机器学习算法之一。该方法的思路是:如果一个样本在特征空间中的 k 个最相似
(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。KNN
算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个
或者几个样本的类别来决定待分样本所属的类别。 KNN 方法虽然从原理上也依赖于极限定
理,但在类别决策时,只与极少量的相邻样本有关。由于 KNN 方法主要靠周围有限的邻近
的样本,而不是靠判别类域的方法来确定所属类别的,因此对于类域的交叉或重叠较多的待
分样本集来说,KNN 方法较其他方法更为适合。
KNN 算法不仅可以用于分类,还可以用于回归。通过找出一个样本的 k 个最近邻居,
将这些邻居的属性的平均值赋给该样本,就可以得到该样本的属性。更有用的方法是将不同
距离的邻居对该样本产生的影响给予不同的权值(weight),如权值与距离成正比。
该算法在分类时有个主要的不足是,当样本不平衡时,如一个类的样本容量很大,
而其他类样本容量很小时,有可能导致当输入一个新样本时,该样本的 K 个邻居中大容量类的样本占多数。因此可以采用权值的方法(和该样本距离小的邻居权值大)来改进。该方法
的另一个不足之处是计算量较大,因为对每一个待分类的文本都要计算它到全体已知样本的
距离,才能求得它的 K 个最近邻点。目前常用的解决方法是事先对已知样本点进行剪辑,事先去除对分类作用不大的样本。该算法比较适用于样本容量比较大的类域的自动分类,而那
些样本容量较小的类域采用这种算法比较容易产生误分。