的选择 的 k值 强> 在k-NN中是相当的 的 数据依赖 强> 。我们可以争论更多 的 一般特征 强> 更小或更大的k值选择,但指定一定数量 的 好坏 强> 说得不是很准确。因此,如果你的 简历 实现是正确的,你可以信任结果,并进一步使用它,因为简历会给出 的 最适合您的具体情况 强> 。对于更多的一般性讨论,我们可以说这些选择 的 k值 强> :
1- 的 较小的k值选择 强> :小的k值选择可能会提高整体精度并降低实施成本,但会降低系统对噪声输入的鲁棒性。
2- 的 更大的k值选择 强> :更大的k值选择将使系统对抗噪声输入更加稳健,但与较小的k值相比,执行成本更高,决策边界更弱。
在应用程序中选择k值时,您始终可以比较这些一般特征。但是,使用类似算法选择最佳值 简历 会给你一个明确的答案。