如果您正在使用DecisionTreeRegressor(),那么您可以使用分数函数来确定预测的确定系数R ^ 2。
请在下面的文档链接中找到。
http://scikit-learn.org/stable/modules/generated/sklearn.tree.DecisionTreeRegressor.html#sklearn.tree.DecisionTreeRegressor
您还可以列出交叉验证分数(10个样本),如下所示
from sklearn.model_selection import cross_val_score clf = tree.DecisionTreeRegressor() clf=clf.fit(X,Y) cross_val_score(clf, X, Y, cv=10) print clf.predict(W)
这给出了与此类似的输出,
array([ 0.61..., 0.57..., -0.34..., 0.41..., 0.75..., 0.07..., 0.29..., 0.33..., -1.42..., -1.77...])
使用DecisionTreeClassifier而不是regressor,并使用 predict_proba 方法。或者,您可以使用逻辑回归(也可以在scikit中学习。)
predict_proba
基本的想法是这样的:
clf = tree.DecisionTreeClassifier() clf=clf.fit(X,Y) print clf.predict_proba(W)
您想使用一个给出概率的分类器。此外,您需要确保在测试阵列W中,数据点不是任何训练数据的复制品。如果它与你的任何训练数据完全匹配,它认为它绝对是吸血鬼或绝对不是吸血鬼,所以会给你0或1。