2017年11月10日 星期五

機器學習_ML_模型指標_precision_score

機器學習_ML_模型指標_precision_score

原文連結
適用性:Classification metrics

各種的數值計算都跟上面這張圖有關。(取自(維基百科))
PPV=TPTP+FP
在資料集的正負比例相差太過極端,這種情況即稱為skewed data(偏斜)
在偏斜情況下,用精度(accaury)來做模型效能並不恰當,用召回率(recall)跟(查準率)precision比較。

The precision is intuitively the ability of the classifier not to label as positive a sample that is negative.

查準率很直觀的表達了分類器無法標記負樣本的能力。

IMPORT

from sklearn.metrics import precision_score

範例

from sklearn.metrics import precision_score
from sklearn.metrics import confusion_matrix
y_true = [1, 0, 1, 1, 0, 1, 0, 1, 1, 1, 0, 0 ,1]
y_pred = [0, 0, 1, 0, 1, 1, 0, 1, 1, 0, 0, 1 ,1]
confusion_matrix(y_true=y_true, y_pred=y_pred)
precision_score(y_true, y_pred)

結果
5/(5+2)
TN FP
FN TP

array([[3, 2],
       [3, 5]], dtype=int64)
#  precision
0.7142857142857143

比對一下recall

from sklearn.metrics import recall_score
recall_score(y_true, y_pred)

結果為

>>> recall_score(y_true, y_pred)
0.625

沒有留言:

張貼留言