Stats & AI tech blog - '일단 시도함'

[R] Diagnostic Test (진단 테스트) : Sensitivity, Specificity, Accuracy (민감도, 특이도, 정확도) 본문

Programming/R

[R] Diagnostic Test (진단 테스트) : Sensitivity, Specificity, Accuracy (민감도, 특이도, 정확도)

justdoit ok? 2023. 12. 8. 16:46

이전 포스팅에서 진단 모델의 성능 평가 지표 개념에 대해 알아보았다.

2023.12.07 - [Data Analysis/Statistics] - Diagnostic Test (진단 테스트) : Sensitivity, Specificity, Accuracy (민감도, 특이도, 정확도)

 

[통계] Diagnostic Test (진단 테스트) : Sensitivity, Specificity, Accuracy (민감도, 특이도, 정확도)

Diagnostic Testing (진단 테스트)   진단 모델의 성능을 평가하기 위한 테스트로 진단 모델이 실제 값을 얼마나 잘 예측하는지 평가하는데 사용된다. 1. Confusion Matrix: 예측 값과 실제 값을 비교하기

meowstudylog.tistory.com

 

오늘 포스팅에서는 R에서를 지표들을 한번에 확인하는 방법에 대해 알아보겠다.

epiR 패키지와 caret 패키지를 사용하면 한번에 계산이 가능하다.

 

 

1. {epiR} : epi.tests

library(epiR)
epi.tests(table(data$result,data$predicted), conf.level = 0.95)
##           Outcome +    Outcome -      Total
## Test +           69           15         84
## Test -           13          119        132
## Total            82          134        216
## 
## Point estimates and 95% CIs:
## --------------------------------------------------------------
## Apparent prevalence *                  0.39 (0.32, 0.46)
## True prevalence *                      0.38 (0.31, 0.45)
## Sensitivity *                          0.84 (0.74, 0.91)
## Specificity *                          0.89 (0.82, 0.94)
## Positive predictive value *            0.82 (0.72, 0.90)
## Negative predictive value *            0.90 (0.84, 0.95)
## Positive likelihood ratio              7.52 (4.62, 12.22)
## Negative likelihood ratio              0.18 (0.11, 0.29)
## False T+ proportion for true D- *      0.11 (0.06, 0.18)
## False T- proportion for true D+ *      0.16 (0.09, 0.26)
## False T+ proportion for T+ *           0.18 (0.10, 0.28)
## False T- proportion for T- *           0.10 (0.05, 0.16)
## Correctly classified proportion *      0.87 (0.82, 0.91)
## --------------------------------------------------------------
## * Exact CIs

 

 

2. {caret} confusionMatrix 

library(caret)
confusionMatrix(table(data$result,data$predicted), positive='1', confint=T)
## Confusion Matrix and Statistics
## 
##    
##       1   0
##   1  69  15
##   0  13 119
##                                           
##                Accuracy : 0.8704          
##                  95% CI : (0.8181, 0.9121)
##     No Information Rate : 0.6204          
##     P-Value [Acc > NIR] : 2.787e-16       
##                                           
##                   Kappa : 0.7261          
##                                           
##  Mcnemar's Test P-Value : 0.8501          
##                                           
##             Sensitivity : 0.8415          
##             Specificity : 0.8881          
##          Pos Pred Value : 0.8214          
##          Neg Pred Value : 0.9015          
##              Prevalence : 0.3796          
##          Detection Rate : 0.3194          
##    Detection Prevalence : 0.3889          
##       Balanced Accuracy : 0.8648          
##                                           
##        'Positive' Class : 1               
## 

 

 

 

두 개의 진단 도구 (ex. 기존 진단 도구 vs 신규 진단 도구)의 결과를 비교해야하는 경우가 있다.

멕니마 검정 등을 통해 어떤 도구의 성능이 더 좋은지 확인하는 방법을 아래 포스팅에서 따로 다루었다.

2023.12.12 - [R] - [R] Diagnostic Test (진단 테스트) (2) 진단 간 성능 비교

 

[R] Diagnostic Test (진단 테스트) (2) 진단 간 성능 비교

Diagnostic Test (진단 테스트) (2) 진단 간 성능 비교 개념 설명은 이전 포스팅 참고** 2023.12.07 - [Statistics] - [통계] Diagnostic Test (진단 테스트) : Sensitivity, Specificity, Accuracy (민감도, 특이도, 정확도) [통

meowstudylog.tistory.com