Stats & AI tech blog - '일단 시도함'
[통계] ICC, Intraclass Correlation Coefficient (급내상관계수) 본문
[통계] ICC, Intraclass Correlation Coefficient (급내상관계수)
justdoit ok? 2024. 1. 3. 15:44
1. 급내상관계수(ICC)란?
두 개 이상의 검사 방법 또는 두 명 이상의 평가자의 측정 결과(연속형)의 일치도를 분석하는 방법이다.
예를 들어, 환자의 혈당을 측정하는 두 가지 검사 방법이 있을 때, 두 검사의 측정 결과가 얼마나 일치하는지를 ICC를 통해 확인할 수 있다.
여러 그룹의 연속형 측정 값이 얼마나 일치하는지 확인할 때, 비교 검정이나 상관 분석을 진행하면 된다고 생각할 수 있는데, 비교 검정은 상호 독립적인 두 그룹의 평균 또는 중앙값을 비교하는 방법이며, 상관 분석은 두 측정치간 선형 연관성을 의미할 뿐 일치도와는 개념이 다르다.
일치도는 동일한 사람이 두 개 이상의 검사 방법으로 여러 번 측정하였을 때, 그 측정 결과가 일치하는지를 파악하는 것이므로 반복 측정을 고려하는 적절한 일치도 분석 방법을 사용해야한다. (참고 - 2024.01.11 - [Statistics] - [통계] 일치도 분석)
2. ICC 가정
데이터가 정규성 가정을 만족해야한다.
정규성 만족하지 않을 경우에는 일치상관계수(CCC, Concordance correlation coefficient)을 고려해볼 수 있다.
3. ICC 분류 (6 types)
- ICC 모형
검사를 받는 피험자가 각각 여러 명의 평가자(진단도구)에 의해 진단을 받는다고 가정할 때,
피험자와 평가자(진단도구)의 효과를 어떻게 다루냐에 따라 크게 세 가지 모형으로 구분할 수 있다.
일반적으로는 피험자와 평가자의 효과를 모두 랜덤으로 고려하는 이차원 변량 모형을 사용한다.
(1) 일차원 변량 (one-way random)
피험자 간의 변동만을 고려하는 모형.
피험자 간의 차이에 대한 평가자의 일치도를 평가할 때 사용된다.
평가자의 효과는 고려하지 않고 단순히 피험자 간의 일관성을 평가하고자 할 때 사용된다.
\[ \text{ICC}(1,1) = \frac{MS_R - MS_W}{MS_R + (k+1)MS_W} \]
여기서 \(MS_R\)는 피험자 간 평균 제곱, \(MS_W\)는 피험자 내 평균 제곱, \(k\)는 평가자 수입니다.
(2) 이차원 변량 (two-way random)
피험자 간 변동뿐만 아니라 평가자 간의 변동도 고려하는 모형.
평가자 간의 일치도뿐만 아니라 평가자들 간의 차이점을 평가하는 데 사용된다.
예를 들어, 동일한 피험자에 대해 여러 명의 평가자가 평가한 결과가 얼마나 일치하는지, 그리고 평가자들 간의 평가 결과가 얼마나 일관성 있는지를 평가할 때 사용된다.
\[ \text{ICC}(2,1) = \frac{MS_R - MS_E}{MS_R + (k-1)MS_E + k(MS_C - MS_E)/n} \]
여기서 \(MS_R\)는 피험자 간 평균 제곱, \(MS_E\)는 오류 평균 제곱, \(MS_C\)는 평가자 간 평균 제곱, \(k\)는 평가자 수, \(n\)은 피험자 수입니다.
(3) 이차원 혼합 (two-way mixed)
피험자 간의 변동과 고정된 평가자 간의 변동을 고려하는 모형.
특정 평가자들이 고정되어 있을 때 피험자 간의 일치도를 평가하는 데 사용된다.
\[ \text{ICC}(3,1) = \frac{MS_R - MS_E}{MS_R + (k-1)MS_E} \]
여기서 \(MS_R\)는 피험자 간 평균 제곱, \(MS_E\)는 오류 평균 제곱, \(k\)는 평가자 수입니다.
위 내용의 이해를 돕기 위해 일치도, 일관성, 차이점에 대해 부가 설명하자면,
* 일치도 : 평가자들이 동일한 피험자를 얼마나 비슷한 점수로 평가하느냐?
ex) A평가자가 1번 피험자에게 80점 부여, B평가자도 1번 피험자에게 80점 부여 -> 높은 일치도
* 일관성 : 평가자들이 피험자를 얼마나 일관되게 평가하느냐?
ex) A평가자가 1>2>3번 피험자 순으로 높게 평가, B평가자도 1>2>3번 피험자 순으로 높게 평가 -> 높은 일관성
* 차이점 : 평가자들 간의 평가 결과가 얼마나 차이나는가?
ex) A평가자가 대부분 피험자에게 90점 이상 부여, B평가자는 대부분 피험자에게 70점 이상 부여 -> 차이점이 크다
- 표기 방법
ICC (모델 번호, 각 평가자에 의해 이루어진 측정 수)
ICC(1,1) ICC(1,K)
ICC(2,1) ICC(2,K)
ICC(3,1) ICC(3,K)
- 단일 측도(Single) / 평균 측도(Average)
- 단일 측도, ICC(*, 1) : 평가자 간에 얼마나 차이가 있는지 확인
ex) 각 평가자에 의해 단 한 번의 측정이 이루어진 경우
- 평균 측도, ICC(*, K) : 평균값과 얼마나 차이가 있는지 확인 (일반적으로 사용)
ex) 각 평가자에 의해 여러 번의 측정이 이루어진 경우
- 일치도 (Consistency) / 절대 합치도 (Agreement)
- 일치도 (Consistency) : 경향이 일치하는가를 의미, 위에서 말한 일관성 개념
- 절대 합치도 (Absolute Agreement) : 완벽히 일치하는가를 의미, 위에서 말한 일치도 개념 (일반적으로 사용)
'Statistics & AI > Correlation' 카테고리의 다른 글
[통계] Fleiss' kappa (플레이스의 카파) (1) | 2024.11.22 |
---|---|
[통계] Cohen's Kappa (코헨의 카파) (0) | 2024.01.11 |
[통계] 일치도 분석 (0) | 2024.01.11 |