Processing math: 100%
본문 바로가기
Best Paper review

Ordinal crossentropy: IMPROVING DEEP REGRESSION WITH ORDINAL EN-TROPY

by 연금(Pension)술사 2025. 3. 4.

 

Motivation

  • 컴퓨터비전에서 회귀문제를 분류문제로 변환해서 풀면 성능이 더 좋은 경우가 많음(예, depth estimation)
  • 회귀모델의 경우 entropy가 낮은 특징 공간을 학습하는게 문제. 분류의 경우 CE을 주로 사용하는데, CE값이 큰 높은 엔트로피를 학습하게끔 유도됨.
  • 하지만, 회귀문제는 MSE을 사용하면서 특징공간이 덜 퍼져있음(low-entropy)
  • 아래의 그림 (Figure1)을 보더라도, 특징벡터가 좁게모여있고, 0,6사이의 값이 연속적으로 이어지는 순차적인 구조가 이어지져 낮은 엔트로피를 보이는 반면, classification은 많이 퍼져있고 무질서해보이는 높은 포현력(=큰 엔트로피를 보임)

 

 

Method

  • total loss: Ltotal=Lm+λdLd+λtLt
  • Lm: 테스크마다 정해지는 regression loss
  • Ld: Diversity term: 특징 공간 형성
    • Ld:1M(M1)wij||zcizcj|| 
    • wi,j 가중치로 wi,j=||yiyj||. 즉 라벨이 멀리 떨어진 샘플일수록 더 멀리 멀어지도록 유도
  • Lt: tightness term: 같은 레이블을 가진 특징벡터를 묶어줌
    • Lt=1NbNbi=1||zizci||2

 

반응형