반응형

논문 읽기/long tail 2

[논문 읽기] Seesaw Loss for Long-Tailed Instance Segmentation(2020)

Seesaw Loss for Long-Tailed Instance Segmentation PDF, long-tail, Wang et al, arXiv 2020 Summary Instance segmentation에서 long tail distribution을 다루는 논문이다. 아이디어가 재미있다. 기존의 Cross-entropy loss에 두 가지 factor르 추가한다. mitigation factor mitigation factor는 샘플 수가 많은 head 클래스가 샘플 수가 적은 tail 클래스를 억제하는 것을 완화해준다. 이게 뭔말이냐면 head class의 샘플이 입력될때마다 이에 해당하는 loss는 tail 클래스를 억제시킨다. tail 클래스에 대한 soft max 출력값이 낮아져야 hea..

[논문 읽기] Class-Balanced Loss(2019), Class-Balanced Loss Based on Effective Number of Samples

안녕하세요, 오늘 읽은 논문은 Class-Balanced Loss Based on Effective Number of Sample 입니다. Class-Balanced Loss는 long-tailed data set에서 class imbalance 문제를 해결하기 위해 제안되었습니다. long-tailed data set은 몇 개의 클래스가 데이터의 대부분을 차지하고, 나머지 클래스가 차지하는 양은 적은 데이터셋을 의미합니다. 이 경우에 기존의 해결 방법은 re-sampling 및 re-weighting 같은 re-balancing 방법을 사용하는 것이었습니다. 해당 논문에서는 samples수가 증가함에 따라 새롭게 추가되는 정보의 양은 줄어든 다는 점에 집중하여 문제를 해결하려 하며, 이를 위해 각 데이..

반응형