You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
이번 대회의 데이터셋은 #10 에서 확인할 수 있듯이 고질적으로 val loss가 급격히 높아지면서도 accuracy는 높아지는 이상한 문제가 발생합니다. 이는 아래와 같이 클래스의 극단적인 편향으로 추측됩니다.
해당 문제를 해결하기 위하여 #22 에서 stratified onefold를 구현하여 validation과 train 데이터셋을 구분하였으나 여전히 문제 현상을 확인할 수 있었습니다.
stratified onefold가 근본적인 해결책이 될 수 없음을 확인. 새로운 해결방안 모색이 필요합니다.
🔧 Methodology
추가적으로 이를 해결하기 위하여 cross entropy의 확장판인 focal loss를 사용해보고자 합니다.
focal loss는 cross entropy와는 달리 쉽게 오분류되는 클래스에 보다 가중치를 주는 것으로 오분류되는 클래스에 대하여 제대로 학습할 수 있도록 구현되어있습니다.
torch.nn 내에서는 해당 loss가 구현되어있지 않아 논문 내 수식을 기반으로 nll_loss를 사용하여 구현하였습니다.
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
-
이번 대회의 데이터셋은 #10 에서 확인할 수 있듯이 고질적으로 val loss가 급격히 높아지면서도 accuracy는 높아지는 이상한 문제가 발생합니다. 이는 아래와 같이 클래스의 극단적인 편향으로 추측됩니다.

해당 문제를 해결하기 위하여 #22 에서 stratified onefold를 구현하여 validation과 train 데이터셋을 구분하였으나 여전히 문제 현상을 확인할 수 있었습니다.

stratified onefold가 근본적인 해결책이 될 수 없음을 확인. 새로운 해결방안 모색이 필요합니다.
🔧 Methodology
추가적으로 이를 해결하기 위하여 cross entropy의 확장판인 focal loss를 사용해보고자 합니다.
focal loss는 cross entropy와는 달리 쉽게 오분류되는 클래스에 보다 가중치를 주는 것으로 오분류되는 클래스에 대하여 제대로 학습할 수 있도록 구현되어있습니다.
torch.nn 내에서는 해당 loss가 구현되어있지 않아 논문 내 수식을 기반으로 nll_loss를 사용하여 구현하였습니다.

📄 Related Works
추가 고려사항
Beta Was this translation helpful? Give feedback.
All reactions