File tree 1 file changed +18
-3
lines changed
1 file changed +18
-3
lines changed Original file line number Diff line number Diff line change @@ -108,11 +108,26 @@ Confidence Loss는 매칭된 박스와 매칭되지 않은 박스에 대한 두
108
108
109
109
즉, bouding box가 매칭되어 x^p_ij=1인 경우에는 특정 객체이므로 해당하는 클래스에 속할 확률이 높도록, 반대로 x^p_ij=0인 경우에는 객체가 아닌 배경이므로
110
110
배경클래스에 속할 확률이 높도록 학습하는 것이다.
111
+
112
+
113
+ ## Hard Negative Minining
114
+ SSD의 bounding box는 8000여개나 되지만 실질적으로 우리가 인식하고자 하는 객체의 수는 10개도 안 되는 경우가 다반사이므로 대부분의 box들은 background을 나타낸다.
115
+ 따라서 background class에 대한 데이터만 과도하게 많은 ** imbalance** 문제가 발생한다.
116
+ 이를 해결하기 위해 SSD에서는 ** loss가 높은** (background인데 background class라 판단하는 확률이 작은) 데이터만 sorting하여 ** positive data의 3배** 만 사용하는 기법을 쓴다.
111
117
118
+ ## Results
119
+ ![ image] ( https://user-images.githubusercontent.com/76815825/117329099-42f8d880-aecf-11eb-9089-787ee685d5cf.png )
120
+
121
+ 결과 중에 눈에 띄었던 것은 ** 작은 물체에 대한 성능이 유독 떨어진다** 는 것인데 추후에 나온 분석으로는 작은 물체는 첫 feature map에서 detect하기 때문이라 하고 이를 보완하기 위해 RetinaNet의 경우에는
122
+ 왕복하는 방식을 통해 작은 물체에 대한 성능을 높였다고 한다.
123
+
124
+ SSD에서는 image의 사이즈를 줄이고 남는 공간은 평균값을 채워넣는 Data Augmentation을 통해 작은 물체에 대한 성능을 약간 향상시켜주었다.
112
125
113
-
114
-
115
-
126
+ ## References
127
+ - < https://www.youtube.com/watch?v=ej1ISEoAK5g >
128
+ - < https://yeomko.tistory.com/20 >
129
+ - < https://taeu.github.io/paper/deeplearning-paper-ssd/ >
130
+ - < https://www.youtube.com/watch?v=MLDo1R5XKk4 >
116
131
117
132
118
133
You can’t perform that action at this time.
0 commit comments