ICCV 2015에 발표될 논문으로 caltech pedestrian benchmark 성능을 11%대까지 끌어올림.
전체적인 컨셉:
Adaboost와 같이 boosting 기반으로 weak learner를 cascading할 때 'classifier accuracy' vs 'computation complexity'의 trade-off를 최적화하는 framework를 제안.

<Adaboost>
weak learner f_i 들로 구성된 predictor F에 iterative하게 new weak learner g를 추가하기 위한 일련의 과정들..
(수식 설명은 패스)
epsilon을 이용한 미분식이 명확하게 이해가 되지 않는다.
weak classifier는 feature의 binary decision을 이용한다.

<Complexity-aware cascading>
각 weak learner의 time Complexity를 의미하는 complexity risk term이 추가된다.


Complexity risk term에는 Omega function이 존재한다.
단일 feature를 사용하여 boosting을 하는 경우, 이 Omega function은 step 순서에 상관없이 constant한 값을 갖게 된다. 
논문에서는 여러 feature들 (ACF, HOG, SS, CB, LDA, CNN 논문참고)을 사용하기 때문에,
Classifier의 miss-classification에 의한 risk와 시간이 오래걸리는 feature가 갖는 time complexity risk의 합 (전체 Loss)을 최소화하는 방향으로 weak learner를 선택하게 된다.
즉 complexity 를 고려하지 않는 경우에 비해, 시간이 오래걸리는 feature는 가벼운 feature에 비해 cascade의 뒷단에 위치하게 된다. 

<성능>
단일 feature 대상으로 boosting을 할 경우 complexity term이 의미가 없어지므로 기존 boosting과 차이가 없음.
multi feature로 제안된 방법을 수행할 경우: 수행속도와 detection 성능의 향상을 보임. 하지만 state-of-the-art 보다는 낮은 성능
Large-CNN 모델에의 적용: Large-CNN에의 적용이란, 제안된 방법으로 detect해낸 pedestrain candidate들을 VGGnet 같은 framework의 input으로 넣고 최종 결과를 얻는 것을 의미한다.
즉 R-CNN에서의 region proposal부분을 complexity aware boosting으로 구하겠다는 것이다. 
이렇게 하면 성능이 11%대로 양자쩜프가 일어난다. -0-

<결론>
complexity term을 정의하고 boosting optimization 에 넣은 부분은 참신함.
miss rate 11% 대의 성능이 나오려면, 결국 R-CNN과 같이 Deep learning framework를 사용해야 한다.




Posted by 헬벨