본 연구에서는 지속적으로 늘어나는 데이터와, 데이터의 보관 및 저작권 등의 다양한 이슈에 의해 최근 관심이 높아지고 있는 지속 학습에 관한 연구를 수행하였다. 본 연구에서 제안한 CL(Continual Learning) 모델은 다음의 3가지 접근방법을 통해 anchor free 모델인 CenterNet을 변경한 모델이다. 첫째로, anchor 상자를 사용하지 않는 CenterNet을 KD(Knowledge Distillation)을 적용하여 3가지 출력 계층을 증류하는 지속 학습 모델로 변경한다. 둘째로 teacher 모델의 예측을 증류하는 방식이다. 일정 예측 점수 이상의 검출 객체는 대부분 증류하나, GT(Ground Truth)의 값이 0.2 이하인 경우와 IoU(Intersection over Union)가 0.8 이상인 경우 증류하지 않는 방법이다. 마지막으로 CL을 가능하게 하기 위하여 사용되는 여러 개의 손실 항의 가중치 중 KD를 사용하는 계층을 위한 손실 값에 대해 이전 손실의 변화율을 정규화하여 가중치로 사용하였다. 이에 학습 과정에서 과도한 신규학습 방해 혹은 기존 학습 망각 문제가 일어날 때마다 적절히 가중치를 변경하여 해당 문제에 대응할 수 있도록 하였다. 제안한 방법을 통해 지속 학습 시나리오에 따라 다음 차수가 점차 늘어날 때 마다 학습 데이터가 충분 한 경우 catastrophic forgetting을 최소화 하고 신규 학습 정확도도 일정부분 보장 할 수 있는 모델을 제안하였다. PascalVOC에서 기존 최고 수준 대비 제안 모델에서 19+1 의 시나리오에서 기존 최고 수준 모델 대비 mAP 기준 9.5%p, 기준 10.4%p 증가한 결과를 보인다. 15+5의 시나리오에서 각 2.0%p, 0.6%p의 증가한 결과를, 10+10의 시나리오에서 각 1.0%p, 0.8%p 증가한 결과를 보인다. 또한 PCB(Printed Circuit Board) 부품 데이터에서는 10+1 의 시나리오에서 기존 최고 수준 모델 대비 mAP 기준에서는 다소 떨어지는 결과를 보이나, 기준으로 37.5%p 증가한 결과를 보인다. 9+2 시나리오에서 mAP 21.1%p 증가한 결과, 에서 11.0%p 증가하였다. 8+3의 경우 기존 모델 대비 mAP에서 1.1%p, 에서는 3.2%p 더 좋은 결과를 보인다. 특히 PCB 부품 데이터의 경우 기존 모델에서는 일부 부품을 전혀 인식하지 못하는 결과를 보이고 있어, 본 연구에서 제시하는 방법이 증가하는 데이터에 대한 지속 학습 분야에 효과적일 것으로 판단된다.
This study focuses on continual learning to apply to object detection model, which has recently increased interest due to various issues such as continuously increasing data, data storage and copyright. The continual learning model proposed in this study is a model that changed the anchor free model, CenterNet, through the following three approaches. First, CenterNet, which does not use anchor boxes, is changed to a continual learning model that distills the three output layers by applying knowledge distillation. Second, this method is distilling the prediction of the teacher model. Most detected objects are distilled into student model, but not distilled objects when the value of GT(Ground Truth) is under 0.2 and IoU(Intersection over Union) is over 0.8. Finally, among the weights of several loss terms used to enable continual learning, the rate of change between the previous and current loss is normalized and used as a weight for the loss value for the knowledge distilled class. Accordingly, whenever an excessive obstruction of new learning or a problem of forgetting existing learning occurs in the learning process, the weight is appropriately changed so that it can respond to the problem. The proposed model shows to minimize catastrophic forgetting and guarantee the accuracy of new classes if there is sufficient learning data according to the continual learning scenario. In PascalVOC, the proposed model compared to the existing best previous model shows an increase of 9.5%p based on mAP and 10.4%p based on in 19+1 scenario. The results of an increase of 2.0%p, and 0.6%p in each value in the scenario of 15+5. The scenario of 10+10 shows an increase of 1.0%p, and 0.8%p respectively. In addition, the results in the PCB component data experiment are decreased in mAP compared to the existing best previous model in the 10+1 scenario, but it is increased by 37.5%p in the . A result of mAP is increasing as 21.1%p in the 9+2 scenario, and it is increased by 11.0%p in the . The result of mAP is 1.1%p in 8+3 scenario, and also 3.2%p in the . In particular, in the case of PCB component data, some parts are not recognized at all in the existing model, so the method presented in this study is expected to be effective in the field of continual learning for increasing data label.
1. 서 론 11.1 연구 배경 및 필요성 11.2 연구 내용 41.3 논문의 구성 72. 관련 연구 82.1 Continual Learning 82.1.1 Continual Learning의 개요 82.1.2 Knowledge Distillation 기반의 Continual Learning 132.1.3 Continual learning의 데이터 시나리오 172.2 객체 검출 및 Anchor free 모델 203. 제안한 방법 233.1 데이터베이스 및 시나리오 233.2 Teacher 예측 증류 기반 Continual Learning 모델 263.2.1 CenterNet 263.2.2 Teacher 모델의 예측 증류 313.2.3 계층별 지식 증류 343.2.4 기존 손실 함수의 변형 383.2.5 제안 모델의 최종 손실 함수 383.2.6 손실 값의 비율을 활용한 손실 항 가중치 자동화 404. 실험 결과 및 고찰 444.1 실험 환경 444.2 비교 검증 구성 454.3 실험 결과 494.4 고찰 645. Anchor free Continual Learning 모델의 응용 685.1 응용 대상 및 개요 685.2 데이터베이스 및 시나리오 705.3 실험 및 결과 836. 결론 및 향후 연구 방향 906.1 결론 906.2 향후 연구 방향 92참 고 문 헌 93영문초록 103국문초록 106