메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

이장우 (과학기술연합대학원대학교, 과학기술연합대학원)

지도교수
김창환
발행연도
2019
저작권
과학기술연합대학원대학교 논문은 저작권에 의해 보호받습니다.

이용수5

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
지능형 서비스 로봇에서 사람과 로봇 간의 상호작용을 위해 사용자 인식은 매우 중요한 기반 기술이다. 최근 비전 카메라로 획득한 영상을 기반으로 걸음걸이(gait) 정보를 추출하고 이를 활용하여 사람을 인식하기 위한 많은 연구가 진행되고 있다. 이러한 걸음걸이 인식은 대상이 협조적일 필요가 없으며 거리 변화에도 더 강인한 특징을 가진다. 그러나 시점 변화, 다양한 의복 착용, 보행 속도 등에 의해 개인의 고유한 걸음걸이 패턴을 구분하는 것은 어려운 문제로 남아있다.
이 중에서 시점 변화는 인식 성능을 가장 크게 하락시키는 요인으로서, 최근 Convolution Neural Network(CNN)과 다양한 손실함수(loss function)를 활용하여 시점 변화에 강인한 걸음걸이 특징을 추출하기 위한 방법들이 연구되고 있다. 기존에 많이 활용되는 소프트맥스 손실함수(softmax loss function)는 학습 데이터에 의존적으로 분류 성능이 결정되기 때문에 다양한 입력 패턴에 대하여 분별력 있는 인식 성능을 보장할 수 없다. 이로 인해 학습 데이터가 충분하지 않거나 시점 변화가 존재하는 새로운 데이터가 추가되는 경우, 분류기(classifier)의 인식 성능이 크게 저하된다.
본 논문에서는 시점 변화에 강인한 걸음걸이 기반의 사람 인식을 위하여, 소프트맥스와 중심 손실함수(center loss function)가 결합된 공동 손실함수 기반의 CNN 구조와 이를 활용한 걸음걸이 인식 방법을 제안한다. 이러한 방법은 소프트맥스 손실함수의 단점을 보완하고 학습 데이터가 상대적으로 적더라도 다양한 걸음걸이 패턴을 구분할 수 있도록 분별력 있게 학습을 유도할 수 있다.
또한, 실제 로봇에서 획득한 영상으로 대상을 인식할 수 있도록 다음 기능을 통합한 프레임워크를 제안한다: 1) GEI 생성을 위한 전처리 과정 2) 학습된 모델을 이용한 걸음걸이 특징(feature) 추출 3) 추출된 걸음걸이 특징을 이용한 사람 인식 과정으로 구성된다.
본 연구 방법은 OU-MVLP, OU-LP DB를 바탕으로 평가되었고, 최신 연구 방법들과 비교하였을 때 우수한 성능을 보인다. 또한, 로봇의 내부 카메라로 취득한 영상으로 15명의 사람에 대한 DB를 구축하여 다른 방법들과 비교 실험하였고 본 연구 방법이 더 높은 성능을 달성하며 실제 응용이 가능함을 보인다. 실험 결과를 통해 본 연구 방법은 시점 변화에 강인한 걸음걸이 특징을 추출할 수 있고 인식 성능을 향상시킬 수 있음을 보인다.

목차

제1장 서론
1.1 연구 배경
1.2 논문의 구성
제2장 관련 연구
2.1 Gait representation
2.2 Deep learning approach for gait recognition
제3장 걸음걸이 인식 시스템 소개
제4장 제안하는 방법
4.1 GEI generation
4.2 Joint loss function
4.3 Learning
제5장 실험 결과 및 분석
5.1 실험 환경
5.2 Dataset
5.3 하이퍼 파라미터(Hyper parameter) 설정
5.4 평가 방법
5.5 OU-MVLP DB 성능 비교
5.6 OU-LP DB 성능 비교
5.7 학습된 모델을 적용한 걸음걸이 인식 시스템
5.7.1 전처리와 GEI 생성 방법
5.7.2 로봇에서 own dataset 구축 방법
5.7.3 Own dataset 성능 비교
제6장 결론
참고문헌

최근 본 자료

전체보기

댓글(0)

0