메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
저널정보
대한전자공학회 전자공학회논문지-CI 電子工學會論文誌 CI編 第44卷 第3號
발행연도
2007.5
수록면
98 - 107 (10page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
얼굴인식 등과 같은 고차원 패턴인식에서 학습패턴의 수가 패턴 차원에 비해 매우 적을 경우 희소성 문제(the Small Sample Size problem)가 발생한다. 최근 이 문제를 해결하기 위하여 LDA, PCA+LDA, Direct-LDA 등을 비롯한 다양한 LDA-확장 법이 제안되었다. 본 논문에서는 LDA-확장 법으로 차원을 축소하기 전에 학습 패턴을 사전 클러스터링하여 서브 클래스 수를 증가시키는 방법으로 LDA-확장에 기반을 둔 식별기의 성능을 향상시키는 방법을 제안한다. LDA (또는 Direct-LDA)에서 축소된 특징공간의 차원은 학습패턴의 클래스 수로 제한되기 때문에 LDA의 식별 성능을 향상시킬 수 있도록 학습패턴을 사전에 클러스터링하여 서브 클래스의 수를 증가시키는 방법이다. 즉, 학습패턴의 특성공간(the eigen space)은 레인지 공간(the range space)과 널 공간(the null space)으로 구성되며, 레인지 공간의 차원은 클래스 수의 증가에 따라 증가한다. 따라서 변환 행렬을 구성할 때 클래스의 수를 늘려 널 공간을 최소화하게 되면 이 공간에 기인한 정보의 손실을 최소화 할 수 있다. 제안 방법을 X-OR 형태의 인공데이터와 AT&T와 Yale 벤취마크 얼굴영상 데이터베이스를 대상으로 실험한 결과 본 방법의 효용성을 확인하였다.

목차

요약
Abstract
Ⅰ. 서론
Ⅱ. 기존의 방법들
Ⅲ. 제안 방법
Ⅳ. 실험
Ⅴ. 결론
참고문헌

참고문헌 (17)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2009-569-016689739