메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

김태흥 (성균관대학교, 성균관대학교 일반대학원)

지도교수
Kee-Won Kwon
발행연도
2018
저작권
성균관대학교 논문은 저작권에 의해 보호받습니다.

이용수34

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (3)

초록· 키워드

오류제보하기
베이지안 의사결정 이론을 기반한 분류기법인 나이브 베이즈 분류기는 사후분포 추정의 단순화를 위해 훈련 데이터에 포함된 모든 변수는 조건부 독립이며, 동일한 중요도라는 비현실적인 가정을 갖는다. 이러한 가정에 의해 나이브 베이즈 분류기
는 종종 낮은 분류정확도를 보인다. 즉, 가정을 완화하는 것으로 나이브 베이즈의 분류 성능을 향상시킬 수 있다. 본 논문에서는 나이브 베이즈 분류기의 변수별 사후 확률에 서로 다른 가중치를 적용하는 것으로 변수별 서로 다른 중요도를 반영하
게 하여, 나이브 베이즈 분류기의 가정을 완화하고자 하였다.
공정에서 불량을 검출하거나, 질병을 진단하는 등과 같은 불균형 데이터는 균형 이 잡힌 데이터보다 더 많이 발생한다. 불균형 데이터 분류문제는 분류 정확도의 최대화를 기대하는 일반적인 분류기법을 사용할 시, 소수 클래스를 잘 분류하지 못
하는 분류기를 학습하게 된다. 이러한 문제는 나이브 베이즈 분류기법에도 동일하게 발생하는데, 이를 해결하고자 불균형 데이터 분류에 강한 가중 나이브 베이즈 분류기를 학습하는 기법을 제안하였다.
첫번째로 제안된 기법인 AUC-NB는 학습된 가중 나이브 베이즈 분류기의 AUC 성능을 최대화하고자 변수의 가중치를 변수별 AUC를 측정하여 부여하였다. 변수별 AUC는 단일 변수를 하나의 분류기로 가정하여 측정된 AUC 값으로, 해당변수 자체의 분류 능력을 의미한다. 또한 변수별 AUC를 기준으로 변수 선택법을 실시하여 모델의 복잡도를 감소시키는 시도를 하였다.
두번째로 제안하는 연구는 가중 나이브 베이즈 분류기의 학습을 최적화 문제로 정식화 하여 주어진 손실함수를 최소화하는 해를 가중치로 사용한다. 본 연구에서 제안하는 손실함수는 3종류로, Exponential loss, Binomial deviance 와 Binomial
deviance를 가중치의 최우추정량으로 수정한 손실함수이다. 3개의 손실함수를 각각 최소화 하는 것으로 3개의 서로 다른 가중 나이브 베이즈 분류기를 학습할 수 있다.
손실함수를 최소화하는 접근법이 뛰어난 분류 결과를 보였음에도 불구하고, 이
방법은 분류 오류의 최소화를 목적으로 설계되어 불균형 데이터 분류에 적합하지
않다. 불균형 데이터 분류문제를 위해 분류 정확도 기반의 손실함수가 아닌 AUC를
최대화하는 최적화 문제로 정식화 하는 세 번째 방법을 제안하였다. 또한 목적함수
에 정규화식을 추가하여 변수선택법과 변수중요도로서의 해석적인 기능을 강화하는
시도를 하였다. 실제 데이터를 이용한 분류 실험에서 제안된 분류기법들의 타당성
을 입증하였다.

목차

Chapter 1. Introduction 1
1.1 Background 1
1.2 Research Purpose 3
1.3 Research Methods 5
1.4 Outlines of the dissertation 6
Chapter 2. Naive Bayesian Classification 7
2.1 Naive Bayesian classifier 7
2.2 Weighted naive Bayesian classifier 9
2.3 Existing weighting methods 11
Chapter 3. Proposed method: Heuristic optimization approach 13
3.1 Receiver operating characteristics 13
3.2 Weighting variances 16
3.3 Selecting attributes by AUC 19
3.4 Numerical Experiments 20
3.5 Chapter summary 28
Chapter 4. Proposed method: Training error minimization 29
4.1 Minimizing loss functions 29
4.2 Comparative studies 34
4.3 Numerical experiments 37
4.4 Chapter summary 45
Chapter 5. Proposed Method: AUC Maximization 46
5.1 RankOptAUC 47
5.2 RankOptNB 49
5.3 Attribute selection with RNB 51
5.4 Numerical experiments 55
5.5 Chapter summary 68
Chapter 6. Numerical Experiments 69
6.1 Experimental design 69
6.2 Results 72
Chapter7. Conclusion 80

최근 본 자료

전체보기

댓글(0)

0