메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

이요한 (고려대학교, 고려대학교 대학원)

지도교수
임묘택
발행연도
2017
저작권
고려대학교 논문은 저작권에 의해 보호받습니다.

이용수0

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (3)

초록· 키워드

오류제보하기
In this thesis a new 2-level recurrent neural network language model based on Continuous Bag of Words (CBOW) with applications to sentence classification is presented.
A neural network architecture for statistical language modeling (NNLM) has been shown to be competitive with and occasionally superior to the widely-used-n-gram language models. The vector representations of words learned by NNLM have been shown to carry semantic meanings and are useful in various natural language processing tasks. Especially, the CBOW which is advanced NNLM has attracted a great amount of attention in recent years. While standard NNLM predicts one target word given previous context words, the CBOW predicts one target word given surrounding context words and it is superior to the standard NNLM. However, disadvantage of the CBOW is that it only considers fixed length of context because the basic structure of the CBOW is neural network which has fixed length of input.
In contrast, recurrent neural network based language model (RNNLM) does not use limited size of context, but it only considers previous context words. Therefore the advantage and disadvantage of the RNNLM is complementary to those of the CBOW. To apply the CBOW to RNNLM, bidirectional recurrent neural network (BRNN) is adopted. Furthermore, 2-level recurrent neural network (RNN) structure is proposed to abstract the context representation that have proved so effective in deep networks.
The proposed model herein encode many linguistic patterns and improve upon sentiment analysis and question classification benchmarks.

목차

제 1 장 서론 1
1.1 연구의 배경 1
1.2 연구의 목적 및 내용 4
1.3 논문의 구성 5
제 2 장 배경 이론 7
2.1 순환 신경망 7
2.1.1 순환 신경망의 구조 8
2.1.2 Back-Propagation Through Time 9
2.1.3 기울기 소실 문제 12
2.2 언어 모델 13
2.2.1 신경망 언어 모델 14
2.2.2 Continuous Bag of Words 17
2.2.3 순환 신경망 언어 모델 19
제 3 장 CBOW 기반 2-레벨 순환 신경망 21
3.1 CBOW 기반 2-레벨 순환 신경망의 구조 21
3.2 순환 신경망 유닛 23
3.2.1 Long Short Term Memory 24
3.2.2 Gated Recurrent Unit 27
3.3 Regularization 30
제 4 장 실험 결과 및 분석 33
4.1 실험 환경 및 구성 33
4.2 언어 모델링 실험 36
4.2.1 순환 신경망 유닛의 모델링 정확도 비교 37
4.2.2 언어 모델의 모델링 정확도 비교 39
4.3 문장 분류 실험 43
제 5 장 결론 46
참고 문헌 49

최근 본 자료

전체보기

댓글(0)

0