메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

김준회 (고려대학교, 고려대학교 컴퓨터정보통신대학원)

지도교수
임희석
발행연도
2023
저작권
고려대학교 논문은 저작권에 의해 보호받습니다.

이용수9

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
기존의 자연어 처리 모델은 문맥 단위 단어 임베딩을 처리하지 못하는 한계점을 가지고 있다. Bi-LSTM, RNN 등의 자연어 처리 딥러닝 모델의 경우 단어 임베딩 이후의 학습 과정에서는 문맥을 고려하지만, 단어 임베딩 단계에서 문맥 단위로 처리하지 못한다는 한계가 그것이다. 한편 최근 BERT 기반 사전학습 모델들은 단어 임베딩 단계부터 문장 단위 임베딩이 가능하고 사전학습을 통해 학습 효율과 성능이 비약적으로 개선되었다는 특징이 있다.
본 논문에서는 사전학습 언어 모델들을 이용하여 음식점, 배달전문점 등 음식업종에서 발생한 고객 발화 의도를 분류하고 모델별 성능을 비교하여 최적의 모델을 제안하고자 한다. 본 연구에서는 사전학습 모델로 BERT, KoBERT KoELECTRA, KLUE-BERT를 사용하였다. 연구결과, 사전학습 모델의 토크나이징 방법이 한국어 특성을 잘 반영할수록, 그리고 한국어 코퍼스와 Vocab 사이즈가 클수록 고객의 발화 의도를 잘 예측하였다. 또한, KoELECTRA 모델과 KLUE-BERT 모델의 경우 대화 문맥을 고려한 경우와 그렇지 않은 경우를 비교했을 때 대화 문맥을 고려한 경우 성능이 개선되었다.
한편, 본 연구에서 발화자의 의도를 크게 문의와 요청으로 구분하여 진행하였는데, 문의와 요청의 큰 차이점인 ‘물음표’를 제거한 후 성능을 비교해본 결과, 물음표가 존재할 때 문의와 요청의 발화자 의도 예측에 좋은 성능을 보였다. 이러한 연구를 통해 음식업종에서 발화자의 의도를 예측하는 시스템을 개발하고 챗봇 시스템 등에 활용한다면, 발화자의 의도에 적합한 서비스를 정확하게 적시에 제공할 수 있을 것으로 기대한다.

목차

목 차
국문요약
제 1 장 서론 1
1.1. 연구배경 및 목적 1
1.2. 연구의 구성 2
제 2 장 선행연구 3
2.1. 딥러닝 이전 모델 3
2.2. 딥러닝 활용 모델 4
2.3. BERT 사전학습 모델 6
2.4. ELECTRA 사전학습 모델 8
제 3 장 연구 방법론 9
3.1. 분석 방법 9
3.2. 분석 데이터 10
3.3. 데이터 전처리 11
3.4. 모형 평가 지표 14
제 4 장 연구결과 15
4.1. 클래스 개수별 모델 실험 결과 15
4.2. 사전학습 모델별 특징과 실험 결과 18
4.3. 문맥 고려에 따른 모델별 실험 결과 23
제 5 장 결론 25
참고 문헌 27
Abstract 29

최근 본 자료

전체보기

댓글(0)

0