메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
박명준 (인천대학교) 서재현 (광주대학교)
저널정보
한국지능시스템학회 한국지능시스템학회 논문지 한국지능시스템학회 논문지 제34권 제6호
발행연도
2024.12
수록면
502 - 509 (8page)
DOI
10.5391/JKIIS.2024.34.6.502

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
시스템 사용자들은 문제를 운영 시스템을 기준으로 인식함에 따라, 장애 요인과 무관하게 요청사항이 시스템 운영 부서로 전달되는 경향이 많다. 이러한 현상을 바탕으로 운영 부서로 잘못 전달된 IT 요청사항 데이터셋을 활용하여 대형 언어 모델(LLM) 가운데 하나인 BERT모델로 학습하였고, IT 요청사항 데이터셋은 총 4개 부서의 클래스로 구성되어 있다. 모델학습 결과 Validation Loss(검증 데이터 손실) 증가로 과적합이 발생함에 따라 이에 대한 가장 효율적인 해결 방안으로 데이터 증강을 시도하였다. BERT와 같은 대규모 알고리즘은 소규모의 데이터셋으로 모델을 훈련할 경우 과적합(Overfitting)이 일어날 수 있기 때문이다. 과적합을 방지하고 모델의 학습 성능을 향상시키기 위해 훈련 데이터 증강(Data Augmentation)이 효과적인 방법으로 제시된다. 본 연구에서는 대표적인 네 가지의 텍스트 데이터 증강 기법을 적용하여 모델의 학습 정확도와 모델 일반화(Model Generalization) 능력을 비교 실험하는 연구를 수행하였다.

목차

요약
Abstract
1. 서론
2. 관련연구
3. 제안기법
4. 실험 데이터 전처리
5. 실험결과
6. 결론 및 향후 연구
References

참고문헌 (15)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-151-25-02-092160738