메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

김진영 (연세대학교, 연세대학교 대학원)

지도교수
이장원
발행연도
2018
저작권
연세대학교 논문은 저작권에 의해 보호받습니다.

이용수2

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
최근 모바일 디바이스의 보급이 보편화되고 이동 통신망이 수용해야 할 사용자의 data가 급격히 증가함에 따라 이동 통신망의 용량 증대와 delay 성능 개선에 관한 요구가 증가하고 있으며, 시스템 성능 개선을 위한 기지국의 최적 스케줄링 policy의 중요성이 주목받고 있다. 이를 위해 기존의 많은 연구에서 개선하고자 하는 성능과 요구 조건들을 최적화 문제로 정의하고 다양한 방법을 통해 문제를 해결하는 방법에 관한 연구를 진행하였다.

본 논문에서는 셀 전체 사용자의 delay를 최소화하면서 사용자별 delay 요구 조건을 만족시키는 문제를 고려한다. 문제를 정의하기 위해 채널 상태와 버퍼 크기 등 delay 성능에 영향을 미치는 환경 요소를 이산화시켜 Markov process 형태로 정의하고 셀 전체 사용자의 평균 delay를 목적 함수, 사용자별 delay의 대한 제한 기준을 요구 조건으로 정의한 Constrained Markov Decision Process (CMDP)형태의 최적화 문제로 수식화한다. 이렇게 수식화된 CMDP 문제는 Lagrangian 기법을 통해 Unconstrained Markov Decision Process (UMDP)로 완화 되고 Google DeepMind에서 제안한 Deep Q-Network (DQN) 알고리즘을 이용하여 근사화된 최적 policy를 도출하며, stochastic sub-gradient 기법을 이용하여 최적 Lagrangian multiplier를 도출한다. 또한, DQN 알고리즘을 이용하기 위해 본 논문에서는 새로운 state 영역과 action 영역을 제안하며, 이는 사용자 수의 변화와 사용자 분포의 변화에도 형태의 변화 없이 일반적으로 적용할 수 있다.

이렇게 제안된 DQN 스케줄링 알고리즘의 성능을 측정하기 위해 먼저 DQN 스케줄러를 8개의 training data를 통해 학습시킨 후, 학습이 완료된 DQN 스케줄러를 두 가지 test 환경에서 성능을 측정한다. 첫 번째는 training data를 그대로 이용한 test이며, 두 번째는 training data와 다른 사용자 수와 사용자 분포로 구성된 test data를 이용한 test이다. 실험 결과 두 test 환경에서 모두 셀 내 전체 사용자 delay를 최소화하면서, 사용자별 delay 요구 조건을 만족시켜 주는 결과를 보인다.

이를 통해 DQN 스케줄링 알고리즘을 이용하여 학습된 스케줄링 policy는 새로운 test 환경에서도 적용할 수 있는 일반화된 스케줄링 policy임을 확인할 수 있었으며, 추후 더 많은 사용자 수와 새로운 무선 통신 기법, 그리고 delay 외의 다양한 요구 조건을 추가로 확장하여 시스템 성능 개선을 위한 시스템의 스케줄링 policy를 도출하는데 적용할 수 있을 것으로 판단된다.

목차

등록된 정보가 없습니다.

최근 본 자료

전체보기

댓글(0)

0