메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
권주혁 (상명대학교) 류지혜 (상명대학교) 정진우 (상명대학교)
저널정보
한국통신학회 한국통신학회논문지 한국통신학회논문지 제47권 제9호
발행연도
2022.9
수록면
1,330 - 1,340 (11page)
DOI
10.7840/kics.2022.47.9.1330

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
본 논문에서는 네트워크 최대 단대단 지연 시간의 최소화를 위한 강화학습 기반 스케줄러를 single agent 환경과 multi agent 환경에서 구현하였다. 강화학습 모델은 double deep Q-network(DDQN)와 prioritized experience replay(PER)를 사용하였다. Multi agent 환경에서는 agent가 정확한 단대단 지연 시간을 알 수 없기에 추정 지연시간을 사용해 상태(state)와 보상(reward)을 구했다. 강화학습 기반 스케줄러의 성능을 확인하기 위해 4가지의 네트워크 토폴러지들을 구현하여 강화학습 기반 스케줄러와 FIFO, round robin(RR), 간단한 heuristic algorithm(HA)들을 비교하였다. 시뮬레이션 결과 강화학습 기반 스케줄러는 고정적인 패킷 생성 시나리오의 토폴로지들에서 모두 최대 단대단 지연 시간의 최소화를 달성하였고 FIFO, RR은 모두 달성하지 못했으며 HA는 하나의 토폴로지에서 달성하지 못했다. 무작위로 플로우가 생성되는 시나리오에서 강화학습 기반 스케줄러는 FIFO, RR보다 좋은 성능을 보였으나 토폴로지에 따라 HA와 비교하여 같거나 떨어지는 성능을 보였다.

목차

요약
ABSTRACT
Ⅰ. 서론
Ⅱ. 관련 연구
Ⅲ. 시뮬레이션 구현 예시
Ⅳ. 시뮬레이션 결과
Ⅴ. 결론
References

참고문헌 (14)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2022-567-001699661