메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
정영환 (한국전자기술연구원) 최원기 (한국전자기술연구원) 김지형 (한국전자기술연구원) 계효선 (한국전자기술연구원) 이상신 (한국전자기술연구원)
저널정보
한국정보기술학회 Proceedings of KIIT Conference 한국정보기술학회 2023년도 추계종합학술대회 및 대학생논문경진대회
발행연도
2023.11
수록면
14 - 18 (5page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
연합학습(Federated learning, FL)은 client-server 간 신경망 모델의 교환만으로 분산된 대규모 민감한 사용자 데이터를 지역화하면서 동시에 고성능 훈련 모델을 얻을 수 있어 주목받는다. 하지만 대부분의 기존 훈련방식들을 보다 실질적인 환경에 적용하기 위해서는 아직 해결해야 할 문제(e.g. non-IID 데이터 처리, 클라이언트 공정성)가 남아 있다. 이와 같은 문제들을 완화하고 보다 실질적인 환경에서 FL의 훈련 성능을 향상시키기 위해 본 논문에서는 클라이언트의 훈련 규모 조율 방법(Training-scale orchestration method, TOM)을 제안한다. 제안하는 방법은 동적 훈련 규모 조정을 통해 non-IID local data를 갖는 클라이언트들의 훈련 과정에서 global model이 일부 대규모 데이터를 갖는 클라이언트에게 편향되는 것을 완화한다. 실험결과 non-IID 및 heavy-tail 환경에서 제안하는 방법의 성능이 기존 FL 훈련 방식을 능가함을 확인한다.

목차

요약
Abstract
Ⅰ. 서론
Ⅱ. Background & Motivation
Ⅲ. Training-scale Orchestration method(TOM)
Ⅳ. Simulation Results
Ⅴ. 결론
참고문헌

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-151-24-02-088558529