메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
강종성 (서울대학교) 김태환 (서울대학교)
저널정보
대한전자공학회 대한전자공학회 학술대회 2016년도 대한전자공학회 정기총회 및 추계학술대회
발행연도
2016.11
수록면
42 - 45 (4page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

이 논문의 연구 히스토리 (4)

초록· 키워드

오류제보하기
This work addresses the problem of generating a fast arithmetic circuit for each of the node computations of convolutional neural network (CNN). Once a training phase is done in CNN, the computation of each node can be expressed as a sum of multiplications with constant inputs (i.e., with known weights obtained from the training phase). Consequently, we can convert the multiplications into a sum of multiple addends, thereby producing an expression of sum of addends for the node computation, from which we generate a fast carry-save-adder (CSA) implementation structure for the expression. Through gate-level implementation of our proposed technique, we are able to reduce the node computation time by 8.8% on average while a little increase in power consumption, which is mainly caused by our prototyping of incompletely optimized CSA circuits in comparison with the commercial CSAs.

목차

Abstract
Ⅰ. 서론
Ⅱ. CNN 및 기초 연산
Ⅲ. 제안하는 연산 블록 구조
Ⅳ. 실험결과
Ⅴ. 결론
참고문헌

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문의 저자 정보

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2017-569-001931898