메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술대회자료
저자정보
조태완 (가천대학교) 노하림 (덕성여자대학교) 유진희 (고려대학교) 양희재 (성균관대학교) 최재용 (가천대학교)
저널정보
대한전자공학회 대한전자공학회 학술대회 2024년도 대한전자공학회 추계학술대회 논문집
발행연도
2024.11
수록면
691 - 695 (5page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
본 연구는 이미지와 텍스트 간의 연관성을 학습하는 Contrastive Learning 기반의 CLIP 모델이 높은 계산 복잡도와 큰 모델 크기로 인해 리소스가 제한된 환경에서 활용이 어려운 문제를 해결하고자 한다. 이를 위해 Transformer 기반 ViT 모델의 지식을 Mamba 기반 이미지 인코더로 Knowledge Distillation하여 성능을 개선하는 방식을 제안한다. 실험 결과, Mamba 기반 인코더는 이미지 인코더의 지연 시간을 49.58%, 모델 전체 지연 시간을 40.82% 줄이며, 성능 저하는 0.12%에 불과했다. 또한, SVHN과 EuroSAT 데이터셋에서 각각 6.6%와 19.4%의 성능 향상을 보이며 연속적 패턴 처리와 고해상도 공간 정보 학습에서 강점을 발휘하였다.

목차

Abstract
I. 서론
II. 기존 연구
III. 실험 및 분석
IV. 결론
참고문헌

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0