메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

배명진 (경남대학교, 경남대학교 대학원)

지도교수
김성일
발행연도
2021
저작권
경남대학교 논문은 저작권에 의해 보호받습니다.

이용수14

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (3)

초록· 키워드

오류제보하기
본 논문은 공감각을 느끼지 못하는 비공감각자가 학습을 통해 감각 간의 전이 현상인 공감각을 느낄 수 있는 의도적인 공감각(Intentional Synesthesia)을 이용해 입체영상에서 입체음향으로 변환하는 시스템을 제안하고 구현하였다.
입체영상에서 변환하는 정보는 영상의 3요소인 색상(Color), 질감(Texture), 모양(Shape)을 사용하였고 영상의 입체감은 물체와 카메라와의 거리를 표시하는 깊이(Depth) 값을 사용하였다. 입체음향에서 변환하는 정보는 음악의 3요소인 멜로디(Melody), 하모니(Harmony), 리듬(Rhythm)을 사용하였고 음향의 입체감은 3차원 좌표인 공간(Space) 정보를 사용하였다.
입체영상과 입체음향의 변환 관계를 학습으로 인지할 수 있어야 하므로 변환 관계가 복잡하지 않도록 각 요소를 일대일 대응하도록 설계하였다.
동일한 출력이 반복되는 것을 최소화하고 영상정보를 최대한 표현하기 위해 분포도에 따른 확률적 선택 방식을 사용하여 출력함으로써 변환 관계는 유지하면서 자연스러운 음향을 출력할 수 있도록 하였다.
입체영상에서 색상은 HSV 색 공간 모델의 색상(Hue: 0°∼360°)을 12가지 색으로 정규화하여 입체음향의 멜로디 4옥타브 반음과 온음 12개 음계에 대응하여 색상분포에 따라 확률적으로 음계를 출력할 수 있도록 하였다. 질감의 표현은 통계적 특징 추출방식인 GLCM(Gray-Level Co-occurrence Matrix)의 7가지 특징으로 질감 데이터를 하모니의 장조와 단조로 표현하였다.
모양의 표현은 영상의 외곽선을 추출한 후 주파수 성분 분석인 허프 변환(Hough Transform)을 사용해 선 성분을 검출해 선 성분의 각도 분포에 따라 리듬을 선택하는 방식으로 음향을 생성하였다. 마지막으로 영상의 입체감은 사물과 카메라와의 거리인 깊이를 음향의 공간에 3차원 좌표로 매핑(Mapping)해 표현하였다. 입체영상과 입체음향의 변환 관계를 임베디드시스템에 적용해 변환됨을 확인하였다.

목차

국문요약
I. 서 론 = 1
1. 연구의 배경 = 1
2. 연구의 목적 및 구성 = 5
II. 선행연구 = 8
1. 공감각 = 8
2. 색-음 변환 연구 = 11
2.1) 색의 3요소 = 13
2.2) 음의 3요소 = 18
3. 의도적인 공감각 = 21
4. 영상-음악 변환 연구 = 32
4.1) 영상의 3요소 = 35
4.2) 음악의 3요소 = 48
III. 실험 방법 = 53
1. 제안하는 변환 방법 53
1.1) 영상(색상) - 음향(멜로디) 변환 = 57
1.2) 영상(질감) - 음향(하모니) 변환 = 59
1.3) 영상(모양) - 음향(리듬) 변환 = 61
1.4) 영상(깊이) - 음향(공간) 변환 = 64
1.5) 임베디드시스템 = 67
IV. 실험 결과 = 76
1. 영상(색상)-음악(멜로디) 변환 결과 = 76
2. 영상(질감)-음악(하모니) 변환 결과 = 77
3. 영상(모양)-음악(리듬) 변환 결과 = 78
4. 영상(깊이)-음악(공간) 변환 결과 = 80
V. 결론 = 84
참고문헌 = 86
ABSTRACT = 90

최근 본 자료

전체보기

댓글(0)

0