메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

박규하 (충남대학교, 忠南大學校 大學院)

지도교수
원문철
발행연도
2021
저작권
충남대학교 논문은 저작권에 의해 보호받습니다.

이용수4

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
Currently, many shipyards and industrial sites are using cranes. However, if an accident occurs due to a crane collision, it will lead to large property damage and personal injury. Therefore, this study proposed a new crane collision avoidance system. It is to prevent collisions between cranes by predicting 6-DOF pose of the crane through RGB image data and deep learning model.
In this study, synthetic images generation and automatic annotation using 3D CAD model and an algorithm of the crane pose estimation are proposed. It is very difficult to get the RGB image of the crane in the industrial site, but it is replaced with a synthetic image generated by rendering using a 3D CAD model. However, when using synthetic images, there is a domain gap between train data domain and test data domain. To reduce this gap, domain randomization is applied to the train data.
Also, when training a deep learning model, there is a difficulty in that a human has to do 6-DOF pose annotation. To solve this problem, the 6-DOF pose annotation is set to be automated through image processing and various functions of Blender, a rendering program.
After training, it is necessary to verify through an test, but it is very difficult to get real crane RGB images and it is impossible to annotate the 6-DOF pose of a real crane. To solve this problem, a Crane miniature is selected as a test object. And to annotate the crane pose, Arco markers are placed under the crane miniature, and the pose of the crane miniature is annotated using the predicted marker pose.
In this study, crane pose estimation algorithm has two architectures. The first architecture predicts the UV mask using UNet and UV mask is applied to the PnP and RANSAC algorithms to obtain the 6-DOF pose of the crane. In the second architecture, the bounding box of the crane is obtained from YOLO-v3, and the cropped image is input to UNet. Also, the predicted UV mask is applied to the PnP and RANSAC algorithms to obtain the 6-DOF of the crane. The results show better accuracy in the second architecture.

목차

1. 서론 1
1.1. 연구 배경 1
1.2. 선행연구 및 본 연구의 방법 분석 3
1.3. 본 연구의 기여도 6
2. 본론 7
2.1. 크레인의 자세추정 알고리즘의 구성 7
2.2. 실험 데이터 준비 9
2.2.1. 마스크 표시작업 9
2.2.2. 자세 표시작업 10
2.2.2.1 카메라 보정 10
2.2.2.2 카메라 렌즈 왜곡 보정 12
2.2.2.3 마커의 자세추정 13
2.3. 학습 데이터 준비 17
2.3.1. 학습 데이터의 종류 18
2.3.2. 3차원 캐드 모델 19
2.3.3. 기본 합성영상 생성 19
2.3.4. UV 마스크 표시작업 21
2.3.5. 도메인 무작위화 24
2.3.5.1 배경 변경 25
2.3.5.2 데이터 확장 기법 26
2.4. 알고리즘 27
2.4.1. YOLO-v3 27
2.4.2. UNet 29
2.4.3. PnP, RANSAC 31
2.5. 학습 및 실험 35
2.5.1. YOLO-v3 35
2.5.2. UNet 37
2.5.3. 실험결과 40
2.5.3.1 ADD score 40
2.5.3.2 구조별 실험결과 40
3. 결론 및 추후 연구 44

최근 본 자료

전체보기

댓글(0)

0