메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색

논문 기본 정보

자료유형
학위논문
저자정보

김진아 (서울대학교, 서울대학교 대학원)

지도교수
권영준
발행연도
2022
저작권
서울대학교 논문은 저작권에 의해 보호받습니다.

이용수81

표지
AI에게 요청하기
추천
검색

이 논문의 연구 히스토리 (2)

초록· 키워드

오류제보하기
약한 인공지능(이하 ‘인공지능’이라 한다) 오류사고는 인공지능을 이용하는 한 피할 수 없는 문제이다. 따라서 인공지능이 범용기술로 급부상함에 따라, 인공지능 오류사고로 발생한 손해를 어떻게 귀속시킬 것인가는 중요한 문제로 등장할 것이다. 그리고 이러한 문제의 기본적이고 핵심적인 문제는 ‘과실 판단’이라고 할 수 있다. 이에 이 논문은 인공지능 오류사고 손해배상책임을 과실 판단을 중심으로 검토하였다.
먼저, 과실 판단의 선결문제로서 인공지능 오류사고를 과실책임주의로 규율하는 것이 타당한지 아니면 무과실책임으로 규율하는 것이 타당한지에 대하여 검토하였다. 다음의 네 가지 측면에서의 검토 결과, 인공지능 오류사고는 과실책임으로 규율하는 것이 타당하다고 판단하였다. 먼저, 불법행위법의 주요 목적인 손해의 ‘회복’ 측면에서, 과실책임에 의하여야 규범적으로 수긍할 수 있는 손해의 회복이 이루어질 수 있으며, 불법행위법의 또 다른 주요 목적인 사고의 ‘예방’ 측면에서도, 과실책임이 다양한 잠재적 가해자들로 하여금 주의를 기울이도록 하여 오류사고를 효과적으로 예방할 수 있으며, 인공지능 오류사고 피해자와 종래 기계의 오작동 피해자와의 ‘형평’ 측면에서도, 과실책임에 의하여야 형평성 있는 결과가 달성될 개연성이 크며, 인공지능 기술의 ‘혁신’ 측면에서도, 과실책임에 의하여야 인공지능 기술의 혁신을 저해하는 수준이 상대적으로 작을 수 있다. 이러한 네 가지 측면에서의 판단을 기반으로, 인공지능 오류사고를 과실책임으로 규율하는 것이 타당하다고 판단하였다.
따라서 인공지능 오류사고로 발생한 손해의 귀속문제를 다룸에 있어서, 과실 판단은 주요한 문제로 등장한다. 이 논문은 과실 판단 문제에 대해서 크게 세 가지 쟁점을 다루었다.
첫 번째 쟁점은, ‘주의의무 판단’이다. 어떠한 위험방지조치가 주의의무로 인정되기 위해서는 ① ‘예견가능성’과 ② ‘회피가능성’이 필요하다. ① 예견가능성을 판단함에 있어서의 핵심적인 문제는 무엇에 대한 예견가능성인지, 즉 예견가능성 ‘대상’을 판단하는 문제라고 할 수 있다. 예견가능성 대상을 추상적 위험으로 본다면 예견가능성이 긍정될 개연성이 커지는 반면, 예견가능성 대상을 구체적 위험으로 본다면 예견가능성이 부정될 개연성이 커지기 때문이다. 이 논문은 예견가능성 ‘대상’을 판단하는 기준으로서, 예견가능성 대상은 피해자가 주장하는 위험방지조치 내용의 구체성에 따라 정해진다는 기준을 제시하였다. 이러한 판단기준을 제시하기 위한 기초 논의로서, 예견가능성 대상에 관한 학계의 논의와 판례의 태도를 살펴보았다. 그리고 이 판단기준을 구체화하기 위하여 서빙로봇의 구체적 오류사고를 가정하여 그 상황에서 예견가능성 대상이 어떻게 판단되는지를 논하였다. 만약 ② 예견가능성이 긍정되면 회피가능성에 대한 판단이 필요하다. 회피가능성은 비용편익기준에 의하여 판단될 수 있다. 위험방지조치를 함으로써 희생되는 이익(비용)과 증진되는 이익(편익) 간의 비교형량을 통하여 판단될 수 있는 것이다. 따라서 이 논문은 인공지능 오류사고에서의 비용과 편익의 크기를 가늠하는 데 있어서 고려할 필요가 있는 주요요소를 제시하였다. 비용 면에서는, 위험방지조치를 함으로써 소요되는 경제적 비용의 크기, 위험방지조치를 법적 의무로 인정함으로써 그 인공지능의 보급이 저하되는 경우 충족시키지 못하게 되는 인공지능에 대한 사회적 필요성 등을 제시하였다. 편익 면에서는 안전성 증진 효과가 주요하게 고려될 필요가 있다. 그리고 그 안전성 증진의 크기는 손해발생가능성의 감소 정도와 손해의 중대성 정도를 기반으로 판단될 수 있다. 그런데 이러한 비용과 편익의 크기를 비교하는 것은 쉬운 일이 아니다. 따라서 외적으로 드러난 고려요소인 관행, 기술수준, 공법상 규제 등을 통하여 비용편익기준을 보완할 필요가 있다.
두 번째 쟁점은 ‘위험방지조치의 구체화’이다. 이에 대한 논의는 사고 예방 효과를 제고하고, 무익한 소송을 줄이기 위해서 선제적으로 이루어질 필요가 있다. 이에, 이 논문은 실제 발생한 오류사고 등을 기반으로, 오류사고를 6가지 유형으로 구분하고, 각 유형별로 개발자 또는 이용자가 할 수 있는 위험방지조치에 대한 구체화를 시도하였다. 먼저, 그 실마리를 찾기 위해 국내외 법률, 법안, 윤리 등을 고찰하였다. 그리고 그러한 논의에서 주요하게 다루고 있는 위험방지조치가 무엇인지 분석하였다. 이상의 논의를 기반으로, 이 논문은 개발자와 이용자의 위험방지조치를 오류사고의 6가지 유형, 즉 잘못된 입력값 투입에 의한 오류사고, 불완전한 알고리즘에 의한 오류사고, 외부 공격에 의한 오류사고, 재발방지 미흡에 의한 오류사고, 오용에 의한 오류사고, 불완전한 오류대처에 의한 오류사고별로 그 위험을 방지할 수 있는 조치를 제시하였다.
세 번째 쟁점은 ‘과실의 증명’이다. 인공지능 오류사고 피해자는 개발자에 비하여 낮은 수준의 전문지식, 적은 양의 정보 보유로 인하여 과실 증명에 상당한 어려움을 겪을 수 있다. 이에, 이 논문은 피해자에게 개발자의 과실을 직접적으로 증명하도록 요구하는 대신에, ‘개발자의 과실이 있었을 개연성이 높은 사고상황’에 대한 증명을 통하여 과실을 사실상 추정하도록 하여(간접사실의 증명), 피해자의 증명책임을 완화할 필요가 있다고 주장하였다. ‘개발자의 과실이 있을 개연성이 높은 사고상황’의 예로는, 오류사고가 인공지능이 직면할 것으로 전형적으로 예상되는 상황에서 발생한 경우를 들 수 있다. 개발자는 인공지능이 직면할 것으로 예상되는 상황을 학습시킬 것이 일반적으로 기대된다고 할 수 있기 때문이다. 한편 ‘개발자의 과실이 있을 개연성이 높은 사고상황’을 증명하기 위해서는, 인공지능 작동기록이 주요한 증거로 주목받을 개연성이 높다. 그 사고 전후의 상황을 기록하고 있을 것이기 때문이다. 그런데 피해자가 이용자라면 인공지능 작동기록을 보유하고 있을 수 있지만, 피해자가 간접이용자나 제3자라면 작동기록을 보유하고 있지 않을 개연성이 크다. 따라서 피해자가 작동기록을 보유하고 있지 않은 경우에는, 이를 확보할 수 있는 법적 수단이 요구된다. 그러나 현행법상 증거수집제도는 그 실효성이 낮다는 점에서 한계가 있다. 이에 대해서는 입법적 보완이 필요하다는 점을 지적하였다.
이상의 세 가지 쟁점을 중심으로 인공지능 오류사고에서의 과실 판단을 검토한 후에, 손해배상책임을 발생시킬 수 있는 법적 근거를 살펴보았다. 일반불법행위책임, 제조물책임, 공작물책임의 적용 모습, 감독자책임 ? 사용자책임 ? 동물점유자책임의 유추 적용 여부를 검토하였다. 그 결과, 인공지능 오류사고 피해자는 일반불법행위책임, 제조물책임(인공지능이 제조물에 탑재된 경우), 공작물책임(인공지능이 공작물에 탑재된 경우)에 의한 손해배상청구를 생각해 볼 수 있다고 판단하였다. 반면 감독자책임 ? 사용자책임 ? 동물점유자책임을 인공지능 오류사고에 유추적용하는 것은 타당하지 않다고 판단하였다.
이 논문은 과실 판단을 중심으로 인공지능 오류사고 손해배상책임을 연구하였다. 인공지능 일반을 대상으로, 개발자와 이용자를 책임주체로 설정하고, 현재의 기술 수준을 전제로 논의하였다. 그런데 과실 판단의 구체적 모습은 인공지능의 종류, 잠재적 책임주체, 오류사고 당시의 기술수준에 따라서 달라진다. 따라서 인공지능 오류사고에서의 손해배상책임에 관한 논의가 발전되기 위해서는, 개별 인공지능의 특수성을 고려한 논의가 필요하고, 개발자와 이용자뿐만 아니라 인공지능 오류사고에서 등장할 수 있는 다양한 잠재적 책임주체를 고려할 필요가 있으며, 인공지능 기술수준의 변화에 따라 기존 논의를 새롭게 검토해 나가는 노력이 필요하다.

Accidents arising from errors in weak artificial intelligence (hereinafter “AI”) are considered unavoidable as long as AI is in use. The further the areas in which AI is applied extend, the more important the issue of attributing liability for damages from AI errors becomes. At the core of this issue is the concept of ‘negligence’. This thesis aims to deal with liability for damages from AI errors, with a particular focus on the determination of negligence.
This thesis mainly deals with three issues regarding the determination of negligence.
The first issue is the ‘determination of the duty of care’. For a risk prevention measure to be recognized as fulfilling the duty of care, ① ‘foreseeability’ and ② ‘avoidability’ are necessary. ① The key to determining foreseeability is to identify the ‘subject’ of foreseeability. This thesis presents a criterion for determining the subject of foreseeability ? that the subject of foreseeability is determined according to the specificity of the risk prevention measure called for by the aggrieved. As a basic study for presenting such a criterion, this thesis reviews the related debates within academia and the tendencies of court decisions regarding the subject of foreseeability. Then, in order to examine the specific applicability of the criterion, this thesis hypothesizes an incident involving an error in a serving robot to examine how the subject of foreseeability could be determined in such a situation. ② Once foreseeability is established, avoidability needs to be determined. Avoidability can be determined using cost-benefit criteria. In other words, it can be determined through a balancing test between the interests that are sacrificed (costs) and the interests that are promoted (benefits) by a risk prevention measure. Thus, this thesis presents key factors that need to be considered in measuring the scale of the costs and the benefits related to an incident involving an AI error. However, it is difficult both to measure the absolute scale of costs and benefits and to compare their relative scales. Therefore, it is necessary to supplement the cost-benefit criteria with external factors to be considered, such as customary practices, technology level, and regulation by public law, etc.
The second issue is the ‘development of specific risk prevention measures’, which must be discussed preemptively in order to improve the accident prevention effect and to minimize unnecessary lawsuits. Against this backdrop, this thesis classifies accidents involving an AI error into six categories based on actual accidents and attempts to develop specific risk prevention measures that developers or users can take. To begin with, this thesis reviews the laws, legislative bills, and ethical standards at home and abroad in order to identify the proper direction and then analyzes several leading risk prevention measures. Then, it proposes risk prevention measures for developers and users to prevent the six respective types of AI error accidents.
The third issue is the ‘proof of negligence’. People aggrieved by AI error accidents may encounter significant difficulties in proving negligence due to the relatively low level of related professional knowledge and insufficient data compared to those of developers. This thesis argues that it is necessary to alleviate the victim’s burden of proof by allowing for deemed negligence by way of proving a ‘situation in which the developer is likely to have committed negligence (proof of indirect facts). In proving indirect facts, the operation record of AI is likely to be used as key evidence. However, if the victim does not possess the operation record, some legal means are required so as to secure this record. Nevertheless, the evidence collection rules under the current laws have their limitations in that they are not effective. This thesis emphasizes the necessity to supplement these through legislative efforts.
After touching upon the determination of negligence in AI error accidents centering on these three issues, this thesis deals with the legal grounds for liabilities for compensation. In particular, it examines the application of general tort, product liability, and structure liability as well as the possibility of analogical applications of supervisor liability, vicarious liability, and animal possessor’s liability. It then draws the conclusion that a person aggrieved by an AI error accident may seek compensation based on general tort, product liability (in the case where AI is installed on hardware), and structure liability (in the case where AI is installed on a structure).

목차

제1장 서론 1
제1절 연구의 목적 1
제2절 논문의 구성 3
제2장 인공지능과 오류사고 7
제1절 인공지능 7
I. 인공지능 정의 7
1. 도입 7
2. 선행 논의 8
가. 우리나라 8
나. 유럽연합 9
다. 분석 : 개념요소 도출 11
3. 검토 12
가. 첫 번째 개념요소 : 목적 12
나. 두 번째 개념요소 : 프로세스 14
다. 세 번째 개념요소 : 구현기술 14
라. 네 번째 개념요소 : 형태 17
마. 정리 17
II. 인공지능 특성 18
1. 개관 18
2. 개발단계 19
가. 자율성 19
나. 통계성 20
다. 복잡성 20
라. 다수성 21
3. 이용단계 22
가. 개방성 22
나. 연결성 23
4. 정리 24
III. 인공지능 판단의 특성 : 불확실성 24
1. 의의 24
2. 발생원인 26
가. 알고리즘 측면 26
나. 입력값 측면 28
IV. 인공지능 유형 29
제2절 오류사고 31
I. 오류사고 정의 31
1. 도입 31
2. ‘오류’의 개념 33
3. ‘사고’의 개념 34
4. ‘오류’와 ‘사고’의 관계 34
5. 소결론 37
II. 오류사고 발생원인 37
1. 개관 37
2. ‘잘못된 입력값 투입’에 의한 오류사고 38
3. ‘불완전한 알고리즘’에 의한 오류사고 39
4. ‘외부 공격’에 의한 오류사고 41
가. 입력값 : 회피공격 42
나. 알고리즘 : 중독공격 42
5. ‘재발방지 미흡’에 의한 오류사고 43
6. ‘오용’에 의한 오류사고 44
7. ‘불완전한 오류대처’에 의한 오류사고 44
III. 오류사고를 둘러싼 잠재적 소송당사자 45
1. 인공지능? 45
2. 잠재적 피고 : 개발자, 이용자 46
3. 잠재적 원고 : 이용자, 간접이용자, 제3자 47
제3장 과실 판단 49
제1절 개관 49
제2절 선결문제 49
I. 과실책임주의 및 무과실책임 의의 50
II. 인공지능 오류사고와 과실책임주의 52
1. 도입 52
2. 일반적 기준 52
가. 회복 53
나. 예방 56
3. 특수한 기준 56
가. 형평 56
나. 혁신 57
4. 소결론 59
제3절 과실 일반론 59
I. 고의 또는 과실의 개념 59
1. 고의 개념 59
2. 과실 개념 : 과실과 주의의무 60
II. 주의의무 판단 61
1. 개관 61
2. 설정기준 62
가. ‘추상적 과실론’과 구체적 과실론 62
나. ‘객관적 과실론’과 주관적 과실론 64
3. 전제요건 66
가. 개관 66
나. 예견가능성 68
(1) 개관 68
(2) 대상 68
(3) 기준 82
(4) 소결론 85
다. 회피가능성 86
(1) 판단방식 86
(2) 보완방식 88
4. 소결론 89
III. 과실 증명 89
1. 증명책임 89
가. 의의 89
나. 완화 90
(1) 학설 91
(2) 판례 93
2. 증거수집 96
제4절 인공지능 오류사고와 주의의무 판단 98
I. 개관 98
II. 인공지능 오류사고와 예견가능성 99
1. 개관 99
2. 일반적 판단 : 예견가능성 인정 가부 99
3. 구체적 판단 : 서빙로봇 사례를 통한 판단 101
가. 도입 101
나. 예견가능성 대상과 관련한 구체적 사례 102
(1) 사례 1 : 추상적 내용의 위험방지조치 102
(2) 사례 2 : 구체적 내용의 위험방지조치 104
다. 예견가능성 판단기준과 관련한 구체적 사례 106
(1) 사례 3 : 침해의 정도가 경미한 경우 106
(2) 사례 4 : 침해의 정도가 중대한 경우 108
4. 소결론 110
III. 인공지능 오류사고와 회피가능성 110
1. 개관 110
2. 고려요소 110
가. 비용 110
(1) 소요되는 경제적 비용 111
(2) 충족되지 않는 사회적 필요 111
(3) 저하되는 본질적 기능 113
(4) 다른 측면에서 저하되는 안전성 113
나. 편익 114
(1) 감소되는 손해발생가능성 114
(2) 손해의 중대성 114
3. 보완요소 116
가. 관행 117
나. 기술 수준 117
다. 공법상 규제 118
라. 외부기관의 안전평가 118
마. 정기점검 등에 대한 수용도 120
4. 보론 : 사후편견 120
5. 소결론 121
IV. 구체적 적용 : 왓슨을 이용하는 의사의 주의의무 판단 122
1. 도입 122
2. 왓슨을 이용하는 의사의 주의의무 판단 123
가. 논의의 기초 123
나. 사례 1 : 왓슨은 정확한 판단, 의사는 잘못된 판단을 한 경우 125
다. 사례 2 : 왓슨은 잘못된 판단, 의사는 정확한 판단을 한 경우 127
라. 사례 3 : 왓슨과 의사 모두 잘못된 판단을 한 경우 130
V. 소결론 131
제5절 인공지능 오류사고와 위험방지조치 131
I. 논의 필요성 131
II. 인공지능 관련 법령 132
1. 개관 132
2. 지능정보화 기본법 133
3. 지능형 로봇 개발 및 보급 촉진법 134
4. 자율주행자동차의 안전운행요건 및 시험운행 등에 관한 규정 134
5. 정보보호조치에 관한 지침 135
6. 산업안전보건기준에 관한 규칙 135
7. 소프트웨어 품질인증 운영에 관한 지침 136
III. 인공지능 관련 윤리 및 국외 법령 ? 법안 136
1. 도입 136
2. 우리나라 138
가. 개관 138
나. 자율주행차 윤리 가이드라인 138
다. 금융분야 AI 운영 가이드라인 140
3. 유럽연합 142
가. 신뢰할 수 있는 AI를 위한 가이드라인 142
나. 인공지능에 대한 민사책임규정을 제안하는 결의안 143
다. 인공지능 규제법안 144
4. 독일 : 도로교통법 147
5. 미국 151
가. 개관 151
나. 자율주행시스템: 안전을 위한 비전 2.0 152
6. 일본 153
가. AI 개발 가이드라인 153
나. AI 이용 · 활용 가이드라인 155
7. 비교분석 157
IV. 개발자의 위험방지조치 160
1. 개관 160
2. 잘못된 입력값 투입에 의한 오류사고 방지 160
3. 불완전한 알고리즘에 의한 오류사고 방지 161
가. 개관 161
나. 학습용 데이터 세트 구축 161
(1) 양: 충분한 양의 데이터 확보 161
(2) 질 : 고품질 데이터 세트 구축 162
다. 머신러닝 알고리즘 설계 163
라. 인공지능 알고리즘 검증 165
(1) 개관 165
(2) 적절한 검증용 데이터 세트 구축 165
(3) 적절한 검증목표 수준 설정 166
(4) 적절한 방법으로 성능 측정 166
마. 설명 인터페이스 탑재 169
4. 외부 공격에 의한 오류사고 방지 171
5. 재발방지 미흡에 의한 오류사고 방지 172
가. 개관 172
나. 인공지능 작동기록 저장 및 전송 172
다. 모니터링 175
라. 업데이트 제공 또는 경고 ? 이용정지 176
6. 오용에 의한 오류사고 방지 176
가. 개관 176
나. 지시 ? 경고 조치 177
다. 정확한 표시 ? 광고 177
라. 풀프루프 설계 178
7. 불완전한 오류대처에 의한 오류사고 방지 179
가. 도입 179
나. 논의의 기초 180
다. 페일세이프 설계 : 인간개입형 인공지능 181
라. 페일세이프 설계 : 인간감독형 인공지능 182
(1) 일반적 모습 182
(2) 페일액티브 설계 183
(3) 페일패시브 설계 185
(4) 페일오퍼레이셔널 설계 185
V. 이용자의 위험방지조치 186
1. 잘못된 입력값 투입에 의한 오류사고 방지 186
2. 불완전한 알고리즘에 의한 오류사고 방지 186
3. 오용에 의한 오류사고 방지 187
4. 불완전한 오류대처에 의한 오류사고 방지 187
VI. 소결론 189
제6절 인공지능 오류사고와 과실 증명 190
I. 개관 190
II. 증명부담 판단 191
1. 기준 191
2. 판단 192
3. 소결론 194
III. 증명책임 완화 195
1. 선결문제 195
2. 내용 196
3. 소결론 197
IV. 증거자료 확보 198
1. 개관 198
2. 간접사실 증명에 필요한 주요 정보 198
3. 증명에 필요한 정보 확보 가부 199
4. 소결론 200
제4장 인공지능 오류사고의 손해배상책임 202
제1절 개관 202
제2절 일반불법행위에 기한 손해배상책임 203
I. 개관 203
II. 행위 203
III. 위법성 205
IV. 손해 208
V. 인과관계 209
1. 일반론 209
2. 인공지능 오류사고와 인과관계 211
VI. 소결론 212
제3절 제조물 책임법에 기한 손해배상책임 212
I. 개관 212
II. 제조물 212
1. 도입 213
2. 인공지능이 제조물에 탑재되어 공급된 경우 213
3. 인공지능 소프트웨어로 공급된 경우 215
가. 학설 215
(1) 제조물성을 긍정하는 견해 215
(2) 제조물성을 부정하는 견해 216
(3) 저장매체에 담긴 소프트웨어는 제조물성을 긍정하는 견해 217
나. 법원의 태도 217
다. 검토 218
III. 결함 219
1. 결함 요건 219
가. 제조상 결함 220
나. 설계상 결함과 표시상 결함 220
다. 기타의 결함 222
2. 결함 등 증명 223
IV. 제조물 외의 손해발생 223
V. 면책 224
1. 면책사유 224
가. 개발위험의 항변 225
나. 법령준수의 항변 227
2. 면책사유 적용 제한 227
3. 면책특약 228
VI. 소결론 229
제4절 공작물 하자로 인한 손해배상책임 229
I. 개관 229
II. 공작물 230
III. 설치 또는 보존의 하자 232
IV. 소결론 233
제5절 개별 특수불법행위책임의 유추적용 여부 검토 233
I. 논의의 기초 233
II. 감독자책임 234
III. 사용자책임 236
IV. 동물점유자책임 239
V. 보론 : 특수불법행위책임 사상의 유추 가부 240
제6절 수인의 손해배상채무 간의 관계 242
I. 일반론 242
1. 공동불법행위의 유형 242
2. 손해배상채무 간의 관계 244
II. 인공지능 오류사고와 공동불법행위 245
1. 논의의 기초 246
2. 공동불법행위 유형 판단 247
3. 손해배상채무 간의 관계 248
제7절 소결론 249
제5장 결론 250

최근 본 자료

전체보기

댓글(0)

0