메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
김진우 (한국외국어대학교)
저널정보
중앙법학회 중앙법학 중앙법학 제23집 제4호(통권 제82호)
발행연도
2021.12
수록면
7 - 51 (45page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
현행법상 인공지능 시스템은 권리주체가 아니기 때문에 시스템의 표시나 행위는 그 배후에 있는 권리주체에게 귀속되어야 하겠지만 그러한 결론에 이르기 위한 설득력 있는 법리는 발견되지 않는다. 기존의 법률행위론에 따르면 인공지능 시스템의 의사표시를 사용자의 의사표시라고 하기 어렵다. 국내 문헌들은 일반적으로 효과의사가 있어야 의사표시가 성립한다고 하는데, 인공지능 시스템에 의한 표시에서는 사용자가 시스템의 표시내용을 사전에 알 수 없는 경우가 대부분이고 그때에는 사용자의 효과의사를 인정하기 쉽지 않기 때문이다. 결국 기존의 법리로는 인공지능 시스템의 의사표시를 그 사용자에게 귀속시키거나 사용자의 의사표시라고 하기는 매우 곤란하다. 인공지능 시스템의 표시를 사용자에게 귀속시키기 위한 기존의 다양한 접근방식의 어느 것도 인공지능 시스템의 자율성 위험(Autonomierisiko)을 적절히 반영하지 않는다. 프로그램 개발자조차 예측·제어할 수 없는 시스템의 의사결정에도 불구하고 시스템을 사용자의 단순한 도구로 보아 그것의 표시를 사용자의 표시로 이해하는 것은 —입법자의 결단에 의해 뒷받침되지 아니한— 부당한 의제(Fiktion)라고 할 수 있다. 인공지능 시스템을 사용하려는 일반 의사를 일정 법률행위를 체결하려는 의사와 동일시한다면 법률행위론의 정립된 관념은 과도하게 확장될 것이다. 이러한 접근방식은 사용자로 하여금 단순히 인공지능 시스템의 사용에 대해 책임을 지도록 하는 것이자 위험책임을 인정하는 것과 다름없으며, 그러한 위험책임은 ‘뒷문’을 통해 인공지능시스템의 사용을 금지하는 것과 다르지 않다.
인공지능 시스템의 표시에 대해서는 대리법리를 유추 적용함이 가장 타당해 보인다. 인공지능 시스템의 의사표시는 일반적으로 그 배후에 있는 사용자를 위한 것이기 때문이다. 이러한 배경에서 이 상황은 기본적으로 민법 제114조 이하에 따른 대리와 유사하다. 이러한 유사한 상황에도 불구하고 인공지능 시스템에 대리 규정을 유추 적용하는 것은 인공지능 시스템의 법인격 결여로 인하여 배제된다. 이러한 문제점을 해결하기 위해서는 인공지능 시스템에 법인격을 부여하는 방안 또는 대리인의 권리능력을 요구하지 않는 방향으로의 대리제도의 근본적인 변혁이 필요하다.
피해자는 인공지능 시스템으로 인한 피해 발생 시 인과관계나 결함과 관련하여 증명곤란의 문제에 직면하게 된다. 제조물책임에 관해서는 제조물책임법에 따른 증명경감이 이루어지지만, 인공지능 시스템의 사용자에 대해서는 원칙적으로 피해자가 주장 및 증명과 관련하여 전적인 책임을 진다. 제조자가 잠재적으로 사용자와 함께 책임을 져야 하지만, 인공지능 시스템은 성상이 변경되기 때문에 피해자가 제조물책임의 핵심 요건인 제조물의 ‘결함’을 증명하기 어려울 수 있다. 또한 일반 불법행위법(민법 제750조 이하)에 따른 제조자의 책임에서 제조자의 주의의무를 어떻게 구성할 것인지도 불분명하다. 민법 제750조 및 거기에 확립된 유책주의의 원칙에 따라 독립적인 의사결정을 내리는 자율적인 인공지능 시스템의 사용자가 예견할 수 없는 잘못된 행위를 그의 주의의무의 위반으로 평가할 수는 없기 때문이다. 성상이 변화하는 인공지능 시스템의 행위를 예견할 수 없는 경우에 사용자에게 책임을 부과하는 것도 불합리하다.
전자인 제도의 장점은 책임과 관련하여 증명 곤란의 문제를 피하고 손해의 명확한 배분을 할 수 있다는 점에 있다. 전자인 제도가 도입되지 않으면 인공지능 시스템의 사용자가 많은 경우에 책임을 져야 할 것이다. 이처럼 인공지능 시스템의 사용자가 주로 책임을 지게 되면 잠재적 사용자들은 인공지능 시스템의 사용을 꺼릴 것이고, 이는 궁극적으로 인공지능 기술의 발전 및 보급을 저해하게 된다. 전자인은 계약법이나 불법행위법에 따른 책임의 주체가 되므로, 전자인의 사용자나 제조자는 부담을 덜게 된다. 피해자는 책임 주체로서의 전자인을 채무자로 상대하게 된다. 인공지능 시스템에 대한 법인격 인정을 통해 사용자는 인공지능 시스템에 대한 무한책임에서 벗어날 수 있다. 결과적으로 사용자에게 유리한 책임제한은 거시경제적으로 바람직한 위험을 사회가 감수하도록 하기 위한 것이다.
인공지능 시스템의 미래 응용 분야에서는 개별적 사용자에 대한 과도한 요구를 방지하는 법적 틀이 보장되어야 한다. 불안정성과 법적 공백 없이 사회생활과 진보 사이의 균형을 가능케 하는 법적 틀을 만드는 것은 입법자의 임무이다.
사람의 지능에 근접하거나 그것을 능가하여 인간의 행위를 많은 면에서 대신하는 강인공지능(strong AI)이 개발단계에 이르지 아니한 현 시점에 전자인 제도를 도입할 필요성은 크지 않을 수 있다. 지금의 인공지능 시스템은 사용자와 연결될 수 없을 정도의 자율성을 가지는 않기 때문이다. 인공지능 시스템의 행위를 여전히 그 배후에 있는 사람에게 귀속시킬 수 있다면 혁신에 따르는 비용도 기존의 권리주체가 짊어져야 한다. 그러나 강인공지능이 널리 개발되고 상용화될 경우를 대비하여 전자인 제도는 이론적 차원에서 계속 논의되어야 할 것이다.

목차

Ⅰ. 시작하며
Ⅱ. 해외의 논의 동향
Ⅲ. 도구로서의 인공지능 시스템
Ⅳ. 사자로서의 인공지능 시스템
Ⅴ. 대리법리의 (유추) 적용
Ⅵ. 이행보조자 법리의 (유추) 적용?
Ⅶ. 인공지능 시스템의 행위에 대한 책임의 공백
Ⅷ. 마치며
참고문헌
국문초록
Abstract

참고문헌 (0)

참고문헌 신청

이 논문의 저자 정보

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-ECN-0101-2022-360-000127869