인공지능(AI)을 비롯한 지능정보기술이 우리 사회의 주요 변인이자 동력으로 작용하면서 이른바 ‘지능정보사회’로의 패러다임 전환이 가속화되고 있다. 지능정보기술은 활용 분야와 개발 목적에 따라 다양한 양태를 보이며, 그에 부수하는 위험의 성격과 수준도 일정하지 않다. 막대한 양의 개인정보를 활용하는 머신러닝 기반의 AI 시스템에서는 정보주체의 프라이버시 침해 위협이 상존할 뿐만 아니라 데이터·알고리즘의 편향성 내지 불투명성은 새로운 권익 침해 가능성을 내포하는 등 위험의 내용과 구조가 단순하지 않다. 또한 지능정보기술을 활용한 자동화 시스템이 사람의 의사결정과 행위를 대체·보완하는 경우에는 기존의 행위-결과-책임, 사전예방원칙 등이 적용될 수 없는 제3의 위험 영역을 창출하기도 한다.
최근 몇 년 사이에 지능정보기술, 특히 AI의 위험을 둘러싼 학계 논의가 활발히 이루어져 왔으며 괄목할 연구 성과와 입법 사례가 이어지고 있다. 근래에 우리 국회에서는 지능정보화 관련 규제 및 지원, 거버넌스 정립 등을 주된 목표로 하는 여러 개정법률안이 발의되었고, 그 중 「지능정보화 기본법」이 통과되어 올해 6월부터 시행되고 있다. 동법에 따라 사회적 영향평가, 안전성 조치, 전담기구 설치 등 지능정보사회의 위험에 대응하는 법적 규율이 일부 도입되었으나, 실제 법집행을 위한 구체적인 시행령 및 실무지침은 정비되지 않은 상태이다. 더욱이 이 법에서는 AI 시스템의 편향성에서 파생되는 차별취급, 불공정행위, 기타 권리 침해 우려에 대하여 구체적인 규율을 담고 있지는 않다. 따라서 현행법만으로는 지능정보기술의 결과적 위험, 시스템 내부 위험 등에 충분히 대처할 수 없으며 별도의 후속 입법이 요구된다.
지능정보기술 분야 규제행정은 AI 윤리, 자율규제, 위험 수준별 통제 등 연성규범 기반의 탄력적 규율을 우선시하되 이를 효과적으로 관리·감독하는 실정법 체계에 기반을 두어야 할 것이다. 즉, 지능정보기술의 위험을 통제하는 동시에 사회적 수용성을 높이기 위해서는 규제행정 상대방의 자율규제를 폭넓게 허용하는 한편, 리스크 관리, 행위의 불법성 통제, 사후적 책임 귀속 등에 초점을 둔 규제법 질서를 수립해 나갈 필요가 있다. 이러한 중장기적 목표는 민관 협력의 거버넌스를 구현하는 조직 및 절차를 마련하고 사전 적합성 평가, 인증, 영향평가 등 관련 제도를 구체화해 나감으로써 점진적으로 실현할 수 있을 것이다.
As intelligent information technology, including artificial intelligence (AI), acts as a variable throughout our society, the paradigm shift to the so-called "intelligent information society" is accelerating. Intelligent information technology shows various forms and aspects depending on the application field and purpose, and the nature and level of the risks that follow are not constant. AI technology, the most notable intelligence information technology today, is a combination of risk contents and structures such as infringement of rights of information subjects by making large amounts of personal information the main ingredient in machine learning-based systems. In particular, when an automation system using intelligent information technology replaces and supplements human decision-making and behavior, it also creates a third risk area where behavior-result-responsibility and precautionary principles cannot be applied.
In recent years, there have been active discussions from all walks of life over the dangers of intelligent information technology, and legislative cases in each country have been increasing. Recently, the National Assembly proposed a number of revised laws aimed at regulating and supporting intelligence information and establishing governance, among which the Framework Act on Intelligent Information was passed and has been in effect since June 2021. Under the law, some legal regulations have been introduced to cope with the risks of intelligent information society, such as impact assessment, safety measures, and the establishment of dedicated organizations, but specific enforcement ordinances and practical guidelines for actual law enforcement have not been revised. The Framework Act on Intelligent Information does not include separate legal disciplines for discrimination, unfair practices, or other concerns about infringement of rights derived from bias in AI systems. Therefore, it is difficult to respond to all-weather conditions to the consequential risks of intelligent information technology and internal risks of the system alone, and individual and subsequent legislation are required.
Basically, flexible norms and flexible regulatory systems such as AI ethics, self-regulation, and risk-level control will be the basis of a regulatory administration system that effectively controls the risks of intelligence and information society while increasing social acceptability. In order to control the risk of intelligent information technology, it is necessary to establish a new regulatory law order that focuses on risk management, control of illegality of acts, and attribution of post-responsibility. These mid- to long-term goals will be realized step by step, focusing on organizations and support policies that implement governance of public-private cooperation and by specifying related systems such as preconformity verification, certification and impact assessment.