인공지능 기술의 발전에 따라, 인공지능의 핵심인 알고리즘의 역할은 확대되고 있으며 궁극적으로는 알고리즘 자체가 문제해결 수단이 아닌 문제해결 주체로서 역할을 하게 될 것이라는 가능성도 높아지고 있다. 지금까지 인공지능 기술 수준은 의사결정 지원 수준이었으나, 이제는 의사결정 시스템으로서 역할을 하게 될 것이며, 이로써 인간만이 부담했던 책임 주체의 확대로 이어지는 특이점(singularity)에 도달할 것이라는 주장도 설득력을 얻고 있다.
알고리즘과 관련된 책무성을 구현하기 위한 여러 윤리 원칙들을 제시하는 것도 이러한 우려를 최소화시키고자 하는 시도이다. 이러한 다양한 문제에 대응하기 위하여 알고리즘이 극복해야 할 한계는 분명히 존재한다. 이러한 문제를 해결하기 위해서는 먼저 알고리즘에 대한 명확하고 투명한 이해가 전제되어야 한다. 알고리즘이 갖는 많은 장점에도 불구하고, 예측 불가능성, 패턴 인식의 오류, 기계 학습 작동 과정의 설명 불가능, 납득 가능한 변별기준에 대한 파악이 불가능하다면 그 활용에 많은 제약이 가해질 수밖에 없다. 따라서 알고리즘에 대한 투명성을 높이고 여러 기준을 확립하여 법・규범적 대응을 할 수 있도록 조치할 지침이 필요하다고 본다.
투명성을 확보하는 정책을 통해 결국은 보다 나은 인공지능 기술에 대한 이해와 그 이해에 기초한 규제를 찾아낼 수 있을 것으로 생각한다. 사람보다는 적겠지만 인공지능도 실수를 하기 때문에 왜 그러한 실수가 일어나는지 공개적으로 알아야만 그에 합당한 규제도 나올 수 있다고 본다. 결국 인공지능이 제시하는 결과물에 대한 의미있는 추론이나 계획 등을 설명하기 위해서 알고리즘의 최적화가 필요하고 이러한 알고리즘 규제는 투명성 확보를 통해 가능하다고 본다.
더하여, 인공지능을 효과적으로 관리하고 규제하기 위하여 알고리즘 제작단계에서부터 문제가 발생했을 때 대응 조치 및 폐기에 이르기까지 전 과정을 통해 투명성이 확보되어야 한다. 투명성을 기초로 하는 인공지능 규제를 법・규범화하고 이를 적용하기 위해서는 결국 어느 정도의 공개나 설명 또는 공정, 견고성이 있는 것을 투명성을 갖춘 것으로 판단할 수 있는지에 관한 문제이기도 하다.
With the development of artificial intelligence technology, the role of algorithms, which is the core of artificial intelligence, is expanding, and the possibility that the algorithm itself will eventually play a role as a problem- solving agent rather than a problem-solving means is increasing. Until now, the level of AI technology was at the level of support for decision-making, but now it will play a role as a decision-making system, resulting in a responsibility that only humans have borne.
It is also an attempt to minimize these concerns by proposing several ethical principles for implementing accountability related to algorithms. There are clearly limitations that algorithms have to overcome in order to cope with these various problems. In order to solve these problems, a clear and transparent understanding of the algorithm must first be premised. Despite the many advantages of the algorithm, if it is impossible to predict unpredictability, error in pattern recognition, inability to explain the operation process of machine learning, and it is impossible to grasp a convincing discrimination criterion, many restrictions are inevitably applied to its use. Therefore, I believe that there is a need for guidelines to increase the transparency of the algorithm and to take measures to take legal and normative responses by establishing various standards.
Through policies that ensure transparency, I believe that better understanding of AI technology and regulations based on that understanding will eventually be found. Although fewer than humans, artificial intelligence also makes mistakes, so I believe that appropriate regulations can be developed only by publicly knowing why such mistakes occur. In the end, it is necessary to optimize the algorithm to explain meaningful inferences or plans for the results presented by artificial intelligence, and I believe that such algorithm regulation is possible through transparency.
In addition, in order to effectively manage and regulate artificial intelligence, transparency must be ensured throughout the entire process, from the algorithm production stage to countermeasures and disposal when a problem occurs. In order to legalize and standardize artificial intelligence regulations based on transparency and apply them, it is also a question of how much disclosure, explanation, or fairness and robustness can be judged as having transparency.