메뉴 건너뛰기
.. 내서재 .. 알림
소속 기관/학교 인증
인증하면 논문, 학술자료 등을  무료로 열람할 수 있어요.
한국대학교, 누리자동차, 시립도서관 등 나의 기관을 확인해보세요
(국내 대학 90% 이상 구독 중)
로그인 회원가입 고객센터 ENG
주제분류

추천
검색
질문

논문 기본 정보

자료유형
학술저널
저자정보
Moon, Byung-Hyo (Kangwon National University)
저널정보
한국토지공법학회 토지공법연구 토지공법연구 제108집
발행연도
2024.11
수록면
345 - 374 (30page)

이용수

표지
📌
연구주제
📖
연구배경
🔬
연구방법
🏆
연구결과
AI에게 요청하기
추천
검색
질문

초록· 키워드

오류제보하기
인공지능은 대량의 데이터를 빠르게 처리해 인간이 불가능하다고 생각했던 일들을 가능하게 만들어준다. 인공지능을 탑재한 휴머노이드 로봇은 사람들에게 큰 편리함을 가져다줄 것으로 기대되지만, 인공지능의 급속한 발전은 두려움을 불러일으키기도 한다.
인공지능이 지원하는 자동화된 의사결정의 경우 정보 왜곡이나 의사결정 왜곡의 위험이 있다. ChatGPT의 경우 성차별, 인종차별, 편견의 편향성을 드러내기도 한다.
이 글에서는 인공지능의 편견과 차별에 대한 몇 가지 사례와 더불어 차별에 대한 윤리적 대응과 법적 대응을 서술하고 있다. 인공지능의 윤리표준과 원칙, 핵심적 내용을 다루고 있을 뿐만 아니라 인공지능법안들과 차별금지법안의 구체적인 내용을 살펴보고 있다. 인공지능기술이 점차 보편화되어가고 있는 상황에서 발생할 수 있는 차별과 편견에 대응하여 헌법의 평등원칙을 구체화하는 개별법안을 마련하려는 노력이 지속되어야 한다.
AI의 편향성과 차별은 궁극적으로 인간과 사회의 편향성과 차별을 반영한다. 사회를 위협하는 기계의 위험은 기계 자체가 아니라 기계를 만드는 인간에게서 나온다. 인간과 AI의 공존을 모색할 수밖에 없다면, 인간과 AI의 공존의 문제가 결국은 인간과 인간의 공존의 문제라는 점, 그리고 인간 상호간의 차별과 편향을 극복하려는 노력이 선행되어야 한다는 점을 인식하는 것이 중요하다.

목차

Zusammenfassung
국문초록
Ⅰ. Einleitung
Ⅱ. Das Konzept automatisierter Entscheidungen
Ⅲ. Automatisierte Entscheidungen und Diskriminierung
Ⅳ. Reaktion auf Voreingenommenheit und Diskriminierung in der KI
V. Zukünftige Aufgaben und Perspektiven
Literaturverzeichnis

참고문헌 (0)

참고문헌 신청

함께 읽어보면 좋을 논문

논문 유사도에 따라 DBpia 가 추천하는 논문입니다. 함께 보면 좋을 연관 논문을 확인해보세요!

이 논문과 함께 이용한 논문

최근 본 자료

전체보기

댓글(0)

0

UCI(KEPA) : I410-151-25-02-091213025