최근 행정안전부가 발표한 ‘공공부문 인공지능 윤리원칙’ 마련 추진 계획은 한국의 디지털 정부 혁신 방향타가 어디를 향하고 있는지 보여주는 지점입니다.
윤리원칙의 적용 대상은 중앙행정기관과 지방정부, 공공기관 및 지방공사·공단 등 공공부문 종사자가 대상이 됩니다.
다만 이는 공공 영역에서 인공지능(AI)을 활용하고 관련 솔루션을 공급하는 민간 기업들에게도 직접적인 법적, 사업적 변화를 요구하는 구체적인 청사진이 될 수 있습니다.
행정안전부가 이 원칙을 마련한 근본적인 배경은 AI 기술의 급속한 발전과 영향력 확대에 따른 편향성 문제 등 부작용에 대응하고, 궁극적으로 국민의 기본권을 지키는 행동기준을 마련하려는 데 있습니다.
정부는 AI를 통한 행정혁신과 정부 효율성 및 생산성 향상을 필수적으로 추진하면서도 동시에 인공지능 사용에 대한 국민적 신뢰를 확보해야 하는 이중 과제에 직면해 있습니다.
6대 핵심 원칙 정리
행정안전부는 국민, 행정, 기술 관점에서 제시한 공공성, 투명성, 안전성, 형평성, 책임성, 프라이버시보호의 6대 윤리 원칙을 제시하고 있습니다.
원칙 구분 | 6대 원칙 | 주요 가치 |
국민 관점 | 공공성 | AI 서비스를 공공의 이익과 국민의 복지를 위해 제공 |
형평성 | 공정하고 차별 없이 모든 국민에게 서비스 제공 | |
행정 관점 | 투명성 | AI 도입과 활용 과정에 대한 투명한 공개 |
책임성 | 책임 주체를 명확히 정하고 제도적 기준에 따라 활용 | |
기술 관점 | 안전성 | AI 시스템이 국민에게 피해를 주지 않도록 안전한 방식으로 운영 |
프라이버시 보호 | 개인정보와 사생활 침해 방지를 위한 보호장치 마련 |
해당 6대 원칙에 따라 90여 개의 세부 점검사항을 체크리스트 형식으로 제공할 예정입니다.
이 점검표를 통해 점검 및 조정, 환류 체계를 갖추고 있습니다.
행정안정부는 마련된 윤리원칙에 대해 중앙행정기관 등 공공부문 종사자 외 학계 등 전문가의 의견을 폭넓게 수렴하여 확정할 계획입니다.
또한 현장에서 실질적으로 작동할 수 있도록 인공지능 윤리원칙 실천에 대한 교육 프로그램도 마련하여 실행력을 높일 예정으로 밝혔습니다.
현재 행정안전부가 주도하는 공공부문 인공지능 윤리원칙의 대상에 민간기업은 포함되어 있지 않으나, 이 윤리원칙은 대한민국 인공지능 거버넌스의 초석을 다지는 이정표가 될 수 있습니다.
따라서 인공지능 모델 평가, 데이터 검증, AI 교육 콘텐츠 등 자사의 인공지능 기술로 공공 영역 조달·입찰 등에 진출하고자 하신다면 6대 원칙과 함께 추후 제공될 90여 개 세부 점검표를 준수하시는 게 좋습니다.
윤리적 책임에 충실한 인공지능이 정부의 신뢰를 얻고, 더 큰 기업 성장 혁신의 기회를 창출할 수 있습니다.
관련하여 인공지능 입법 동향 모니터링, 부처 규제 등에 자문이 필요하시다면 🔗기업변호사 법률상담예약을 진행해주시기 바랍니다.
참고-과학기술정보통신부 제공 「인공지능 윤리기준」(2020년 발표)
다음은 과학기술정보통신부가 2020년 발표한 「인공지능 윤리기준」입니다.
인공지능 시대의 개발 및 활용 방향을 제시하기 위해 마련된 기준으로, 윤리기준이 지향하는 최고 가치를 ‘인간성(Humanity)’으로 설정하고, 인간성을 위한 인공지능을 추구합니다.
3대 기본원칙 (AI 개발 및 활용 과정에서 고려될 원칙)
인간성을 구현하기 위해 인공지능의 개발 및 활용 과정에서 지켜야 할 3가지 기본 원칙입니다.
원칙 | 주요 내용 |
인간 존엄성 원칙 | 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 하며, 안전성과 견고성을 갖추어야 한다. |
사회의 공공선 원칙 | 인공지능이 공동체로서 사회의 안녕과 행복을 추구하도록 하며, 사회적 약자와 취약 계층의 접근성을 보장하여 인류의 보편적 복지 향상에 기여해야 한다. |
기술의 합목적성 원칙 | 인공지능 기술이 인류의 삶에 필요한 도구라는 목적에 부합되게 개발 및 활용되어야 하며, 그 과정 또한 윤리적이어야 한다. |
10대 핵심요건 (기본원칙을 실현할 세부 요건)
3대 기본원칙을 실천하고 이행할 수 있도록 인공지능 전 생애 주기에 걸쳐 충족되어야 할 세부 요건입니다.
- 인권 보장 : 모든 인간에게 부여된 권리를 존중하고, 인간의 권리와 자유 침해 금지
- 프라이버시 보호 : 인공지능 개발 및 활용 전 과정에서 개인의 프라이버시를 보호하고, 개인 정보 오용 최소화 노력
- 다양성 존중 : 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영하여, 개인 특성에 따른 편향과 차별 최소화
- 침해 금지 : 인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안 되며 부정적 결과에 대한 대응 방안 마련
- 공공성 : 개인적 행복뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용하고 긍정적인 사회 변화 유도
- 연대성 : 미래세대를 충분히 배려하여 활용하고 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회 보장
- 데이터 관리 : 데이터를 그 목적에 부합하도록 활용하고, 데이터 수집 및 활용 전 과정에서 데이터 편향성이 최소화되도록 품질과 위험 관리
- 책임성 : 개발 및 활용 과정에서 책임 주체를 설정함으로써 발생할 수 있는 피해 최소화 및 책임 소재 명확히 규정
- 안전성 : 인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장하도록 노력하며, 명백한 오류 발생 시 사용자가 작동을 제어할 수 있는 기능 보유 권고
- 투명성 : 사회적 신뢰 형성을 위해 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 하며 인공지능 활용 내용 및 위험 유의사항을 사전 고지
해당 기준은 원칙들 사이에 고정된 형태의 우선순위를 제시하지는 않습니다.
상충하는 문제의 해결은 이해관계자들의 지속적인 토론과 숙의 과정을 통해 모색하도록 권유하고 있습니다.
