AI기본법 전면 시행, 우리 기업에는 어떤 영향이 있을까

올 1월 22일 전면 시행된 「인공지능 기본법(AI기본법)」은 단지 새로운 기술 규제를 도입하는 데 그치는 법이 아닙니다.


AI를 ‘어디에, 어떤 방식으로, 어떤 영향력을 갖도록 활용하고 있는가’에 따라 기업의 책임 구조를 재설계하는 법입니다.

특히 이번 AI기본법은 금지 사항이나 처벌 규정보다 투명성·안전성·책임성 확보를 전제로 한 사전 관리 의무를 중심에 두고 있어 AI를 직접 개발하지 않더라도 AI를 활용해 서비스나 의사결정을 제공하는 기업 대부분이 영향권에 들어오게 됩니다.

최근 사진 일부를 보정했을 뿐인데도 ‘AI 생성물 표시’가 자동으로 붙는 사례가 논란이 된 것처럼 기술의 크기보다 ‘활용 맥락’을 기준으로 기업 책임을 묻는 단계로 진입했습니다.

AI기본법이 가장 먼저 작동하는 지점, ‘투명성 확보 의무’

AI기본법에서 기업이 가장 먼저 마주하게 될 의무는 ‘투명성 확보 의무’입니다.


이 의무는 AI를 직접 개발한 기업에만 적용되는 것이 아니라 AI 제품·서비스를 최종 이용자에게 제공하는 모든 사업자를 대상으로 합니다.

즉, AI 개발사가 직접 서비스를 제공하는 경우는 물론 외부에서 개발된 AI를 도입해 자사 서비스·플랫폼·업무 프로세스에 활용하는 기업 역시 모두 의무 이행 주체가 됩니다.

특히 다음과 같은 AI 사업자는 투명성 확보 의무의 직접적인 적용 대상에 포함됩니다.

  • 고영향 인공지능 제품·서비스 제공사업자
  • 생성형 AI 제품·서비스 제공사업자
  • 딥페이크 기능 제공사업자

AI기본법은 이들 사업자에게 다음 3가지 핵심 의무를 부과합니다.

① 사전 고지 의무

제품·서비스가 AI 기반으로 운영된다는 사실을 이용자가 사전에 명확히 인식할 수 있도록 고지해야 합니다.

② 결과물 표시 의무

생성형 AI를 통해 만들어진 결과물임을 이용자가 쉽게 인지할 수 있도록 표시해야 합니다.

③ 딥페이크 표시 의무

실제와 구분이 어려운 생성물에 대해서는 보다 강화된 방식으로 AI 생성 사실을 명확히 표시해야 합니다.

일부 기업, ‘안전성 확보 의무’ 추가 적용

AI기본법은 모든 기업에 동일한 수준의 의무를 부과하지 않습니다.


일반적인 AI 활용 기업에는 투명성 의무가 중심이 되지만 일정 기준을 초과하는 ‘최첨단 AI’에 대해서는 별도의 ‘안전성 확보 의무’가 적용됩니다.

안전성 확보 의무는 다음 요건을 충족하는 경우 적용 대상이 됩니다.

① 최첨단 AI 여부

학습 누적 연산량이 10²⁶ FLOPs 이상

최신 AI 기술이 적용된 시스템

② 영향 범위

사람의 생명·신체·기본권에 광범위하고 중대한 영향을 미치거나 그러한 위험을 초래할 우려가 있는 경우

고영향 인공지능, ‘기술’이 아니라 ‘활용 맥락’이 기준

AI기본법상 고영향 인공지능이란 사람의 생명, 신체의 안전 및 기본권에 중대한 영향을 미치거나 그 위험을 초래할 우려가 있는 인공지능 시스템으로서 법정 영역에서 활용되는 경우를 말합니다.

즉, 기술 그 자체보다 ‘어디에, 어떤 목적으로 쓰이느냐’가 판단의 핵심입니다.

AI기본법은 기술의 복잡성이나 규모보다 ‘어디에 쓰이는가’를 기준으로 고영향 여부를 판단합니다.

대표적인 고영향 판단 영역은 다음과 같습니다.

공통 기준은 하나로, 사람의 생명·신체·기본권에 실질적 영향을 미치는가입니다.

고영향 AI에 해당할 경우, 기업은 위험관리 방안, 설명 방안, 이용자 보호 방안, 사람의 관리·감독 체계를 사전에 설계·운영해야 하며 필요 시 과학기술정보통신부에 공식 확인 요청까지 진행해야 합니다.

AI 사고는 ‘법 위반’이 없어도 분쟁으로 이어져

AI기본법이 형사처벌 중심의 법이 아니라는 점에서 안도하는 기업도 많습니다.


그러나 이는 법적 리스크가 낮다는 의미는 아닙니다.

AI기본법은 앞으로 다음과 같은 분쟁에서 ‘기업이 사전에 어떤 관리 의무를 이행했는지’를 판단하는 기준선이 될 가능성이 매우 큽니다.

  • AI 판단 결과에 대한 이용자 이의 제기
  • 차별·오판·기본권 침해 주장
  • 집단 민사소송
  • 행정조사 및 관리실태 점검

해외 동향이 말해주는 공통된 메시지

EU는 AI Act를 통해 고위험 AI에 대해 강력한 사전 규제를 도입하고 있으며 미국은 단일 기본법 대신 기존 법과 행정명령, 가이드라인, 주 별 규제를 통해 AI를 관리하고 있습니다.

방식은 다르지만 공통점은 분명합니다.

AI를 방치하는 기업은 더 이상 보호받지 못한다는 점입니다.

한국 AI기본법 역시 같은 흐름 위에 있으며 기업의 ‘관리 부실’ 자체가 책임의 출발점이 되는 구조로 설계되었습니다.

기업이 점검해야 할 AI 리스크 포인트

다수 기업 자문 과정에서 반복적으로 확인되는 취약 지점은 다음과 같습니다.

① AI 활용 현황에 대한 전사적 파악 부재
– 어떤 부서에서, 어떤 AI를, 어떤 목적에 쓰고 있는지 정리되지 않은 경우

② AI 결과물에 대한 표시·설명 기준 부재
– AI 사용 고지, 설명 요청 대응 프로세스가 없는 경우

③ 이상 판단 발생 시 대응 체계 부재
– 사람의 개입 기준, 중단 권한, 책임자 지정이 없는 경우

④ 내부 기록·증빙 부족
– 교육, 점검, 로그 관리 등 관리 이행을 입증할 자료 부재

기업이 지금 준비해야 할 대응 방향

AI기본법은 소급 적용되지는 않지만 사전 준비 없이 시행 시점에 진입할 경우 즉시 리스크가 발생할 수 있습니다.

따라서 AI를 활용하는 기업은 지금부터 다음을 준비해야 합니다.

법무법인 대륜의 AI기본법 대응 지원

법무법인 대륜은 AI기본법 시행을 앞두고 기업의 AI 활용 구조 전반을 법적 관점에서 진단하고, 실무적으로 작동 가능한 대응 체계를 설계합니다.

  • AI 활용 구조 진단 및 고영향 AI 해당성 검토
  • 투명성·책임성·안전성 이행 방안 설계
  • AI 분쟁 및 민·형사·행정 리스크 사전 차단 전략
  • 사고 발생 시 조사 대응 및 대외 커뮤니케이션 자문

AI는 기업의 법적 책임 구조 전체를 재편하는 변수이기에 지금 점검하지 않으면 문제가 발생한 뒤에는 되돌릴 수 없는 책임을 떠안게 될 수 있습니다.

법무법인 대륜과 함께 귀사의 AI 활용 구조를 점검해 보시기 바랍니다.

🔗기업변호사 법률상담예약 하기 (화상상담 가능)

Quick Menu

카톡상담