최근 유럽연합(EU)과 한국에서 동시에 진행되고 있는 AI 관련 입법·정책 논의는 인공지능 기술을 바라보는 관점이 빠르게 변화하고 있음을 보여줍니다.
그동안 AI는 혁신과 성장의 상징으로 인식돼 왔지만 이제는 어떤 데이터를 활용했는지, 그 과정에서 발생하는 권리 침해와 사회적 위험을 누가 책임질 것인지가 본격적인 규제의 대상이 되고 있습니다.
EU는 생성형 AI 학습 과정에서 사용된 저작물에 대해 정당한 보상을 요구하고, 학습 데이터의 투명한 공개를 의무화하는 방향을 검토 중입니다.
한국 역시 AI 기본법을 통과시키며 AI 산업 육성과 함께 신뢰 확보를 위한 관리 체계를 법제화했습니다.
두 흐름은 서로 다른 방식이지만 기업에는 공통적으로 AI 운영을 ‘기술 문제’가 아닌 ‘법적·관리적 책임 영역’으로 인식하라는 신호로 작용하고 있습니다.
EU의 문제 제기: AI 학습은 더 이상 무상 이용이 아니다
EU 유럽의회는 생성형 AI가 학습에 활용한 저작권 보호 콘텐츠에 대해 창작자에게 보상이 필요하다는 입장을 공식화했습니다.
결과물에 대한 책임을 묻는 것이 아니라 학습 과정 자체를 저작권 이용 행위로 평가하려는 시도입니다.
보고서에는 AI 기업이 학습에 사용한 저작물 목록과 크롤링 기록을 공개해야 한다는 내용이 포함돼 있으며 과거 사용분에 대한 소급 적용 가능성까지 언급됐습니다.
특히 뉴스 콘텐츠의 경우 언론사가 자사 콘텐츠를 AI 학습에 제공할지 여부를 결정할 수 있어야 한다는 점을 분명히 했습니다.
이는 향후 법제화 여부와 무관하게 EU를 기준으로 한 글로벌 규제 환경이 ‘데이터 출처를 설명할 수 없는 AI 서비스는 위험하다’는 방향으로 이동하고 있음을 보여줍니다.
한국 AI 기본법, 규제의 시작점이 된 ‘고영향 AI’
한국은 현재 AI 기본법을 통과시키며 AI 산업을 국가 전략 산업으로 육성하겠다는 입장을 분명히 했습니다.
동시에, 사람의 생명·건강·기본권에 중대한 영향을 미칠 수 있는 영역에서 활용되는 AI에 대해서는 일정한 관리 의무를 부과했습니다.
문제는 이 법이 EU처럼 세부 유형을 촘촘히 나누지는 않았다는 점입니다.
‘고영향 AI’라는 개념은 비교적 포괄적으로 정의돼 있어 의료·금융·모빌리티뿐 아니라 향후 집행 과정에서 적용 범위가 확장될 여지가 있습니다.
기업이 이를 단순 선언 규정으로 오인할 경우 시행 이후 관리 체계 미비가 곧 법적 리스크로 전환될 가능성이 있습니다.
AI 규제 변화가 기업에 의미하는 실질적 위험
학습 데이터의 출처와 활용 방식이 문제 될 경우 저작권 분쟁이나 서비스 중단 요구로 이어질 수 있고 고영향 AI 관리 의무를 제대로 이행하지 못하면 조사나 시정 명령의 대상이 될 수 있습니다.
특히 글로벌 서비스를 운영하거나 해외 이용자를 대상으로 하는 기업은 국내 기준만을 고려한 대응으로는 충분하지 않습니다.
EU 규제를 충족하지 못하는 구조라면 거래 관계나 투자 과정에서 잠재 리스크 요인으로 작용할 수 있습니다.
▶ AI 규제 환경에서 기업이 직면할 수 있는 주요 리스크
구분 | 실질적 리스크 내용 |
학습 데이터 관리 | 학습에 사용된 데이터의 출처·이용 범위가 명확하지 않을 경우 저작권 침해 주장이나 데이터 공개 요구에 직면할 수 있으며 과거 학습 이력까지 문제 될 가능성 존재 |
규제 대응 미흡 | 고영향 AI 해당 여부를 잘못 판단하거나 관리 체계를 갖추지 못한 경우, 조사·시정 명령 등 행정적 조치로 이어질 수 있음 |
글로벌 사업 리스크 | EU 기준을 충족하지 못하는 AI 운영 구조는 해외 거래, 투자, 서비스 제공 과정에서 신뢰 저하 요인으로 작용할 수 있음 |
분쟁·평판 손실 | AI 결과물 또는 운영 방식으로 분쟁이 발생할 경우 기술 문제를 넘어 기업의 관리 책임과 내부 통제 부실로 평가돼 평판 훼손 가능성 |
이제는 ‘기술 대응’이 아니라 ‘운영 구조 대응’의 문제
AI를 둘러싼 규제 환경 변화는 학습 데이터, 알고리즘 운영, 책임 구조까지 포함해 AI를 어떻게 관리하고 통제하고 있는지 자체가 기업의 리스크 관리 수준으로 평가되는 단계에 들어섰다고 보는 것이 더 정확합니다.
이 시점에서 기업이 준비해야 할 대응은 다음과 같은 방향에서 접근할 필요가 있습니다.
1) AI 학습 데이터 관리 구조의 재점검
AI 규제 논의의 출발점은 결국 “무엇을 학습했는가”입니다.
EU가 학습 데이터 공개와 저작권 보상을 요구하는 흐름을 보이고 있는 만큼 기업은 더 이상 데이터 출처를 명확하게 유지한 채 서비스를 운영하기 어렵습니다.
내부적으로 어떤 데이터를 수집했고 외부 콘텐츠가 포함돼 있는지, 해당 데이터의 이용 범위와 재학습 가능 여부가 어떻게 설정돼 있는지 정리돼 있지 않다면 향후 분쟁이나 규제 대응 과정에서 취약해질 수밖에 없습니다.
따라서 AI 모델 성능보다 먼저 데이터 사용의 정당성과 설명 가능성을 확보하는 구조로 전환할 필요가 있습니다.
2) ‘고영향 AI’ 해당 가능성에 대한 선제적 판단
한국 AI 기본법은 고영향 AI를 중심으로 관리 의무를 부과하고 있지만 그 범위는 비교적 포괄적으로 규정돼 있습니다.
의료, 금융, 모빌리티처럼 명확한 영역뿐 아니라 이용자의 권리나 의사결정에 실질적 영향을 미치는 서비스라면 향후 규제 대상에 포함될 가능성을 배제하기 어렵습니다.
이에 따라 서비스별로 이용자에게 미치는 영향, 오류 발생 시 위험 수준, 인간의 개입 가능성을 기준으로 자체 점검을 진행해두는 것이 필요합니다.
3) 투명성·감독 체계의 ‘형식화’가 아닌 ‘실질화’
AI 운영에서 투명성과 인간 감독은 선언적으로만 존재해서는 의미가 없습니다.
이용자에게 어떤 정보를 어디까지 고지하고 있는지, 자동화된 판단에 사람이 개입할 수 있는 구조가 실제로 작동하는지, 문제 발생 시 수정·중단 권한이 누구에게 있는지까지 구체화돼야 합니다.
4) 조사·분쟁 발생을 전제로 한 대응 프로토콜 구축
AI 관련 이슈는 저작권 분쟁, 이용자 민원, 행정 조사, 계약상 책임 문제가 동시에 발생할 수 있습니다.
AI 모델 업데이트 이력, 데이터 변경 기록, 내부 의사결정 과정이 정리돼 있지 않다면 초기 대응 단계에서부터 불리해질 가능성이 큽니다.
기술 부서, 법무, 경영진이 어떤 순서로 대응할 것인지에 대한 사전 프로토콜 정비가 필요합니다.
법무법인 대륜은 AI 서비스와 관련한 저작권·데이터 활용 리스크 점검, AI 기본법 및 해외 규제 대응 자문, 계약 구조 정비, 조사 및 분쟁 대응을 실무 중심으로 지원하고 있습니다.
현재 운영 중인 AI 서비스가 어떤 규제 위험에 노출돼 있는지, 그리고 지금 시점에서 어떤 준비가 필요한지 점검이 필요하다면 상담을 통해 방향을 정리해보시기 바랍니다.
