미국 법원의 Thaler v. Perlmutter 판결은 AI 단독 창작물의 저작권을 부정하며 ‘인간의 개입 정도’를 새로운 쟁점으로 부각시켰습니다. 글로벌 리걸 AI 시장이 2030년 124억 달러 규모로 성장할 것으로 전망되는 가운데, 저작권 소송 리스크도 75건 이상으로 급증하고 있습니다. 한국 AI 스타트업은 학습 데이터의 출처를 투명하게 관리하고, 인간과 AI의 협업 프로세스를 증명할 수 있는 하이브리드 모델 구축에 집중해야 합니다.
AI 저작권의 새로운 기준, ‘인간 개입’의 증명
최근 미국 법원의 Thaler v. Perlmutter 판결은 AI 산업에 중대한 이정표를 세웠습니다. 법원은 AI가 단독으로 생성한 결과물에 대해 저작권을 인정하지 않는다는 원칙을 확립했습니다. 이는 생성형 AI 시대에 ‘누가 창작자인가’라는 질문을 넘어, ‘인간이 어디까지 개입했는가’를 핵심 쟁점으로 전환시켰습니다. 프롬프트 엔지니어링, 결과물의 수정 및 편집 등 인간의 창조적 기여도를 입증하는 것이 저작권 확보의 필수 조건이 된 것입니다. 한국의 AI 스타트업들에게 이는 단순한 법적 가이드라인을 넘어, 제품 설계 단계부터 고려해야 할 핵심 비즈니스 로직이 되었습니다.
폭발하는 리걸 AI 시장과 동반 상승하는 법적 리스크
글로벌 리걸 AI 시장은 2026년 55억 9천만 달러에서 2030년 124억 9천만 달러로 연평균 22.3% 성장할 것으로 전망됩니다. 아시아 태평양 지역, 특히 한국은 로펌의 디지털 전환에 힘입어 가장 빠른 성장세를 보이고 있습니다. 그러나 이러한 기회 이면에는 거대한 법적 리스크가 도사리고 있습니다. 현재 전 세계적으로 75건 이상의 AI 저작권 관련 소송이 진행 중이며, Anthropic은 불법 복제 도서 50만 권을 학습 데이터로 사용한 혐의로 15억 달러 규모의 합의를 진행 중입니다. 이는 초기 스타트업에게 치명적인 타격이 될 수 있는 규모로, 데이터 출처에 대한 철저한 검증이 생존의 필수 조건임을 시사합니다.
글로벌 규제 파편화: 투명성과 현지화의 이중고
글로벌 규제 환경은 점점 더 복잡해지고 있습니다. EU의 AI 법(AI Act) 제50조는 학습 데이터에 대한 투명성 공개를 의무화하고 있으며, 인도는 2026년 초까지 AI 생성 콘텐츠의 10%에 시각/청각적 식별 표시를 의무화하는 방안을 추진 중입니다. 이러한 규제의 파편화는 글로벌 진출을 노리는 한국 스타트업에게 ‘책임의 현지화’라는 새로운 과제를 안겨줍니다. 각국의 상이한 규제에 대응하기 위해 유연하고 투명한 데이터 파이프라인 구축이 요구되며, 특히 저작권 분쟁의 소지가 없는 합법적인 데이터 확보가 최우선 과제로 떠오르고 있습니다.
창업자를 위한 전략적 시사점 및 액션 아이템
- 하이브리드 협업 툴 개발: AI 단독 생성물이 아닌, 인간의 개입과 편집 과정을 명확히 기록하고 증명할 수 있는 ‘휴먼 인 더 루프(Human-in-the-loop)’ 기반의 제품을 설계하십시오.
- 데이터 출처(Provenance) 감사: 모델 학습에 사용되는 모든 데이터의 저작권 상태를 철저히 검증하고 문서화하십시오. 라이선스가 불분명한 ‘고아 데이터’의 사용은 피해야 합니다.
- 규제 준수 아키텍처 구축: 인도의 워터마크 의무화 등 각국의 규제 변화에 신속하게 대응할 수 있도록, 제품 설계 초기부터 투명성 및 추적성 기능을 내재화하십시오.
- 선제적 파트너십 및 라이선싱: 소송 리스크를 최소화하기 위해 콘텐츠 제공자와의 합법적인 라이선스 계약을 우선적으로 추진하여 안정적인 데이터 공급망을 확보하십시오.