IPLP Blog
PROLOGUE
Slack 알림 하나가 멈추게 했다
김태현 CTO는 그날 오후 Slack 알림을 보고 얼어붙었다. "테스트 서버에서 생성된 이미지 중 일부에 'Shutterstock' 워터마크가 보입니다." 자사 AI 이미지 생성 서비스를 점검하던 QA팀의 보고였다. 김 CTO는 즉시 샘플을 확인했다. 흐릿하지만 분명한 워터마크가 여러 이미지 구석에 박혀 있었다. 서비스 출시를 2주 앞둔 시점이었다.
법무팀과 긴급 회의가 소집됐다. "학습 데이터셋에 문제가 있는 건가요?" "아니면 모델 자체에 워터마크 패턴이 학습된 건가요?" 질문이 쏟아졌지만 명확한 답은 없었다. 그런데 변호사가 최근 영국 판례 하나를 언급했다. Getty Images가 Stability AI를 상대로 낸 소송에서, 바로 이 워터마크 문제로 초기 버전의 일부 출력물에 한해 극히 제한적인 범위의 상표 침해가 인정됐다는 것이었다.
김 CTO는 깨달았다. AI 시대의 법적 리스크는 '무엇을 학습했느냐'보다 '무엇을 출력하느냐'에 달려 있다는 것을. 출시 일정을 미루고 필터링 시스템 전면 재설계에 돌입한 것은 그날 저녁이었다.
Editor's Note
학습의 적법성 여부와 별개로, 출력물이 타인의 상표를 재현하면 침해가 성립할 수 있습니다
CHAPTER 1
AI와 저작권 분쟁의 새로운 국면
생성형 AI가 등장한 이후 저작권 논쟁은 끊이지 않았습니다. 2022년 Stable Diffusion의 공개 이후, AI 기업들은 "학습은 저작권 침해가 아니다"라는 주장을 일관되게 펼쳐왔습니다. 미국 저작권법의 공정 이용(Fair Use) 원칙과 유럽의 텍스트·데이터 마이닝(TDM) 예외 조항을 근거로, 대규모 데이터셋을 활용한 머신러닝은 변형적 이용에 해당한다는 논리였습니다.
Getty Images는 2023년 1월 영국 고등법원에 소송을 제기한 데 이어, 같은 해 2월에는 미국 델라웨어 연방지방법원에도 별도의 소송을 제기했습니다(이 미국 소송은 이후 2025년 8월 캘리포니아 북부지방법원으로 이전됐습니다). 세계 최대 스톡 이미지 플랫폼인 Getty는 Stability AI가 자사의 1,200만 장 이상의 이미지를 무단으로 학습에 사용했다고 주장했습니다. 특히 Stable Diffusion이 생성한 일부 이미지에서 Getty의 워터마크가 흐릿하게 재현되는 현상을 핵심 증거로 제시했습니다.
2025년 11월 4일 영국 고등법원의 판결은 이 논쟁에 중요한 분기점을 제공했습니다. 결론부터 말하면, Getty는 저작권 관련 청구에서 사실상 패소했고 상표권 침해만 극히 제한적인 범위에서 인정받았습니다. 구체적으로, Getty는 소송 진행 중 학습 관련 1차 저작권 침해 청구, 데이터베이스권 침해 청구, 출력물 관련 End User 청구를 모두 철회했는데, 이는 전략적 선택이 아니라 Stable Diffusion의 학습·개발이 영국 내에서 이루어졌다는 증거를 확보하지 못했기 때문입니다. 남아 있던 2차 저작권 침해 청구(영국 내 모델 배포를 통한 간접침해)에 대해서도 법원은 Stability AI의 손을 들어주며 기각했습니다. 다만 일부 초기 버전의 Stable Diffusion이 Getty 워터마크가 포함된 이미지를 생성한 것에 대해서는 극히 제한적이고 역사적인 범위에서만 상표권 침해를 인정했습니다. 이는 AI 법률 분쟁에서 학습보다 출력물의 법적 리스크가 더 직접적으로 부각된 첫 사례로 기록될 것입니다.
KEY INSIGHT
이번 판결에서 법원은 학습 적법성 자체는 직접 판단하지 않았습니다. 그러나 출력물 단계에서의 상표권 침해는 인정했습니다 — 비록 초기 버전·특정 접근 경로에 한정된 '역사적이고 극히 제한적인 범위'였지만, AI 기업들에게 출력물 관리가 학습과 무관한 독립적 법적 리스크임을 확인시켜 준 의미 있는 판례입니다.
법원은 Stability AI가 의도적으로 워터마크를 재현하지 않았더라도, 그 결과가 Getty의 상표를 무단으로 사용한 것과 동일한 효과를 낸다고 판단했습니다. 이는 AI 시대의 지적재산권 침해가 반드시 '의도'를 요구하지 않으며, '결과'만으로도 충분할 수 있음을 시사합니다.
CHAPTER 2
글로벌 AI 저작권 소송의 현주소
생성형 AI를 둘러싼 법적 분쟁은 전 세계적으로 확산되고 있습니다. 2024년 말 기준으로 주요 AI 기업들을 상대로 한 저작권 소송은 30건이 넘는 것으로 파악됩니다. OpenAI, Midjourney, Anthropic 등 주요 기업 대부분이 소송 당사자가 되었습니다.
미국에서는 뉴욕타임스가 OpenAI·Microsoft를 상대로 2023년 12월 제기한 저작권 침해 소송이 주목받고 있습니다. ChatGPT가 기사 전문을 거의 그대로 재현할 수 있다는 점을 핵심 증거로 제시했으며, 2025년 3월(서면 의견서는 4월 4일 공개) 연방 판사가 핵심 저작권 침해 청구에 대한 OpenAI의 기각 신청을 기각함으로써 소송의 주요 청구들이 유지됐습니다(다만 DMCA 관련 일부 청구는 기각됐습니다). 현재 증거 수집(discovery) 단계가 진행 중이고 재판 일정은 아직 확정되지 않아, 최종 판결까지는 상당한 시일이 걸릴 것으로 예상됩니다. 별도로 작가 길드와 저명 작가들(John Grisham, George R.R. Martin 등 17인)도 OpenAI를 상대로 2023년 9월 집단소송(class action) 형태의 저작권 침해 소송을 제기한 상태입니다.
지역 주요 소송/동향 AI 학습 입장
미국 NYT vs OpenAI (진행 중) 공정 이용 논쟁 중
영국 Getty vs Stability AI 판결 저작권·DB권 침해 청구 증거 부재로 철회, 2차 저작권 침해 기각(Stability AI 승소), 초기 버전 워터마크 출력에 한해 극히 제한적 상표침해만 인정
유럽연합 DSM 지침 + EU AI Act Opt-out 권리 인정
일본 저작권법 30조의4 적용 AI 학습 광범위 허용
Getty Images 판결은 AI 이미지 생성에서 워터마크나 로고가 재현되는 현상이 상표권 침해로 이어질 수 있음을 명확히 했습니다. 이는 AI 기업들이 저작권뿐 아니라 상표권, 퍼블리시티권 등 다양한 지적재산권 영역에서 리스크를 관리해야 함을 의미합니다.
CASE REFERENCE
Adobe, Shutterstock 등은 자체 라이선스 데이터셋으로 학습한 AI 모델을 출시했으며, 생성 이미지에 대한 법적 보상 프로그램을 운영하는 방향으로 '책임 있는 AI' 전략을 채택하고 있습니다.
CHAPTER 3
한국 AI 기업과 스타트업에 미치는 영향
국내 AI 업계는 글로벌 법적 동향에 촉각을 곤두세우고 있습니다. 한국 저작권법은 미국식 공정 이용 원칙과 달리 제한적 예외 조항만을 인정하기 때문에, AI 학습의 적법성에 대한 명확한 법적 근거가 부족한 상황입니다. 2024년 저작권법 개정안에서 AI 학습 관련 조항이 논의되었으나, 권리자와 AI 업계 간 이견으로 합의에 이르지 못했습니다.
네이버, 카카오 등 대기업들은 자체 데이터와 파트너십을 통해 확보한 데이터셋으로 AI 모델을 학습시키는 전략을 취하고 있습니다. 반면 자체 데이터셋을 구축할 자원이 부족한 스타트업들은 대부분 오픈소스 모델이나 해외 데이터셋에 의존하고 있어, 학습 데이터 출처에 대한 법적 검증이 사실상 불가능한 상황입니다.
"학습 과정에서는 문제가 없었지만, 출력물이 기존 저작물과 유사하다는 권리자의 항의를 받았습니다"
업계에서는 '필터링 기술'에 대한 투자가 확대되고 있습니다. 일부 기업들은 생성 전 프롬프트 단계에서 저작권 침해 가능성이 있는 키워드를 차단하고, 생성 후에는 이미지 유사도 검증 알고리즘을 적용하고 있습니다. 이러한 기술 투자는 단기적으로는 비용이지만, 장기적으로는 법적 리스크를 줄이는 보험으로 작용할 것입니다.
CHAPTER 4
AI 서비스 제공자를 위한 법적 리스크 관리 전략
이창민 변리사는 이번 판결에 대해 "모델 학습 자체보다 출력물이 문제가 된 사례"라고 평가했습니다. 법원은 결과를 중시합니다. 아무리 학습 과정이 적법했더라도, 최종 출력물이 타인의 권리를 침해하면 책임을 지게 됩니다.
1 학습 데이터 출처 문서화
사용한 모든 데이터셋의 출처와 라이선스 기록, 오픈소스 모델의 원본 라이선스 조건 확인, 크롤링 데이터의 robots.txt 준수 여부 검증
2 출력물 필터링 시스템 구축
생성 전 프롬프트 검증, 생성 후 이미지·텍스트 유사도 검증 알고리즘 적용, 워터마크 패턴 탐지 시스템 구현
3 이용약관 및 면책조항 정비
사용자가 생성한 콘텐츠의 법적 책임 소재 명시, AI 생성물의 저작권 귀속 관계 명확화, 제3자 권리 침해 발생 시 대응 절차 안내
4 모니터링 및 신고 체계 운영
사용자 신고 시스템 구축, 주기적인 출력물 샘플링 검증, 문제 콘텐츠 즉시 삭제 및 차단 프로세스 마련
5 법률 자문 및 보험 가입
지적재산권 전문 법률사무소와 자문 계약, AI 관련 책임보험 상품 검토, 글로벌 서비스 시 각국 법률 전문가 네트워크 구축
CHAPTER 5
실전 체크리스트 — 서비스 출시 전 점검 사항
AI 이미지 생성 서비스를 출시하려는 기업이라면, 다음 항목들을 반드시 점검해야 합니다.
기술적 안전장치 점검
프롬프트 1차 필터링(브랜드·캐릭터·아티스트 DB 차단) → 워터마크 패턴 탐지 시스템(Getty, Shutterstock 등 주요 플랫폼 패턴 학습) → 생성 후 퍼셉추얼 해싱 검증(CLIP·DINO 기반 의미적 유사도 분석) 3단계를 모두 구축해야 합니다.
법적 문서 정비
이용약관에 AI 생성물의 저작권 귀속, 상업적 활용 범위, 제3자 권리 침해 책임 소재를 구체적으로 명시해야 합니다. 포괄적 면책 조항만으로는 법적 분쟁 시 효력이 제한적일 수 있습니다.
지속적 모니터링
출시 후에도 사용자 프롬프트 패턴을 분석하고, 특정 캐릭터·로고가 반복 생성된다면 키워드 추가 차단 또는 모델 재학습 등의 조치가 필요합니다. 미국 DMCA의 Notice and Takedown 절차를 참고한 신고-검토-삭제 표준 프로세스 수립을 권장합니다.
EPILOGUE
학습은 괜찮지만, 출력물은 책임져라
영국 법원의 이번 판결은 AI 업계에 명확한 메시지를 보냈다. 법률의 세계는 언제나 기술보다 한발 늦는다. AI 기술이 2년 전에 폭발적으로 발전했다면, 이제야 법원들이 하나둘 판례를 만들어가고 있다. 그 과정에서 기업들은 불확실성과 씨름해야 한다.
하지만 리스크는 관리할 수 있다. 완벽하게 제거할 수는 없어도, 최소화할 수는 있다. 필터링 시스템에 투자하고, 법률 전문가와 협력하고, 사용자에게 투명하게 안내하는 것. 당장의 비용처럼 보이지만, 결국은 가장 저렴한 보험이다.
김태현 CTO의 팀은 결국 출시를 3개월 연기했다. 필터링 시스템을 전면 재설계하고, 법무팀과 함께 이용약관을 재작성했다. 그가 동료들에게 자주 하는 말이 있다. "우리가 만드는 건 기술이 아니라 서비스다. 기술이 아무리 훌륭해도, 법적으로 지속 가능하지 않으면 의미가 없다."
본 콘텐츠는 정보 제공 목적으로 작성되었으며, 법률 자문을 대체할 수 없습니다. 구체적인 법적 문제에 대해서는 반드시 전문 변호사 또는 변리사와 상담하시기 바랍니다. 본 콘텐츠의 내용은 작성 시점 기준이며, 법률 및 판례는 변경될 수 있습니다. 본 콘텐츠를 근거로 한 의사결정에 대해 작성자는 법적 책임을 지지 않습니다.