-
chardet의 원 저자인 Mark Pilgrim이 프로젝트의 LGPL 라이선스 위반을 지적하며, 최근 버전 7.0.0의 MIT 라이선스 전환을 철회할 것을 요구함
- 그는 유지보수자들이 “완전한 재작성”이라 주장하더라도, 원본 코드에 직접 노출된 상태에서 작성된 파생물이므로 LGPL을 유지해야 한다고 명시함
- 여러 개발자들이 AI 보조 재작성이 실제로 “클린룸 구현(clean room implementation)”인지, 그리고 LLM이 원본 코드를 학습했는지 여부를 논의함
- 일부는 API 호환성과 공정 이용(fair use) 가능성을 언급했으나, 다수는 저작권 침해 가능성과 AI 코드 생성의 법적 불확실성을 우려함
- 이번 논의는 AI가 생성한 코드의 저작권 책임, 오픈소스 프로젝트의 라이선스 변경 절차, 유지보수 권한의 한계를 둘러싼 중요한 선례로 주목됨
Mark Pilgrim의 문제 제기
- Mark Pilgrim은 자신이 chardet의 원 저자이며, 프로젝트가 LGPL 라이선스로 배포되어 왔다고 명시함
- 그는 버전 7.0.0에서 “재라이선스 권한이 있다”는 유지보수자의 주장이 잘못되었다고 지적
- LGPL 하의 코드는 수정되더라도 동일한 라이선스로 공개되어야 하며, “완전한 재작성” 주장은 법적 근거가 없음을 강조
- “코드 생성기 추가”가 새로운 권리를 부여하지 않는다고 명시
- Pilgrim은 프로젝트를 원래의 LGPL 라이선스로 되돌릴 것을 요구함
커뮤니티의 초기 반응
- 한 사용자는 AI 보조 재작성 이전 버전의 포크가 있는지 질문, 다른 사용자가 6.0.0 버전 링크를 제시
- 일부는 “법적으로 Mark가 옳다”고 동의하며, LGPL 위반 가능성을 인정
- 다른 사용자는 “AI를 통한 재작성은 불가피한 트레이드오프”라며 실용적 관점을 언급
법적 논의: API, 저작권, 공정 이용
- 한 사용자는 Google LLC v. Oracle America, Inc. 판례를 인용해 API도 저작권 보호 대상임을 언급
- API 호환성을 이유로 한 재작성은 공정 이용 요건을 충족하지 않으면 불법일 수 있다고 설명
- 이에 대해 다른 사용자는 Google의 경우 공정 이용으로 인정되었다며 반박
- 논의는 API 호환성 재작성의 합법성과 AI 생성 코드의 저작권 상태로 확장됨
AI 코드 생성과 클린룸 구현 논쟁
- 일부는 “AI가 원본 코드를 학습했을 가능성”이 있다면 클린룸 구현이 성립하지 않는다고 지적
- LLM이 chardet 코드를 학습했는지 여부가 법적 판단의 핵심이 될 수 있음
- 다른 사용자는 “AI가 입력·출력만을 기준으로 코드를 생성했다면 가능할 수도 있다”고 주장
- 그러나 이에 대해 “그렇다면 라이선스 자체가 무의미해진다”는 반론이 제기됨
- AI 코드의 저작권 책임 불명확성과 라이선스 준수 검증의 어려움이 주요 쟁점으로 부상
라이선스 호환성과 GPL 논의
- 일부는 MIT 라이선스가 GPL과 호환되지 않는다고 주장했으나, 다른 사용자가 FSF의 공식 문서를 인용해 MIT(Expat)는 GPL 호환임을 설명
- 그러나 “LGPL 코드를 MIT로 재라이선스하는 것은 여전히 위반”이라는 점에는 다수 의견이 일치
- 또 다른 사용자는 “LGPL 코드 기반의 명성과 저장소를 유지하면서 계약을 버릴 수는 없다”고 지적
AI 학습 데이터와 신뢰 문제
- 여러 사용자가 “Claude가 LGPL 코드를 학습하지 않았다고 믿을 수 있는가”라는 의문 제기
- AI 모델의 학습 데이터 추적 불가능성이 법적 리스크로 언급됨
- 일부는 “AI 코드가 표절 가능성을 내포한다면 사용 자체를 피해야 한다”고 주장
- 연구 인용을 통해 AI 코드의 2~5%가 기존 코드 복제일 가능성이 있다는 통계가 제시됨
프로젝트 정체성과 유지보수 권한
- 일부는 “이전 기여자들의 코드가 모두 제거되었다면, 새로운 버전은 독립적일 수 있다”고 주장
- 그러나 “이름과 평판을 그대로 사용하는 것은 부적절하다”는 반론 존재
- “저작권은 표현을 보호하지 이름을 보호하지 않는다”는 의견도 제시됨
- 유지보수자가 모든 기존 코드를 제거했다면 법적 위반이 아닐 수 있다는 견해도 있었으나, 명확한 증거는 제시되지 않음
커뮤니티의 종합적 시각
- 여러 사용자가 Mark Pilgrim과 Dan Blanchard 모두의 기여를 존중하며, AI·저작권·오픈소스 거버넌스의 복잡한 문제를 인식해야 한다고 언급
- 논의는 AI 코드 생성의 법적 책임, 프로젝트 라이선스 변경의 정당성, 오픈소스 유지보수 권한의 한계 등으로 확장됨
- 일부는 “v7.0.0을 포크해 LGPL로 되돌리자”는 제안도 제시됨
핵심 쟁점 요약
-
LGPL → MIT 전환의 적법성: 원 저작자의 동의 없이 불가능하다는 다수 의견
-
AI 재작성의 저작권 상태: 학습 데이터 노출 여부에 따라 파생물로 간주될 가능성
-
클린룸 구현 여부: AI가 원본 코드를 참조하지 않았음을 입증해야 함
-
프로젝트 명칭·평판 사용 문제: 동일 이름으로의 재배포는 법적·윤리적 논란
-
AI 코드의 신뢰성: 표절 위험과 공급망 안정성 우려
이 이슈는 AI가 생성한 코드의 저작권과 오픈소스 라이선스 준수 문제를 둘러싼 대표적 사례로, 향후 AI 개발 도구의 법적 책임 구조에 영향을 미칠 가능성이 있음