최근 IT 업계와 문화 예술계에서는 “내 목소리·얼굴, 동의한 적 없는데”…AI ‘무단 학습’에 빼앗긴 창작권 문제가 심각한 화두로 떠오르고 있습니다. 생성형 인공지능 기술이 비약적으로 발전하면서 인터넷에 공개된 개인의 목소리나 얼굴 데이터를 당사자 허락 없이 크롤링하여 AI 모델 학습에 사용하는 사례가 급증했기 때문입니다. 이는 단순한 기술적 진보를 넘어 개인의 고유한 정체성과 직결된 권리를 침해한다는 점에서 강력한 비판의 목소리가 나오고 있습니다.
과거에는 전문가의 영역이었던 딥페이크나 음성 복제 기술이 이제는 누구나 쉽게 접근할 수 있는 오픈 소스 형태로 보급되었습니다. 이로 인해 유명인은 물론 일반인들까지도 자신의 생체 데이터가 자신도 모르는 사이에 AI 학습용 데이터셋에 포함되어 상업적으로 이용되거나, 부적절한 콘텐츠 제작에 악용되는 위험에 노출되어 있습니다. 이러한 무단 학습 문제는 창작자들의 생존권을 위협하는 동시에 디지털 인격권에 대한 새로운 법적 논쟁을 불러일으키고 있습니다.
AI 무단 학습이 초래하는 창작권 침해의 실태
AI 모델이 정교해질수록 더 많은 양의 고품질 데이터가 필요하게 됩니다. 이 과정에서 많은 AI 개발 기업들은 저작권이나 초상권 개념이 희박했던 과거의 관행을 답습하며 웹상에 존재하는 방대한 양의 영상과 음성 데이터를 무차별적으로 수집해왔습니다. 특히 성우, 배우, 가수 등 자신의 목소리와 얼굴이 곧 자산인 창작자들에게 이러한 행위는 대체 불가능한 직업적 가치를 훼손하는 직접적인 위협이 됩니다.
실제로 해외뿐만 아니라 국내에서도 특정 가수의 목소리를 학습한 AI가 부른 커버 곡이 유튜브에서 수백만 회의 조회수를 기록하는 일이 빈번합니다. 하지만 해당 곡에서 발생하는 수익은 목소리의 주인인 가수에게 돌아가지 않습니다. 이는 단순한 팬심의 발로를 넘어, 창작자의 고유한 신체적 특성을 무단으로 복제하여 상업적 이득을 취하는 명백한 권리 침해 사례로 분류될 수 있습니다.
또한, 얼굴 데이터를 학습한 AI가 생성해내는 이미지는 실제 모델의 표정, 이목구비, 분위기를 그대로 재현합니다. 이는 광고나 영화 산업에서 실제 모델을 고용하는 대신 AI 생성 이미지를 사용하는 결과로 이어져, 기존 창작자들의 일자리를 잠식하는 결과를 초래합니다. “내 데이터가 나를 대체하는 도구를 만드는 데 쓰였다”는 창작자들의 절규는 바로 이러한 배경에서 나옵니다.
퍼블리시티권과 저작권법의 사각지대
현행 저작권법은 인간의 사상이나 감정을 표현한 ‘창작물’을 보호하는 데 중점을 둡니다. 하지만 목소리나 얼굴 그 자체는 저작물로 인정받기 어려운 측면이 있어 법적 보호의 사각지대에 놓여 있었습니다. 이를 보완하기 위해 등장한 개념이 바로 ‘퍼블리시티권’입니다. 퍼블리시티권은 성명, 초상, 목소리 등 개인의 식별 가능한 특징을 상업적으로 이용할 수 있는 독점적 권리를 의미합니다.
최근 한국에서도 퍼블리시티권을 명문화하려는 법 개정 논의가 활발해지고 있습니다. AI가 무단으로 특정인의 목소리를 학습해 콘텐츠를 생산할 경우, 이를 저작권 침해뿐만 아니라 퍼블리시티권 침해로 간주하여 제재할 수 있는 근거를 마련하기 위함입니다. 하지만 이미 학습이 완료된 AI 모델에서 특정인의 데이터를 완벽하게 분리하거나 삭제하는 것은 기술적으로 매우 어렵다는 점이 해결해야 할 과제로 남아 있습니다.
개인과 창작자가 대응할 수 있는 실무적 방법
기술적, 법적 제도 마련이 완벽하지 않은 상황에서 창작자들은 스스로의 권리를 지키기 위한 능동적인 대응책을 모색해야 합니다. 자신의 소중한 목소리와 얼굴 데이터가 AI 무단 학습의 먹잇감이 되지 않도록 다음과 같은 방법을 고려할 수 있습니다.
- AI 학습 방지 툴 활용: ‘글레이즈(Glaze)’나 ‘나이트쉐이드(Nightshade)’와 같은 도구를 사용하면 이미지에 사람이 보기에는 티가 나지 않지만 AI가 학습할 때는 왜곡된 정보를 읽도록 만드는 미세한 노이즈를 삽입할 수 있습니다.
- 워터마크 및 저작권 명시: 콘텐츠 업로드 시 육안으로 식별 가능한 워터마크뿐만 아니라, 메타데이터에 AI 학습 금지(No AI) 태그를 명확히 포함하는 것이 법적 분쟁 시 유리하게 작용할 수 있습니다.
- 서비스 약관 확인: 각종 SNS나 포트폴리오 사이트에 가입할 때, 업로드한 콘텐츠가 서비스 제공 업체의 AI 학습 데이터로 자동 활용된다는 조항이 있는지 꼼꼼히 확인해야 합니다.
- 디지털 권리 관리(DRM) 적용: 원본 음성 파일이나 고화질 이미지에 접근 권한을 설정하거나 복제를 방지하는 기술적 조치를 취하여 무분별한 크롤링을 차단합니다.
글로벌 기업과 정부의 규제 움직임
AI 무단 학습 문제가 전 세계적인 이슈로 부상함에 따라, 각국 정부는 규제의 칼날을 세우고 있습니다. 유럽연합(EU)은 AI 법(AI Act)을 통해 AI 학습에 사용된 저작물 목록을 의무적으로 공개하도록 규정했습니다. 이는 창작자들이 자신의 데이터가 학습에 쓰였는지 확인하고 권리를 주장할 수 있는 투명성을 확보하기 위한 조치입니다.
미국에서도 예술가들이 대형 AI 기업을 상대로 집단 소송을 제기하며 법적 판례를 만들어가고 있습니다. 빅테크 기업들 역시 비판 여론을 의식하여, 창작자가 자신의 콘텐츠를 학습 데이터에서 제외해달라고 요청할 수 있는 ‘옵트아웃(Opt-out)’ 기능을 도입하거나 정당한 대가를 지불하고 라이선스를 체결하는 방식으로 변화를 꾀하고 있습니다. 하지만 옵트아웃은 이미 데이터가 수집된 이후의 사후 처방이라는 점에서 한계가 있다는 지적도 여전합니다.
요약/결론
“내 목소리·얼굴, 동의한 적 없는데”…AI ‘무단 학습’에 빼앗긴 창작권 문제는 인공지능 시대에 우리가 반드시 해결해야 할 윤리적, 법적 숙제입니다. 기술의 발전이 누군가의 고유한 정체성을 무단으로 탈취하거나 생계 수단을 파괴하는 방식으로 이루어져서는 안 됩니다. AI 산업의 지속 가능한 발전을 위해서는 데이터 수집 과정의 투명성이 보장되어야 하며, 창작자의 권리를 존중하는 정당한 보상 체계가 확립되어야 합니다.
사용자와 창작자 모두 기술의 편리함 뒤에 숨은 권리 침해 가능성을 인지하고, 능동적으로 자신의 데이터를 보호하려는 노력이 필요합니다. 정부 또한 변화하는 기술 속도에 맞춰 퍼블리시티권을 포함한 관련 법안을 신속히 정비하여 디지털 시대의 새로운 질서를 세워야 할 시점입니다.
답글 남기기