LM1 라우드니스 메타데이터로 스트리밍 광고 음량 규제(SB 576)를 준수하는 방법

2025.11.04ㆍ by Henney Oh

 

 

 

1. SB 576과 영상 스트리밍 서비스의 과제


미국 캘리포니아 주에서는 2026년 7월 1일부로, 영상 스트리밍 서비스를 제공하는 사업자가 자사 플랫폼을 통해 제공하는 광고의 음량이 본편(프로그램)의 음량보다 높아서는 안 된다는 내용의 법안 SB 576(“본편보다 높은 음량의 광고 송출을 금지하는 법안“)이 발효됩니다(관련 블로그). 이는 기존에 TV·케이블 방송에 적용되던 CALM Act(Commercial Advertisement Loudness Mitigation Act)의 규제를 스트리밍 서비스까지 확대한 조치입니다. 결국, 넷플릭스나 디즈니플러스 같은 스트리밍 사업자들은 광고 음량을 본편과 동일하거나 낮은 수준으로 제어하는 기술적 준비가 필수적입니다.

 

 

2. 왜 SB 576 대응에 LM1이 유리한가

 

SB 576은 광고 음량이 본편보다 커서는 안 된다는 ‘음량 상한 규제’입니다. 스트리밍 사업자 입장에서는 다음과 같은 도전이 존재합니다:

  • 광고와 본편이 서로 다른 라우트(서버/플랫폼)로 구성될 수 있고, 광고 삽입 시 두 음량 간 밸런스가 맞지 않을 수 있음

  • 콘텐츠 제작 주체가 다르기 때문에 각 트랙의 실제 음량 정보를 정확히 알기 어려움

  • 다양한 단말(Device), 재생 환경(앱, 스마트TV, 모바일 등)에 따라 ‘같은 음원이라도 체감 음량’이 달라질 수 있음

  • 기존 방송처럼 단일 환경이 아닌 OTT/스트리밍 환경에서는 실시간 삽입(DAI), 변환, 인코딩 과정이 다양해 일관된 음량 관리가 어려움

 

이때 LM1의 메타데이터 기반 방식을 활용하면 다음과 같은 이점을 얻을 수 있습니다:

  • 광고 서버가 광고 음원에 LM1 메타데이터를 생성하여 사이드체인으로 함께 전송하면, 단말이 본편의 음량 메타데이터와 비교해 광고 재생 시 본편의 음량 레벨과 비교해 실시간으로 동적으로 제어 수행

  • 서버는 광고를 별도 리마스터링할 필요가 없어 운영 비용과 복잡성이 크게 감소

  • 단말에서는 메타데이터에 따라 광고 음량을 본편과 동일 또는 낮게 조절하는 로직 추가만으로 자동 음량 평준화 구현 가능

  • 결과적으로 모든 디바이스와 플랫폼에서 통일된 사용자 경험 제공

  • LM1이 국제표준인 ANSI/CTA-2075.1에 반영되어 있어, 기술 신뢰성과 규제 대응 측면에서 모두 검증된 솔루션임

 

즉, LM1은 SB 576 준수와 사용자 경험 향상, 그리고 운영 효율성을 동시에 해결하는 가장 확실하고 검증된 솔루션입니다.

 

 

3. 기술 배경: LM1이란 무엇인가


LM1은 Gaudio Lab이 개발한 메타데이터 기반 음량 평준화(Loudness Normalization) 기술로, 방송/스트리밍 등 다양한 환경에서 콘텐츠 음량을 일관되게 유지하도록 설계되어 있습니다. 

 

주요 특징

  • 표준화 기술
    • 한국정보통신기술협회(TTA) 표준 TTAK.KO-07.0146 (2020) 제정
    • ANSI/CTA-2075.1(OTT 및 온라인 비디오 배포용 음량 표준) 반영
  • 사이드체인 메타데이터 구조
    • 프로그램당 1KB 미만의 경량 비트스트림으로 구성
    • 단말은 메타데이터를 참조해 재생 중 실시간 음량 보정 수행 (원본 음원 손실 없음)  
  • 정확도 및 성능
    • ITU-R BS.1770 (최신 ITU-R BS.1770-5 까지 지원) 국제 표준 방식으로 음량 측정
    • Zero Latency Process (Peak Limiter 사용 시 지연 0.001 sec 이하)
    • Dialogue (Anchor) Normalization, Transparent Mode, Quality Secure Mode 등 다양한 평준화 모드 및 고급 기능 제공  
    • 서버/단말 모두 저연산 구조로, 클라우드/앱 환경에 최적화
    • 모든 단말/앱/플랫폼 지원: 스마트폰/TV/웹/전장/Embedded 등
    • 고객사의 워크플로우, 단말/앱 구조에 맞춘 custom integration 지원
    • 5천만 명 이상 사용자가 일상적으로 활용 중인 검증된 기술 

 

 

4. 동작 구조


먼저, 아래 그림은 LM1 서버-클라이언트 구조의 음량 평준화 솔루션의 동작 구조를 설명하는 다이어그램입니다. 

 

[그림 1: LM1 서버-클라이언트 구조]

 

LM1은 서버에서 콘텐츠(오디오/비디오)의 음량 정보를 측정해 사이드체인 메타데이터(LM1 Metadata) 형태로 생성하고, 클라이언트 단에서 이를 이용해 재생 시 실시간으로 음량을 보정하는 구조입니다. 

  • 메타데이터 생성
    • 서버의 LM1 Metadata Generator는 각 콘텐츠의 음량을 국제 표준 ITU-R BS.1770 방식으로 측정 및 분석하여, 각 콘텐츠마다 1 KB 미만의 LM1 메타데이터를 생성합니다.
  • 전송 (Sidechain)
    • LM1 메타데이터는 오디오 스트림과 함께 별도의 사이드체인으로 클라이언트에 전송됩니다. 이때 메타데이터는 ID3 테그나 Timed Metadata 형식으로 포함할 수 있습니다. Timed Metadata의 경우 HLS 환경에서는 EXT-X-ID3, DASH 환경에서는 emsg 태그를 통해 전달됩니다.
  • 클라이언트 처리
    • 클라이언트는 오디오 디코더로 음원을 재생하면서, LM1 메타데이터를 파싱해 Loudness Normalization을 수행합니다.
    • 예를 들어, TV에서는 −24 LUFS, 모바일에서는 −16 LUFS 등 재생 기기에 맞춘 최적의 음량으로 출력되어, 모든 환경에서 일관된 음량과 쾌적한 청취 경험을 제공합니다.

다음 그림은 스트리밍 서비스 사업자가 LM1 메타데이터 기반으로 SB 576 요건을 충족하기 위해 설계할 수 있는 스트리밍/광고/단말 관계도의 예시입니다. 여기서는 서버 사이드 광고 삽입(SSAI) 방식으로 통합되는 경우를 기준으로 설명합니다만, 클라이언트 사이드 광고 삽입(CSAI) 방식에서도 문제없이 적용 가능합니다.  
 

 


[그림 2: SSAI 환경에서의 LM1]

 

  • 콘텐츠 서버 (Program Content)
    • 본편 오디오의 음량을 측정하여 LM1 메타데이터를 생성합니다. 생성된 메타데이터는 Timed metadata에 포함되어 전송됩니다. 본편 오디오의 라우드니스를 이미 특정 목표값에 맞춰 평준화한 서비스의 경우 별도의 LM1 메타데이터를 생성 및 전송할 필요가 없습니다.
  • 광고 서버 (Ad Server)
    • 광고 서버는 광고 오디오의 라우드니스를 분석하여 LM1 메타데이터를 사전에 생성합니다. 이후 광고 콘텐츠 전송시 LM1 메타데이터를 기존의 메타데이터(광고 URL, ID, 재생 길이, 트래킹 정보 등)와 함께 Extension 필드에 포함한 VAST XML을 SSAI 서버에 제공합니다.
  • SSAI 서버 (Ad Assembler)
    • SSAI 서버(Ad Assembler)는 본편 콘텐츠 스트림과 광고 스트림을 하나의 연속된 재생 스트림으로 구성합니다. 내부의 Manifest Stitcher는 HLS/DASH manifest를 기반으로 본편과 광고 세그먼트를 정렬하고, Ad Server로부터 전달받은 LM1 메타데이터를 Timed Metadata(EXT-X-ID3, emsg) 형태로 변환하여 광고 삽입 시점마다 manifest에 삽입합니다.
  • 클라이언트 (플레이어 + LM1 SDK)
    • 클라이언트는 LM1 Client SDK를 통해 프로그램(optional)과 광고의 메타데이터를 읽어서 라우드니스를 보정하여 모든 구간에서 동일한 음량 레벨을 유지하도록 자동 제어합니다.

 

이 구조를 통해 광고 삽입 환경에서도 SB 576 규제에 완벽히 부합하는 음량 관리를 달성할 수 있습니다. 또한 LM1 메타데이터는 오디오 코덱과 무관(Codec Agnostic)하게 동작하므로, 기존 SSAI 파이프라인의 구조를 변경하지 않고도 쉽게 통합 가능합니다.

 

 

왜 사이드체인 메타데이터 방식인가

  • 메타데이터로 참조 정보만 전달하고 원본 자체를 변경하지 않으므로 오디오 품질 손실이나 리마스터링, 트랜스코딩의 부담이 없음
  • 기존 인프라에 최소한의 변경만으로 적용 가능
  • 광고/프로그램 각각 별도 메타데이터를 관리, 삽입하므로 각각의 운영 주체가 달라도 호환성 보장 → 각 서비스 플랫폼마다 서로 다른 기준 음량을 갖는 경우에도 동일한 광고 파일 하나로 대응 가능
  • 코덱 독립적(Codec Agnostic) → AAC, AC-3 등 서로 다른 코덱으로 인코딩된 콘텐츠들 사이에서도 동일하게 동작
  • 서버에서 실제 콘텐츠를 측정해서 생성하므로 신뢰도 100% – 과거에는 잘못된 음량 메타데이터로 인한 오류 위험 때문에 사용되지 않음  
  • 이미 다양한 플랫폼에 적용되어 단말 확장성 우수 

 

 

Wrap-up


SB 576 이 사용자에게 큰 편의를 줄 수 있는 좋은 규제임에도 불구하고, 이를 사업자 입장에서는 새로운 기술적 부담으로 작용할 수 있습니다. 실제로 Netflix, Disney 등 주요 사업자들을 대변하는 Motion Picture Association and the Streaming Innovation Alliance 측에서도 해당 법안의 실질적 구현 어려움에 대해 우려를 표한 바 있습니다.  

 

그러나 LM1은 이러한 구조적 문제를 이미 예견하고 설계된 표준 기술입니다. 2020년 표준 제정 당시부터 방송/OTT/광고 생태계 전반의 음량 불균형 문제를 근본적으로 해결하기 위해 만들어졌습니다.  

이 글을 읽고 궁금한 점이 있거나 솔루션을 상담하고 싶은 분들은 언제든 Contact Us 링크를 통해 문의해 주시기 바랍니다.

 

pre-image
캘리포니아 사람들은 좋겠다! 귀 아플 일 없어서! (SB576 법안)

       콘텐츠와 광고 간 볼륨 차이로 화들짝 놀라거나 불편했던 경험은 누구에게나 있었을 것입니다. 그러나 내년 7월부터 미국 캘리포니아 주 거주자에게 이런 불편은 없어질 것으로 보입니다. 지난 10월 6일, 캘리포니아 주지사 Gavin Newsom이 SB 576 법안에 대해 서명했기 때문입니다. 해당 법안은 캘리포니아 주 내 이용자를 대상으로 한 인터넷 프로토콜(IP) 방식의 스트리밍 영상 서비스에 대해 광고 오디오가 본편 영상 콘텐츠의 음량을 초과할 수 없다는 의견을 담고 있습니다.  전통적인 TV 시청에서 모바일, 스마트 TV 등 인터넷 프로토콜(IP) 방식의 스트리밍 서비스로 사용자의 미디어 소비 행태가 변화 한지는 오래죠. 그러나 규제는 그를 따라오지 못해 오랜 기간 이용자들이 불편한 소리경험을 해야만 했습니다. 들쭉날쭉한 콘텐츠 볼륨 차이로 인해 깜짝 놀라거나 피로감을 느끼는 불쾌한 경험이 익숙해진 나머지, 그 불편함이 당연한 것으로 여겨졌습니다.   ‘돈’이 있는 곳에 ‘전쟁‘이 있다. 볼륨 전쟁. 라우드니스 워.  ‘라우드니스 워‘라는 말이 있습니다. 소리가 크면 음질이 좋은 것처럼 느낀다는 생각으로 너도나도 볼륨을 올려왔던 콘텐츠 제작 생태계의 음량 높이기 현상을 부르는 말입니다. 1970년대 음악부터 최신 K-Pop까지 음량은 계속해서 커져왔습니다. 실제로는 소리에 열화가 발생해 품질이 떨어지는데도, 음악, 영화, 드라마까지 볼륨을 키우는 데 혼신의 힘을 써왔죠.  여기에 ‘돈’을 잔뜩 태우는 광고가 붙는다면 어떻게 될까요? 애써 제작한 광고, 막대한 비용을 들여 도달률을 높이고자 하는 목적으로 만들어진 만큼, 본 콘텐츠보다 확실히 청자의 귀에 잘 들려야 한다는 생각에 볼륨이 최대한으로 커질 수밖에 없겠죠.  결과적으로 고통받는 것은 이용자들의 청각세포들입니다.  우는 아기에 잠 못드는 밤이 빚어낸 ‘광고 음량 제한’ 법안  상황을 인지한 캘리포니아주가 법으로 규제에 나섰습니다. 많은 국가에서 방송용 음량 기준 외에 스트리밍 광고 음량을 별도 법제화한 사례는 찾아보기 어렵습니다. 따라서 이번 법안을 필두로 다양한 주, 국가 등에서 연관된 법제를 도입할 가능성도 높습니다.  이 법안은 어린 아기를 키우는 어려움마저 반영합니다. 법안의 발의자 Thomas Umberg(California State Senator)는 애써 재운 아기가 막 잠든 순간, 시끄러운 스트리밍 광고 소리로 아이가 잠에서 깨버리며 우는, 지친 부모 모두와 Baby Samantha에 영감을 받았다고 합니다.    “This bill was inspired by baby Samantha and every exhausted parent who’s finally gotten a baby to sleep, only to have a blaring streaming ad undo all that hard work,”- State Senator Thomas Umberg, who introduced the bill.  이미 오래전 지상파 TV 방송에서는 이 문제가 법제화되었습니다. 이른바 CALM act (Commercial Advertisement Loudness Mitigation Act, ‘쉿! 법‘)가 발효되며, 광고를 포함한 모든 TV 프로그램의 음량 규격이 정해졌습니다. 이에 따라 대부분의 나라에서 일정 음량(-24LUFS, 음량에 대한 표준단위)에 맞춰 콘텐츠를 송출하기 때문에, 우리는 TV의 볼륨이 갑자기 엄청 커지거나 확 작아지는 문제를 겪지 않아도 됐었던 것이죠.   시대의 변화에 따라 이제 영상이나 음악 등 콘텐츠를 소비하는 매체가 스마트폰을 포함한 다양한 디바이스로 확장되었습니다. 이에 따라 우리에게 새로운 기준이 필요해진 지는 오래이나, 제도가 변화를 한참 따라오지 못하고 있는 상황이었습니다. 게다가 이제는 디바이스도 제각각, 앱도 제각각이라 경우의 수는 훨씬 더 많이 증가했습니다. 결국 일관된 기준이 없으면 들쭉날쭉한 음량에 빵! 하고 귀가 터져버릴 것 같은 경험이 우리를 따라올 수밖에 없는 것이죠.    스트리밍 플랫폼, 이제는 새로운 콘텐츠 소비를 준비할 시간 이번 캘리포니아 입법을 계기로 콘텐츠 창작, 유통, 송출 플랫폼 등 다양한 고객들이 Loudness Normalization 솔루션을 도입하고자 할 것으로 보입니다. 보통 음량 조절은 콘텐츠 창작 단, 플랫폼(OTT 등 스트리밍 플랫폼) 단, 재생앱  단 등에서 처리할 수 있으며, 각 방법은 장점과 단점이 명확합니다. 이에 대해 가우디오랩은 이미 오래전 깊은 고민 끝에, 사이드 체인 메타데이터 방식의 서버-클라이언트 구조로 Loudness Normalization 기술인 LM1(Loudness Normalization 1)을 만들었습니다. 서버에서는 입력된 원본 그대로(압축 그대로) 보관하고 메타데이터만 추출합니다. 추출된 메타데이터는 스트리밍 서비스에서 사용되는 코덱과 무관하게 별도(사이드 체인)로 전송할 수 있습니다.  실제 음량 평준화를 수행하는 것은 클라이언트 앱으로, 사용자가 가진 다양한 환경에 따라 다른 목표 음량으로 소리를 재생할 수 있습니다. 본편 콘텐츠 서버와 광고 서버의 운영이 별도로 분리되어 있어도 각각의 서버에서 메타데이터를 생성해서 클라이언트 앱에 전송하면, 클라이언트 앱에서 본편과 광고를 모두 기준 음량에 맞출 수 있으므로 SB 576 법안에서 요구하는 기준을 충족할 수 있는 기능이 이미 탑재되어 있는 셈이죠. 라이브 스트리밍 시대에도 라우드니스 솔루션을 적용할 수 있도록 고도화까지 완료했습니다. 가우디오랩은 한국의 콘텐츠 스트리밍 공룡들과 협업하며 계속해서 솔루션을 발전시켜 나가고 있습니다.  참고로 가우디오랩의 라우드니스 솔루션은 CES2023 혁신상의 주인공이기도 합니다.       한번 손상되면 회복이 어려운 우리의 청력 우리의 귀는 유한한 수명을 가지고 있으며, 과도한 음량으로 인한 청력 손실은 돌이킬 수 없는 손상을 낳습니다. 스마트폰, 이어폰과 항상 함께하는 세대인 만큼, ‘소리의 불편함’을 당연한 것으로 내버려두지 말고, 적극적으로 대응하며 신체적, 정신적 건강을 지킬 필요가 있습니다. 이번 SB 576 법안이 새로운 콘텐츠 소비 행태에서 이용자들을 지키는 특별한 법으로 기억되기를 바랍니다.   잠깐! 그래서 이제 어떻게 하면 되냐구요? LM1의 기술적 특징과 적용 방안에 대해서는 다음 포스트에서 바로 설명 드리겠습니다.       

2025.10.28
after-image
목 빠지게 기다리던 K-Drama 업로드, 이제 더 빠르게 볼 수 있다?

“목 빠지게 기다리던 K-Drama 업로드, 이제 더 빠르게 볼 수 있다?” AI 기술로 K-콘텐츠를 10배 빠르게 전 세계에 유통하려는 움직임     K-pop, K-Drama, K-예능… K-콘텐츠의 인기는 이제 전 세계 곳곳의 일상적인 풍경이 됐습니다. K콘텐츠를 공유하는 각종 글로벌 커뮤니티에는 “오늘 방영분 언제쯤 볼 수 있나?” “한국에서만 방영되는데 우회해서 볼 방법이 없나?” “VPN 사용하는 방법” 등 K-콘텐츠를 소비하기 위한 질문들이 끊이지 않고 있습니다. 특성 플랫폼을 추천하는 등 각종 노하우도 공유됩니다. 지금까지는 한국 방영 후 최소 2주, 길게는 몇 달을 기다려야 했지만 이 시간이 곧 대폭 줄어들 예정이라고 합니다. 왜일까요?   한국은 지금 ‘K-FAST’ 실험 중 한국 정부와 기업들은 K-콘텐츠를 FAST 채널을 통해 빠르게 전 세계로 확산시키는 프로젝트를 진행 중입니다. 핵심은 AI 자동화와 휴먼 터치(HITL; Human In The Loop)의 조합입니다. FAST(Free, Ad-Supported, Streaming, TV) 채널은 본질적으로 “Free + Ad-supported” 구조라 많은 시간과 비용을 들이기 어렵습니다. 때문에 넷플릭스나 디즈니 플러스 수준의 현지화 품질을 그대로 재현하는 것은 사실상 불가능하죠. 그럼에도 시청자가 불편함을 느끼지 않을 정도의 균형 잡힌 퀄리티는 필수입니다. 특히 원작의 의도를 잘 살리면서도 문화권의 특성을 잘 반영하는 노하우가 필요합니다. 한국은 이 미묘한 지점을 주목, AI 기술을 해답으로 꼽았습니다.   잠깐, K-Drama 한 편을 왜 이렇게 기다려야 했을까 드라마 한 편의 수출 과정은 단순히 자막만 붙이는 과정이 아닙니다. 전사, 자막, 음원 교체, 더빙, 음량 조절, 리마스터, QA… 이 외에도 매우 많은 일들이 필요하죠. 작업의 종류도 많은 데다가, 각 공정마다 다른 업체가 참여하기 때문에 시간은 더 오래 걸리게 됩니다. ‘시간은 곧 돈’이라는 말이 있듯, 비용이 눈덩이처럼 불어날 수밖에 없는 것입니다. 이번 K-FAST 실험에서는 자막 중심의 재제작 방향성을 더빙 중심으로 확 틀어보기로 결정했습니다. 그간 비용과 기술적 한계 때문에 쉽게 엄두를 내지 못했던 결정입니다. (참고: 북미 시장에서는 더빙 콘텐츠의 시청 시간이 자막보다 약 7배 더 높다는 흥미로운 연구도 있어요!) 게다가 오래된 구작의 경우 D/M/E(Dialogue, Music, Effect; 대사, 음악, 효과음의 세 가지 트랙으로 재제작 과정에 필수적) 파일이 유실된 경우도 많습니다. 많은 나라에서 명작이라 불리는 고전 영화들이 창고 속에 잠들어 있을 수밖에 없었습니다.    빠르고, 저렴하고, 고품질. 게다가 과거 유산의 환생까지. K-콘텐츠의 인기가 치솟으며 한국 내 제작사들은 전 세계로부터 쉴 새 없는 수출 문의를 받고 있습니다. 당연히 콘텐츠 현지화 및 수출에 대한 니즈가 높아질 수밖에 없고, 이제는 현지화 속도가 기업 경쟁력 그 자체가 되었습니다. 운 좋게도 한국에는 이 모든 작업을 AI로 해결할 수 있는 기술을 가진 회사가 있습니다. 가우디오랩은 이미 3년 전, 독자 개발한 AI 소리 분리 기술을 시장에 선보였습니다. 다양한 자체 기술의 고도화 끝에 최근 콘텐츠 현지화 전문 솔루션 ‘Gaudio Studio Pro(GSP)‘를 시장에 내놨습니다.   GSP(Gaudio Studio Pro)는 어떻게 작동할까?   AI 소리 분리 엔진을 통해 원본 콘텐츠에서 D/M/E를 깔끔하게 분리합니다. 이를 통해 배경음악의 저작권 이슈, 더빙 작업을 위해 필요한 M&E 카피 부재, 스템 파일이 없는 경우 등 콘텐츠 교류를 막았던 많은 문제 등을 한방에 해결합니다.   분리된 깨끗한 Dialogue를 AI를 활용해 번역하고 더빙합니다. 간단한 스크립트 수정 후 GSP에 파일을 불러옵니다. 잘 만들어진 프롬프팅 처리 후 약간의 휴먼 터치를 더해 완성도를 높입니다. 배경 음악은 저작권 이슈가 없는 Music 트랙으로 자동으로 교체합니다. 속도는 기존 대비 10배 이상 빠르죠. AI가 특정 구간의 특정 음원만 정확하게 추천 및 교체까지 완료한 상태로 제공합니다. 원한다면 들어보고 재추천을 받거나 구간을 바꾸는 등 원작의 의도를 살릴 수 있는 여러 노하우를 더할 수 있습니다. 게다가 교체되는 음악은 AI 생성곡이 아닌 고품질의 휴먼 메이드 음악입니다. 원곡에 뒤지지 않는 보석 같은 숨은 명곡이 발굴되기도 합니다. 오래된 콘텐츠들은 마스터 파일(D/M/E 세그먼트가 나누어진 파일 없이, 완성본 하나만 있는 형태)만 있어 재제작이 불가능한 경우가 많습니다. 그러나 GSP를 통해 이를 분리하면, 오래된 명작이 국경을 넘을 수 있게 됩니다. 세계적 고전이 다시 숨을 쉬게 되는 셈입니다. 일련의 자동화 과정을 통해 기존 한 달 이상 걸리던 재제작 작업이 90% 이상(10배 이상) 빨라지는 결과를 낳게 됩니다.     기존 더빙 방식에서 AI 기반 GSP 활용 방식으로… CES2026 혁신상 2관왕!   기존의 더빙 과정은 수십 명의 성우, 스튜디오, 엔지니어, PD, 스크립터 등 다수의 인물이 필요했지만, GSP에서는 더빙 프로듀서 한 명이 통솔하는 작업으로 바뀝니다. 음원 분리 기술을 통해 프리미엄 구작도 다시 살아나 국경을 넘나들게 됩니다. 실제로 이 과정을 통해 ‘런닝맨’ 등 뜨거운 인기를 얻고 있는 K-콘텐츠들이 국경을 넘어 세계를 향하고 있습니다. 이미 품질 검증에 까다롭기로 유명한 일본의 한 메이저 방송국에도 기술을 공급하고 있는 만큼, FAST 시장에서 가우디오랩 기술은 충분한 퀄리티가 검증된 셈입니다.     최근 가우디오랩의 GSP는 글로벌 콘텐츠 유통의 장벽을 허무는 혁신성을 인정받아 CES2026 혁신상 2관왕을 차지했습니다. 신규 작품은 물론 오래된 아카티브 콘텐츠까지 어떤 영상이든 글로벌 출시가 가능하도록 지원하는 유연성, 사업성, 기술력 등에서 모두 높은 평가를 받았습니다. 11만여 곡 이상의 고품질 휴먼 메이드 음악 라이브러리를 통한 자동 음원 교체 기능으로 콘텐츠 글로벌 확산을 가로막는 법적 문제를 신속하게 해결하기 때문에 여러 회사에서 계속된 러브콜을 받고 있습니다. 참고로 음원 분리, 악기 분리, 실시간 소음 분리, 공간 음향, Loudness Normalization 등 가우디오랩의 다양한 독자 기술은 CES 혁신상을 4년 연속 연달아 수상하며 세계 최고 오디오 기술력을 증명하고 있습니다.      곤란했던 음원 분리 문제까지 깔끔히 해결   AI 가 음원을 분리함에 있어 가장 까다로운 파트이자 많은 업체들이 어려움을 겪는 부분이 있습니다. 바로 드라마 장면에서 두 주연 배우가 대화를 하는데, 배경 음악에 ‘가사‘가 있는 상황. 이 경우 대부분의 AI Separator가 실패를 경험합니다. 보컬과 대사를 잘못 인식해 분리가 깔끔하지 못하기 때문입니다. 그러나 가우디오랩의 보유 모델은 음악과 대화를, 그러니까 음성(dialogue)과 노래(vocal)를 구분할 수 있도록 특별히 트레이닝 되었습니다. 그래서 FAST 채널용 콘텐츠도 더 빠르고 정확하게 제작할 수 있다는 탁월한 장점이 있습니다. 최근 많은 콘텐츠 수출 업체가 앞다퉈 가우디오랩을 찾는 이유이기도 합니다.   HITL(Human In The Loop)로 완성하는 마지막 1% AI 기술에 대한 기존 콘텐츠 제작 현장의 반응은 뜨겁습니다. 그러나 ‘바로 쓰기엔 아쉽다‘, ‘아직 사람의 손길이 필요하다‘, ‘여전히 사람의 수준에 미치지 못한다‘며 외면하는 면면도 많습니다. 나아가 원작의 퀄리티가 훼손되거나 AI로 인해 부자연스러워질 수 있다는 염려로 ‘아직 AI가 100% 투입되기는 다소 이르다’는 판단이 지배적이죠. 이 갭을 메워 AI의 장점 만을 취할 수 있는 것이 바로 HITL 적 접근입니다. 사람이 하기 어려운 일을 처리하거나 돕는 도구의 역할을 AI가 담당합니다. 사람은 작품의 예술적 완성도를 높이고 문맥을 살리는 등 보다 고부가가치의 업무에 집중할 수 있습니다. AI를 훌륭한 도구로 사용함으로서 콘텐츠 글로벌화를 향한 문턱이 한껏 낮아지는 것입니다. 이미 가우디오랩은 HITL 방식의 전문팀을 꾸려 해당 작업 파이프라인의 노하우를 쌓고 있습니다. AI가 잘 프로세싱 될 수 있도록 프롬프트를 설계하고 전체 공정을 감독하며, 필요할 때 직접 터치를 더해 완성도를 높입니다.  이 실험을 통해 가우디오랩 전담 팀의 역량이 크게 향상되었으며 능숙도와 성장 속도 또한 굉장히 빠릅니다. 수백 편 이상의 물량을 다루며 누적적으로 향상된 역량을 통해 더 빠르고 더 품질 높은 현지화 콘텐츠를 제작하는 긍정의 순환고리를 이어가는 가우디오랩에 많은 관심 부탁드립니다.    가우디오랩은 어떤 회사? 가우디오랩은 한국을 대표하는 AI 오디오 회사로 세계 최고 수준의 AI 음원 분리 기술을 독자 개발 및 보유하고 있습니다. CES 혁신상 4년 연속 수상(2023-2026), SXSW 혁신상 파이널리스트(2024), ANSI/CTA 국제표준 채택(2022), ISO/IEC MPEG-H 국제표준 채택 (2018, 2013), 올해의 최고 VR 혁신 기업상 수상(VR Awards, 런던, 2017) 등을 통해 기술력과 혁신성을 인정받은 바 있습니다. 실제로 CES 2024에서는 MS CEO 사티아 나델라가 직접 부스를 내방해 기술을 체험하고 ‘Amazing’을 외쳐 업계의 주목을 받았습니다. 전 세계적으로 희귀한 8명의 음향공학박사를 포함한 40여 명의 오디오 전문가가 속해있습니다. OTT, 스트리밍, AR/VR, 스마트폰, 극장, 자동차 등 소리가 있는 어디에서나 훌륭한 소리 경험을 제공할 수 있는 오디오 솔루션을 제공합니다.    

2025.11.25