뒤로가기back

Vision Pro의 등장: 다중 음원이 존재하는 환경에서의 RIR 예측은 어떻게 하면 될까요?

2023.08.23 by Monica Lee

Vision Pro의 등장: 다중 음원이 존재하는 환경에서의 RIR 예측은 어떻게 하면 될까요?

 

 

들어가며

 

안녕하세요, 가우디오랩에서 오디오와 AI 연구 개발을 하고 있는 모니카입니다.

 

최근에 Apple에서 Vision pro가 소개되면서 Spatial technology가 다시 한번 뜨거운 관심을 받게 되었습니다. 오디오와 관련된 기술도 언급되었는데요, 사용자가 위치한 공간에 대한 정보를 학습해 더욱 더 실감있는 오디오 경험을 제공한다고 합니다. 마-침 가우디오랩에서도 작년에 이와 같은 맥락에서 연구를 진행했기 때문에, 설레는 마음으로 이번 글에서 소개해보려고 합니다.

 

 

둠칫 둠칫 두둠칫

 

 

Room Impulse Response, 가지만 기억하세요.

 

어떤 소리특정 공간에서 나는 것처럼 만들고 싶다!”라면 Room Impulse Response (RIR)만 알면 됩니다. 

 

RIR은 Impulse signal(아래 Figure 1에서 한 남성의 총소리)이 해당 공간 안에서 어떻게 울려 퍼지는 지를 측정한 신호입니다. 어떤 소리든 특정 공간의 RIR 과 convolution하게 되면 그 공간에서 나는 소리처럼 들리게 만들 수 있습니다. 따라서 RIR은 [그 공간에 대한 정보를 담고 있는 매우 유용한 데이터]라고 설명드릴 수 있습니다.

 

 

Figure 1 - 출처: https://www.prosoundweb.com/what-is-an-impulse-response/  

 

 

그렇다면 RIR은 어떻게 구할 수 있을까요?

 

원하는 공간의 RIR을 구하고 싶다면 마이크를 들고 가서 직접 측정하는 것이 가장 정확한 방법입니다. 하지만 측정하는 것은 매우 번거로운 일입니다. 장비도 필요하고 시간도 많이 소모됩니다. 물리적인 제약으로 그 공간에 직접 갈 수 없을 수도 있고요. 다행히도 머신러닝 기술의 개발로 직접 가지 않아도 예측할 수 있는 방법들이 연구되고 있습니다. 예를 들면, 특정 공간에서 녹음된 소리(ex. 사람 목소리)만으로부터 그 공간의 RIR을 예측하는 연구가 그 중 하나입니다. 

 

 

TWS 사용자들의 주변 소리를 녹음해서 실시간으로 RIR 예측할 있을까?  

 

증강 현실에서 사용자가 더 실감있는 경험을 하려면 가상 음원들이 사용자와 같은 공간에 있는 것처럼 들려야합니다. 그렇다면 사용자의 공간에 대한 정보를 얻어야 하는데요, 저희는 TWS를 이용해 주변 소리를 녹음해서 머신러닝으로 분석하는 방법을 연구해보기로 했습니다.

 

사용자가 있는 공간에서 실시간으로 예측해야하는 상황에서는 분명 한 명 이상의 사람과 사물이 소리를 내고 있을 것입니다 (= 다중 음원 / multiple sources). 하지만 과거 연구에서는 주로 한명의 사람이 발화하는 오디오 신호 (이하 단일 음원 / single source) 로부터 RIR을 예측하는 방법을 다뤄왔습니다.

 

단일 음원과 다중 음원인 상황에서의 RIR 예측을 같은 문제라고 생각할 수 있지만, 사실 문제 정의부터 새로 해야할 정도로 다른 주제라고 봐야합니다. 왜냐하면 RIR은 같은 공간이더라도 각 음원들이 어느 공간에서 어느 방향을 보고 있는 지에 따라 다르게 측정되기 때문입니다. 물론 같은 공간이니 공통점도 존재하지만 세부적으로는 다르답니다.  

 

 

정면에 있는 RIR 예측하자!

 

그렇다면 여러 음원들이 녹음된 실제 상황에서는 어떻게 RIR을 예측해야할까요?

 

여러 방법이 있을 수 있겠지만 가우디오랩은 미래의 우리 제품에 녹아들 수 있는 시나리오에 맞게 정의하기로 했습니다. TWS 사용자를 위해 오디오를 랜더링해야하는 경우를 상상해보니, 정면에 있는 음원에 의해 생성되는 RIR만 예측하는 것이 우선적으로 필요할 것이라는 판단을 내렸습니다. 따라서, Figure 2와 같이 여러 소리들이(아래 그림 내 진한 회색 원형) 녹음되어도 사용자의 정면 1.5미터 거리에 있는 음원에 (파란색 원형) 의한 에서의 RIR을 예측하는 것을 문제로 정의했습니다.  

 

 

Figure 2  사용자를 중심으로 여러 음원들이 여러 위치에서 소리를 내고 있습니다 (회색 원형).

이렇게 여러 음원들이 존재하는 경우에도 항상 정면 1.5미터 거리에 가상 음원이(파란색 원형) 있다고 가정하고 이곳에서의 RIR을 예측하는 모델을 개발했습니다.

 

 

AI 모델 구조는 비교적 최근에 발표된 논문의 모델을 참고해서 만들었습니다. 특정 공간에서 나는 소리를 모델의 입력으로 넣으면 그 공간의 RIR 을 출력하는 것이 기본적인 모델의 작동 방식입니다. 앞서 말씀드렸듯이 대다수의 기존 연구들은 단일 음원만 포함된 데이터셋을 모델 입력으로 이용했습니다 (Figure 3 Top).

 

하지만 저희는 아래 Figure 3에서 보이는 것처럼, 다중 음원들이 포함된 데이터셋을 모델의 입력으로 사용하는 방법을 제안합니다. Room A에서 측정된 몇개의 RIR들과 anechoic speech signal을 각각 convolution해서 합치는 방법으로 데이터셋을 구축했습니다. 모델의 출력은 사용자 입장에서 정면에 있는 음원의 monaural RIR 하나입니다. 정답이 되는 RIR과 똑같은 RIR을 생성해내도록 손실 함수를 만들어 학습했습니다. 

 

 

Figure 3 기존 연구에서는 단일 음원인 환경을 모방한 데이터로만 학습을 했지만 (top figure),

저희는 다중 음원인 환경에서의 데이터로 학습하는 방법을 제시했습니다 (bottom figure)

 

 

모든 AI 시스템 개발 과정의 꽃인 데이터셋 확보에 저희도 많은 시간을 썼습니다. RIR 데이터는 제법 많지만 한 공간에서 여러 RIR 을 측정한 데이터는 많지 않기 때문인데요. 수 만개의 방을 직접 측정해서 데이터셋을 만드는 것은 불가능에 가깝기 때문에 여러 오픈소스 코드를 활용해 Synthetic 데이터셋을 대량 생산해서 사용했습니다. 

 

 

결과는

 

Figure 4 기존에 연구된 방식인 단일 음원 모델 (SS model)과 저희가 제안한 다중 음원 모델 (MS model)이 음원의 갯수가 증가함에 따라 성능이 어떻게 변화하는지 나타내는 표입니다.

Loss 와 Error 값이 증가한다는 뜻은 성능이 저하된다는 것을 의미합니다. 

 

 

 

기존에 단일 음원으로만 학습한 모델 (SS model - 파란색)과  저희가 정의한 다중 음원을 이용한 학습 방법대로 (MS model - 분홍색)을 비교해보았습니다. 음원의 갯수를 1개에서부터 6개까지 늘리면서 RIR을 예측한 결과를 위 figure 4에서 보실 수 있습니다. 단일 음원 모델은 갯수가 증가하면 성능이 악화되는 것을 볼 수 있습니다. 하지만 다중 음원 모델은 갯수가 증가하더라도 일정하고 안정적인 성능으로 RIR을 예측하는 것을 확인할 수 있었습니다!

 

실제 환경에서는 사용자 주변의 음원의 갯수를 미리 알 수 없습니다. 따라서 저희가 제안한 방법처럼 음원의 갯수에 무관하게 모델이 현재 공간의 RIR을 예측할 수 있다면 훨씬 더 몰입감 있는 경험을 제공할 수 있을 것입니다.

 

 

연구가 궁금하시다면!

 

연구 결과를 바탕으로 저는 실제 가우디오랩의 오피스 공간 3곳에서 직접 녹음한 소리로부터 실시간으로 RIR을 예측하는 시스템을 개발해서 데모를 진행해보기도 했습니다. 각각 다른 특성을 가진 공간이었는데, 모델이 그 공간을 반영하는 RIR을 안정적으로 예측하는 것을 확인할 수 있었습니다! 가우딘들과 청취평가를 진행한 결과 대부분의 사람들이 “정말 이 공간에서 나는 소리 같다!”라는 반응을 보이기도 했지요.

 

이 연구는 2023년 8월(지금!), AES International Conference on Spatial and Immersive Audio 컨퍼런스에 억셉되어 발표될 예정이기도 합니다.

 

궁금하신 분들은 이 링크를 통해 확인하세요!

 

 

 

 

pre-image
ICML 논문 맛보기: A demand-driven perspective on Generative Audio AI 

ICML 논문 맛보기: A demand-driven perspective on Generative Audio AI    (Writer: Rio Oh)      안녕하세요. 저는 가우디오랩 AI 리서치 팀에서 사운드 생성 모델인 FALL-E 연구를 하고 있는 리오(Rio)입니다🙂 저는 생성 모델에 관심이 많은데요, 최근에는 생성 모델의 접근 방식을 다른 태스크에 적용해 보기 위한 연구를 하고 있습니다.   저희 팀에서는 요 근래에 DCASE를 준비하는 한편, 실제 산업에 적용되기 위해선 어떤 점을 개선해야 할까 고민해왔었습니다. 그 내용을 담아 이번 ICML 워크샵에서 발표할 예정인데요, 여러분께 그 내용을 미리 소개해 드리려 합니다!     들어가며    최근 DCASE Challenge에서 일궈낸 가우디오랩의 성과에 대해 블로그로 소개해 드린 것 기억하시나요? 그동안 가우디오랩에는 또 하나의 좋은 소식이 있었습니다. 바로 ICML 워크샵에 저희가 제출한 논문이 억셉된 것입니다. (룰루🥰)   ICML은 NeurIPS와 함께 세계 최고의 인공지능 학회로 뜨거운 주목을 받고 있습니다. 올해의 학회 기간 중 마지막 이틀 동안 주제 별로 워크샵이 진행되는데요. 최근 핫한 세부 주제를 선정해 워크샵을 진행하고, 더블 블라인드 피어 리뷰를 통과한 논문만 이 자리에 설 수 있답니다.      사운드 생성 AI, 가우디오랩이 먼저 걸어와보니   사실 텍스트, 이미지 분야와 비교하면 (음성을 제외한) 오디오 생성은 아직 이 산업의 걸음마 단계를 걷고 있다고 할 수 있습니다. 우리에게 익숙한 텍스트 분야를 넘어 이미지 분야를 보자면, DALL-E 등의 Diffusion 모델 등을 활용한 상용 및 비상용 서비스들이 나와 있고, 대중들도 쉽게 사용할 수 있도록 되어 있죠. 그러나 오디오는 기술의 성숙도, 컴퓨팅 자원의 한계 등으로 아직 공개된 서비스가 없는 상황입니다. (논문의 실험 결과 공유를 위한 데모나 모델 공유는 조금씩 이루어지고 있지만, 일반인들이 사용할 수 있는 단계의 서비스는 거의 없다고 보아도 무방한 상황이죠.)   이런 환경 하에서, 가우디오랩은 단순한 데모를 넘어 기존 사업의 패러다임을 완전히 뒤집을 만한 AI 제품을 만들 수 있기를 꿈꾸며, 현재 당면한 상황과 한계를 정리하는 과정을 거쳤습니다. 연구단계의 오디오 AI 제품들이 세상의 빛을 볼 수 있도록 업계의 소리를 직접 듣고자 하는 귀중한 시도를 했는데요. 가우디오랩은 이를 통해 (물론 연구 자체도 매우 중요합니다만 그에 함몰되지 않고) 산업 전반의 실상과 업무 프로세스를 조명하고 앞으로의 연구방향을 더 날카롭고 정확하게 수립하고자 합니다.    그리고 이를 2023의 Challenges in Deployable Generative AI라는 워크샵에서 발표합니다! (일시: Fri 28 Jul, 9 a.m. HST & Sat 29 Jul, 4 a.m. KST)     [사진 = 워크샵 포스터]     잠깐, 상단 Motivations에 언급된 가우디오랩의 FALL-E (폴리)가 뭐냐고요?    가우디오랩의 FALL-E는 텍스트나 이미지 입력에 대응되는 소리를 생성해 내는 AI 기반 Text-to-Sound Generation 기술입니다. 실제 존재하는 소리(고양이 울음소리, 천둥소리 등) 뿐만 아니라 무한한 가상 세계의 소리(호랑이 담배 피우는 소리 등)을 만들어냅니다. 소리를 재료로 콘텐츠 영역을 무한히 확장할 수 있죠. 덕분에 생성된 소리들은 콘텐츠 및 가상환경 구현 과정에서 효과음 및 배경음으로 활용될 수 있고, 몰입감 있는 경험을 제공하는 모든 환경에 필수적인 소리 기술로 자리매김하리라 기대를 한몸에 받고 있습니다.             폴리를 조금 더 알려드릴게요! 이름에서 눈치채셨나요? Foley sound의 의미를 담고 있기도 합니다.    Foley는 영화 등의 소리 후반작업에서 음향효과를 재현하는 것을 의미합니다. 밥그릇 두 개를 번갈아 땅에 부딪히며 말발굽 소리를 만들어 내는 것처럼요. 1930년대에 유래된 말로, Jack Foley의 이름을 따서 지어졌죠.    Foley는 콘텐츠 제작에 반드시 필요한 과정인데요. 녹음된 음원을 재사용하기도 어렵고, 경제성도 떨어져 지금까지도 수작업에 의존하고 있는 실정입니다.    그래서 Generative 모델로 해결하면 좋은 문제이고, 가우디오랩은 이 기술에 집중하고 있어요.         이번 연구를 통해 확인한 어려움들은 어떤 것들이 있었냐면요.   가우디오랩은 이번 논문을 준비하며 실제 영화 음향 업계에 종사하시는 분들을 대상으로 설문 조사를 진행하여 논문에 포함하기도 했습니다. 살짝 결과를 공유드리자면, 저희가 발견한 가장 큰 한계점은 1) 음질이 더욱 좋아야 한다는 것과 2) 작은 디테일까지도 컨트롤할 수 있어야 한다는 것이 있었죠. [논문 전체 보러 가기]     그래서 가우디오랩은 FALL-E를 만들며 이 문제를 어떻게 풀어냈을까요?   깨끗한 고품질 데이터가 적다는 점이 어려운 점 중 한 가지였습니다. 게다가 생성 모델에서는 아주 많은 데이터가 필요하기 때문에 문제였죠. 가우디오랩이 생각한 해결책은 깨끗한 데이터와 상대적으로 덜 깨끗한 데이터를 동시에 같이 사용하되 모델에게 condition을 주는 방법이었습니다.    생성 모델은 생성할 샘플뿐만 아니라 모델을 생성하는 데 도움이 되는 다양한 힌트(텍스트, 카테고리, 비디오 등)를 함께 학습 데이터로 활용하는데, 이 데이터가 어떤 데이터 셋에서 가져왔는지를 라벨 형태로 추가 힌트를 주는 것이죠.   이렇게 되면 모델이 소리를 생성할 때, 깨끗한 소리를 생성할지, noisy 한 소리를 생성할지 정할 수 있게 되고, 실제로 저희가 DCASE Challenge에 참여했을 때, 다양한 소리를 생성하면서 음질도 좋다는 평을 받기도 했습니다. 당시 객관 평가 지표 (FAD)로 top contender를 각 트랙 별로 4팀씩 선발한 뒤 청취 평가를 진행했는데요. 보시다시피 가우디오랩은 깨끗한 음질과 수없이 다양한 소리를 생성해낼 수 있는 다양성 분야에서 높은 점수를 기록했습니다. 모든 소리를 생성할 수 있는 모델인 FALL-E로 일부 카테고리에 한정해 심사하는 대회에 나가 몸풀기 한 것치고 꽤 좋은 성과를 냈다고 할 수 있어요.      DCASE 2023 Challenge Task 7 결과 > 여기서 더 자세히 보실 수 있어요.     FALL-E는 지금까지 공개된 모델 중 가장 음질이 좋은 모델이라 평가할 수도 있지만, 저희는 여기서 멈추지 않고 더 좋은 소리를 만드는 모델을 위해 고민하는 중이기도 합니다.     사실, FALL-E가 세상에 나오기까지 이런 진통이 있었어요!   가우디오랩이 처음 FALL-E에 대한 아이디어를 얻고 연구를 시작한 2021년 당시에는 텍스트 기반의 AI 폴리 합성 모델에 관련된 논문은 거의 없는 수준이었습니다. 게다가 영상 기반의 효과음 연구도 매우 제한된 카테고리이거나 모델 성능이 promising 해 보이진 않았죠. (물론 지금은 관련 논문도 많이 나온 상황이지만요!)   연구 측면에서 방향성을 고민하기도 했으나, AI 디렉터인 근우가 팀의 에너지를 한곳으로 이끌어주며 그동안 explore 하며 쌓인 지식과 경험들을 exploit 하면서 힘을 모아 달려갈 수 있었던 것 같습니다. 당시에는 의구심이 들기도 하고 여러 고민이 들기도 했지만, 지금 돌아보니 이렇게 계속해서 방향을 정리하고 조정하는 과정이 ‘맞는 방향'을 찾는 좋은 과정이지 않았을까? 하는 생각이 듭니다.   “저쪽이다” 하면서 같이 우당탕탕 하면서 달려갔다가, 잠깐씩 숨 고르면서 방향을 fine-tuning 하면서 달리는 것,  당면한 상황에 맞춰 유연하게 방향을 수정해 결국은 목표한 곳에 당도하는 것, 그것이 가우디오랩 AI 리서치 팀이 일하는 방식이 아닐까 싶습니다.   정신 차려보니 DCASE를 주관하고, 가볍게 참가했는데도 아주 좋은 성적을 냈고, 저는 결국 하와이에 와있습니다. 사실 하와이는 논문이 통과되지 않는 경우가 생기더라도 더 많은 시야를 보기 위해 오는 것으로 결정되었었는데, ICML 논문이 억셉되며 더욱 의미 있는 출장이 되었으니 아주 신나고 알차게 보내다 한국에 들어갈 생각입니다.   그럼 하와이에서 올리는 글을 마칩니다! 🏝        

2023.07.27
after-image
생성AI가 만든 소리가 담긴 최초의 오디오북! 이걸 AI가 만들었다고요? 직접 들어보기!

  내가 원하는 소리, 이제 AI가 만들어준다고?     안녕하세요, 저는 가우디오랩의 사운드엔지니어인 Bright 입니다 🌟   효과음 탐색작업은 다양한 소리를 만들어야하는 사운드 엔지니어에게는 숙명과도 같은 정말 지루한 일이 아닐 수 없습니다. 전체 작업 시간의 거의 1/3 이상을 차지하는 이 작업은... 마치 따뜻한 아이스 아메리카노를 찾는 것과도 같고 모던 하면서 클래식한 디자인 요소를 찾는 듯한 느낌이라고 할까요? 😇 클라이언트의 마음에 드는 소리가, 또 내가 원하는 소리가 한 번의 검색에 딱! 나올 확률은 정말 극히 드뭅니다.   결국 해당 장면에 딱 어울리는 소리를 찾기 위해서 저와 같은 사운드 노마드들은 오늘도 열심히 사운드 이펙트 라이브러리에서 긴 여정을 떠나고 있었습니다.. 지금까지는요!   ChatGPT와 같은 생성형 AI의 시대에, 왜 소리를 생성해주는 AI 는 없을까? 우리는 고민했습니다. 그리고 이제 사운드 엔지니어로서 자랑스럽게 소개합니다, AI가 소리를 생성해주는 FALL-E(폴리) 입니다! (짝짝짝 👏🏻)               그리고 올해, FALL-E가 생성해 낸 소리가 오디오북에 담겨 세상의 빛을 보게 되었습니다. 그게 어떻게 된 것이냐고요?       생성형 AI가 만든 효과음이 적용된 최초의 오디오 북!   가우디오랩은 오디언(오디언소리)의 여름 한정 스릴러 컬렉션인 <사건 보고서>에 기술을 제공하고 있습니다. 코난, 강백호 등으로 대표되는 강수진 성우님께서 전체 디렉팅을 담당하시기도 해서 매번 화제로 떠오르고 있죠. 가우디오랩의 자랑인 공간음향 기술을 적용해 스릴러의 장르적 특징을 부각하며, 몰입감과 현장감을 생생하게 느꼈다는 후기들을 보기도 했습니다. (실제로 해당 작업을 했던 저는 매우 뿌듯했죠.)   올해 <사건 보고서>는 뭔가 더 달라졌습니다. 가우디오랩의 공간음향 기술 뿐만아니라, 앞서 소개한 사운드 생성 AI인 FALL-E 로 만든 사운드 효과들이 함께 담겼기 때문이죠! 세계 최초로 오디오 북에 생성형 AI로 만든 효과음들이 담긴 셈입니다!!   사운드 엔지니어로서 AI가 만들어낸 소리에 대해 반신반의했던 저도 깜짝 놀랐습니다. “아무리 좋아봐야 녹음된 소리만큼 좋겠어?”라는 스스로의 질문에 “그렇네..”하고 인정할 수 밖에 없었거든요.   한번 들어보실래요?         어떠셨나요? 저는 처음에 샘플을 듣고 무척 놀랐습니다. AI가 소리를 생성한다는 이야기를 들었을 때, 사운드 엔지니어로서 음질적인 측면을 우려했던것도 사실이었거든요.   하지만 들으신 바와 같이 실제 녹음된 소리와 비교해도 다른 점을 찾기 어려운 정도로 고품질의 소리를 만들어 내고 있었습니다. 게다가 FALL-E는 일부 제한된 소리만 생성할 수 있는 타 생성형 AI와는 달리, 어떤 소리든 만들어 낼 수 있다고 해요. (10만 시간 이상의 트레이닝 데이터가 투입되었다고 합니다.)     사건보고서 제작기는 위 영상으로 확인하세요!     <사건보고서>에 대한 이야기를 조금 더 드려볼게요.     이번 작품 중 <백시>를 예로 들자면, 이 작품은 눈보라가 아주 강하게 휘몰아치는 설산에서 이야기가 진행됩니다. 그 와중에 제설차, 눈보라, 눈사태 등 여러 오브젝트(소리 객체라고 할 수 있죠)가 등장합니다. 원래라면 저는 이에 맞는 사운드를 일일이 찾고 비교 대조해 들어보며 많은 시간을 들여야 했을 겁니다. 게다가 제설차 소리, 눈보라, 눈사태 소리는 일상 속에서 쉽게 들을 수 있는 소리가 아니기 때문에, 소리를 만들기가 참 까다로울 수밖에 없었습니다. 비슷한 소리를 효과음 라이브러리에서 열심히 찾고, 그래도 알맞은 소리가 없다면 여러 매체를 참고하며 만들어내기도 했을테지요.   하지만 FALL-E 에게 해당 소리를 생성할 수 있도록 프롬프트를 주었더니, 이런 효과음들을 만들어줬습니다.     폴리가 만들어 낸 소리, 아주 신기합니다!       생성형 AI로 세상에 단 하나 뿐인 소리 만들기   FALL-E는 프롬프트 기반으로 생성형 AI 모델이 새로운 소리를 만들어냅니다. 원하는 소리를 일일이 라이브러리에서 찾는 것이 아니라, 바로 명령어를 입력하면 되기 때문에 작업시간이 현저히 줄어들 수 있었습니다. 또한 이름 그대로 Generative AI(생성형 AI)인 만큼, 매번 다른 소리를 만들어 냅니다. 내가 만들고 싶은, 세상에서 단 하나 뿐인 소리가 만들어지는 것이죠.   제가 빗소리를 참 좋아하는데요, 제가 좋아하는 빗소리를 여러개 만들어 봤어요. 소리를 ‘생성’ 할 때마다, 프롬프트를 다르게 줄 때마다, 각 어떻게 변하는지 한번 들어보세요.            마치며..   사운드 작업을 할 때 효과음 라이브러리를 켜놓고 몇 시간 동안 지루한 마우스 클릭으로 찾고 또 찾는 것이 아닌, 소리 생성 AI인 FALL-E와 대화하고 있는 제 자신. 사운드 엔지니어로서 늘 상상만 했던 이런 순간을 경험하고 있다는 것이 정말 놀라울 따름입니다. 그동안 매 작업마다 내가 원하는 소리를 바로바로 만들어 낼 수 있다면 정말 좋겠다.. 하고 간절히 바라왔거든요.   저는 가우디오랩의 사운드 엔지니어로서 무척 신나고, 또 많은 분들이 FALL-E를 쓰실 그 날이 기대되는 하루하루를 보내고 있습니다. ☺️ FALL-E는 여러분께 더 멋진 모습으로 다가갈 수 있도록 현재도 꾸준히 업그레이드 되고 있습니다. 여러분들께 공개 되는 그 날까지 조금만 기다려주세요!      

2023.09.18