 
 요약문
이 글은 상업적으로 안전하고, 지속가능한 인공지능 영상제작 시대로 전환하기 위한 토대를 구축하려는 목적에서, 글로벌 영상산업이 도입 및 활용하고 있는 대표적인 인공지능 영상제작 기술을 살펴보고자 한다. 로버트 저메키스의 영화 《히어(Here)》(2024) 제작에 사용된 메타피직(Metaphysic)의 생성적 인공지능 기반 실시간 디에이징(de-aging)·업에이징(up-aging) 기술인 뉴럴 퍼포먼스 툴셋과 지속가능한 외화 더빙 생태계를 구축할 수 있는 플로리스(Flawless)의 시각 더빙 기술 트루싱크(TrueSync)와 연기 편집툴인 딥에디터(DeepEditor) 등이다.
1. 들어가며: 생성적 인공지능 영상제작의 시대가 시작된다
21세기 영상과 영화산업의 개체변이가 디지털 전환으로 시작되었다면, 이제 디지털이 낳은 새로운 미디어인 인공지능이 대전환을 일으킬 차례인 것은 부정할 수 없다. 미드저니(Midjourney), 런웨이(Runway), 소라(Sora), 베오(Veo) 등의 프롬프트 기반 이미지 및 동영상 생성 인공지능 소프트웨어의 등장으로 인공지능이 생성한 이미지나 영상을 접하는 것은 급속히 일상화되어 왔다. 예컨대, 단순한 정보 전달의 목적으로 활용되는 이미지나 쇼츠(Shorts)라 불리는 짧은 동영상을 위와 같은 거대 언어 모델(LLM)에 기반한 인공지능 소프트웨어에 프롬프트를 입력하고, 인간의 수작업을 거쳐 제작하는 일은 보편화되고 있다. 물론 인공지능이 생성한 이미지에서 느껴지는 이질감은 우리의 영상문화가 인간미 없는 메마른 이미지로 가득 찰 듯한 불안감을 주지만, 새로운 도구에 대한 호기심과 더불어, 인공지능의 속도, 편리함, 제작비용 절감 효과 등의 요소가 인공지능 생성 이미지가 일상화되는 추동력임은 분명하다.
방송과 영화 분야의 글로벌 영상 기업은 일찍부터 인공지능 기술에 관심을 두었다. 21세기 초반 디지털 시각효과의 중요한 부분이지만 고난도의 수작업이 필요한 이미지 및 영상 합성이나, 3D 애니메이션, 2D/3D 모델 생성 작업 등을 정확하고 신속하게 수행할 수 있는 인공지능 영상 기술이 개발되어 영상 후반작업의 효율성과 완성도는 더 높아졌다.1) 대표적인 사례는 2023년 아카데미 시상식에서 작품상, 감독상, 남녀조연상, 편집상 등 7관왕을 차지한 복합장르 영화 《에브리씽 에브리웨어 올 앳 원스(Everything Everywhere All at Once)》이다. 총 6명으로 구성된 시각효과 팀은 런웨이(Runway)의 이미지 및 동영상 생성 인공지능 젠-1(Gen-1)을 그린스크린 영상 합성, 포스터 제작, 3D 애니메이션 등의 시각효과 작업의 일원으로 사용해, 환상적이고, 사실적이고, 화려한 액션으로 가득한 이 영화의 대규모의 시각효과를 완성했다. 더불어, 《에브리씽 에브리웨어 올 앳 원스》는 수공적 작업으로는 구현하기 어려운 작업 및 영화 포스터의 초기 디자인에 인공지능의 도움을 얻었던 것처럼, 인공지능과 인간의 창조적 협업의 가능성을 입증한 작품이기도 하다.
글로벌 시장조사 기관인 마켓 유에스(Market.US)의 보고서에 따르면, 2023년 14억 1,200만 달러에 이르렀던 미디어 및 엔터테인먼트 분야의 생성형 인공지능 시장 규모는 2033년 115억 7,000만 달러까지 성장할 것으로 예상했다.2) 잘 알려져 있다시피, OTT 플랫폼과 유튜브와 같은 인터넷 기반 동영상 공유 플랫폼의 등장으로 방송 및 영화와 같은 전통적인 영상산업의 주축은 산업구조의 재편 과정에서 그동안 구축한 위상과 헤게모니를 잃어버릴 위기에 직면해 있다. 위와 같은 미디어 분야에서 생성형 인공지능의 시장 규모를 고려하자면, 이 위기를 돌파하기 위한 하나의 방편으로써, 21세기 영상산업이 인공지능 기술을 도입하는 것은 불가피한 선택이다.
하지만, 지난 6월 디즈니(Disney)와 NBC유니버설(NBCUniversal)이 미드저니(Midjourney)를 상대로 저작권 침해 소송을 제기한 것3)과 2023년 영화배우조합-미국 텔레비전·라디오 방송인 조합(The Screen Actors Guild-American Federation of Television and Radio Artists, SAG-AFTRA)과 미국작가조합(The Writers Guild of America, WGA)의 파업이 글로벌 미디어 기업의 인공지능 활용의 증가에 따른 창작자의 권익 보호를 위한 AI 거버넌스 구축의 필요성에서 비롯되었던 것에서 어느 정도 감지할 수 있다. 이처럼 할리우드가 중심이 된 글로벌 영상산업은 상업적으로 안전하고, 영상산업의 생태계에 위해하지 않은 인공지능 기반 영상기술로 방향을 돌리고 있다. 다시 말해, 글로벌 영상산업은 생성형 인공지능 기술이 안고 있는 윤리적 문제와 저작권 침해의 문제가 해결되어, 창작자에게 해롭지 않은, 창작자의 창의적 활동을 돕고, 새로운 확장을 통해 전례 없는 새로운 상상력을 실현할 수 있는 협력적인 인공지능 기술을 찾고 있다. 글로벌 영상 미디어 기업들이 인공지능 회사를 대상으로 저작권 침해 소송을 제기하고, 창작자의 권익 보호를 위한 AI 거버넌스를 구축하고, 학습 데이터의 저작권 문제를 해결한 클린 A.I 기술을 보유한 인공지능 스타트업과 협업 관계를 확대해 가는 것은 상업적으로 지속가능한 인공지능 기반 영상제작 시대로 전환하기 위한 토대를 구축하려는 행보인 것이다.
이 글에서는 글로벌 영상산업이 도입 및 활용하고 있는 상업적으로 안전한 생성적 영상제작 기술을 살펴보고자 한다. 로버트 저메키스의 영화 《히어(Here)》(2024) 제작에 사용된 인공지능 기반 시각효과 회사 메타피직(Metaphysic)의 생성적 인공지능 기반 실시간 디에이징(de-aging)·업에이징(up-aging) 기술인 뉴럴 퍼포먼스 툴셋(Neural Performance Toolset)과 지속가능한 외화 더빙 생태계를 구축할 수 있는 플로리스(Flawless)의 시각 더빙 기술 트루싱크(TrueSync)와 연기 편집툴인 딥에디터(DeepEditor) 등이다.
- 1) 정찬철 (2021). 인공지능은 영화의 미래다. 한국영화. 127호, 22-27.
- 2) Market.US (2025). Generative AI in Media and Entertainment Market Analysis.
- 3) 이철남 (2025. 06. 14). [미국] 디즈니와 유니버설, 이미지 생성 AI '미드저니'를 상대로 저작권 침해 소송 제기. 저작권 동향. 7호, 1-4.
2. 메타피직의 뉴럴 퍼포먼스 툴셋
2024년에 개봉한 《히어(Here)》는 거실이라는 하나의 공간에서 시작해 그곳에서 끝나는 매우 특이한 영화이다. 이곳에 살았던 다양한 가족의 이야기를 주인공인 리처드와 마가랫 가족의 삶을 중심으로 보여주면서, 우리가 일생을 통해 겪는 탄생, 사랑, 행복, 슬픔, 질병 그리고 죽음 등의 삶의 문제를 다룬다. 이 영화는 마치 이들의 삶을 훔쳐보기라도 하듯이 카메라가 한 번도 움직이지 않고, 거실을 향해 고정되어 있다. 이 작품의 원작인 리차드 맥과이어(Richard Mcguire)의 동명 그래픽 노블의 구성을 따라 로버트 저메키스 감독은 카메라를 움직이지 않기로 했다.
이러한 연출상의 제약을 해결하기 위해 이 영화의 모든 장면은 버추얼 스튜디오 내에 설치한 거실 세트에서 촬영이 진행되어야 했고, 이 공간을 벗어나는 모든 장면은 시각효과를 통해 완성해야 했다. 하지만 한 가족의 삶을 다루는 만큼 주인공인 리처드 역을 맡은 톰 행크스(Tom Hanks)와 마가랫 역을 맡은 로빈 라이트(Robin Wright)가 10대에서 80대까지 전 생애의 모습으로 등장해야 했는데, 이것은 이 영화의 시각효과를 맡은 글로벌 시각효과 회사 더블네가티브(DNEG)에게 더 큰 난관이었다. 즉, 더블네가티브(DNEG)는 70세에 가까운 톰 행크스와 60세의 로빈 라이트의 얼굴을 18세, 30세, 45세 그리고 80세의 모습으로 더 젊게 만들고, 더 늙어 보이게 만들어야 하는 방법을 찾아야 했다. 물론, 배우의 모습을 더 젊게 만드는 디에이징(De-aging)과 더 늙게 만드는 업에이징(Up-aging) 기법이 전례가 없었던 것은 아니다. 《벤자민 버튼의 시간은 거꾸로 간다(The Curious Case of Benjamin Button)》에서는 3D 스캐닝, 페이셜캡처(Facial Capture), 디지털 애니메이션 기법 등을 활용해 벤자민 버튼의 역을 맡은 브래트 피트(Brad Pitt)의 얼굴을 전 생애에 걸쳐 표현했다. 2020년 개봉한 《명탐정 피카츄(Pokémon: Detective Pikachu)》에 등장하는 주인공 빌 나이(Bill Nighy)의 젊은 시절 얼굴은 딥페이크 기술로 구현되었고, 2019년에 개봉한 《아이리시맨(The Irishman)》에서는 주인공을 맡은 70대 노장 배우 로버트 드 니로, 알 파치노, 조 페시의 얼굴을 20대에서 50대의 젊은 모습으로 바꾸기 위해 이들이 출연한 영화의 모든 장면을 디지털로 전환한 후, 이 자료를 디에이징 작업의 레퍼런스 자료로 활용했다.
하지만, 《히어》에서는 기존의 방식은 고려의 대상이 될 수 없었다. 기존의 딥페이크 소프트웨어는 학습데이터 자체에 윤리적 문제가 있었기 때문에 적절한 선택이 아니었다. 또한 이 영화에서는 영화의 절반 이상이 디에이징 기법으로 완성되어야 했으며, 최대 4분에 이르는 긴 쇼트로 구성이 되었기에, 제작 효율성의 측면에서 딥페이크의 사용은 불가했다. 또한 가장 유사한 구성으로 제작이 된 《아이리시맨》에 사용된 방식은 레퍼런스 작업과 디에이징 기법이 거의 수작업으로 진행이 되어, 제작 기간만 2년의 시간이 소요되었기에, 《히어》에는 적절한 방법이 될 수 없었다. 게다가 로버트 저메키스 감독은 배우의 얼굴에 별도의 모션 캡처 장비를 장착하는 페이셜 캡처 방식을 선호하지 않았다.
이렇게 기존의 방식으로는 접근할 수 없는 상황에서, 신생의 인공지능 기반 시각효과 회사 메타피직(Metaphysic)이 보유한 ‘뉴럴 퍼포먼스 툴셋’은 《히어》의 주인공을 구현할 수 있는 유일한 대안으로 선택되었다. 이 기술은 특정 인물의 여러 나이대의 사진을 충분히 학습하면, 카메라로 촬영하면서 실시간으로 대상의 모습을 원하는 나이대의 모습으로 변형시켜 주는 일종의 실시간 디에이징을 구현하는 인공지능 기반 시각효과이다. 메타피직의 이 기술은 2015년 《매드 맥스: 분노의 도로》에서 불렛 파머(Bullet Farmer)역을 맡았던 리차드 카터(Richard Carter)가 사망한 이후, 그의 모습을 《퓨리오사: 매드맥스 사가》에서 대역 배우를 통해 부활시키는 데 사용되었으며, 1979년 《에일리언》에서 인조인간 역을 맡은 이안 홈의 얼굴과 목소리를 복원해 2024년 개봉한 《에일리언: 로물루스》의 ‘루크’라는 새 캐릭터를 만들어 내는 데도 사용되었다.
《히어》의 작업을 위해 메타피직은 톰 행크스와 로빈 라이트 등이 과거에 젊은 시절에 등장한 영화와 가용할 수 있는 모든 나이대의 인터뷰 자료와 사진 자료를 구해 뉴럴 퍼포먼스 툴셋을 학습시켰다. 이러한 결과로 톰 행크스의 모습을 1988년 《빅(BIG)》에 출연했던 30대 초반의 모습으로, 1994년 《포레스트 검프(Forrest Gump)》의 30대 후반의 모습으로, 2004년 《터미널(The Terminal)》의 40대 후반의 모습으로 되돌릴 수 있었다. 무엇보다 이 인공지능 기술이 《히어》의 완성에 핵심 기술이 될 수 있었던 것은 거의 실시간으로, 카메라로 촬영한 연기자의 얼굴을 원하는 나이대의 모습으로 바꾸었기 때문이다. <그림 1>에서와 같이 촬영 현장에서 메타피직의 ‘뉴럴 퍼포먼스 툴셋’은 카메라에 포착된 배우의 얼굴을 불과 6프레임의 시간차를 두고 10대, 30대, 40대 등의 설정된 나이대의 모습으로 변형했다. 기존의 딥페이크와 모션캡처 방식은 후반작업에서 완성되기 때문에, 촬영 현장에서 배우가 결과물을 확인할 방법이 전무했다. 따라서 촬영 현장에서 배우는 오로지 상상에 의지해 연기를 해야 했다. 하지만 이러한 거의 실시간에 가까운 디에이징 시각효과 덕분에, 톰 행크스와 로빈 라이트는 인공지능이 생성한 자신들의 젊은 시절의 모습을 보면서 그 나이에 적합한 눈빛과 감정 그리고 몸짓을 만들어 갈 수 있었다. 즉 인공지능이 배우의 얼굴을 과거의 모습에 가깝게 생성해 낼수록, 배우는 그 나이에 걸맞은 표정과 감정으로 연기할 수 있었던 것이다. 이렇게 현장에서 인공지능과 배우의 협연을 가능케 만든 메타피직의 생성형 인공지능 기술을 이용한 까닭에 이 영화의 이야기는 사실적으로 완성될 수 있었다.4) 이러한 점에서 《히어》는 인공지능과 배우가 협연으로 완성한 일종의 시간 여행 영화라 할 수 있을 것이다.

《히어》에 사용된 생성형 인공지능 프로그램 ‘뉴럴 퍼포먼스 툴셋’은 미드저니나 오픈AI(OpenAI)와 같이 공개된 임의의 데이터를 학습한 생성형 인공지능과 달리, 저작권 문제를 해결한 톰 행크스의 영화 데이터와 각종 인터뷰 이미지를 학습했다는 점에서, 인공지능 기술이 영상산업의 생태계를 해치지 않고, 창작자가 과거에는 불가능했던 것을 구현할 수 있게 돕는, 즉 창의적 도구로 활용되는 방식이 무엇인지를 보여주는 사례라 할 수 있다. 앞서 언급했듯이 이는 시각효과를 담당한 더블네가티브가 메타피직과 협업하게 된 가장 중요한 이유이기도 했다. 그 결과 메타피직은 인공지능 기반 영상 콘텐츠 창작 생태계 구축을 위한 목적에서 더블네가티브의 자회사로 편입되었으며, 2억 달러의 투자를 유치할 수 있었다. 최근 글로벌 영상산업에서는 메타피직의 사례와 같이 학습 데이터의 저작권 문제와 윤리적 문제 등을 해결한 인공지능 기반 시각효과 기술을 보유한 신규 스타트업과 글로벌 영상콘텐츠 제작사의 협력이 늘어가고 있다. 대표적으로, 《라라랜드(La La Land)》와 《헝거 게임(The Hunger Games》 시리즈 등으로 잘 알려진 할리우드의 엔터테인먼트 그룹 라이온스게이트(Lionsgate)는 런웨이(Runway)와 자사의 영화 및 영상 콘텐츠 제작에 최적화된 인공지능 기반 영상 제작 기술을 개발하기 위한 협약을 맺었다.5)
논픽션 방송 콘텐츠 제작사인 XTR이 소유한 인공지능 기반 영화 및 애니메이션 제작사 아스테리아(Asteria)는 문벨리(Moonvalley)라는 신생의 동영상 생성 인공지능 기술 스타트업과 기술개발 협약을 맺었는데, 문벨리가 보유한 ‘마레(Marey)‘라는 동영상 생성 인공지능 프로그램이 저작권 문제를 해결한 데이터를 학습했다는 점이 협약의 주된 이유였다. 월트 디즈니와 파라마운트 역시도 자사에 최적화된 이미지 및 동영상 생성 인공지능 기술의 개발을 위해 인공지능 회사와 논의 중인 것으로 알려져 있다. 특히 런웨이의 경우는 현재 자사의 동영상 생성 인공지능의 학습에 유튜브, 뉴요커, 픽사, 디즈니, 넷플릭스 등의 콘텐츠를 무단으로 사용했다는 이유로 고발당한 상황인 점을 고려하자면, 인공지능 기반 영상제작 기술이 상업적으로 안전해지는 것은 지속가능한 인공지능 기반 영상제작 생태계의 구축을 위해 필수적이라 할 수 있을 것이다.
3. 플로리스의 시각 더빙
지난 5월 9일 미국 전역에 있는 100여 곳의 AMC 영화관에서 스웨덴의 SF 스릴러 영화 《왓치 더 스카이스(Watch the Skies)》가 개봉했다. 일반적으로 한 편의 영화가 해외에서 상영되기 위해서는 자막이나 더빙 작업이 필수적이다. 하지만 미국의 영화 관객처럼 자막이나 더빙을 선호하지 않는 국가에 영화를 수출하려고 한다면 문제가 많이 달라진다. 우선 언어의 장벽을 넘어야 한다. 《왓치 더 스카이스》의 제작사는 이 작품을 미국 전역에서 상영하기 위해, 영상분야의 인공지능 회사 플로리스(Flawless)에서 개발한 시각 더빙(Visual Dubbing)이라는 생성형 인공지능 기반 립싱크 기술을 사용했다.
일반적으로 더빙은 성우나 배우의 목소리를 영상에 덧입히는 후반 작업이다. 이 시각 더빙은 해당 언어로 된 대사에 맞게 배우의 입모양까지도 정확하게 일치시켜 바꿔주는 기술이다. 보통 더빙된 외국 영화를 볼 때 가장 불편하고, 관객의 몰입을 방해하고, 영화의 사실성을 약화하는 것은 대사와 입모양이 서로 맞지 않는 상황이다. 물론, 더빙에 익숙한 영상문화의 관객들에게 이는 큰 문제가 아닐 수도 있지만, 미국과 같이 더빙 문화가 보편적이지 않으면 그 자체가 큰 걸림돌이 된다. 또한 감독의 입장에서 자신의 영화가 인위적인 방식으로 전달된다는 것 자체가 그렇게 반가운 일이 아닐 수도 있다. 플로리스의 시각 더빙은 이러한 영상 콘텐츠의 언어적 장벽을 해결할 수 있는 인공지능 기술이다.
‘트루싱크(TrueSync)’라 불리는 이 시각 더빙 기술은 <그림 2>에서와 같이 ① 얼굴 감지(face detection)와 얼굴 인식(face recognition), 특징점 검출(landmark detection), 3D 트렉킹(3D tracking) 알고리즘으로 구성된 딥캡쳐(DeepCapture) 머신러닝 기법을 이용해 연기자의 표정, 물리적 움직임, 감정적 표현을 이해하고, ② 입력된 녹음에 담긴 언어와 대사의 뉘앙스를 이해해, ③ 표정을 유지한 채 입모양을 정확히 목적한 대사에 맞게 변형시킨 배우의 얼굴을 3D 모델로 형성한다.6) 시각 더빙이 기존의 인공지능 기반 더빙 기술의 대안으로 주목을 받는 이유 중 하나는 단순히 입모양만 대사와 일치시키는 것이 아닌, 배우의 표정과 감정 등의 모든 요소를 그대로 유지할 수 있기 때문이다. 플로리스는 이러한 성과로 2025년 타임지가 선정한 가장 영향력 있는 100대 회사에 포함되었는데, 이 회사의 공동 창업자이자 영화감독인 스콧 만(Scott Mann)의 말과 같이 시각 더빙 기술은 “이야기가 펼쳐지는 곳에서 관객의 눈을 떠나게 만드는” 자막이나, 입술과 대사의 불일치 등의 불편한 요소를 제거하는 것이 목표이다. 이러한 이유에서 플로리스는 이 기술을 단순히 더빙 기술이라 부르지 않고, 몰입적 시각효과 기술이라고 선전한다.
특히 이 기술이 기존의 영상제작 생태계를 해치지 않는 점에 주목해야 한다. 일반적인 인공지능 더빙 기술에서 인공지능이 목소리를 생성하는 것과 달리, 시각 더빙은 배우 또는 성우가 대사 녹음에 직접 참여하는 방식이다. 이와 더불어 최종의 시각 더빙 결과물은 배우의 동의 절차를 거쳐 완성하도록 설계되었다. 즉, 인공지능을 활용해 제작사나 편집자가 최종 작품을 완성하는 방식이 아니라, 이 또한 연기의 일부분에 해당한다는 전제하에 연기 데이터를 제공한 연기자의 최종 승인을 요청하는 것이다. 이는 인공지능 시대 창작자 권익을 보호하기 위한 새로운 글로벌 기준으로 일컬어지는 지난 7월에 체결된 ‘SAG-AFTRA 인터랙티브 미디어 협약’에 명시된 인공지능 활용의 투명성과 신뢰성을 준수하는 방식이라는 점에서 글로벌 미디어영상 산업에서 윤리적 인공지능 활용의 청사진을 제공하는 기술로 평가된다.7)

플로리스는 시각 더빙 기술 이외에도 재촬영에 소요되는 제작비를 절감하는데 도움을 줄 수 있는 딥에디터(DeepEditor)라는 인공지능 기반 영상 편집 서비스를 제공한다. 인공지능 기반 예고편 제작이나, 쇼트의 자동 분류 등과 같은 편집 과정을 돕는 도구와 달리, 딥에디터는 화면에 담긴 배우의 연기와 대사를 직접 수정할 수 있는 기능을 담고 있다. 연기자의 표정이나 대사가 연출자의 의도에 맞지 않거나 수정이 필요할 때, 가장 최선의 방법은 재촬영일 것이다. 하지만 예산의 문제 등으로 연출자는 수정이 필요한 장면을 다른 장면, 예를 들자면 주변 인물의 모습을 잠깐 보여주는 우회적 방식으로 해결할 때가 많다. 플로리스의 딥에디터는 연기자의 표정과 대사를 직접적으로 수정할 수 있는 소위 ’연기 편집(performance editing)‘ 기능을 제공한다. 딥에디터에는 대사를 변경할 필요가 있을 때, 입모양도 함께 바꾸어주는 시각 ADR(Visual ADR) 기술, 특정 장면에서 배우의 표정 연기를 다른 장면으로 옮겨주는 연기 전환(Performance Transfer) 기술, 그리고 관람 등급에 맞게 불필요한 욕설이나 비속어 등을 삭제하고 입모양까지 완벽하게 수정해 주는 상영등급 수정용 검열 편집(Censorship Editing for a Rating Fix) 등의 편집도구가 포함되어 있다.
딥에디터의 연기 편집 기술을 이용하면 후반 작업에서 창작자가 다양한 창의성을 발휘할 수 있는 여지가 늘어나게 되고, 제작과정에서 실수한 것이나 놓쳤던 점들을 만족스럽게 보완할 수 있다. 더불어, 딥에디터의 모든 절차는 연기자의 동의 절차에 기반하기 때문에 앞서 언급한 트루싱크와 같이 지속가능한 인공지능 기반 영상제작 시대에 필요한 거버넌스 구축의 청사진을 제공하는 기술이라 할 수 있다.
비즈니스 리서치 인사이트에 따르면 인공지능 기반 시각 더빙 기술은 넷플릭스로 대변되는 OTT 시장의 급성장으로 인해 전 세계적으로 2024년 40억 달러에서 2033년 76억 달러까지 성장할 것으로 예측된다.8) 최근 플로리스는 올해 베를린 영화제 개막작인 톰 팀크베어(Tom Tykwer)의 《빛(The Light)》을 미국 내에 배급하기 위해 제작사와 협약을 맺었으며, 한국 영화 《밀수》의 영어버전 제작과 미국 내 배급을 위해 XYZ 필름과 판권을 공동으로 취득한 바 있다. 플로리스의 시각 더빙 기술은 단지 립싱크 기술이 아니다. 초고속 인터넷을 통해 물리적인 시공간의 장벽이 사라진 시대에, 영상 콘텐츠 산업이 언어의 장벽을 넘어서게 할 수 있는 생성형 시각효과 기술이라 말할 수 있다.
- 6) Bearne, Suzanne (2025. 08. 15). Will AI Make Language Dubbing Easy for Film and TV? . BBC
- 7) Thomas, Jen (2025. 06. 26). Flawless: 2025 TIME 100 Most Influential Companies. TIME
- 8) Business Research Insights (2025). Film Dubbing Market Size, Share, Growth and Industry Analysis, By Type, By Application and Regional Forecast to 2034.
4. 마치며: 지속가능한 인공지능 영상제작 시대를 위해
새로운 캐릭터를 상상하고, 시각적으로 생명력을 불어넣어 새로운 세계로 초대하는 것은 영화와 영상산업이 지난 100여 년의 세월 동안 개척한 독보적인 길이었다. 영상 기술은 그것을 완성하는 마법적 도구였다. 사운드 기술은 영화 표현의 범위를 확장했고, 컬러 기술과 와이드 스크린 기술은 영화적 공간을 몰입적으로 확장해 주었다. 20세기 세기말에 본격화한 디지털 시각효과 기술은 아날로그 특수효과로는 구현할 수 없는 새로운 시각적 스펙터클을 만들어 냈다. 예를 들어, 하나의 형상을 다른 형상으로 이음새 없이 변형시키는 디지털 시각효과인 몰핑(morphing)으로 《터미네이터 2: 심판의 날》의 액체금속 로봇 T-1000은 무한한 생명력을 지닌 공포의 화신이 될 수 있었다. 2005년 《킹콩》에서 피터 잭슨 감독은 모션 캡처기술을 처음으로 활용해 인간보다 더 인간애를 지닌 킹콩을 창조해 《킹콩》을 더 완전하게 영화적으로 구현했다. 이러한 영화 및 영상 기술 발전의 역사에서 우리가 하나 기억해야 하는 것은 기술은 상상을 현실화고, 창조성의 한계에 부딪힌 창작가에게 도약의 힘이 된다는 사실이다.
"인공지능은 우리가 야망을 증대할 수 있게 만들어 줄 수 있는 도구이고, 동시에 여전히 영상산업이 지속하고 번영할 수 있게 만들고, 과거에는 불가능했던 방식으로 이야기를 만들 수 있게 해주는 도구가 된다면, 그것은 전반적으로 좋은 기술이라는 생각이 든다."9)
최근 런웨이와 협력을 맺은 소규모 제작사 파불라(Fabula)의 대표 앤드류 헤비아(Andrew Hevia)의 말과 같이, 21세기 현재 더는 극장이나 텔레비전이 영상 콘텐츠의 주요 플랫폼이 아닌 시대에, 더는 블록버스터 영화나 드라마의 제작이 지속가능한 영상산업의 원동력이 아닌 시대에, 인공지능 기반 영상제작 기술은 영상 창작자들이 새로운 이야기의 세계로 들어갈 수 있도록 도울 수 있는 유능한 협력자이다. 글로벌 영화산업의 디지털 전환을 이끌었던 조지 루카스 감독은 디지털 전화의 불가피성을 다음은 같이 설명했다.
"모든 것이 변할 겁니다. 왜냐하면 변해야 하기 때문입니다. 필름이 좋기는 하지만, 그건 19세기의 발명품입니다. 필름의 시대는 이미 지나가 버렸습니다. 지금 우리는 디지털 시대에 있기에 따라서 지나간 테크놀로지를 고수하는 것, 그것은 매우 거추장스럽고 고비용이기에 그렇게 하는 건 불가능합니다."10)
이제는 디지털 기술이 거추장스럽고 고비용이 되고, 인공지능 기반 생성적 영상제작 기술이 모든 것을 변화시킬 차례이다. 왜냐하면 지속가능한 영상산업 생태계를 위해서는 변해야 하기 때문이다.


 
 