KR102316111B1 - 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법 - Google Patents

빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법 Download PDF

Info

Publication number
KR102316111B1
KR102316111B1 KR1020210112680A KR20210112680A KR102316111B1 KR 102316111 B1 KR102316111 B1 KR 102316111B1 KR 1020210112680 A KR1020210112680 A KR 1020210112680A KR 20210112680 A KR20210112680 A KR 20210112680A KR 102316111 B1 KR102316111 B1 KR 102316111B1
Authority
KR
South Korea
Prior art keywords
camera
information
character
animation
data
Prior art date
Application number
KR1020210112680A
Other languages
English (en)
Inventor
서보국
김종철
Original Assignee
주식회사 에스에이엠지엔터테인먼트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스에이엠지엔터테인먼트 filed Critical 주식회사 에스에이엠지엔터테인먼트
Priority to KR1020210112680A priority Critical patent/KR102316111B1/ko
Application granted granted Critical
Publication of KR102316111B1 publication Critical patent/KR102316111B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4046Scaling the whole image or part thereof using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Abstract

본 발명은 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법을 개시한다. 상기 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템은, 제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보에 최적화된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 레이아웃 작업을 수행하고, 애니메이션 이미지를 생성하는 애니메이션 제작 장치 및 애니메이션 파일에서 적어도 하나의 카메라 워크 정보를 추출하고, 상기 적어도 하나의 카메라 워크 정보를 연출 유형에 따라 인공지능을 이용하여 분류하여 카메라 워크 라이브러리 데이터를 생성하고, 상기 프리 카메라 워크 정보와 유사성 판단을 통해서 상기 최적 라이브러리 데이터를 찾아 상기 애니메이션 제작 장치로 전송하는 빅데이터 라이브러리를 포함한다.

Description

빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법{Artificial intelligence-based animation layout system utilizing big data and method therefor}
본 발명은 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법에 관한 것이다. 구체적으로, 본 발명은 애니메이션 제작 과정에서 빅데이터를 통해서 자동으로 레이아웃을 세팅하는 인공지능 시스템 및 방법에 관한 것이다.
애니메이션의 제작은 매우 복잡한 절차를 통해서 이루어진다. 종래의 애니메이션 제작의 경우 3D 그래픽을 다루는 DCC(Digital Content Creation tools)을 이용하여 선형적인 방식으로 제작이 이루어진다. 구체적으로, 현재의 애니메이션 제작 방식은 모델링 단계, 애니메이션 단계, 렌더링 단계 및 컴포짓 단계를 순차적으로 수행하여 최종적인 애니메이션 이미지가 생성된다.
이러한 방식의 애니메이션 제작 방법은 영화에서 사용되는 카메라의 레이아웃 기법을 적용하여 수행되고 있다. 즉, 카메라 워크에 있어서 특유의 극적 효과를 내기 위하여 기존에 사용되었던 다양한 카메라 워크 방식을 그대로 사용되는 경우가 많다. 이러한 연출 방식은 미장센(Mise-en-Scene)이라는 용어로 표현되기도 하며, 서로 다른 작품에서 반복적으로 사용될 수 있다.
따라서, 새로운 애니메이션 작품을 제작하는 경우에도 기존의 작품에서 사용된 카메라 워크를 차용하여 사용하는 것이 전혀 어색하지 않으며, 오히려 효율성 및 효과에서 더욱 좋은 결과를 가져올 수 있다.
공개특허공보 제10-2004-0096799호
본 발명의 과제는, 애니메이션 제작 과정의 효율성을 극대화하기 위해 기존의 카메라 워크의 레이아웃에 관한 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템을 제공하는 것이다.
또한, 본 발명의 다른 과제는, 애니메이션 제작 과정의 효율성을 극대화하기 위해 기존의 카메라 워크의 레이아웃에 관한 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 방법을 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템은 제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보에 최적화된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 레이아웃 작업을 수행하고, 애니메이션 이미지를 생성하는 애니메이션 제작 장치 및 애니메이션 파일에서 적어도 하나의 카메라 워크 정보를 추출하고, 상기 적어도 하나의 카메라 워크 정보를 연출 유형에 따라 인공지능을 이용하여 분류하여 카메라 워크 라이브러리 데이터를 생성하고, 상기 프리 카메라 워크 정보와 유사성 판단을 통해서 상기 최적 라이브러리 데이터를 찾아 상기 애니메이션 제작 장치로 전송하는 빅데이터 라이브러리를 포함한다.
또한, 상기 빅데이터 라이브러리는, 적어도 하나의 애니메이션 파일을 저장하고, 상기 적어도 하나의 애니메이션 파일에서 각각 적어도 하나의 카메라 워크 정보를 추출하는 애니메이션 파일 데이터베이스와, 상기 적어도 하나의 카메라 워크 정보를 인공지능을 통해서 연출 유형에 따라 분류하여 카메라 워크 라이브러리 데이터를 생성하는 연출 유형 분류 모듈과, 상기 카메라 워크 라이브러리 데이터를 저장하는 라이브러리 데이터베이스와, 상기 카메라 워크 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 유사성을 기반으로 최적 라이브러리 데이터를 선정하는 최적 라이브러리 검색 모듈을 포함할 수 있다.
또한, 상기 카메라 워크 정보는 복수의 1차 파라미터 데이터를 포함하고, 상기 연출 유형 분류 모듈은, 상기 복수의 1차 파라미터를 연산하여 생성된 2차 파라미터를 생성하는 2차 파라미터 생성 모듈과, 인공지능을 통해, 상기 2차 파라미터를 이용하여 연출 유형을 분류하고, 분류 결과에 따라 상기 카메라 워크 라이브러리 데이터를 생성하는 인공지능 모듈을 포함할 수 있다.
또한, 상기 1차 파라미터 데이터는 카메라 물리 정보, 카메라 모션 정보, 캐릭터 모션 정보, 배경 정보 및 바운딩 박스 정보 중 적어도 하나를 포함할 수 있다.
또한, 상기 카메라 워크 라이브러리 데이터는, 카메라와 캐릭터의 포지션에 따라 결정되는 제1 카테고리 및 카메라의 모션에 의해 결정되는 제2 카테고리를 포함하는 카테고리를 식별하기 위한 카테고리 식별 정보를 포함할 수 있다.
또한, 상기 제1 카테고리는 빅 클로즈업, 클로즈업, 바스트샷, 웨이스트샷, 니샷, 풀샷, 롱샷, 익스트림 롱샷 및 오버더 숄더샷 중 적어도 하나를 포함하고, 상기 제2 카테고리는 줌, 팬, 틸트, 트랙, 돌리, 아크, 붐 및 호리즌탈 앵글 중 적어도 하나를 포함할 수 있다.
또한, 상기 최적 라이브러리 검색 모듈은, 상기 프리 카메라 워크 정보의 유형을 확인하여 유형 정보를 생성하는 유형 확인 모듈과, 상기 유형 정보를 통해서 상기 카메라 워크 라이브러리 데이터 중 동일한 유형의 필터링 데이터를 선정하고, 상기 필터링 데이터 중 상기 프리 카메라 워크 정보와 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정하는 최적 라이브러리 선정 모듈을 포함할 수 있다.
상기 다른 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 방법은 카메라 워크 정보를 통해서 연출 유형을 분류하여 카메라 라이브러리 데이터를 생성하고, 제작자의 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 카메라 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 가장 유사한 최적 라이브러리 데이터를 선정하고, 상기 최적 라이브러리 데이터를 적용하여 레이아웃 작업을 수행하고, 상기 레이아웃 작업 이후, 렌더링 단계 및 컴포짓 단계를 수행하여 애니메이션 이미지를 생성하는 것을 포함한다.
또한, 상기 카메라 라이브러리 데이터를 생성하는 것은, 애니메이션 파일에서 상기 카메라 워크 정보를 추출하되, 상기 카메라 워크 정보는 1차 파라미터를 포함하고, 상기 1차 파라미터를 이용하여 2차 파라미터를 계산하고, 인공지능을 통해, 상기 2차 파라미터를 이용하여 카테고리 식별 정보를 추가하여 카메라 워크 라이브러리 데이터를 생성하는 것을 포함할 수 있다.
또한, 상기 최적 라이브러리 데이터를 선정하는 것은, 상기 프리 카메라 워크 정보의 유형을 확인하고, 상기 프리 카메라 워크 정보와 동일한 유형의 상기 카메라 워크 라이브러리 데이터 중 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정하는 것을 포함할 수 있다.
본 발명의 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법은, 미리 저장된 빅데이터에서 레이아웃 세팅을 차용하여 손쉽게 연출을 수행할 수 있다.
또한, 이러한 작업의 효율을 위해서 기존의 애니메이션 데이터를 인공지능을 이용하여 유형별로 분류하고, 분류된 유형에 맞추어 레이아웃을 적용하여 연산량을 최소화하고 제작 기간을 단축시킬 수 있다.
나아가, 인공지능을 통해 2차 파라미터를 사용하여 유형을 분류하여 높은 수준의 정밀도를 확보할 수 있다.
상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 몇몇 실시예들에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템을 설명하기 위한 개념도이다.
도 2는 도 1의 애니메이션 제작 장치를 세부적으로 설명하기 위한 블록도이다.
도 3은 애니메이션 제작의 레이아웃을 설명하기 위한 개념도이다.
도 4는 도 1의 프리 카메라 워크 정보의 구조를 세부적으로 설명하기 위한 개념도이다.
도 5는 도 1의 빅데이터 라이브러리를 세부적으로 설명하기 위한 블록도이다.
도 6은 도 5의 카메라 워크 정보를 세부적으로 설명하기 위한 개념도이다.
도 7은 도 6의 카메라 모션 정보를 설명하기 위한 예시도이다.
도 8은 도 6의 캐릭터 모션 정보를 설명하기 위한 예시도이다.
도 9는 도 5의 연출 유형 분류 모듈을 세부적으로 설명하기 위한 블록도이다.
도 10은 카메라의 연출 유형을 설명하기 위한 표이다.
도 11은 도 5의 카메라 워크 라이브러리 데이터의 구조를 세부적으로 설명하기 위한 개념도이다.
도 12는 도 5의 최적 라이브러리 검색 모듈을 세부적으로 설명하기 위한 블록도이다.
도 13은 본 발명의 몇몇 실시예들에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 방법을 설명하기 위한 순서도이다.
도 14는 도 13의 카메라 라이브러리 데이터 생성 단계를 세부적으로 설명하기 위한 순서도이다.
도 15는 도 13의 최적 라이브러리 데이터 선정 단계를 세부적으로 설명하기 위한 순서도이다.
도 16은 도 13의 애니메이션 이미지 생성 단계를 세부적으로 설명하기 위한 순서도이다.
본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.
본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.
이하, 도 1 내지 도 12를 참조하여, 본 발명의 몇몇 실시예들에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템을 설명한다.
도 1은 본 발명의 몇몇 실시예들에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템을 설명하기 위한 개념도이다.
도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템은 제작자(100)로부터 작업 지시(Wp)를 수신하고, 애니메이션 이미지(Pr)를 제공할 수 있다. 본 발명의 몇몇 실시예들에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템은 애니메이션 제작 장치(200) 및 빅데이터 라이브러리(300)를 포함한다.
제작자(100)는 애니메이션을 제작하는 사람일 수 있다. 제작자(100)는 1명 이상의 인력일 수 있다. 제작자(100)는 단순히 자연인뿐만 아니라 기업과 같은 법인체일 수도 있다. 제작자(100)는 3D 애니메이션의 제작을 위해서 애니메이션 제작 장치(200)에 작업 지시(Wp)를 전송할 수 있다. 작업 지시(Wp)는 1회성이 아닌 연속적인 지시로 애니메이션 제작 장치(200)에 전송될 수 있다. 다르게 표현하면, 제작자(100)는 애니메이션 제작 장치(200)를 이용하여 애니메이션 이미지(Pr)를 제작할 수 있고, 이를 위해서 수행되는 일련의 작업을 작업 지시(Wp)로 표현할 수 있다.
애니메이션 제작 장치(200)는 제작자(100)로부터 작업 지시(Wp)를 수신하고, 빅데이터 라이브러리(300)로 프리 카메라 워크 정보(Ipcw)를 전송할 수 있다. 프리 카메라 워크 정보(Ipcw)는 제작자(100)의 작업 지시(Wp)에 의해 러프하게 생성된 카메라 워크에 대한 정보일 수 있다. 프리 카메라 워크 정보(Ipcw)는 세밀하게 계산되어 확정된 카메라 워크가 아니라 애니메이션 장면에서 어떤 방식으로 카메라 연출이 진행될지에 대한 대략적인 지시사항일 수 있다. 프리 카메라 워크 정보(Ipcw)는 텍스트, 이미지 및 영상 중 적어도 하나의 방법으로 형성될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
빅데이터 라이브러리(300)는 내부에 기존에 제작된 애니메이션의 파일이 모두 저장되어 있을 수 있다. 빅데이터 라이브러리(300)는 저장된 애니메이션 파일의 레이아웃 정보를 유형별로 분류하여 카메라 워크 라이브러리 데이터로 보유할 수 있다. 빅데이터 라이브러리(300)는 프리 카메라 워크 정보(Ipcw)를 수신하고 그에 대응하는 최적의 레이아웃 데이터 즉, 최적 라이브러리 데이터(CamL_op)를 애니메이션 제작 장치(200)로 전송할 수 있다.
애니메이션 제작 장치(200)는 최적 라이브러리 데이터(CamL_op)를 수신하고, 이를 이용하여 애니메이션 이미지(Pr)를 생성할 수 있다. 애니메이션 제작 장치(200)는 애니메이션 이미지(Pr)를 제작자(100)에게 전송할 수 있다.
이때, 애니메이션 제작 장치(200) 및 빅데이터 라이브러리(300)는 워크스테이션(workstation), 데이터 센터, 인터넷 데이터 센터(internet data center(IDC)), DAS(direct attached storage) 시스템, SAN(storage area network) 시스템, NAS(network attached storage) 시스템 및 RAID(redundant array of inexpensive disks, or redundant array of independent disks) 시스템 중 적어도 하나로 구현될 수 있으나, 본 실시예가 이에 제한되는 것은 아니다.
애니메이션 제작 장치(200) 및 빅데이터 라이브러리(300)는 네트워크를 통해서 데이터를 전송할 수 있다. 네트워크는 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 네트워크를 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.
무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
네트워크를 통해서 통신하는 애니메이션 제작 장치(200) 및 빅데이터 라이브러리(300)는 이동통신을 위한 기술표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
도 2는 도 1의 애니메이션 제작 장치를 세부적으로 설명하기 위한 블록도이다.
도 2를 참조하면, 애니메이션 제작 장치(200)는 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)을 포함할 수 있다. 애니메이션 제작 장치(200)는 예를 들어, DCC(Digital Content Creation tools)일 수 있다. 또는 애니메이션 제작 장치(200)는 DCC 및 3D 게임 엔진을 포함할 수도 있다. 나아가, 애니메이션 제작 장치(200)는 인공지능 모듈을 통해서 DCC 및 3D 게임 엔진 사이의 데이터 익스포트/임포트를 조율할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 작업 지시(Wp)를 수신할 수 있다. 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 작업 지시(Wp)에 따라서 각각 모델링 작업, 애니메이션 작업, 렌더링 작업 및 컴포짓 작업을 수행할 수 있다. 모델링 모듈(210), 애니메이션 모듈(220), 렌더링 모듈(230) 및 컴포짓 모듈(240)은 서로 다른 하드웨어로 구현될 수도 있고, 동일 혹은 일부가 중복되는 하드웨어에 의해서 각각 구현될 수 있다.
구체적으로, 모델링 모듈(210)은 작업 지시(Wp)에 의해서 모델링 작업을 수행할 수 있다. 모델링 작업이란 애니메이션 제작 장치(200)를 이용하여 캐릭터 및 배경과 같은 오브젝트를 모델링(modeling)하는 것을 의미할 수 있다. 즉, 추후 애니메이션 단계에서 사용하기 위해서 오브젝트의 디자인은 모델링 작업에서 완성되어야 한다. 모델링 모듈(210)은 폴리곤 모델링을 수행할 수 있다. 모델링 모듈(210)은 폴리곤 모델링을 수행한 후에 텍스쳐링 작업을 수행할 수 있다. 텍스쳐링 작업은 오브젝트의 표면의 질감 및 색상을 적용하기 위한 작업일 수 있다. 텍스쳐링 작업은 쉐이더를 이용하여 메티리얼을 적용하는 방식으로 진행될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
이어서, 모델링 모듈(210)은 리깅(rigging)을 수행할 수 있다. 리깅은 모델링된 오브젝트에 뼈를 붙이는 작업을 의미할 수 있다. 리깅을 수행해야 추후 애니메이션 단계를 거친 오브젝트의 움직임이 자연스러울 수 있다. 따라서 모델링 모듈(210)은 움직일 수 있는 관절 부분과 같이 움직여야 하는 뼈 부분을 작업 지시(Wp)에 따라 정의할 수 있다.
애니메이션 모듈(220)은 애니메이션 작업을 하기 위해서 레이아웃 작업을 수행할 수 있다. 레이아웃 작업은 카메라 및 캐릭터의 동선을 정하는 것을 주된 목적으로 할 수 있다. 이러한 카메라와 캐릭터의 동선은 대략적으로 프리 프로덕션 단계에서 콘티 등에 의해서 대략적으로 정해질 수 있으나, 실제 적용을 위해서는 세세한 부분의 수정이 필요할 수 있다.
도 3은 애니메이션 제작의 레이아웃을 설명하기 위한 개념도이고, 도 4는 도 1의 프리 카메라 워크 정보의 구조를 세부적으로 설명하기 위한 개념도이다.
도 2 내지 도 4를 참조하면, 애니메이션 모듈(220)은 카메라(Cam)의 위치, 캐릭터(ch)의 위치, 카메라(Cam)가 움직이는 제1 경로(P1), 캐릭터(ch)가 움직이는 제2 경로(P2) 및 지면과 같은 배경(BG)을 결정할 수 있다. 애니메이션 모듈(220)은 이러한 레이아웃이 최종적으로 확정되기 전에 대략적인 카메라 워크에 대한 정보 즉, 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다. 애니메이션 모듈(220)은 작업 지시(Wp)에 의해서 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다.
프리 카메라 워크 정보(Ipcw)는 프리 카메라 물리 정보(Cp1), 프리 카메라 모션 정보(Cp2), 프리 캐릭터 모션 정보(Cp3), 프리 배경 정보(Cp4) 및 프리 바운딩 박스 정보(Cp5)를 포함할 수 있다.
프리 카메라 물리 정보(Cp1)는 카메라의 물리적 특성에 대한 정보일 수 있다. 예를 들어, 프리 카메라 물리 정보(Cp1)는 카메라의 렌즈의 크기, 모양, 개수 및 셔터의 속도 중 적어도 하나를 포함할 수 있다.
프리 카메라 모션 정보(Cp2)는 시간에 따른 시계열 데이터일 수 있다. 프리 카메라 모션 정보(Cp2)는 시간에 따른 카메라(Cam)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함할 수 있다. 프리 카메라 모션 정보(Cp2)는 즉, 카메라(Cam)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.
프리 캐릭터 모션 정보(Cp3)도 시간에 따른 시계열 데이터일 수 있다. 프리 캐릭터 모션 정보(Cp3)는 시간에 따른 캐릭터(ch)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함할 수 있다. 나아가, 캐릭터 모션 정보(C3)는 단순히 캐릭터(ch)의 대표 좌표의 3차원 위치뿐만 아니라 캐릭터(ch)의 포즈를 결정하는 복수의 유효 좌표의 3차원 위치도 포함할 수 있다. 이를 통해서, 캐릭터 모션 정보(C3)는 캐릭터(ch)의 시간에 따른 위치뿐만 아니라 시간에 따른 자세도 정의할 수 있다. 즉, 프리 캐릭터 모션 정보(Cp3)는 캐릭터(ch)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.
프리 배경 정보(Cp4)는 배경(BG)의 위치 및 형상과 시간에 따른 변형에 대한 정보를 포함할 수 있다. 즉, 프리 배경 정보(Cp4)도 시간에 따라 달라지는 시계열 데이터일 수 있다. 배경(BG)은 지면, 나무, 바다, 강 및 건물과 같은 구조 중 적어도 하나를 포함할 수 있다.
프리 바운딩 박스 정보(Cp5)는 캐릭터(ch)와 같은 오브젝트의 바운딩 박스에 대한 정보일 수 있다. 바운딩 박스란, 3차원 직교 좌표에서 오브젝트의 최대 크기를 규정하기 위한 직육면체 박스를 의미할 수 있다. 즉, 캐릭터(ch)의 바운딩 박스는 캐릭터(ch)가 시간에 따라 변형되어 크기가 커지더라도 항상 캐릭터(ch)를 감쌀 수 있다. 위에서, 바운딩 박스는 직육면체라고 설명하였지만, 본 실시예가 이에 제한되는 것은 아니다. 바운딩 박스의 형태는 필요에 따라 얼마든지 달라질 수 있다.
애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 따라 카메라(Cam), 캐릭터(ch) 및 배경(BG)의 세부 사항을 세팅할 수 있다. 즉, 최적 라이브러리 데이터(CamL_op)의 내용을 그대로 적용하여 레이아웃 작업을 수행할 수 있다.
애니메이션 모듈(220)은 모델링 모듈(210)이 생성한 오브젝트의 레이아웃을 세팅한 후에 오브젝트들을 움직이게 할 수 있다. 즉, 애니메이션 모듈(220)은 작업 지시(Wp)에 따라서 레이아웃 작업을 포함하는 애니메이션 단계를 수행할 수 있다. 애니메이션 단계는 오브젝트의 움직이는 포인트 즉, 리깅 단계에서 관절에 해당하는 부분의 전 위치와 후 위치를 정의하는 방식을 사용할 수 있다. 애니메이션 모듈(220)은 시간에 따른 전 위치 및 후 위치를 정의하고, 그 사이의 오브젝트의 움직임을 인터폴레이션을 이용하여 자연스럽게 채울 수 있다. 이에 따라서, 오브젝트의 움직임이 사실적으로 표현될 수 있다.
렌더링 모듈(230)은 작업 지시(Wp)에 따라서 렌더링 작업을 수행할 수 있다. 3D 애니메이션 제작과정에서 렌더링 작업은 오브젝트들의 3D 움직임을 구현하는 애니메이션 작업 이후에 카메라(Cam)에 의해서 촬영되는 2차원적인 영상을 만들어 내는 단계일 수 있다. 이때, 2차원의 의미는 애니메이션 이미지가 2차원이라는 것이 아니라 3차원의 세계를 촬영하여 2차원의 화면에 투사하는 영상물로 제작한다는 의미일 수 있다.
렌더링 모듈(230)은 즉, 애니메이션 작업까지 완료된 오브젝트들의 애니메이션 이미지를 생성해야 하므로, 오브젝트의 배열, 시점, 텍스쳐 매핑, 조명 및 쉐이딩의 세부 단계를 거쳐 렌더링 작업을 수행할 수 있다. 렌더링 모듈(230)은 여러 채널을 이용하여 복수의 레이어로 렌더링을 수행할 수 있다. 멀티 채널 렌더링은 색상의 톤을 맞추거나 대조하여 밝기를 수정하는 작업을 용이하게 할 수 있다. 또한, 멀티 채널 렌더링은 이펙트나 실사합성 같은 작업을 수행하기 위해서 필요할 수 있다. 렌더링 모듈(230)은 렌더링이 완료된 이미지를 컴포짓 모듈(240)로 전송할 수 있다.
컴포짓 모듈(240)은 렌더링된 여러 개의 이미지를 수신하고, 이를 하나의 최종 장면으로 통합하는 컴포짓 작업을 수행할 수 있다. 컴포짓 모듈(240)은 하나의 이미지를 다양한 레이어를 합성하여 완성시킬 수 있다. 예를 들어, 컴포짓 모듈(240)은 하나의 이미지를 각기 다른 속성별로 분류된 여러 장의 레이어를 적층시켜 형성할 수 있다. 이때, 레이어는 캐릭터, 배경, 이펙트, 그림자 및 재질로 나누어질 수 있다. 또한, 재질 레이어는 세부적으로 디퓨즈, 스펙귤러 및 리플렉션으로 나누어질 수 있다.
또한, 컴포짓 모듈(240)은 알파채널의 마스크를 이용하여 크로마키, 글자 및 그림을 합성할 수 있다. 이를 통해서, 최종적으로 완성된 애니메이션 이미지(Pr)가 생성될 수 있다. 컴포짓 모듈(240)은 애니메이션 이미지(Pr)를 제작자(100)에게 전송할 수 있다.
도 5는 도 1의 빅데이터 라이브러리를 세부적으로 설명하기 위한 블록도이다.
도 5를 참조하면, 빅데이터 라이브러리(300)는 애니메이션 파일 데이터베이스(310), 연출 유형 분류 모듈(320), 라이브러리 데이터베이스(330) 및 최적 라이브러리 검색 모듈(340)을 포함할 수 있다.
애니메이션 파일 데이터베이스(310)는 기존에 작업된 애니메이션 파일이 모두 저장되어 있을 수 있다. 애니메이션 파일 데이터베이스(310)는 내부에 저장된 모든 애니메이션 파일에 대해서 카메라 워크 정보(Icw)를 추출할 수 있다. 이에 따라서, 애니메이션 파일 각각에 대한 카메라 워크 정보(Icw)가 애니메이션 파일 데이터베이스(310)에 저장될 수 있다.
도 6은 도 5의 카메라 워크 정보를 세부적으로 설명하기 위한 개념도이다.
도 6을 참조하면, 카메라 워크 정보(Icw)는 카메라 물리 정보(C1), 카메라 모션 정보(C2), 캐릭터 모션 정보(C3), 배경 정보(C4) 및 바운딩 박스 정보(C5)를 포함할 수 있다.
카메라 물리 정보(C1)는 카메라의 물리적 특성에 대한 정보일 수 있다. 카메라 모션 정보(C2)는 시간에 따른 카메라(Cam)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함하는 시계열 데이터일 수 있다. 카메라 모션 정보(C2)는 즉, 카메라(Cam)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.
캐릭터 모션 정보(C3)는 시간에 따른 캐릭터(ch)의 3차원 위치, 방향, 회전 방향 및 회전 각도 중 적어도 하나를 포함하는 시계열 데이터일 수 있다. 캐릭터 모션 정보(C3)는 캐릭터(ch)의 절대적인 움직임을 모두 포함하는 빅데이터일 수 있다.
배경 정보(C4)는 배경(BG)의 위치 및 형상과 시간에 따른 변형에 대한 정보를 포함하는 시계열 데이터일 수 있다. 바운딩 박스 정보(C5)는 캐릭터(ch)와 같은 오브젝트의 바운딩 박스에 대한 정보일 수 있다. 바운딩 박스의 형태는 필요에 따라 다양할 수 있다.
상술한 카메라 물리 정보(C1), 카메라 모션 정보(C2), 캐릭터 모션 정보(C3), 배경 정보(C4) 및 바운딩 박스 정보(C5)는 1차 파라미터를 포함할 수 있다. 예를 들어, 1차 파라미터는 카메라(Cam)의 3차원 위치, 방향, 회전 방향, 회전 각도, 캐릭터(ch)의 3차원 위치, 방향, 회전 방향, 회전 각도, 배경(BG)의 위치, 형상, 바운딩 박스의 크기 및 위치 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
도 7은 도 6의 카메라 모션 정보를 설명하기 위한 예시도이고, 도 8은 도 6의 캐릭터 모션 정보를 설명하기 위한 예시도이다.
도 3 및 도 7을 참조하면, 카메라 모션 정보(C2)는 시간에 따른 3차원 위치 좌표로 표현될 수 있다. 카메라 모션 정보(C2)는 시간에 따라 수치로 기록되는 테이블 형태일 수 있다. 카메라 모션 정보(C2)는 도 7과 같이 그래프로 표현될 수도 있다. 이때, X좌표, Y좌표, Z좌표의 직교 위치 좌표와 카메라(Cam)의 방향에 대한 좌표도 그래프로 표현될 수 있다. 물론, 위치 좌표가 극좌표나 다른 좌표로 표현되는 것도 가능하다. 그래프는 필요한 항목을 체크하면 표시될 수 있다. 즉, 표시된 그래프의 개수는 필요에 따라 달라질 수 있다.
도 3 및 도 8을 참조하면, 캐릭터 모션 정보(C3)는 시간에 따른 캐릭터의 3차원 위치 좌표로 표현될 수 있다. 캐릭터 모션 정보(C3)는 시간에 따라 수치로 기록되는 테이블 형태일 수 있다. 캐릭터 모션 정보(C3)는 도 8과 같이 그래프로 표현될 수도 있다. 이때, 캐릭터(ch)의 대표 좌표의 X좌표, Y좌표, Z좌표의 직교 위치 좌표와 캐릭터(ch)의 다른 유효 부분에 대한 좌표도 그래프로 표현될 수 있다. 또는, 위치 좌표가 극좌표나 다른 좌표로 표현되는 것도 가능하다. 캐릭터(ch)는 복수일 수 있다. 따라서, 캐릭터 모션 정보(C3)는 여러 개의 캐릭터(ch)에 대한 정보를 포함할 수 있다. 그래프는 필요한 항목을 체크하면 표시될 수 있다. 즉, 표시된 그래프의 개수는 필요에 따라 달라질 수 있다.
연출 유형 분류 모듈(320)은 애니메이션 파일 데이터베이스(310)로부터 카메라 워크 정보(Icw)를 수신할 수 있다. 연출 유형 분류 모듈(320)은 카메라 워크 정보(Icw)를 유형별로 분류하여 카메라 워크 라이브러리 데이터(CamL)를 생성할 수 있다.
도 9는 도 5의 연출 유형 분류 모듈을 세부적으로 설명하기 위한 블록도이다.
도 3 및 도 9를 참조하면, 연출 유형 분류 모듈(320)은 2차 파라미터 생성 모듈(321) 및 인공지능 모듈(322)을 포함할 수 있다.
2차 파라미터 생성 모듈(321)은 카메라 워크 정보(Icw)를 수신할 수 있다. 2차 파라미터(P2)는 1차 파라미터를 이용하여 생성된 파라미터일 수 있다. 2차 파라미터(P2)는 미리 설정된 파라미터일 수 있다. 2차 파라미터(P2)는 연출 유형을 분류하기 쉽게 하기 위한 파라미터일 수 있다.
2차 파라미터(P2)는 예를 들어, 카메라(Cam)의 시간에 따른 속도, 카메라(Cam)의 시간에 따른 가속도, 캐릭터(ch)의 시간에 따른 속도, 캐릭터(ch)의 시간에 따른 가속도, 카메라(Cam)와 캐릭터(ch) 사이의 거리, 카메라(Cam)와 배경(BG) 중 지면과의 거리, 카메라(Cam)와 캐릭터(ch) 사이의 각도 및 카메라(Cam)와 배경(BG) 중 지면과의 각도 중 적어도 하나를 포함할 수 있다. 2차 파라미터(P2)는 1차 파라미터 중 일부를 변환 없이 그대로 포함할 수도 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
인공지능 모듈(322)은 2차 파라미터(P2)를 수신할 수 있다. 인공지능 모듈(322)은 2차 파라미터(P2)를 이용하여 카메라 워크 라이브러리 데이터(CamL)를 생성할 수 있다. 인공지능 모듈(322)은 딥러닝 모듈일 수 있다. 인공지능 모듈(322)은 이미 트레이닝 데이터를 이용하여 트레이닝이 완료된 상태일 수 있다. 인공지능 모듈(322)은 지도 학습을 이용할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니고, 인공지능 모듈(322)은 비지도 학습을 이용할 수도 있다.
인공지능 모듈(322)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
도 10은 카메라의 연출 유형을 설명하기 위한 표이다.
도 3, 도 9 및 도 10을 참조하면, 인공지능 모듈(322)은 카메라 워크 라이브러리 데이터(CamL)를 도 10의 연출 유형 중 하나로 식별하여 생성할 수 있다. 카메라 워크 라이브러리 데이터(CamL)가 식별되는 연출 유형은 복수의 제1 카테고리와 복수의 제2 카테고리 중 어느 하나로 식별될 수 있다.
제1 카테고리는 카메라와 캐릭터의 포지션에 따라 결정되는 카메라 연출일 수 있다. 제1 카테고리는 예를 들어, 빅 클로즈업(big close up, BCU), 클로즈업(close up, CU), 바스트샷(bust shot, BS), 웨이스트샷(waist shot, WS), 니샷(knee shot, KS), 풀샷(Full shot, FS), 롱샷(long shot, LS), 익스트림 롱샷(extream long shot, XLS or ELS) 및 오버더 숄더샷(Over the shoulder shot, OSS) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
빅 클로즈업은 캐릭터(ch)의 두 눈과 입을 화면 가득히 크게 잡은 샷을 의미할 수 있다. 캐릭터(ch)의 머리 상단부와 턱을 배제시키고 잡은 샷으로 캐릭터(ch)의 감정 표현을 강조하는 샷일 수 있다. 빅 클로즈업은 익스트림 클로즈업(Extream close up, XCU or ECU)을 포함할 수도 있다. 이때, 익스트림 클로즈업은 화면에 두 눈만을 잡거나 입만을 잡는 경우 등 매우 근접하게 촬영한 샷을 의미할 수 있다.
클로즈업은 목을 포함하여 얼굴 전체를 촬영한 샷을 의미할 수 있다. 바스트샷과 함께 가장 많이 사용되는 샷일 수 있다. 눈위치(아이레벨)에서 가장 많이 사용되는 안정적인 구도 가운데 하나일 수 있다.
바스트샷은 캐릭터(ch)의 가슴 부분의 위를 잡은 샷으로, 완벽한 삼각형 구도를 가질 수 있다. 바스트샷은 캐릭터(ch)를 잡을 때, 자극성이 없고 편안하게 캐릭터(ch)를 알아볼 수 있는 샷으로 드라마, 인터뷰, 토크쇼 및 뉴스 등에서 가장 많이 사용되는 샷일 수 있다.
웨이스트샷은 캐릭터(ch)의 허리 위 상반신을 촬영한 샷으로 바스트 샷 다음으로 많이 사용되며, 두 캐릭터를 촬영할 때 가장 많이 사용될 수 있다.
니샷은 캐릭터(ch)의 무릎부터 머리까지 촬영한 샷으로 불안정한 감을 주지만 쇼의 무용단의 움직임 등을 보여줄 때 사용될 수 있다. 공간적인 여유가 있어 움직임을 표현하기 좋은 샷일 수 있다.
풀샷은 무대 전체가 포함된 샷으로, 스튜디오에서 세트의 전경이나 출연자 전원이 들어있는 상태를 촬영한 샷일 수 있다. 배경(BG)이나 캐릭터(ch)의 움직임 등 상호 간의 위치가 표현되는 샷일 수 있다.
롱샷은 카메라(Cam)와 캐릭터(ch)의 거리가 상당히 멀어서 넓은 느낌을 주는 샷일 수 있다. 옥 외의 풍경이나 원경 샷에 주로 이용될 수 있다. 익스트림 롱샷은 일반 롱샷보다 더 넓은 범위를 잡은 샷으로, 대규모 군중 씬이나 자연환경 스케치에 어울리는 샷일 수 있다. 오버더 숄더샷은 한 캐릭터(ch)의 어깨 너머로 다른 캐릭터(ch)를 비춰주는 구도를 가지는 샷일 수 있다.
제2 카테고리는 카메라의 모션에 의해 결정되는 카메라 연출일 수 있다. 제2 카테고리는 예를 들어, 줌(zoom), 팬(pan), 틸트(tilt), 트랙(track), 돌리(dolly), 아크(arc), 붐(boom) 및 호리즌탈 앵글(horizontal angle) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
줌은 줌 인, 줌 아웃 및 퀵 줌을 포함할 수 있다. 줌 인은 피사체의 전경 중 어느 한 부분만을 강조하거나 그 부분에 관심을 불러일으키고자 할 때 사용되며, 줌의 폭이 크면 클수록 그 효과는 커질 수 있다.
줌 아웃은 피사체의 한 부분을 클로즈업에서 연속적으로 촬영 범위를 넓게 촬영하고자 할 때 사용될 수 있다. 퀵 줌은 극적인 부분 또는 중요한 순간을 강조하기 위해 매우 빨리 줌 인 또는 줌 아웃하는 것을 의미할 수 있다.
팬은 일정한 높이에서 카메라(Cam)의 헤드를 좌우 수평으로 움직이는 것을 의미할 수 있다. 틸트는 카메라(Cam)의 헤드를 상하 수직으로 움직이는 것을 의미할 수 있다. 트랙은 레일 등을 깔고 그 위에서 이동차를 통해 촬영하는 것과 같은 샷을 의미할 수 있다. 트랙은 카메라를 좌우로 이동시키는 것을 의미할 수 있다.
돌리는 이동차, 레일 등을 이용해 카메라(Cam) 자체가 피사체를 향해 가까이 가거나 멀어지는 것을 의미할 수 있다. 아크는 레일을 이용하여 곡선, 원형 또는 반원형 레일을 따라 피사체를 중심으로 일정한 거리를 유지하여 카메라가 원을 그리듯 좌우로 이동시키며 촬영하는 샷을 의미할 수 있다.
붐은 카메라(Cam)의 높이를 상하로 움직이는 것을 의미할 수 있다. 이를 통해서 피사체에 대한 시각적 원근감을 효과적으로 창출할 수 있다. 호리즌탈 앵글은 카메라맨의 눈높이에서 촬영하여 수평 방향으로 촬영하는 앵글일 수 있다. 아이레벨 앵글이라고도 표현할 수 있다. 이 외에도 하이 앵글, 로 앵글, 경사 앵글 및 버즈아이 뷰 앵글 등 많은 유형이 카메라 워크 라이브러리 데이터(CamL)에 식별되어 기록될 수 있다.
도 11은 도 5의 카메라 워크 라이브러리 데이터의 구조를 세부적으로 설명하기 위한 개념도이다.
도 11을 참조하면, 카메라 워크 라이브러리 데이터(CamL)는 도 6의 카메라 워크 정보(Icw)에서 카테고리 식별 정보(C6)를 더 포함할 수 있다. 카메라 워크 라이브러리 데이터(CamL)는 카테고리 식별 정보(C6)에 따라서 동일한 카테고리 별로 분류되어 저장될 수 있다.
카테고리 식별 정보(C6)는 상술한 도 10의 복수의 제1 카테고리 및 복수의 제2 카테고리 중 어느 하나에 대한 식별 정보일 수 있다. 이에 따라서, 카테고리 식별 정보(C6)는 각각의 카메라 워크 라이브러리 데이터(CamL)가 어떤 카테고리인지를 식별하게 할 수 있다.
다시, 도 5를 참조하면, 라이브러리 데이터베이스(330)는 연출 유형 분류 모듈(320)로부터 카메라 워크 라이브러리 데이터(CamL)를 수신할 수 있다. 라이브러리 데이터베이스(330)는 카메라 워크 라이브러리 데이터(CamL)를 저장할 수 있다. 라이브러리 데이터베이스(330)는 하나 이상의 카메라 워크 라이브러리 데이터(CamL)를 카테고리 별로 분류하여 저장할 수 있다.
최적 라이브러리 검색 모듈(340)은 라이브러리 데이터베이스(330)로부터 카메라 워크 라이브러리 데이터(CamL)를 수신할 수 있다. 최적 라이브러리 검색 모듈(340)은 또한, 애니메이션 제작 장치(200)로부터 프리 카메라 워크 정보(Ipcw)도 수신할 수 있다. 최적 라이브러리 검색 모듈(340)은 프리 카메라 워크 정보(Ipcw)와 카메라 워크 라이브러리 데이터(CamL)를 비교하여 최적 라이브러리 데이터(CamL_op)를 선정할 수 있다. 최적 라이브러리 데이터(CamL_op)는 카메라 워크 라이브러리 데이터(CamL) 중 프리 카메라 워크 정보(Ipcw)와 가장 유사한 데이터일 수 있다.
도 12는 도 5의 최적 라이브러리 검색 모듈을 세부적으로 설명하기 위한 블록도이다.
도 12를 참조하면, 최적 라이브러리 검색 모듈(340)은 유형 확인 모듈(341) 및 최적 라이브러리 선정 모듈(342)을 포함할 수 있다.
유형 확인 모듈(341)은 애니메이션 제작 장치(200)로부터 프리 카메라 워크 정보(Ipcw)를 수신할 수 있다. 유형 확인 모듈(341)은 프리 카메라 워크 정보(Ipcw)를 통해서 프리 카메라 워크 정보(Ipcw)가 어떤 카테고리인지를 확인할 수 있다.
구체적으로, 유형 확인 모듈(341)은 도 5의 연출 유형 분류 모듈(320)과 같이 딥러닝 모델을 이용하여 인공지능을 통해 유형을 확인할 수 있다. 단, 프리 카메라 워크 정보(Ipcw)가 카메라 워크 정보(Icw)에 비해서 훨씬 러프한 정보일 수 있으므로, 유형 확인 모듈(341)은 연출 유형 분류 모듈(320)보다는 훨씬 연산량이 적고 가벼운 딥러닝 모델을 사용할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
유형 확인 모듈(341)은 프리 카메라 워크 정보(Ipcw)의 유형 정보(Ic)를 생성할 수 있다. 유형 정보(Ic)는 프리 카메라 워크 정보(Ipcw)가 도 10의 복수의 제1 카테고리 및 복수의 제2 카테고리 중 어느 카테고리에 속하는 지에 대한 정보일 수 있다.
최적 라이브러리 선정 모듈(342)은 유형 확인 모듈(341)로부터 프리 카메라 워크 정보(Ipcw) 및 유형 정보(Ic)를 수신할 수 있다. 최적 라이브러리 선정 모듈(342)은 라이브러리 데이터베이스(330)로부터 카메라 워크 라이브러리 데이터(CamL)도 수신할 수 있다.
최적 라이브러리 선정 모듈(342)은 카메라 워크 라이브러리 데이터(CamL) 중에 유형 정보(Ic)와 동일한 카테고리 식별 정보(C6)를 가진 카메라 워크 라이브러리 데이터(CamL)를 필터링할 수 있다. 이를 통해서, 최적 라이브러리 선정 모듈(342)은 이어서 진행할 유사성 검토의 연산량을 대폭 감소시키고, 연산 속도를 향상시킬 수 있다.
이어서, 최적 라이브러리 선정 모듈(342)은 유형 정보(Ic)와 동일한 카테고리 식별 정보(C6)를 가진 카메라 워크 라이브러리 데이터(CamL) 중에서 프리 카메라 워크 정보(Ipcw)와 가장 유사한 데이터를 최적 라이브러리 데이터(CamL_op)로 선정할 수 있다.
이때, 최적 라이브러리 선정 모듈(342)은 딥러닝 모델을 통해서 유사성을 판단할 수 있다. 최적 라이브러리 선정 모듈(342)은 예를 들어, DFN(Deep Feedforward Network), CNN(Convolutional Neural Network), GNN(Graph Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), SVM(Support vector machine), ANN(Artificial Neural Network), LSTM(Long Short-Term Memory), GRU(Gated Recurrent Units), DRN(Deep Residual Network), GAN(Generative Adversarial Network), GCN(Graph Convolutional Network) 및 SNN(Spiking Neural Network) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
본 발명의 몇몇 실시예들에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템은 인공지능을 통해서 기존에 제작된 애니메이션 파일의 카메라 워크를 유형별로 분류하고, 새로 제작되는 애니메이션에 그 세부사항을 적용시켜 애니메이션 제작 기간을 대폭 단축시키고, 애니메이션의 품질도 더 향상시킬 수 있다.
나아가, 인공지능을 통해서 빅데이터의 유형을 분류하는 작업을 수행하여 인력의 소모를 최소화하고, 높은 효율을 도모할 수 있다. 또한, 유형 분류시에 단순히 제공된 1차 파라미터가 아닌 1차 파라미터를 연산하여 생성된 2차 파라미터를 이용하여 더욱 정밀한 유형 분류를 수행할 수 있다.
이하, 도 1 내지 도 12 및 도 13 내지 도 16을 참조하여 본 발명의 몇몇 실시예들에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 방법을 설명한다. 상술한 실시예와 중복되는 부분은 생략하거나 간략히 한다.
도 13은 본 발명의 몇몇 실시예들에 따른 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 방법을 설명하기 위한 순서도이고, 도 14는 도 13의 카메라 라이브러리 데이터 생성 단계를 세부적으로 설명하기 위한 순서도이다. 도 15는 도 13의 최적 라이브러리 데이터 선정 단계를 세부적으로 설명하기 위한 순서도이고, 도 16은 도 13의 애니메이션 이미지 생성 단계를 세부적으로 설명하기 위한 순서도이다.
도 13을 참조하면, 카메라 워크 정보를 통해서 연출 유형을 분류하여 카메라 워크 라이브러리 데이터를 생성한다(S100).
세부적으로, 도 14를 참조하면, 애니메이션 파일에서 카메라 워크 정보를 추출한다(S110).
구체적으로, 도 5를 참조하면, 애니메이션 파일 데이터베이스(310)는 내부에 저장된 모든 애니메이션 파일에 대해서 카메라 워크 정보(Icw)를 추출할 수 있다. 이에 따라서, 애니메이션 파일 각각에 대한 카메라 워크 정보(Icw)가 애니메이션 파일 데이터베이스(310)에 저장될 수 있다.
다시, 도 14를 참조하면, 1차 파라미터를 통해서 2차 파라미터를 계산한다(S120).
구체적으로, 도 6을 참조하면, 카메라 워크 정보(Icw)는 카메라 물리 정보(C1), 카메라 모션 정보(C2), 캐릭터 모션 정보(C3), 배경 정보(C4) 및 바운딩 박스 정보(C5)를 포함할 수 있다. 상술한 카메라 물리 정보(C1), 카메라 모션 정보(C2), 캐릭터 모션 정보(C3), 배경 정보(C4) 및 바운딩 박스 정보(C5)는 1차 파라미터를 포함할 수 있다. 예를 들어, 1차 파라미터는 카메라(Cam)의 3차원 위치, 방향, 회전 방향, 회전 각도, 캐릭터(ch)의 3차원 위치, 방향, 회전 방향, 회전 각도, 배경(BG)의 위치, 형상, 바운딩 박스의 크기 및 위치 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
도 9를 참조하면, 2차 파라미터 생성 모듈(321)은 카메라 워크 정보(Icw)를 수신할 수 있다. 2차 파라미터(P2)는 1차 파라미터를 이용하여 생성된 파라미터일 수 있다. 2차 파라미터(P2)는 미리 설정된 파라미터일 수 있다. 2차 파라미터(P2)는 연출 유형을 분류하기 쉽게 하기 위한 파라미터일 수 있다.
다시, 도 14를 참조하면, 인공지능을 통해 2차 파라미터를 이용하여 카테고리 식별를 추가하여 카메라 워크 라이브러리 데이터를 생성한다(S130).
구체적으로, 도 9를 참조하면, 인공지능 모듈(322)은 2차 파라미터(P2)를 수신할 수 있다. 인공지능 모듈(322)은 2차 파라미터(P2)를 이용하여 카메라 워크 라이브러리 데이터(CamL)를 생성할 수 있다. 인공지능 모듈(322)은 딥러닝 모듈일 수 있다. 인공지능 모듈(322)은 이미 트레이닝 데이터를 이용하여 트레이닝이 완료된 상태일 수 있다.
도 11을 참조하면, 카메라 워크 라이브러리 데이터(CamL)는 도 6의 카메라 워크 정보(Icw)에서 카테고리 식별 정보(C6)를 더 포함할 수 있다. 카메라 워크 라이브러리 데이터(CamL)는 카테고리 식별 정보(C6)에 따라서 동일한 카테고리 별로 분류되어 저장될 수 있다.
다시, 도 13을 참조하면, 프리 카메라 워크 정보를 생성한다(S200).
구체적으로, 도 2 내지 도 4를 참조하면, 애니메이션 모듈(220)은 카메라(Cam)의 위치, 캐릭터(ch)의 위치, 카메라(Cam)가 움직이는 제1 경로(P1), 캐릭터(ch)가 움직이는 제2 경로(P2) 및 지면과 같은 배경(BG)을 결정할 수 있다. 애니메이션 모듈(220)은 이러한 레이아웃이 최종적으로 확정되기 전에 대략적인 카메라 워크에 대한 정보 즉, 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다. 애니메이션 모듈(220)은 작업 지시(Wp)에 의해서 프리 카메라 워크 정보(Ipcw)를 생성할 수 있다.
프리 카메라 워크 정보(Ipcw)는 프리 카메라 물리 정보(Cp1), 프리 카메라 모션 정보(Cp2), 프리 캐릭터 모션 정보(Cp3), 프리 배경 정보(Cp4) 및 프리 바운딩 박스 정보(Cp5)를 포함할 수 있다.
다시, 도 13을 참조하면, 카메라 워크 라이브러리 데이터 및 프리 카메라 워크 정보를 비교하여 최적 라이브러리 데이터를 선정한다(S300).
세부적으로, 도 15를 참조하면, 프리 카메라 워크 정보의 유형을 확인한다(S310).
구체적으로, 도 12를 참조하면, 유형 확인 모듈(341)은 애니메이션 제작 장치(200)로부터 프리 카메라 워크 정보(Ipcw)를 수신할 수 있다. 유형 확인 모듈(341)은 프리 카메라 워크 정보(Ipcw)를 통해서 프리 카메라 워크 정보(Ipcw)가 어떤 카테고리인지를 확인할 수 있다.
유형 확인 모듈(341)은 프리 카메라 워크 정보(Ipcw)의 유형 정보(Ic)를 생성할 수 있다. 유형 정보(Ic)는 프리 카메라 워크 정보(Ipcw)가 도 10의 복수의 제1 카테고리 및 복수의 제2 카테고리 중 어느 카테고리에 속하는 지에 대한 정보일 수 있다.
다시, 도 15를 참조하면, 동일한 유형 중 가장 유사한 카메라 워크 라이브러리 데이터를 최적 라이브러리 데이터로 선정한다(S320).
구체적으로, 도 12를 참조하면, 최적 라이브러리 선정 모듈(342)은 카메라 워크 라이브러리 데이터(CamL) 중에 유형 정보(Ic)와 동일한 카테고리 식별 정보(C6)를 가진 카메라 워크 라이브러리 데이터(CamL)를 필터링할 수 있다.
이어서, 최적 라이브러리 선정 모듈(342)은 유형 정보(Ic)와 동일한 카테고리 식별 정보(C6)를 가진 카메라 워크 라이브러리 데이터(CamL) 중에서 프리 카메라 워크 정보(Ipcw)와 가장 유사한 데이터를 최적 라이브러리 데이터(CamL_op)로 선정할 수 있다.
다시, 도 13을 참조하면, 최적 라이브러리 데이터를 적용하여 레이아웃 작업을 수행한다(S400).
구체적으로, 도 2를 참조하면, 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)를 수신할 수 있다. 애니메이션 모듈(220)은 최적 라이브러리 데이터(CamL_op)에 따라 카메라(Cam), 캐릭터(ch) 및 배경(BG)의 세부 사항을 세팅할 수 있다. 즉, 최적 라이브러리 데이터(CamL_op)의 내용을 그대로 적용하여 레이아웃 작업을 수행할 수 있다.
다시, 도 13을 참조하면, 애니메이션 이미지를 생성한다(S500).
세부적으로, 도 16을 참조하면, 렌더링 단계를 수행한다(S510).
구체적으로, 도 2를 참조하면, 렌더링 모듈(230)은 작업 지시(Wp)에 따라서 렌더링 작업을 수행할 수 있다. 3D 애니메이션 제작과정에서 렌더링 작업은 오브젝트들의 3D 움직임을 구현하는 애니메이션 작업 이후에 카메라(Cam)에 의해서 촬영되는 2차원적인 영상을 만들어 내는 단계일 수 있다.
렌더링 모듈(230)은 즉, 애니메이션 작업까지 완료된 오브젝트들의 애니메이션 이미지를 생성해야 하므로, 오브젝트의 배열, 시점, 텍스쳐 매핑, 조명 및 쉐이딩의 세부 단계를 거쳐 렌더링 작업을 수행할 수 있다. 렌더링 모듈(230)은 여러 채널을 이용하여 복수의 레이어로 렌더링을 수행할 수 있다.
다시, 도 16을 참조하면, 컴포짓 단계를 수행하여 애니메이션 이미지를 생성한다(S520).
구체적으로, 도 2를 참조하면, 컴포짓 모듈(240)은 렌더링된 여러 개의 이미지를 수신하고, 이를 하나의 최종 장면으로 통합하는 컴포짓 작업을 수행할 수 있다. 컴포짓 모듈(240)은 하나의 이미지를 다양한 레이어를 합성하여 완성시킬 수 있다. 이를 통해서, 컴포짓 모듈(240)은 애니메이션 이미지(Pr)를 최종적으로 완성할 수 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 제작자로부터 작업 지시를 수신하고, 상기 작업 지시에 따라 프리 카메라 워크 정보를 생성하고, 상기 프리 카메라 워크 정보에 최적화된 최적 라이브러리 데이터를 수신하고, 상기 최적 라이브러리 데이터를 적용하여 레이아웃 작업을 수행하고, 애니메이션 이미지를 생성하는 애니메이션 제작 장치; 및
    적어도 하나의 애니메이션 파일에서 적어도 하나의 카메라 워크 정보를 추출하고, 상기 적어도 하나의 카메라 워크 정보를 연출 유형에 따라 인공지능을 이용하여 분류하여 카메라 워크 라이브러리 데이터를 생성하고, 상기 프리 카메라 워크 정보와 유사성 판단을 통해서 상기 최적 라이브러리 데이터를 찾아 상기 애니메이션 제작 장치로 전송하는 빅데이터 라이브러리를 포함하되,
    상기 빅데이터 라이브러리는,
    상기 적어도 하나의 애니메이션 파일을 저장하고, 상기 적어도 하나의 애니메이션 파일에서 각각 상기 적어도 하나의 카메라 워크 정보를 추출하는 애니메이션 파일 데이터베이스와,
    상기 적어도 하나의 카메라 워크 정보를 인공지능을 통해서 연출 유형에 따라 분류하여 카메라 워크 라이브러리 데이터를 생성하는 연출 유형 분류 모듈과,
    상기 카메라 워크 라이브러리 데이터를 저장하는 라이브러리 데이터베이스와,
    상기 카메라 워크 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 유사성을 기반으로 최적 라이브러리 데이터를 선정하는 최적 라이브러리 검색 모듈을 포함하고,
    상기 카메라 워크 정보는 복수의 1차 파라미터 데이터를 포함하고,
    상기 연출 유형 분류 모듈은,
    상기 복수의 1차 파라미터를 연산하여 생성된 2차 파라미터를 생성하는 2차 파라미터 생성 모듈과,
    인공지능을 통해, 상기 2차 파라미터를 이용하여 연출 유형을 분류하고, 분류 결과에 따라 상기 카메라 워크 라이브러리 데이터를 생성하는 인공지능 모듈을 포함하고,
    상기 프리 카메라 워크 정보는 프리 카메라 물리 정보, 프리 카메라 모션 정보, 프리 캐릭터 모션 정보, 프리 배경 정보 및 프리 바운딩 박스 정보를 포함하고,
    상기 카메라 워크 정보는 카메라 물리 정보, 카메라 모션 정보, 캐릭터 모션 정보, 배경 정보 및 바운딩 박스 정보를 포함하고,
    상기 프리 배경 정보 및 상기 배경 정보는 각각 시간에 따른 배경의 위치 및 시간에 따른 배경의 형상을 포함하고,
    상기 복수의 1차 파라미터는 카메라의 3차원 위치, 카메라의 방향, 카메라의 회전 방향, 카메라의 회전 각도, 캐릭터의 3차원 위치, 캐릭터의 방향, 캐릭터의 회전 방향, 캐릭터의 회전 각도, 배경의 위치, 배경의 형상, 바운딩 박스의 크기 및 바운딩 박스의 위치를 포함하고,
    상기 2차 파라미터는 카메라의 시간에 따른 속도, 카메라의 시간에 따른 가속도, 캐릭터의 시간에 따른 속도, 캐릭터의 시간에 따른 가속도, 카메라와 캐릭터 사이의 거리, 카메라와 배경 중 지면과의 거리, 카메라와 캐릭터 사이의 각도 및 카메라와 배경 중 지면과의 각도를 포함하는 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제1 항에 있어서,
    상기 카메라 워크 라이브러리 데이터는, 카메라와 캐릭터의 포지션에 따라 결정되는 제1 카테고리 및 카메라의 모션에 의해 결정되는 제2 카테고리를 포함하는 카테고리를 식별하기 위한 카테고리 식별 정보를 포함하는 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템.
  6. 제5 항에 있어서,
    상기 제1 카테고리는 빅 클로즈업, 클로즈업, 바스트샷, 웨이스트샷, 니샷, 풀샷, 롱샷, 익스트림 롱샷 및 오버더 숄더샷 중 적어도 하나를 포함하고,
    상기 제2 카테고리는 줌, 팬, 틸트, 트랙, 돌리, 아크, 붐 및 호리즌탈 앵글 중 적어도 하나를 포함하는 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템.
  7. 제1 항에 있어서,
    상기 최적 라이브러리 검색 모듈은,
    상기 프리 카메라 워크 정보의 유형을 확인하여 유형 정보를 생성하는 유형 확인 모듈과,
    상기 유형 정보를 통해서 상기 카메라 워크 라이브러리 데이터 중 동일한 유형의 필터링 데이터를 선정하고, 상기 필터링 데이터 중 상기 프리 카메라 워크 정보와 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정하는 최적 라이브러리 선정 모듈을 포함하는 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템.
  8. 카메라 워크 정보를 통해서 연출 유형을 분류하여 카메라 라이브러리 데이터를 생성하고,
    제작자의 작업 지시에 따라 프리 카메라 워크 정보를 생성하고,
    상기 카메라 라이브러리 데이터와 상기 프리 카메라 워크 정보를 비교하여 가장 유사한 최적 라이브러리 데이터를 선정하고,
    상기 최적 라이브러리 데이터를 적용하여 레이아웃 작업을 수행하고,
    상기 레이아웃 작업 이후, 렌더링 단계 및 컴포짓 단계를 수행하여 애니메이션 이미지를 생성하는 것을 포함하되,
    상기 카메라 라이브러리 데이터를 생성하는 것은,
    애니메이션 파일에서 상기 카메라 워크 정보를 추출하되, 상기 카메라 워크 정보는 1차 파라미터를 포함하고,
    상기 1차 파라미터를 이용하여 2차 파라미터를 계산하고,
    인공지능을 통해, 상기 2차 파라미터를 이용하여 카테고리 식별 정보를 추가하여 카메라 워크 라이브러리 데이터를 생성하는 것을 포함하고,
    상기 프리 카메라 워크 정보는 프리 카메라 물리 정보, 프리 카메라 모션 정보, 프리 캐릭터 모션 정보, 프리 배경 정보 및 프리 바운딩 박스 정보를 포함하고,
    상기 카메라 워크 정보는 카메라 물리 정보, 카메라 모션 정보, 캐릭터 모션 정보, 배경 정보 및 바운딩 박스 정보를 포함하고,
    상기 프리 배경 정보 및 상기 배경 정보는 각각 시간에 따른 배경의 위치 및 시간에 따른 배경의 형상을 포함하고,
    상기 1차 파라미터는 카메라의 3차원 위치, 카메라의 방향, 카메라의 회전 방향, 카메라의 회전 각도, 캐릭터의 3차원 위치, 캐릭터의 방향, 캐릭터의 회전 방향, 캐릭터의 회전 각도, 배경의 위치, 배경의 형상, 바운딩 박스의 크기 및 바운딩 박스의 위치를 포함하고,
    상기 2차 파라미터는 카메라의 시간에 따른 속도, 카메라의 시간에 따른 가속도, 캐릭터의 시간에 따른 속도, 캐릭터의 시간에 따른 가속도, 카메라와 캐릭터 사이의 거리, 카메라와 배경 중 지면과의 거리, 카메라와 캐릭터 사이의 각도 및 카메라와 배경 중 지면과의 각도를 포함하는 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 방법.
  9. 삭제
  10. 제8 항에 있어서,
    상기 최적 라이브러리 데이터를 선정하는 것은,
    상기 프리 카메라 워크 정보의 유형을 확인하고,
    상기 프리 카메라 워크 정보와 동일한 유형의 상기 카메라 워크 라이브러리 데이터 중 가장 유사한 데이터를 상기 최적 라이브러리 데이터로 선정하는 것을 포함하는 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 방법.

KR1020210112680A 2021-08-25 2021-08-25 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법 KR102316111B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210112680A KR102316111B1 (ko) 2021-08-25 2021-08-25 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210112680A KR102316111B1 (ko) 2021-08-25 2021-08-25 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법

Publications (1)

Publication Number Publication Date
KR102316111B1 true KR102316111B1 (ko) 2021-10-25

Family

ID=78258519

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210112680A KR102316111B1 (ko) 2021-08-25 2021-08-25 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR102316111B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11900607B2 (en) 2021-12-03 2024-02-13 Korea Advanced Institute Of Science And Technology Method and apparatus for framing three dimensional target object for generation of virtual camera layout

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (ko) 2004-06-30 2004-11-17 주식회사 연세교육미디어 인터랙티브 출판물을 이용한 온/오프라인 통합교육 시스템및 그 구현방법
KR20180082042A (ko) * 2017-01-09 2018-07-18 진형우 3d 게임엔진기반 머시니마 제작방법
KR20200044714A (ko) * 2018-10-19 2020-04-29 한국과학기술원 카메라 워크를 재현하는 방법 및 장치
KR20200059993A (ko) * 2018-11-22 2020-05-29 주식회사 데이터코볼트 웹툰 제작을 위한 콘티를 생성하는 장치 및 방법
KR20210074747A (ko) * 2019-12-12 2021-06-22 한국과학기술원 자동으로 카메라워크를 생성하는 영상 처리 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040096799A (ko) 2004-06-30 2004-11-17 주식회사 연세교육미디어 인터랙티브 출판물을 이용한 온/오프라인 통합교육 시스템및 그 구현방법
KR20180082042A (ko) * 2017-01-09 2018-07-18 진형우 3d 게임엔진기반 머시니마 제작방법
KR20200044714A (ko) * 2018-10-19 2020-04-29 한국과학기술원 카메라 워크를 재현하는 방법 및 장치
KR20200059993A (ko) * 2018-11-22 2020-05-29 주식회사 데이터코볼트 웹툰 제작을 위한 콘티를 생성하는 장치 및 방법
KR20210074747A (ko) * 2019-12-12 2021-06-22 한국과학기술원 자동으로 카메라워크를 생성하는 영상 처리 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11900607B2 (en) 2021-12-03 2024-02-13 Korea Advanced Institute Of Science And Technology Method and apparatus for framing three dimensional target object for generation of virtual camera layout

Similar Documents

Publication Publication Date Title
US8624901B2 (en) Apparatus and method for generating facial animation
JP4531069B2 (ja) 現実の対象物の画像と重ね合わされるように設計されたデータモデルを決定するための方法及びシステム
US8334872B2 (en) Inverse kinematics for motion-capture characters
KR102316114B1 (ko) 애니메틱 영상과 빅데이터를 활용한 인공지능 기반 레이아웃 시스템 및 그 방법
CN108961369A (zh) 生成3d动画的方法和装置
US9224245B2 (en) Mesh animation
US11403800B1 (en) Image generation from 3D model using neural network
CN108038911A (zh) 一种基于ar技术的全息成像控制方法
CN113628327A (zh) 一种头部三维重建方法及设备
CN106663340A (zh) 用于编辑面部图像的方法和设备
KR102316111B1 (ko) 빅데이터를 활용한 인공지능 기반 애니메이션 레이아웃 시스템 및 그 방법
KR20190040746A (ko) 3차원 관심영역 복원 시스템 및 방법
Krs et al. Skippy: Single view 3D curve interactive modeling
EP1754198A1 (en) Animation systems
KR102316112B1 (ko) 빅데이터를 활용한 인공지능 기반 멀티 오브젝트 레이아웃 시스템 및 그 방법
WO2022075858A1 (en) Method and user interface for generating tangent vector fields usable for generating computer-generated imagery
KR100889854B1 (ko) 캐리커처 비디오 생성 방법 및 장치
KR101780496B1 (ko) 컴퓨터그래픽 툴에 의한 캐릭터 모델링 기반 3d 디지털액터 영상 구현방법
US11361494B2 (en) Method for scattering points in a uniform arbitrary distribution across a target mesh for a computer animated creature
US11250609B1 (en) Method for controlling digital feather growth between two manifolds in a computer simulated creature
CN107784688A (zh) 一种基于图片的三维建模方法
KR102341863B1 (ko) 생체정보를 이용한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템
KR102343581B1 (ko) 생체정보를 이용하여 캐릭터 리얼리티를 향상시키기 위한 인공지능 기반 디지털아이돌 컨텐츠 제작 시스템
CA3139656A1 (en) Method of inferring microdetail on skin animation
US20240127539A1 (en) Mechanical weight index maps for mesh rigging

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant