KR101809601B1 - 애니메이션 제작 장치 및 방법 - Google Patents

애니메이션 제작 장치 및 방법 Download PDF

Info

Publication number
KR101809601B1
KR101809601B1 KR1020160098357A KR20160098357A KR101809601B1 KR 101809601 B1 KR101809601 B1 KR 101809601B1 KR 1020160098357 A KR1020160098357 A KR 1020160098357A KR 20160098357 A KR20160098357 A KR 20160098357A KR 101809601 B1 KR101809601 B1 KR 101809601B1
Authority
KR
South Korea
Prior art keywords
facial expression
character
item
animation
user
Prior art date
Application number
KR1020160098357A
Other languages
English (en)
Inventor
최진성
Original Assignee
주식회사 씨투몬스터
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨투몬스터 filed Critical 주식회사 씨투몬스터
Priority to KR1020160098357A priority Critical patent/KR101809601B1/ko
Priority to PCT/KR2017/001844 priority patent/WO2018026082A1/ko
Application granted granted Critical
Publication of KR101809601B1 publication Critical patent/KR101809601B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2213/00Indexing scheme for animation
    • G06T2213/12Rule based animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 애니메이션 제작 장치 및 방법에 관한 것이다. 본 발명의 일 실시예에 따른 애니메이션 제작 장치는, 사용자로부터 애니메이션의 제작에 관한 명령을 입력받는 입력부; 상기 애니메이션의 제작에 사용되도록 사전에 마련된 아이템을 저장하는 저장부; 사용자의 명령에 따라 상기 아이템을 불러와 상기 애니메이션에 등장하는 캐릭터에 적용하는 처리부; 및 상기 애니메이션을 표시하는 표시부를 포함할 수 있다.

Description

애니메이션 제작 장치 및 방법{APPARATUS AND METHOD FOR PRODUCING ANIMATION}
본 발명은 애니메이션 제작 장치 및 방법에 관한 것이다.
최근 들어 멀티미디어 컨텐츠가 다양한 매체를 통해 보급되면서 애니메이션 컨텐츠의 수도 급증하고 있다. 과거에는 TV나 영화관에서 가끔씩 애니메이션을 상영하였기에 대중들이 애니메이션을 접할 기회가 많지 않았다. 그러나, 오늘날에는 스마트폰을 비롯한 각종 스마트 디바이스들이 널리 보급되고 인터넷을 비롯한 네트워크의 통신 속도도 크게 향상되어서 누구나 쉽게 애니메이션을 시청할 수 있게 되었다.
그러나, 애니메이션을 만드는 일은 각 분야의 여러 전문가들이 서로 협업하여 이루어지고 있어 개인이 애니메이션을 제작하는 것은 현재까지도 여전히 쉽지 않은 일이다.
본 발명의 실시예는 개인이 스마트폰이나 태블릿 PC와 같은 단말기로 직접 애니메이션을 제작할 수 있는 애니메이션 제작 장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명의 실시예는 애니메이션 제작 시 캐릭터의 동작 및 표정을 원하는 대로 쉽고 간편하게 구현할 수 있는 애니메이션 제작 장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명의 일 실시예에 따른 애니메이션 제작 장치는, 사용자로부터 애니메이션의 제작에 관한 명령을 입력받는 입력부; 상기 애니메이션의 제작에 사용되도록 사전에 마련된 아이템을 저장하는 저장부; 사용자의 명령에 따라 상기 아이템을 불러와 상기 애니메이션에 등장하는 캐릭터에 적용하는 처리부; 및 상기 애니메이션을 표시하는 표시부를 포함할 수 있다.
상기 저장부는: 상기 캐릭터의 동작을 정의한 동작 아이템을 저장할 수 있다.
상기 처리부는: 상기 저장부에 저장된 적어도 하나의 동작 아이템 중에서 사용자가 선택한 동작 아이템을 불러오고, 불러온 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어할 수 있다.
상기 처리부는: 상기 저장부에 저장된 다수의 동작 아이템 중에서 상기 애니메이션의 제작에 사용될 동작 아이템을 선택하는 사용자의 명령에 응답하여 동작 아이템 목록을 구성하고, 상기 애니메이션의 녹화가 시작된 후, 상기 동작 아이템 목록에서 사용자에 의해 동작 아이템이 선택되면 해당 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어할 수 있다.
상기 처리부는: 사용자가 상기 동작 아이템을 선택하여 상기 캐릭터가 움직이는 도중 사용자가 제 1 명령으로 동작 아이템을 새로이 선택하는 경우, 상기 캐릭터의 움직임을 취소하고 상기 새로이 선택된 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어할 수 있다.
상기 처리부는: 사용자가 상기 동작 아이템을 선택하여 상기 캐릭터가 움직이는 도중 사용자가 제 2 명령으로 동작 아이템을 새로이 선택하는 경우, 상기 캐릭터의 움직임이 종료된 후 상기 새로이 선택된 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어할 수 있다.
상기 저장부는: 상기 캐릭터의 표정을 정의한 표정 아이템을 저장할 수 있다.
상기 처리부는: 상기 저장부에 저장된 적어도 하나의 표정 아이템 중에서 사용자가 선택한 표정 아이템을 불러오고, 불러온 표정 아이템에 정의된 표정에 따라 상기 캐릭터의 표정이 형성되도록 상기 캐릭터를 제어할 수 있다.
상기 처리부는: 상기 저장부에 저장된 다수의 표정 아이템 중에서 상기 애니메이션의 제작에 사용될 표정 아이템을 선택하는 사용자의 명령에 응답하여 표정 아이템 목록을 구성하고, 상기 애니메이션의 녹화가 시작된 후, 상기 표정 아이템 목록에서 사용자에 의해 표정 아이템이 선택되면 해당 표정 아이템에 정의된 표정에 따라 상기 캐릭터의 표정이 형성되도록 상기 캐릭터를 제어할 수 있다.
상기 처리부는: 사용자가 상기 표정 아이템 목록에서 적어도 하나의 표정 아이템을 선택하는 경우, 상기 캐릭터의 표정이 기 설정된 기본 표정과 상기 선택된 표정 아이템에 정의된 표정을 합성한 합성 표정으로 형성되도록 상기 캐릭터를 제어할 수 있다.
상기 표시부는: 상기 표정 아이템의 아이콘이 기 설정된 도형의 둘레를 따라 배치된 상기 표정 아이템 목록을 표시하고, 상기 입력부는: 사용자로부터 상기 도형 내 일 지점을 지시하는 명령을 입력받고, 상기 처리부는: 사용자에 의해 지시된 지점과 상기 표정 아이템의 아이콘 간 거리를 기반으로 상기 기본 표정과 상기 선택된 표정 아이템에 정의된 표정을 합성할 수 있다.
상기 처리부는: 상기 기본 표정을 구현하기 위해 사전에 설정된 얼굴 구성요소의 기본 좌표값과 상기 표정 아이템에 대응하는 표정을 구현하기 위해 상기 표정 아이템에 매칭된 상기 얼굴 구성요소의 좌표값을 가중평균하여 상기 기본 표정과 상기 선택된 표정 아이템에 정의된 표정을 합성할 수 있다.
상기 처리부는: 상기 표정 아이템 목록에 포함된 표정 아이템 중에서 상기 지점과 가까운 순서대로 기 설정된 개수의 표정 아이템을 선택하고, 상기 지점과 상기 도형 내 기준 지점 간 기준 거리 및 상기 지점과 상기 선택된 표정 아이템의 아이콘 간 거리를 계산하고, 상기 얼굴 구성요소의 기본 좌표값에 상기 기준 거리를 기반으로 한 기준 가중치를 부여하고, 상기 선택된 표정 아이템에 매칭된 상기 얼굴 구성요소의 좌표값에 상기 거리를 기반으로 한 가중치를 부여하고, 상기 기준 가중치가 부여된 상기 얼굴 구성요소의 기본 좌표값과 상기 가중치가 부여된 상기 얼굴 구성요소의 좌표값의 평균을 계산하여 상기 합성 표정을 구현하기 위한 상기 얼굴 구성요소의 좌표값으로 출력할 수 있다.
상기 처리부는: 상기 기준 거리 및 상기 거리가 가까울수록 상기 얼굴 구성요소의 기본 좌표값 및 좌표값에 각각 상기 기준 가중치 및 상기 가중치를 높게 부여할 수 있다.
본 발명의 실시예에 따른 애니메이션 제작 방법은, 사용자로부터 애니메이션의 제작에 관한 명령을 입력받는 단계; 사용자의 명령에 따라 상기 애니메이션의 제작에 사용되도록 사전에 마련된 아이템을 불러오는 단계; 및 상기 불러온 아이템을 상기 애니메이션에 등장하는 캐릭터에 적용하는 단계를 포함할 수 있다.
상기 아이템을 불러오는 단계는: 상기 캐릭터의 동작을 정의한 적어도 하나의 동작 아이템 중에서 사용자가 선택한 동작 아이템을 불러오는 단계를 포함하고, 상기 불러온 아이템을 캐릭터에 적용하는 단계는: 상기 불러온 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어하는 단계를 포함할 수 있다.
상기 애니메이션 제작 방법은: 다수의 동작 아이템 중에서 상기 애니메이션의 제작에 사용될 동작 아이템을 선택하는 사용자의 명령을 입력받는 단계; 및 사용자의 명령에 응답하여 동작 아이템 목록을 구성하는 단계를 더 포함하고, 상기 사용자로부터 명령을 입력받는 단계는: 상기 애니메이션의 녹화가 시작된 후, 상기 동작 아이템 목록에서 사용자로부터 동작 아이템을 선택하는 명령을 입력받는 단계를 포함하고, 상기 아이템을 불러오는 단계는: 상기 동작 아이템 목록에서 사용자에 의해 선택된 동작 아이템을 불러오는 단계를 포함하고, 상기 불러온 아이템을 캐릭터에 적용하는 단계는: 해당 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어하는 단계를 포함할 수 있다.
상기 애니메이션 제작 방법은, 상기 동작 아이템이 선택되어 상기 캐릭터가 움직이는 도중 사용자로부터 동작 아이템을 새로이 선택하는 제 1 명령을 입력받는 단계; 및 상기 제 1 명령에 응답하여 상기 캐릭터의 움직임을 취소하고 상기 새로이 선택된 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어하는 단계를 더 포함할 수 있다.
상기 애니메이션 제작 방법은, 상기 동작 아이템이 선택되어 상기 캐릭터가 움직이는 도중 사용자로부터 동작 아이템을 새로이 선택하는 제 2 명령을 입력받는 단계; 및 상기 제 2 명령에 응답하여 상기 캐릭터의 움직임이 종료된 후 상기 새로이 선택된 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어하는 단계를 더 포함할 수 있다.
상기 아이템을 불러오는 단계는: 상기 캐릭터의 표정을 정의한 적어도 하나의 표정 아이템 중에서 사용자가 선택한 표정 아이템을 불러오는 단계를 포함하고, 상기 불러온 아이템을 캐릭터에 적용하는 단계는: 상기 불러온 표정 아이템에 정의된 표정에 따라 상기 캐릭터의 표정이 형성되도록 상기 캐릭터를 제어하는 단계를 포함할 수 있다.
상기 애니메이션 제작 방법은: 다수의 표정 아이템 중에서 상기 애니메이션의 제작에 사용될 표정 아이템을 선택하는 사용자의 명령을 입력받는 단계; 및 사용자의 명령에 응답하여 표정 아이템 목록을 구성하는 단계를 더 포함하고, 상기 사용자로부터 명령을 입력받는 단계는: 상기 애니메이션의 녹화가 시작된 후, 상기 표정 아이템 목록에서 사용자로부터 표정 아이템을 선택하는 명령을 입력받는 단계를 포함하고, 상기 아이템을 불러오는 단계는: 상기 표정 아이템 목록에서 사용자에 의해 선택된 표정 아이템을 불러오는 단계를 포함하고, 상기 불러온 아이템을 캐릭터에 적용하는 단계는: 해당 표정 아이템에 정의된 표정에 따라 상기 캐릭터의 표정이 형성되도록 상기 캐릭터를 제어하는 단계를 포함할 수 있다.
상기 해당 표정 아이템에 정의된 표정에 따라 캐릭터의 표정이 형성되도록 캐릭터를 제어하는 단계는: 사용자가 상기 표정 아이템 목록에서 적어도 하나의 표정 아이템을 선택하는 경우, 상기 캐릭터의 표정이 기 설정된 기본 표정과 상기 선택된 표정 아이템에 정의된 표정을 합성한 합성 표정으로 형성되도록 상기 캐릭터를 제어하는 단계를 포함할 수 있다.
상기 애니메이션 제작 방법은: 상기 표정 아이템의 아이콘이 기 설정된 도형의 둘레를 따라 배치된 상기 표정 아이템 목록을 표시하는 단계를 더 포함하고, 상기 표정 아이템 목록에서 사용자로부터 표정 아이템을 선택하는 명령을 입력받는 단계는: 사용자로부터 상기 도형 내 일 지점을 지시하는 명령을 입력받는 단계를 포함하고, 상기 캐릭터의 표정이 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성한 합성 표정으로 형성되도록 캐릭터를 제어하는 단계는: 사용자에 의해 지시된 지점과 상기 표정 아이템의 아이콘 간 거리를 기반으로 상기 기본 표정과 상기 선택된 표정 아이템에 정의된 표정을 합성하는 단계를 포함할 수 있다.
상기 거리를 기반으로 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성하는 단계는: 상기 기본 표정을 구현하기 위해 사전에 설정된 얼굴 구성요소의 기본 좌표값과 상기 표정 아이템에 대응하는 표정을 구현하기 위해 상기 표정 아이템에 매칭된 상기 얼굴 구성요소의 좌표값을 가중평균하여 상기 기본 표정과 상기 선택된 표정 아이템에 정의된 표정을 합성하는 단계를 포함할 수 있다.
상기 가중평균하여 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성하는 단계는: 상기 표정 아이템 목록에 포함된 표정 아이템 중에서 상기 지점과 가까운 순서대로 기 설정된 개수의 표정 아이템을 선택하는 단계; 상기 지점과 상기 도형 내 기준 지점 간 기준 거리 및 상기 지점과 상기 선택된 표정 아이템의 아이콘 간 거리를 계산하는 단계; 상기 얼굴 구성요소의 기본 좌표값에 상기 기준 거리를 기반으로 한 기준 가중치를 부여하고, 상기 선택된 표정 아이템에 매칭된 상기 얼굴 구성요소의 좌표값에 상기 거리를 기반으로 한 가중치를 부여하는 단계; 및 상기 기준 가중치가 부여된 상기 얼굴 구성요소의 기본 좌표값과 상기 가중치가 부여된 상기 얼굴 구성요소의 좌표값의 평균을 계산하여 상기 합성 표정을 구현하기 위한 상기 얼굴 구성요소의 좌표값으로 출력하는 단계를 포함할 수 있다.
상기 기준 가중치 및 가중치를 부여하는 단계는: 상기 기준 거리가 가까울수록 상기 얼굴 구성요소의 기본 좌표값에 상기 기준 가중치를 높게 부여하고, 상기 거리가 가까울수록 상기 얼굴 구성요소의 좌표값에 상기 가중치를 높게 부여하는 단계를 포함할 수 있다.
본 발명의 실시예에 따른 애니메이션 제작 방법은 컴퓨터로 실행하기 위한 애플리케이션 또는 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록 매체에 기록될 수 있다.
본 발명의 실시예에 따른 애니메이션 제작 방법은 컴퓨터로 실행하기 위한 애플리케이션 또는 프로그램으로 구현될 수 있다.
본 발명의 실시예에 따르면, 개인이 값비싼 장비나 고급 프로그램을 갖추지 않고도 스마트폰, 태블릿 PC, 개인용 컴퓨터 등을 이용하여 애니메이션을 직접 제작할 수 있다.
본 발명의 실시예에 따르면, 애니메이션 제작 시 캐릭터의 동작 및 표정을 원하는 대로 쉽고 간편하게 구현할 수 있으며, 특히 캐릭터의 표정 구현 시 사전에 마련된 표정 아이템의 표정을 자유롭게 합성하여 캐릭터에 적용할 수 있다.
도 1은 본 발명의 일 실시예에 따른 애니메이션 제작 장치의 예시적인 블록도이다.
도 2는 본 발명의 일 실시예에 따라 애니메이션을 제작하는 과정을 설명하기 위한 예시적인 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 따라 캐릭터의 동작을 구현하는 과정을 설명하기 위한 예시적인 도면이다.
도 5는 본 발명의 일 실시예에 따라 동작 아이템 목록을 구성하는 과정을 설명하기 위한 예시적인 도면이다.
도 6은 본 발명의 일 실시예에 따라 캐릭터의 동작이 구현된 애니메이션을 재생하는 모습을 나타내는 예시적인 도면이다.
도 7 및 도 8은 본 발명의 일 실시예에 따라 캐릭터의 표정을 구현하는 과정을 설명하기 위한 예시적인 도면이다.
도 9는 본 발명의 일 실시예에 따라 표정 아이템 목록을 구성하는 과정을 설명하기 위한 예시적인 도면이다.
도 10은 본 발명의 다른 실시예에 따른 표정 아이템 목록을 보여주는 예시적인 도면이다.
도 11 및 도 12는 본 발명의 다른 실시예에 따른 표정 아이템 목록을 이용하여 캐릭터의 표정을 구현하는 과정을 설명하기 위한 예시적인 도면이다.
도 13은 본 발명의 일 실시예에 따라 캐릭터의 표정이 구현된 애니메이션을 재생하는 모습을 나타내는 예시적인 도면이다.
도 14는 본 발명의 일 실시예에 따른 애니메이션 제작 방법의 예시적인 흐름도이다.
도 15는 본 발명의 일 실시예에 따라 캐릭터의 동작을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 16은 본 발명의 다른 실시예에 따라 캐릭터의 동작을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 17은 본 발명의 또 다른 실시예에 따라 캐릭터의 동작을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 18은 본 발명의 일 실시예에 따라 캐릭터의 표정을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 19는 본 발명의 다른 실시예에 따라 캐릭터의 표정을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.
한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.
따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.
이하, 본 명세서에 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 애니메이션 제작 장치(100)의 예시적인 블록도이다.
도 1을 참조하면, 상기 애니메이션 제작 장치(100)는 입력부(110), 저장부(120), 처리부(130) 및 표시부(140)를 포함한다. 본 발명의 일 실시예에 따르면, 상기 애니메이션 제작 장치(100)는 프로세서와 메모리를 포함하는 컴퓨팅 장치로서, 일 예로 스마트 디바이스(예컨대, 스마트폰, 태블릿 PC 등)일 수 있다. 그러나, 상기 애니메이션 제작 장치(100)는 스마트 디바이스로 제한되지 않고, 프로세서와 메모리를 포함하는 한 임의의 컴퓨터(예컨대, 개인용 컴퓨터)일 수도 있다.
상기 입력부(110)는 사용자로부터 애니메이션의 제작에 관한 명령을 입력받는다. 상기 입력부(110)는 데이터를 입력받는 입력 장치로서, 일 예로 터치 패드, 키보드, 마우스, 터치 펜 등을 포함할 수 있다. 만약, 상기 입력부(110)가 터치 패드이고 이 터치 패드가 표시부(140)와 결합된다면, 상기 입력부(110)와 상기 표시부(140)는 터치 스크린을 구성할 수 있다.
상기 저장부(120)는 애니메이션의 제작에 사용되도록 사전에 마련된 아이템을 저장한다. 상기 저장부(120)는 데이터를 저장하는 저장 장치로서, 일 예로 HDD, SSD, RAM, ROM, 캐쉬, 레지스터 등을 포함할 수 있다.
상기 처리부(130)는 사용자의 명령에 따라 상기 아이템을 불러와 애니메이션에 등장하는 캐릭터에 적용한다. 상기 처리부(130)는 데이터를 처리하는 프로세서로서, 일 예로 CPU, GPU, AP 등을 포함할 수 있다.
상기 표시부(140)는 애니메이션을 표시한다. 상기 표시부(140)는 데이터를 화면에 표시하는 표시 장치로서, 일 예로 LCD 등을 포함할 수 있다.
나아가, 상기 애니메이션 제작 장치(100)는 통신부(150)를 더 포함할 수 있다. 상기 통신부(150)는 제작된 애니메이션을 다른 단말기로 전송할 수 있다. 상기 통신부(150)는 데이터를 송수신하는 통신 장치로서, 일 예로 무선 데이터 통신 모듈, 무선 랜 모듈, 근거리 통신 모듈 등을 포함할 수 있으나, 이에 제한되지 않고 유선 데이터 통신 모듈 등을 포함할 수도 있다.
도 2는 본 발명의 일 실시예에 따라 애니메이션을 제작하는 과정을 설명하기 위한 예시적인 도면이다.
도 2를 참조하면, 상기 애니메이션 제작 장치(100)는 상기 표시부(140)에 애니메이션에 등장하는 캐릭터(200)를 표시한다. 상기 캐릭터(200)에 관한 데이터는 애니메이션의 제작에 사용되도록 사전에 마련되어 상기 저장부(120)에 저장될 수 있다. 사용자는 상기 저장부(120)에 저장된 캐릭터 목록에서 원하는 캐릭터를 선택하여 불러와 애니메이션을 제작할 수 있다.
나아가, 사용자는 상기 애니메이션 제작 장치(100)를 이용해 상기 캐릭터(200)를 직접 생성하고 편집할 수도 있다. 이 경우, 사용자는 사전에 마련되어 상기 저장부(120)에 저장된 캐릭터(200)의 얼굴, 몸통, 의상, 액세서리 등으로부터 원하는 것들을 선택하여 불러와 캐릭터를 커스터마이징할 수 있다.
사용자는 상기 애니메이션 제작 장치(100)를 이용해 이하에서 설명하는 바와 같이 캐릭터(200)의 동작과 표정을 직접 구현함으로써 상기 캐릭터(200)가 등장하는 한 편의 애니메이션을 제작할 수 있다.
도 3 및 도 4는 본 발명의 일 실시예에 따라 캐릭터(200)의 동작을 구현하는 과정을 설명하기 위한 예시적인 도면이다.
본 발명의 일 실시예에 따르면, 상기 저장부(120)는 캐릭터(200)의 동작을 정의한 동작 아이템을 저장할 수 있다.
이 경우, 상기 처리부(130)는 상기 저장부(120)에 저장된 적어도 하나의 동작 아이템 중에서 사용자가 선택한 동작 아이템을 불러오고, 불러온 동작 아이템에 정의된 동작에 따라 캐릭터(200)가 움직이도록 캐릭터(200)를 제어할 수 있다.
예를 들어, 도 3을 참조하면, 상기 애니메이션 제작 장치(100)는 상기 저장부(120)에 저장된 적어도 하나의 동작 아이템의 아이콘(210)을 상기 표시부(140)에 표시할 수 있다. 또한, 상기 애니메이션 제작 장치(100)는 상기 표시부(140)에 애니메이션의 녹화를 시작하고 종료하는 녹화 버튼(201)을 더 표시할 수 있다.
그리고, 도 4를 참조하면, 애니메이션의 녹화가 시작된 후, 사용자는 상기 표시부(140)에 표시된 동작 아이템의 아이콘(210) 중에서 캐릭터(200)에 적용하고자 하는 동작 아이템의 아이콘을 선택할 수 있다. 캐릭터(200)에 적용될 동작 아이템의 아이콘이 선택되면, 상기 처리부(130)는 사용자가 선택한 동작 아이템을 상기 저장부(120)로부터 불러오고, 불러온 동작 아이템에 정의된 동작에 따라 캐릭터(200)가 움직이도록 캐릭터(200)를 제어할 수 있다. 동작 아이템에 정의된 동작에 따라 움직이는 캐릭터(200)는 상기 표시부(140)에 표시될 수 있다.
상기 동작 아이템은 캐릭터(200)의 동작을 정의하는 데이터로서, 캐릭터(200)의 정지된 자세인 포즈 및 일정 시간 동안 움직이는 모션 중 적어도 하나를 구현할 수 있다.
도 5는 본 발명의 일 실시예에 따라 동작 아이템 목록(210)을 구성하는 과정을 설명하기 위한 예시적인 도면이다.
본 발명의 일 실시예에 따르면, 상기 처리부(130)는 상기 저장부(120)에 저장된 다수의 동작 아이템 중에서 애니메이션의 제작에 사용될 동작 아이템을 선택하는 사용자의 명령에 응답하여 동작 아이템 목록을 구성할 수 있다. 그리고, 상기 처리부(130)는 애니메이션의 녹화가 시작된 후, 상기 동작 아이템 목록에서 사용자에 의해 동작 아이템이 선택되면 해당 동작 아이템의 정의된 동작에 따라 캐릭터(200)가 움직이도록 캐릭터(200)를 제어할 수 있다.
예를 들어, 도 5를 참조하면, 상기 애니메이션 제작 장치(100)는 상기 저장부(120)에 저장된 다수의 동작 아이템(211)을 상기 표시부(140)에 표시할 수 있다. 그리고, 사용자는 다수의 동작 아이템(211) 중에서 애니메이션의 제작에 사용할 동작 아이템을 선택하여 동작 아이템 목록(210)에 추가할 수 있다. 원하는 동작 아이템을 동작 아이템 목록(210)에 추가한 뒤, 사용자는 확인 버튼(202)을 눌러 동작 아이템 목록(210)의 구성을 완료할 수 있다.
이와 같이 구성된 동작 아이템 목록(210)을 이용하여 사용자는 애니메이션의 녹화가 시작된 후, 도 4와 같이 동작 아이템 목록(210)에서 동작 아이템을 선택함으로써 캐릭터의 동작을 구현할 수 있다.
본 발명의 일 실시예에 따르면, 상기 처리부(130)는 사용자가 동작 아이템을 선택하여 캐릭터(200)가 움직이는 도중 사용자가 제 1 명령으로 동작 아이템을 새로이 선택하는 경우, 캐릭터(200)의 움직임을 취소하고 새로이 선택된 동작 아이템에 정의된 동작에 따라 캐릭터(200)가 움직이도록 캐릭터(200)를 제어할 수 있다.
예를 들어, 도 4와 같이 사용자가 동작 아이템 목록(210)에서 어느 한 동작 아이템을 선택하여 캐릭터(200)가 움직이고 있을 때, 사용자는 동작 아이템 목록(210)에서 다른 동작 아이템의 아이콘을 터치할 수 있다. 상기 처리부(130)는 사용자에 의해 다른 동작 아이템의 아이콘이 터치되었을 때 캐릭터(200)의 현재 움직임을 취소하고 새로이 선택된 동작 아이템에 정의된 동작에 따라 캐릭터(200)의 움직임을 재개할 수 있다. 이 경우, 사용자가 동작 아이템을 새로이 선택하는 제 1 명령은 동작 아이템의 아이콘을 터치하는 입력이다.
본 발명의 다른 실시예에 따르면, 상기 처리부(130)는 사용자가 동작 아이템을 선택하여 캐릭터(200)가 움직이는 도중 사용자가 제 2 명령으로 동작 아이템을 새로이 선택하는 경우, 위 실시예와 달리 캐릭터(200)의 움직임이 종료된 후 새로이 선택된 동작 아이템에 정의된 동작에 따라 캐릭터(200)가 움직이도록 캐릭터(200)를 제어할 수 있다.
예를 들어, 도 4와 같이 사용자가 동작 아이템 목록(210)에서 어느 한 동작 아이템을 선택하여 캐릭터(200)가 움직이고 있을 때, 사용자는 동작 아이템 목록(210)에서 다른 동작 아이템의 아이콘을 더블 탭하거나 길게 터치할 수 있다. 상기 처리부(130)는 사용자에 의해 다른 동작 아이템의 아이콘이 더블 탭되거나 길게 터치되었을 때에는 아이콘이 터치되었을 때와 달리 캐릭터(200)의 현재 움직임을 계속시켜 그 움직임이 종료된 후 새로이 선택된 동작 아이템에 정의된 동작에 따라 캐릭터(200)의 움직임을 구현할 수 있다. 이 경우, 사용자가 동작 아이템을 새로이 선택하는 제 2 명령은 동작 아이템의 아이콘을 더블 탭하거나 길게 터치하는 입력이다.
이와 같이 사용자는 동작 아이템 목록(210)에서 캐릭터(200)에 적용하고자 하는 동작 아이템들을 제 1 명령이나 제 2 명령으로 선택하여 애니메이션에 등장하는 캐릭터(200)의 동작을 원하는 대로 구현할 수 있다.
도 6은 본 발명의 일 실시예에 따라 캐릭터(200)의 동작이 구현된 애니메이션을 재생하는 모습을 나타내는 예시적인 도면이다.
도 6을 참조하면, 상기 애니메이션 제작 장치(100)는 상기 표시부(140)에 애니메이션 제어 버튼(203)을 표시할 수 있다. 사용자는 상기 표시부(140)에 표시된 애니메이션 제어 버튼(203)을 조작함으로써 자신이 제작한 애니메이션을 재생하거나 일시 정지시킬 수 있다.
또한, 상기 애니메이션 제작 장치(100)는 상기 표시부(140)에 프로그레시브 바(204)를 더 표시할 수 있다. 사용자는 상기 표시부(140)에 표시된 프로그레시브 바(204)를 조작함으로써 애니메이션의 재생 지점을 조절할 수 있다.
도 6과 같이 재생되는 애니메이션은 캐릭터(200)가 등장하여 앞에서 설명한 바와 같이 구현된 동작을 수행한다.
이상에서 설명한 바와 같이, 사용자는 상기 애니메이션 제작 장치(100)가 제공하는 적어도 하나의 동작 아이템 중에서 원하는 동작 아이템을 선택함으로써 애니메이션에 등장하는 캐릭터(200)의 동작을 자유롭게 구현할 수 있다.
도 7 및 도 8은 본 발명의 일 실시예에 따라 캐릭터(200)의 표정을 구현하는 과정을 설명하기 위한 예시적인 도면이다.
본 발명의 일 실시예에 따르면, 상기 저장부(120)는 캐릭터(200)의 표정을 정의한 표정 아이템을 저장할 수 있다.
이 경우, 상기 처리부(130)는 상기 저장부(120)에 저장된 적어도 하나의 표정 아이템 중에서 사용자가 선택한 표정 아이템을 불러오고, 불러온 표정 아이템에 정의된 동작에 따라 캐릭터(200)의 표정이 형성되도록 캐릭터(200)를 제어할 수 있다.
예를 들어, 도 7을 참조하면, 상기 애니메이션 제작 장치(100)는 상기 저장부(120)에 저장된 적어도 하나의 표정 아이템의 아이콘(220)을 상기 표시부(140)에 표시할 수 있다. 또한, 캐릭터(200)의 동작 구현에 관한 실시예와 마찬가지로, 상기 애니메이션 제작 장치(100)는 상기 표시부(140)에 애니메이션의 녹화를 시작하고 종료하는 녹화 버튼(201)을 더 표시할 수 있다.
그리고, 도 8을 참조하면, 애니메이션의 녹화가 시작된 후, 사용자는 상기 표시부(140)에 표시된 표정 아이템의 아이콘(220) 중에서 캐릭터(200)에 적용하고자 하는 표정 아이템의 아이콘을 선택할 수 있다. 캐릭터(200)에 적용될 표정 아이템의 아이콘이 선택되면, 상기 처리부(130)는 사용자가 선택한 표정 아이템을 상기 저장부(120)로부터 불러오고, 불러온 표정 아이템에 정의된 표정에 따라 캐릭터(200)의 표정이 형성되도록 캐릭터(200)를 제어할 수 있다. 표정 아이템에 정의된 표정에 따라 표정이 형성된 캐릭터(200)는 상기 표시부(140)에 표시될 수 있다.
상기 표정 아이템은 캐릭터(200)의 표정을 정의하는 데이터로서, 캐릭터(200)의 얼굴 모습을 구현하기 위해 필요한 값들을 포함한다.
일 예로, 상기 표정 아이템은 캐릭터(200)의 얼굴 골격의 위치를 나타내는 좌표값을 포함할 수 있다. 캐릭터(200)의 얼굴은 하나 이상의 얼굴 뼈에 의해 모양이 구현될 수 있다. 이 경우, 상기 표정 아이템은 캐릭터(200)의 얼굴 뼈의 위치, 예컨대 얼굴 뼈의 끝부분이 위치하는 좌표값을 포함하여 캐릭터(200)의 표정을 정의할 수 있다.
다른 예로, 상기 표정 아이템은 캐릭터(200)의 얼굴에서 기 결정된 지점의 위치를 나타내는 좌표값을 포함할 수 있다. 캐릭터(200)의 얼굴은 얼굴 뼈 외에 눈, 코, 입과 같은 주요 부위의 위치에 의해 표정이 형성될 수도 있다. 이 경우, 상기 표정 아이템은 캐릭터(200)의 얼굴에서 주요 부위의 위치, 예컨대 눈의 양 끝부분이 위치하는 좌표값, 코의 끝부분이 위치하는 좌표값, 입의 양 끝부분이 위치하는 좌표값 등을 포함하여 캐릭터(200)의 표정을 정의할 수 있다.
도 9는 본 발명의 일 실시예에 따라 표정 아이템 목록(220)을 구성하는 과정을 설명하기 위한 예시적인 도면이다.
본 발명의 일 실시예에 따르면, 상기 처리부(130)는 상기 저장부(120)에 저장된 다수의 표정 아이템 중에서 애니메이션의 제작에 사용될 표정 아이템을 선택하는 사용자의 명령에 응답하여 표정 아이템 목록을 구성할 수 있다. 그리고, 상기 처리부(130)는 애니메이션의 녹화가 시작된 후, 상기 표정 아이템 목록에서 사용자에 의해 표정 아이템에 선택되면 해당 표정 아이템에 정의된 표정에 따라 캐릭터(200)의 표정이 형성되도록 캐릭터(200)를 제어할 수 있다.
예를 들어, 도 9를 참조하면, 상기 애니메이션 제작 장치(100)는 상기 저장부(120)에 저장된 다수의 표정 아이템(221)을 상기 표시부(140)에 표시할 수 있다. 그리고, 사용자는 다수의 표정 아이템(221) 중에서 애니메이션의 제작에 사용할 표정 아이템을 선택하여 표정 아이템 목록(220)에 추가할 수 있다. 원하는 표정 아이템을 표정 아이템 목록(220)에 추가한 뒤, 사용자는 확인 버튼(202)을 눌러 표정 아이템 목록(220)의 구성을 완료할 수 있다.
이와 같이 구성된 표정 아이템 목록(220)을 이용하여 사용자는 애니메이션의 녹화가 시작된 후, 도 8과 같이 표정 아이템 목록(220)에서 표정 아이템을 선택함으로써 캐릭터의 표정을 구현할 수 있다.
나아가, 상기 처리부(130)는 사용자가 표정 아이템 목록(220)에서 적어도 하나의 표정 아이템을 선택하는 경우, 캐릭터(200)의 표정이 기 설정된 기본 표정과 상기 선택된 표정 아이템에 정의된 표정을 합성한 합성 표정으로 형성되도록 캐릭터(200)를 제어할 수 있다.
도 10은 본 발명의 다른 실시예에 따른 표정 아이템 목록(220)을 보여주는 예시적인 도면이다.
도 10을 참조하면, 상기 표시부(140)는 표정 아이템의 아이콘(221 내지 226)이 기 설정된 도형의 둘레를 따라 배치된 표정 아이템 목록(220)을 표시할 수 있다. 도 10에서 표정 아이템 목록(220)은 원의 둘레를 따라 6 개의 표정 아이템 아이콘(221 내지 226)이 등간격으로 배치되도록 구성되었으나, 표정 아이템의 아이콘 개수 및 그 아이콘이 배치되는 도형의 종류는 이에 제한되지 않는다.
그리고, 상기 입력부(110)는 사용자로부터 상기 도형 내 일 지점을 지시하는 명령을 입력받을 수 있다.
예를 들어, 도 10에 도시된 바와 같이, 상기 표시부(140)는 둘레에 표정 아이템의 아이콘(221 내지 226)이 배치된 도형 안에 포인터(205)를 더 표시할 수 있다. 그리고, 사용자는 상기 포인터(205)를 드래그 등을 통해 이동시킴으로써 도형 내 일 지점을 지시할 수 있다.
그리고, 상기 처리부(130)는 사용자에 의해 지시된 지점과 표정 아이템의 아이콘(221 내지 226) 간 거리를 기반으로 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성할 수 있다.
도 11 및 도 12는 본 발명의 다른 실시예에 따른 표정 아이템 목록(220)을 이용하여 캐릭터(200)의 표정을 구현하는 과정을 설명하기 위한 예시적인 도면이다.
도 11에 도시된 바와 같이, 사용자가 도형 내에서 포인터(205)를 웃는 표정에 대응하는 제 1 표정 아이템 아이콘(221)으로 이동시키는 경우, 상기 처리부(130)는 캐릭터(200)의 표정이 제 1 표정 아이템에 정의된 웃는 표정으로 형성되도록 캐릭터(200)를 제어할 수 있다.
이 경우, 캐릭터(200)의 표정은 도형 내 포인터(205)의 위치에 따라 결정되며, 보다 구체적으로 포인터(205)의 위치와 표정 아이템의 아이콘(221 내지 226) 간 거리를 기반으로 기본 표정과 표정 아이템의 아이콘(221 내지 226)에 정의된 표정이 합성됨으로써 구현될 수 있다.
예를 들어, 도 10과 같이 포인터(205)가 도형 내 기준 지점(예컨대, 도형의 중심)에 위치하는 경우, 캐릭터(200)의 표정은 기 설정된 기본 표정(예컨대, 무표정, 입을 벌리고 있는 표정 등)일 수 있다.
그리고, 도 11과 같이 포인터(205)가 표정 아이템 목록(220)에 포함된 어느 하나의 표정 아이템의 아이콘(예컨대, 제 1 표정 아이템 아이콘(221))에 가까워질수록, 캐릭터(200)의 표정은 해당 표정 아이템에 정의된 표정으로 변해갈 수 있다.
즉, 캐릭터(200)의 표정은 도형 내 포인터(205)의 위치에 따라 기본 표정과 선택된 표정 아이템에 정의된 표정이 합성된 합성 표정으로 구현될 수 있다. 여기서, 포인터(205)가 도형 내 기준 지점에 가까울수록 캐릭터(200)의 표정은 기본 표정에 가깝고, 포인터(205)가 표정 아이템의 아이콘(221 내지 226)에 가까울수록 캐릭터(200)의 표정은 해당 표정 아이템에 정의된 표정에 가깝다.
이와 같이 캐릭터(200)의 표정을 합성하기 위해서, 상기 처리부(130)는 기본 표정을 구현하기 위해 사전에 설정된 얼굴 구성요소의 기본 좌표값과, 표정 아이템에 대응하는 표정을 구현하기 위해 표정 아이템에 매칭된 얼굴 구성요소의 좌표값을 가중평균하여 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성할 수 있다. 즉, 상기 처리부(130)는 기본 표정의 얼굴 구성요소 좌표값과 표정 아이템의 얼굴 구성요소 좌표값을 가중평균함으로써 기본 표정과 표정 아이템의 표정을 합성한다. 여기서, 얼굴 구성요소는 캐릭터(200)의 얼굴 모습을 구현하기 위해 사용되는 요소, 예컨대 앞에서 설명한 얼굴 뼈, 얼굴 내 주요 부위 등을 포함할 수 있다.
구체적으로, 도 12를 참조하면, 상기 처리부(130)는 표정 아이템 목록(220)에 포함된 표정 아이템 중에서 사용자에 의해 지시된 지점(즉, 포인터(205)의 위치 P)과 가까운 순서대로 기 설정된 개수의 표정 아이템을 선택할 수 있다.
일 실시예에 따르면, 상기 처리부(130)는 제 1 내지 제 6 표정 아이템(221 내지 226) 중에서 포인터(205)와 가장 가까운 표정 아이템(도 12에서 제 1 표정 아이템(221))과 두 번째로 가까운 표정 아이템(도 12에서 제 2 표정 아이템(222)), 즉 두 개의 표정 아이템을 선택할 수 있다.
그러고 나서, 상기 처리부(130)는 상기 지점 P와 도형 내 기준 지점(예컨대, 도형의 중심 C0) 간 기준 거리 d0 및 상기 지점 P과 상기 선택된 표정 아이템의 아이콘(221, 222) 간 거리 d1, d2를 계산할 수 있다.
그 뒤, 상기 처리부(130)는 얼굴 구성요소의 기본 좌표값에 기준 거리 d0를 기반으로 한 기준 가중치를 부여하고, 선택된 표정 아이템(221, 222)에 매칭된 얼굴 구성요소의 좌표값에 거리 d1, d2를 기반으로 한 가중치를 부여할 수 있다.
그러고 나서, 상기 처리부(130)는 기준 가중치가 부여된 얼굴 구성요소의 기본 좌표값과 가중치가 부여된 얼굴 구성요소의 좌표값의 평균을 계산하여 합성 표정을 구현하기 위한 얼굴 구성요소의 좌표값으로 출력할 수 있다.
이 실시예에서, 상기 처리부(130)는 기준 거리 d0가 가까울수록 얼굴 구성요소의 기본 좌표값에 기준 가중치를 높게 부여할 수 있다. 그리고, 상기 처리부(130)는 거리 d1, d2가 가까울수록 얼굴 구성요소의 좌표값에 가중치를 높게 부여할 수 있다.
그 결과, 도 12에서 캐릭터(200)의 표정은 표정 아이템 목록(220)에 포함된 제 1 내지 제 6 표정 아이템(221 내지 226) 중에서 포인터(205)가 가장 가까운 제 1 표정 아이템(221)에 정의된 웃는 표정이 가장 많이 반영되고, 포인터(205)가 두 번째로 가까운 제 2 표정 아이템(222)에 정의된 조는 표정이 일부 반영되도록 형성될 수 있다.
도 13은 본 발명의 일 실시예에 따라 캐릭터(200)의 표정이 구현된 애니메이션을 재생하는 모습을 나타내는 예시적인 도면이다.
앞에서 설명한 도 6과 마찬가지로, 도 13에서도 상기 애니메이션 제작 장치(100)는 상기 표시부(140)에 애니메이션 제어 버튼(203) 및 프로그레시브 바(204)을 표시할 수 있다. 사용자는 상기 표시부(140)에 표시된 애니메이션 제어 버튼(203)을 조작함으로써 자신이 제작한 애니메이션을 재생하거나 일시 정지시킬 수 있으며, 프로그레시브 바(204)를 조작함으로써 애니메이션의 재생 지점을 조절할 수 있다.
도 13과 같이 재생되는 애니메이션에서 캐릭터(200)는 앞에서 설명한 바와 같이 구현된 표정을 짓는다. 나아가, 캐릭터(200)의 동작을 구현한 뒤 캐릭터(200)의 표정을 구현한 경우, 캐릭터(200)는 사용자에 의해 구현된 동작과 표정을 함께 나타낼 수 있다.
이 경우, 사용자가 도 7 내지 도 12와 같은 실시예를 통해 캐릭터(200)의 표정을 구현할 때, 녹화 버튼(201)을 눌러 애니메이션의 녹화가 시작되면 캐릭터(200)는 도 3 내지 도 5와 같은 실시예를 통해 이미 구현된 동작을 수행할 수 있다. 사용자는 사전에 구현된 동작을 수행하는 캐릭터(200)를 보면서 그 동작에 맞게 포인터(205)를 조작하여 캐릭터(200)의 표정을 구현함으로써 캐릭터(200)의 동작과 표정을 매칭시킬 수 있다.
이상에서 설명한 바와 같이, 사용자는 상기 애니메이션 제작 장치(100)가 제공하는 적어도 하나의 표정 아이템 중에서 원하는 표정 아이템을 선택함으로써 애니메이션에 등장하는 캐릭터(200)의 표정을 자유롭게 구현할 수 있다. 나아가, 사용자는 표정 아이템의 표정을 자유롭게 합성하여 캐릭터(200)에 적용함으로써 캐릭터(200)의 표정을 보다 다양하고 동적으로 구현할 수 있는 효과가 있다.
도 14는 본 발명의 일 실시예에 따른 애니메이션 제작 방법(1000)의 예시적인 흐름도이다.
상기 애니메이션 제작 방법(1000)은 앞에서 설명한 본 발명의 실시예에 따른 애니메이션 제작 장치(100)에 의해 실행될 수 있다.
도 14를 참조하면, 상기 애니메이션 제작 방법(1000)은 사용자로부터 애니메이션의 제작에 관한 명령을 입력받는 단계(S1100), 사용자의 명령에 따라 애니메이션의 제작에 사용되도록 사전에 마련된 아이템을 불러오는 단계(S1200), 및 불러온 아이템을 애니메이션에 등장하는 캐릭터(200)에 적용하는 단계(S1300)를 포함한다.
도 15는 본 발명의 일 실시예에 따라 캐릭터(200)의 동작을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 15를 참조하면, 상기 애니메이션 제작 방법(1000)에서, 아이템을 불러오는 단계(S1200)는 캐릭터(200)의 동작을 정의한 적어도 하나의 동작 아이템 중에서 사용자가 선택한 동작 아이템을 불러오는 단계를 포함할 수 있다. 그리고, 불러온 아이템을 캐릭터(200)에 적용하는 단계(S1300)는 불러온 동작 아이템에 정의된 동작에 따라 캐릭터(200)가 움직이도록 캐릭터(200)를 제어하는 단계(S1310)를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 애니메이션 제작 방법(1000)은 다수의 동작 아이템 중에서 애니메이션의 제작에 사용될 동작 아이템을 선택하는 사용자의 명령을 입력받는 단계, 및 사용자의 명령에 응답하여 동작 아이템 목록(210)을 구성하는 단계를 더 포함할 수 있다.
이 경우, 사용자로부터 명령을 입력받는 단계(S1100)는 애니메이션의 녹화가 시작된 후, 동작 아이템 목록(210)에서 사용자로부터 동작 아이템을 선택하는 명령을 입력받는 단계를 포함할 수 있다. 그리고, 아이템을 불러오는 단계(S1200)는 동작 아이템 목록(210)에서 사용자에 의해 선택된 동작 아이템을 불러오는 단계를 포함할 수 있다. 그리고, 불러온 아이템을 캐릭터(200)에 적용하는 단계(S1300)는 해당 동작 아이템에 정의된 동작에 따라 캐릭터(200)가 움직이도록 캐릭터(200)를 제어하는 단계를 포함할 수 있다.
도 16은 본 발명의 다른 실시예에 따라 캐릭터(200)의 동작을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 16을 참조하면, 상기 애니메이션 제작 방법(1000)은 동작 아이템이 선택되어 캐릭터(200)가 움직이는 도중 사용자로부터 동작 아이템을 새로이 선택하는 제 1 명령(예컨대, 동작 아이템의 아이콘을 터치)을 입력받는 단계(S1311), 및 제 1 명령에 응답하여 캐릭터(200)의 움직임을 취소하고 새로이 선택된 동작 아이템에 정의된 동작에 따라 캐릭터(200)가 움직이도록 캐릭터(200)를 제어하는 단계(S1312)를 더 포함할 수 있다.
도 17은 본 발명의 또 다른 실시예에 따라 캐릭터(200)의 동작을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 17을 참조하면, 상기 애니메이션 제작 방법(1000)은 동작 아이템이 선택되어 캐릭터(200)가 움직이는 도중 사용자로부터 동작 아이템을 새로이 선택하는 제 2 명령(예컨대, 동작 아이템의 아이콘을 더블 탭 또는 길게 터치)을 입력받는 단계(S1313), 및 제 2 명령에 응답하여 캐릭터(200)의 움직임이 종료된 후 새로이 선택된 동작 아이템에 정의된 동작에 따라 캐릭터(200)가 움직이도록 캐릭터(200)를 제어하는 단계(S1314)를 더 포함할 수 있다.
도 18은 본 발명의 일 실시예에 따라 캐릭터(200)의 표정을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 18을 참조하면, 상기 애니메이션 제작 방법(1000)에서, 아이템을 불러오는 단계(S1200)는 캐릭터(200)의 표정을 정의한 적어도 하나의 표정 아이템 중에서 사용자가 선택한 표정 아이템을 불러오는 단계(S1220)를 포함할 수 있다. 그리고, 불러온 아이템을 캐릭터(200)에 적용하는 단계(S1300)는 불러온 표정 아이템에 정의된 표정에 따라 캐릭터(200)의 표정이 형성되도록 캐릭터(200)를 제어하는 단계(S1320)를 포함할 수 있다.
본 발명의 일 실시예에 따르면, 상기 애니메이션 제작 방법(1000)은 다수의 표정 아이템 중에서 애니메이션의 제작에 사용될 표정 아이템을 선택하는 사용자의 명령을 입력받는 단계, 및 사용자의 명령에 응답하여 표정 아이템 목록(220)을 구성하는 단계를 더 포함할 수 있다.
이 경우, 사용자로부터 명령을 입력받는 단계(S1100)는 애니메이션의 녹화가 시작된 후, 표정 아이템 목록(220)에서 사용자로부터 표정 아이템을 선택하는 명령을 입력받는 단계를 포함할 수 있다. 그리고, 아이템을 불러오는 단계(S1200)는 표정 아이템 목록(220)에서 사용자에 의해 선택된 표정 아이템을 불러오는 단계를 포함할 수 있다. 그리고, 불러온 아이템을 캐릭터(200)에 적용하는 단계(S1300)는 해당 표정 아이템에 정의된 표정에 따라 캐릭터(200)의 표정이 형성되도록 캐릭터(200)를 제어하는 단계를 포함할 수 있다.
나아가, 본 발명의 일 실시예에 따르면, 상기 해당 표정 아이템에 정의된 표정에 따라 캐릭터(200)의 표정이 형성되도록 캐릭터(200)를 제어하는 단계는, 사용자가 표정 아이템 목록(220)에서 적어도 하나의 표정 아이템을 선택하는 경우, 캐릭터(200)의 표정이 기 설정된 기본 표정과 상기 선택된 표정 아이템에 정의된 표정을 합성한 합성 표정으로 형성되도록 캐릭터(200)를 제어하는 단계를 포함할 수 있다.
이 실시예에 따르면, 상기 애니메이션 제작 방법(1000)은 표정 아이템의 아이콘(221 내지 226)이 기 설정된 도형의 둘레를 따라 배치된 표정 아이템 목록(220)을 표시하는 단계를 더 포함할 수 있다.
이 경우, 상기 표정 아이템 목록(220)에서 사용자로부터 표정 아이템을 선택하는 명령을 입력받는 단계는, 사용자로부터 도형 내 일 지점을 지시하는 명령(예컨대, 도형 내에서 포인터(205)를 이동시킴)을 입력받는 단계를 포함할 수 있다.
그리고, 상기 캐릭터(200)의 표정이 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성한 합성 표정으로 형성되도록 캐릭터(200)를 제어하는 단계는, 사용자에 의해 지시된 지점 P과 표정 아이템의 아이콘(221 내지 226) 간 거리를 기반으로 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성하는 단계를 포함할 수 있다.
여기서, 상기 거리를 기반으로 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성하는 단계는, 기본 표정을 구현하기 위해 사전에 설정된 얼굴 구성요소의 기본 좌표값과 표정 아이템에 대응하는 표정을 구현하기 위해 표정 아이템에 매칭된 얼굴 구성요소의 좌표값을 가중평균하여 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성하는 단계를 포함할 수 있다.
도 19는 본 발명의 다른 실시예에 따라 캐릭터(200)의 표정을 구현하는 과정을 설명하기 위한 예시적인 흐름도이다.
도 19를 참조하면, 상기 가중평균하여 기본 표정과 선택된 표정 아이템에 정의된 표정을 합성하는 단계는, 표정 아이템 목록(220)에 포함된 표정 아이템 중에서 사용자에 의해 지정된 지점 P과 가까운 순서대로 기 설정된 개수의 표정 아이템을 선택하는 단계(S1321), 지점 P와 도형 내 기준 지점 C0 간 기준 거리 d0 및 지점 P와 선택된 표정 아이템의 아이콘(221, 222) 간 거리 d1, d2를 계산하는 단계(S1322), 얼굴 구성요소의 기본 좌표값에 기준 거리 d0를 기반으로 한 기준 가중치를 부여하고, 선택된 표정 아이템에 매칭된 얼굴 구성요소의 좌표값에 거리 d1, d2를 기반으로 한 가중치를 부여하는 단계(S1323), 및 기준 가중치가 부여된 얼굴 구성요소의 기본 좌표값과 가중치가 부여된 얼굴 구성요소의 좌표값의 평균을 계산하여 합성 표정을 구현하기 위한 얼굴 구성요소의 좌표값으로 출력하는 단계(S1324)를 포함할 수 있다.
이 실시예에서, 상기 기준 가중치 및 가중치를 부여하는 단계(S1323)는, 기준 거리 d0가 가까울수록 얼굴 구성요소의 기본 좌표값에 기준 가중치를 높게 부여하고, 거리 d1, d2가 가까울수록 얼굴 구성요소의 좌표값에 가중치를 높게 부여하는 단계를 포함할 수 있다.
전술한 본 발명의 실시예에 따른 애니메이션 제작 방법(1000)은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한, 상기 애니메이션 제작 방법(1000)은 스마트 디바이스와 결합되어 실행시키기 위하여 매체에 저장된 애플리케이션으로 구현될 수 있다.
이상에서 실시예를 통해 본 발명을 설명하였으나, 위 실시예는 단지 본 발명의 사상을 설명하기 위한 것으로 이에 한정되지 않는다. 통상의 기술자는 전술한 실시예에 다양한 변형이 가해질 수 있음을 이해할 것이다. 본 발명의 범위는 첨부된 특허청구범위의 해석을 통해서만 정해진다.
100: 애니메이션 제작 장치
110: 입력부
120: 저장부
130: 처리부
140: 표시부
150: 통신부

Claims (17)

  1. 사용자로부터 애니메이션의 제작에 관한 명령을 입력받는 입력부;
    상기 애니메이션의 제작에 사용되도록 사전에 마련된 아이템을 저장하는 저장부;
    사용자의 명령에 따라 상기 아이템을 불러와 상기 애니메이션에 등장하는 캐릭터에 적용하는 처리부; 및
    상기 애니메이션을 표시하는 표시부를 포함하며,
    상기 저장부는:
    상기 캐릭터의 표정을 정의한 표정 아이템을 저장하고,
    상기 표시부는:
    상기 표정 아이템의 아이콘이 기 설정된 도형의 둘레를 따라 배치된 표정 아이템 목록을 표시하고,
    상기 입력부는:
    사용자로부터 상기 도형 내 일 지점을 지시하는 명령을 입력받고,
    상기 처리부는:
    사용자에 의해 지시된 지점과 상기 표정 아이템의 아이콘 간 거리를 기반으로 상기 캐릭터의 기본 표정과 상기 표정 아이템 목록에 포함된 표정 아이템 중에서 상기 지점과 가까운 순서대로 선택된 기 설정된 개수의 표정 아이템에 정의된 표정을 합성하여 상기 캐릭터의 표정이 합성 표정으로 형성되도록 상기 캐릭터를 제어하는 애니메이션 제작 장치.
  2. 제 1 항에 있어서,
    상기 저장부는:
    상기 캐릭터의 동작을 정의한 동작 아이템을 저장하는 애니메이션 제작 장치.
  3. 제 2 항에 있어서,
    상기 처리부는:
    상기 저장부에 저장된 적어도 하나의 동작 아이템 중에서 사용자가 선택한 동작 아이템을 불러오고,
    불러온 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어하는 애니메이션 제작 장치.
  4. 제 3 항에 있어서,
    상기 처리부는:
    상기 저장부에 저장된 다수의 동작 아이템 중에서 상기 애니메이션의 제작에 사용될 동작 아이템을 선택하는 사용자의 명령에 응답하여 동작 아이템 목록을 구성하고,
    상기 애니메이션의 녹화가 시작된 후, 상기 동작 아이템 목록에서 사용자에 의해 동작 아이템이 선택되면 해당 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어하는 애니메이션 제작 장치.
  5. 제 3 항에 있어서,
    상기 처리부는:
    사용자가 상기 동작 아이템을 선택하여 상기 캐릭터가 움직이는 도중 사용자가 제 1 명령으로 동작 아이템을 새로이 선택하는 경우, 상기 캐릭터의 움직임을 취소하고 상기 새로이 선택된 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어하는 애니메이션 제작 장치.
  6. 제 3 항에 있어서,
    상기 처리부는:
    사용자가 상기 동작 아이템을 선택하여 상기 캐릭터가 움직이는 도중 사용자가 제 2 명령으로 동작 아이템을 새로이 선택하는 경우, 상기 캐릭터의 움직임이 종료된 후 상기 새로이 선택된 동작 아이템에 정의된 동작에 따라 상기 캐릭터가 움직이도록 상기 캐릭터를 제어하는 애니메이션 제작 장치.
  7. 삭제
  8. 제 1 항에 있어서,
    상기 처리부는:
    상기 저장부에 저장된 적어도 하나의 표정 아이템 중에서 사용자가 선택한 표정 아이템을 불러오고,
    불러온 표정 아이템에 정의된 표정에 따라 상기 캐릭터의 표정이 형성되도록 상기 캐릭터를 제어하는 애니메이션 제작 장치.
  9. 제 8 항에 있어서,
    상기 처리부는:
    상기 저장부에 저장된 다수의 표정 아이템 중에서 상기 애니메이션의 제작에 사용될 표정 아이템을 선택하는 사용자의 명령에 응답하여 표정 아이템 목록을 구성하고,
    상기 애니메이션의 녹화가 시작된 후, 상기 표정 아이템 목록에서 사용자에 의해 표정 아이템이 선택되면 해당 표정 아이템에 정의된 표정에 따라 상기 캐릭터의 표정이 형성되도록 상기 캐릭터를 제어하는 애니메이션 제작 장치.
  10. 삭제
  11. 삭제
  12. 제 1 항에 있어서,
    상기 처리부는:
    상기 기본 표정을 구현하기 위해 사전에 설정된 얼굴 구성요소의 기본 좌표값과 상기 표정 아이템에 대응하는 표정을 구현하기 위해 상기 표정 아이템에 매칭된 상기 얼굴 구성요소의 좌표값을 가중평균하여 상기 기본 표정과 상기 선택된 표정 아이템에 정의된 표정을 합성하는 애니메이션 제작 장치.
  13. 제 12 항에 있어서,
    상기 처리부는:
    상기 지점과 상기 도형 내 기준 지점 간 기준 거리 및 상기 지점과 상기 선택된 표정 아이템의 아이콘 간 거리를 계산하고,
    상기 얼굴 구성요소의 기본 좌표값에 상기 기준 거리를 기반으로 한 기준 가중치를 부여하고, 상기 선택된 표정 아이템에 매칭된 상기 얼굴 구성요소의 좌표값에 상기 거리를 기반으로 한 가중치를 부여하고,
    상기 기준 가중치가 부여된 상기 얼굴 구성요소의 기본 좌표값과 상기 가중치가 부여된 상기 얼굴 구성요소의 좌표값의 평균을 계산하여 상기 합성 표정을 구현하기 위한 상기 얼굴 구성요소의 좌표값으로 출력하는 애니메이션 제작 장치.
  14. 제 13 항에 있어서,
    상기 처리부는:
    상기 기준 거리 및 상기 거리가 가까울수록 상기 얼굴 구성요소의 기본 좌표값 및 좌표값에 각각 상기 기준 가중치 및 상기 가중치를 높게 부여하는 애니메이션 제작 장치.
  15. 사용자로부터 애니메이션의 제작에 관한 명령을 입력받는 단계;
    사용자의 명령에 따라 상기 애니메이션의 제작에 사용되도록 사전에 마련된 아이템을 불러오는 단계; 및
    상기 불러온 아이템을 상기 애니메이션에 등장하는 캐릭터에 적용하는 단계를 포함하며,
    상기 사용자의 명령에 따라 아이템을 불러오는 단계는:
    상기 캐릭터의 표정을 정의한 표정 아이템의 아이콘이 기 설정된 도형의 둘레를 따라 배치된 표정 아이템 목록을 표시하는 단계; 및
    사용자로부터 상기 도형 내 일 지점을 지시하는 명령을 입력받는 단계를 포함하고,
    상기 불러온 아이템을 캐릭터에 적용하는 단계는:
    사용자에 의해 지시된 지점과 상기 표정 아이템의 아이콘 간 거리를 기반으로 상기 캐릭터의 기본 표정과 상기 표정 아이템 목록에 포함된 표정 아이템 중에서 상기 지점과 가까운 순서대로 선택된 기 설정된 개수의 표정 아이템에 정의된 표정을 합성하는 단계; 및
    상기 캐릭터의 표정이 합성 표정으로 형성되도록 상기 캐릭터를 제어하는 단계를 포함하는 애니메이션 제작 방법.
  16. 컴퓨터로 읽을 수 있는 기록 매체에 있어서,
    제 15 항에 따른 애니메이션 제작 방법을 컴퓨터로 실행하기 위한 프로그램이 기록된 기록 매체.
  17. 삭제
KR1020160098357A 2016-08-02 2016-08-02 애니메이션 제작 장치 및 방법 KR101809601B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160098357A KR101809601B1 (ko) 2016-08-02 2016-08-02 애니메이션 제작 장치 및 방법
PCT/KR2017/001844 WO2018026082A1 (ko) 2016-08-02 2017-02-20 애니메이션 제작 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160098357A KR101809601B1 (ko) 2016-08-02 2016-08-02 애니메이션 제작 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101809601B1 true KR101809601B1 (ko) 2017-12-15

Family

ID=60954423

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160098357A KR101809601B1 (ko) 2016-08-02 2016-08-02 애니메이션 제작 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101809601B1 (ko)
WO (1) WO2018026082A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190073293A (ko) * 2017-12-18 2019-06-26 김은아 도형표를 활용한 캐릭터 생성장치 및 그 생성방법
WO2020076031A1 (ko) * 2018-10-08 2020-04-16 주식회사 해피업 유아용 인터렉티브 교육 콘텐츠 프로그램이 탑재된 전자장치
KR20210112853A (ko) * 2020-03-06 2021-09-15 주식회사 어라운드이펙트 텍스트 기반의 애니메이션 데이터 자동 배치 방법 및 그를 위한 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101555347B1 (ko) * 2009-04-09 2015-09-24 삼성전자 주식회사 비디오 기반 얼굴 애니메이션 생성 장치 및 방법
KR20110045719A (ko) * 2009-10-27 2011-05-04 주식회사 숀픽쳐스 애니메이션 제작방법과 이 제작방법을 실행하기 위한 프로그램이 저장된 컴퓨터로 판독할 수 있는 기록매체 및 이를 이용한 온라인상에서의 애니메이션 제작 시스템
KR101647305B1 (ko) * 2009-11-23 2016-08-10 삼성전자주식회사 이동통신 단말기에서 영상 통화 방법 및 장치
KR101951761B1 (ko) * 2012-01-27 2019-02-25 라인 가부시키가이샤 모바일 환경에서 제공되는 서비스에서 아바타를 제공하는 아바타 서비스 시스템 및 방법
JP6170834B2 (ja) * 2013-12-26 2017-07-26 Kddi株式会社 感情表現装置、感情表現方法およびコンピュータプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190073293A (ko) * 2017-12-18 2019-06-26 김은아 도형표를 활용한 캐릭터 생성장치 및 그 생성방법
KR102181410B1 (ko) * 2017-12-18 2020-11-23 김은아 도형표를 활용한 캐릭터 생성장치 및 그 생성방법
WO2020076031A1 (ko) * 2018-10-08 2020-04-16 주식회사 해피업 유아용 인터렉티브 교육 콘텐츠 프로그램이 탑재된 전자장치
KR20210112853A (ko) * 2020-03-06 2021-09-15 주식회사 어라운드이펙트 텍스트 기반의 애니메이션 데이터 자동 배치 방법 및 그를 위한 장치
KR102338501B1 (ko) * 2020-03-06 2021-12-13 주식회사 어라운드이펙트 텍스트 기반의 애니메이션 데이터 자동 배치 방법 및 그를 위한 장치

Also Published As

Publication number Publication date
WO2018026082A1 (ko) 2018-02-08

Similar Documents

Publication Publication Date Title
US11922584B2 (en) Devices, methods, and graphical user interfaces for displaying objects in 3D contexts
KR102283613B1 (ko) 아바타 생성 사용자 인터페이스
JP6382261B2 (ja) 高度なカメラをベースとした入力
US11385761B2 (en) Device, method, and graphical user interface for composing CGR files
US11250604B2 (en) Device, method, and graphical user interface for presenting CGR files
JP2019207670A (ja) アバター作成ユーザインターフェース
WO2019114328A1 (zh) 一种基于增强现实的视频处理方法及其装置
KR101575092B1 (ko) 애니메이션의 모션 시퀀스를 생성하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
KR101809601B1 (ko) 애니메이션 제작 장치 및 방법
WO2021157595A1 (ja) コンテンツ作成支援システム
US9940757B2 (en) Modifying a simulated character by direct manipulation
EP2911115B1 (en) Electronic device and method for color extraction
JP5920858B1 (ja) プログラム、情報処理装置、深度定義方法及び記録媒体
KR20220041249A (ko) 아바타 생성 사용자 인터페이스
US11393164B2 (en) Device, method, and graphical user interface for generating CGR objects
JP6815054B1 (ja) コンテンツ作成支援システム
US20240096033A1 (en) Technology for creating, replicating and/or controlling avatars in extended reality
Dontschewa et al. Using motion capturing sensor systems for natural user interface
Van de Broek et al. Perspective Chapter: Evolution of User Interface and User Experience in Mobile Augmented and Virtual Reality Applications
JP2021125235A (ja) コンテンツ作成支援システム
CN114723871A (zh) 图片数据处理方法、装置、电子设备和存储介质
JP2021197120A (ja) コンテンツ作成支援システム
CN117649460A (zh) 蒙版操作方法及其设备、存储介质、终端
CN114546108A (zh) 一种基于vr/ar的用户操作方法、装置、系统及存储介质
JPH08263683A (ja) 人物像表示によるユーザインタフェース装置

Legal Events

Date Code Title Description
GRNT Written decision to grant