KR20230036923A - Character motion generating based on trajectories and computer apparatus - Google Patents

Character motion generating based on trajectories and computer apparatus Download PDF

Info

Publication number
KR20230036923A
KR20230036923A KR1020210120031A KR20210120031A KR20230036923A KR 20230036923 A KR20230036923 A KR 20230036923A KR 1020210120031 A KR1020210120031 A KR 1020210120031A KR 20210120031 A KR20210120031 A KR 20210120031A KR 20230036923 A KR20230036923 A KR 20230036923A
Authority
KR
South Korea
Prior art keywords
character
movement path
motion information
computer device
motion
Prior art date
Application number
KR1020210120031A
Other languages
Korean (ko)
Other versions
KR102640247B1 (en
Inventor
이윤상
이정민
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020210120031A priority Critical patent/KR102640247B1/en
Publication of KR20230036923A publication Critical patent/KR20230036923A/en
Application granted granted Critical
Publication of KR102640247B1 publication Critical patent/KR102640247B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

A method for generating motion information of a character based on a movement path comprises: a step in which a computer device receives input of a movement path of a character; a step in which the computer device determines characteristics of the character at a starting point of the movement path; a step in which the computer device determines motion information that matches in a previously prepared motion database based on the characteristics; and a step in which the computer device generates a character motion that moves along the movement path using the motion information. The computer device generates the motion of the character over time by repeatedly determining motion information that matches the characteristics of the character determined at regular time or frame intervals.

Description

이동 경로에 따라 캐릭터의 동작 정보를 생성하는 방법 및 컴퓨터 장치{CHARACTER MOTION GENERATING BASED ON TRAJECTORIES AND COMPUTER APPARATUS}Method and computer device for generating motion information of a character according to a moving path

이하 설명하는 기술은 가상 캐릭터의 동작을 생성하는 모션 매칭 기법에 관한 것이다.The technology described below relates to motion matching techniques for generating motions of virtual characters.

영화, 게임 등의 디지털 콘텐츠에서 캐릭터의 움직임은 매우 중요하다. 가상 캐릭터의 움직임 제어를 위한 다양한 방법이 연구되고 있다. 모션 매칭(motion matching)은 모션 캡쳐 데이터를 활용해 캐릭터의 동작을 합성하는 기법 중 하나이다. 모션 매칭은 간단한 특성 데이터베이스를 생성해 복잡한 계산이나 인공지능 없이도 쉽고 빠르게 자연스러운 동작을 합성할 수 있다. Character movement is very important in digital content such as movies and games. Various methods for controlling the movement of virtual characters are being studied. Motion matching is one of the techniques for synthesizing a character's motion using motion capture data. Motion matching creates a simple feature database, allowing natural motion to be synthesized quickly and easily without complex calculations or artificial intelligence.

한국등록특허 제10-0408428호Korean Patent Registration No. 10-0408428

이하 설명하는 기술은 2차원의 경로를 설정하는 방식으로 해당 경로를 이동하는 캐릭터의 동작을 생성하는 모션 매칭 기법을 제공하고자 한다. The technology to be described below aims to provide a motion matching technique for generating a motion of a character moving along a corresponding path by setting a two-dimensional path.

이동 경로에 따라 캐릭터의 동작 정보를 생성하는 방법은 컴퓨터 장치가 캐릭터의 이동 경로를 입력받는 단계, 상기 컴퓨터 장치가 상기 이동 경로의 특정 지점에서 캐릭터의 특징들을 결정하는 단계, 상기 컴퓨터 장치가 상기 특징들을 기준으로 사전에 마련된 모션 데이터베이스에서 매칭되는 모션 정보를 결정하는 단계 및 상기 컴퓨터 장치가 상기 모션 정보를 이용하여 상기 이동 경로에 따라 이동하는 캐릭터 동작을 생성하는 단계를 포함한다.A method of generating motion information of a character according to a movement path includes receiving a character's movement path by a computer device, determining characteristics of the character at a specific point of the movement path by the computer device, and determining characteristics of the character by the computer device. Determining matched motion information in a pre-prepared motion database based on the motion data, and generating, by the computer device, a motion of a character moving along the movement path using the motion information.

이동 경로에 따라 캐릭터의 동작 정보를 생성하는 컴퓨터 장치는 캐릭터의 이동 경로를 입력받은 입력장치, 상기 캐릭터의 특징들에 매칭되는 참조 모션들을 저장하는 저장장치 및 상기 이동 경로의 특정 지점에서 캐릭터의 특징들과 상기 저장장치에 저장된 특징들과 비교하여 상기 참조 모션들 중 매칭되는 모션 정보를 결정하고, 상기 모션 정보를 이용하여 상기 이동 경로에 따라 이동하는 캐릭터 동작 정보를 생성하는 연산장치를 포함한다.A computer device that generates motion information of a character according to a movement path includes an input device that receives the character's movement path, a storage device that stores reference motions matched to the characteristics of the character, and a character characteristic at a specific point in the movement path. and an arithmetic unit for determining matched motion information among the reference motions by comparing the motion information with the features stored in the storage device, and generating motion information for a character moving along the movement path using the motion information.

이하 설명하는 기술은 인터페이스 장치를 이용한 이동 경로 설정이라는 간단한 방법으로 캐릭터의 동작을 생성한다. 나아가, 이하 설명하는 기술은 캐릭터가 경로를 벗어나는 경우 자연스럽게 경로로 복귀하고, 이전 동작과 진행 방향에 맞는 자연스러운 동작을 생성한다.The technology to be described below creates motion of a character by a simple method of setting a moving path using an interface device. Furthermore, in the technique described below, when a character deviates from a path, it naturally returns to the path and creates a natural motion matching the previous motion and the direction of travel.

도 1은 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 시스템에 대한 예이다.
도 2는 2D 경로에 따른 캐릭터의 동작을 생성하는 과정에 대한 예이다.
도 3은 캐릭터 이동 속도를 조절하는 경로 설정 과정에 대한 예이다
도 4는 캐릭터의 이동 경로를 수정하는 과정에 대한 예이다.
도 5는 캐릭터 진행 방향을 결정하는 인공신경망에 대한 예이다.
1 is an example of a system for generating motion information of a character according to a moving path.
2 is an example of a process of generating a motion of a character along a 2D path.
3 is an example of a path setting process for adjusting the character movement speed
4 is an example of a process of modifying a movement path of a character.
5 is an example of an artificial neural network that determines a character progression direction.

이하 설명하는 기술은 다양한 변경을 가할 수 있고 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나, 이는 이하 설명하는 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 이하 설명하는 기술의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Since the technology to be described below can have various changes and various embodiments, specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the technology described below to specific embodiments, and it should be understood to include all modifications, equivalents, or substitutes included in the spirit and scope of the technology described below.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 상기 용어들에 의해 한정되지는 않으며, 단지 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 이하 설명하는 기술의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. may be used to describe various elements, but the elements are not limited by the above terms, and are merely used to distinguish one element from another. used only as For example, without departing from the scope of the technology described below, a first element may be referred to as a second element, and similarly, the second element may be referred to as a first element. The terms and/or include any combination of a plurality of related recited items or any of a plurality of related recited items.

본 명세서에서 사용되는 용어에서 단수의 표현은 문맥상 명백하게 다르게 해석되지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함한다" 등의 용어는 설명된 특징, 개수, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 의미하는 것이지, 하나 또는 그 이상의 다른 특징들이나 개수, 단계 동작 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하지 않는 것으로 이해되어야 한다.In terms used in this specification, singular expressions should be understood to include plural expressions unless clearly interpreted differently in context, and terms such as “comprising” refer to the described features, numbers, steps, operations, and components. , parts or combinations thereof, but it should be understood that it does not exclude the possibility of the presence or addition of one or more other features or numbers, step-action components, parts or combinations thereof.

도면에 대한 상세한 설명을 하기에 앞서, 본 명세서에서의 구성부들에 대한 구분은 각 구성부가 담당하는 주기능 별로 구분한 것에 불과함을 명확히 하고자 한다. 즉, 이하에서 설명할 2개 이상의 구성부가 하나의 구성부로 합쳐지거나 또는 하나의 구성부가 보다 세분화된 기능별로 2개 이상으로 분화되어 구비될 수도 있다. 그리고 이하에서 설명할 구성부 각각은 자신이 담당하는 주기능 이외에도 다른 구성부가 담당하는 기능 중 일부 또는 전부의 기능을 추가적으로 수행할 수도 있으며, 구성부 각각이 담당하는 주기능 중 일부 기능이 다른 구성부에 의해 전담되어 수행될 수도 있음은 물론이다.Prior to a detailed description of the drawings, it is to be clarified that the classification of components in the present specification is merely a classification for each main function in charge of each component. That is, two or more components to be described below may be combined into one component, or one component may be divided into two or more for each more subdivided function. In addition, each component to be described below may additionally perform some or all of the functions of other components in addition to its main function, and some of the main functions of each component may be performed by other components. Of course, it may be dedicated and performed by .

또, 방법 또는 동작 방법을 수행함에 있어서, 상기 방법을 이루는 각 과정들은 문맥상 명백하게 특정 순서를 기재하지 않은 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 과정들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.In addition, in performing a method or method of operation, each process constituting the method may occur in a different order from the specified order unless a specific order is clearly described in context. That is, each process may occur in the same order as specified, may be performed substantially simultaneously, or may be performed in the reverse order.

이하 설명하는 기술은 컴퓨터 장치를 이용하여 가상공간에서 특정 객체의 동작 정보를 생성한다. 이하 설명하는 기술은 가상공간에서 특정 객체가 이동 경로를 따라 이동하는 동작을 생성한다.The technology to be described below generates motion information of a specific object in a virtual space using a computer device. The technology described below creates an action in which a specific object moves along a movement path in a virtual space.

이하 컴퓨터 장치가 동작을 제어하는 대상을 캐릭터(character)라고 명명한다. 캐릭터는 게임, 애니메이션 등에 등장하는 사람, 동물, 로봇 등과 같은 객체를 포함한다. Hereinafter, a subject whose operation is controlled by a computer device is referred to as a character. Characters include objects such as people, animals, and robots that appear in games and animations.

컴퓨터 장치는 데이터 처리가 가능한 다양한 장치로 구현될 수 있다. 예컨대, 컴퓨터 장치는 PC, 네트워크상의 서버, 스마트 기기, 전용 프로그램이 임베딩된 칩셋 등으로 구현될 수 있다. A computer device may be implemented as a variety of devices capable of processing data. For example, the computer device may be implemented as a PC, a server on a network, a smart device, a chipset in which a dedicated program is embedded, and the like.

도 1은 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 시스템(100)에 대한 예이다. 도 1에서 컴퓨터 장치(110, 140)가 동작 정보를 생성한다. 도 1에서 컴퓨터 장치는 서버(130) 및 컴퓨터 단말(110) 형태로 도시하였다.1 is an example of a system 100 for generating motion information of a character according to a movement path. In FIG. 1, computer devices 110 and 140 generate motion information. In FIG. 1, the computer device is shown in the form of a server 130 and a computer terminal 110.

사용자는 컴퓨터 단말(110)에 캐릭터의 2D 이동 경로를 입력한다. 3D 이동 경로도 이용할 수 있지만, 설명의 편의를 위하여 2D 이동 경로를 기준으로 설명한다. 컴퓨터 단말(110)은 이동 경로에 따라 출발점부터 캐릭터의 특징들을 추출하고, 추출한 특징들을 모션 DB(140)에 쿼리하여 매칭되는 모션 데이터를 수신한다. The user inputs the 2D movement path of the character to the computer terminal 110 . A 3D movement path can also be used, but for convenience of explanation, a 2D movement path will be described. The computer terminal 110 extracts the characteristics of the character from the starting point along the movement path, queries the motion DB 140 for the extracted characteristics, and receives matched motion data.

모션 DB(140)는 사전에 캐릭터의 참조 모션들을 저장한다. 모션 DB(140)는 캐릭터의 특징들 및 해당 특징들에 매칭되는 참조 모션을 저장한다. 참조 모션을 사용자가 사전에 캡쳐하거나 생성한 데이터이다.The motion DB 140 stores reference motions of characters in advance. The motion DB 140 stores character features and reference motions matched to the corresponding features. This is data that the user previously captured or created the reference motion.

컴퓨터 단말(110)은 현재 시점의 모션 데이터를 이용하여 캐릭터의 동작을 생성하고 출력할 수 있다. 컴퓨터 단말(110)은 이동 경로에 따라 이동하는 캐릭터의 동작을 이와 같은 과정을 반복하여 결정할 수 있다.The computer terminal 110 may generate and output a motion of a character using motion data of a current point of view. The computer terminal 110 may determine the motion of the character moving along the movement path by repeating the same process.

서버(130)는 사용자 단말(120)로부터 사용자가 입력한 캐릭터의 2D 이동 경로를 수신한다. 서버(130)는 이동 경로에 따라 출발점부터 캐릭터의 특징들을 추출하고, 추출한 특징들을 모션 DB(140)에 쿼리하여 매칭되는 모션 데이터를 수신한다. 서버(130)는 현재 시점의 모션 데이터를 이용하여 캐릭터의 동작을 생성할 수 있다. 또한, 서버(130)는 생성한 동작 데이터를 사용자 단말(120)에 전송할 수도 있다. 사용자 단말(120)은 해당 시점의 캐릭터 동작을 출력할 수 있다. 서버(130)는 이동 경로에 따라 이동하는 캐릭터의 동작을 이와 같은 과정을 반복하여 결정할 수 있다.The server 130 receives the 2D movement path of the character input by the user from the user terminal 120 . The server 130 extracts the characteristics of the character from the starting point according to the movement path, queries the motion DB 140 for the extracted characteristics, and receives matched motion data. The server 130 may generate a motion of a character using motion data of a current point of view. In addition, the server 130 may transmit the generated motion data to the user terminal 120 . The user terminal 120 may output a character motion at a corresponding point in time. The server 130 may determine the motion of the character moving along the moving path by repeating this process.

도 1의 상단에는 컴퓨터 단말(110) 또는 서버(130)가 이동 경로에 따라 생성하는 캐릭터 동작을 예시한다. 도 1은 시간 경과에 따라 t0 시점, t1 시점, t2 시점 및 t3 시점에서의 캐릭터 동작을 생성한 예를 도시한다.The upper part of FIG. 1 illustrates a character motion generated by the computer terminal 110 or the server 130 according to a movement path. 1 illustrates an example in which character motions are generated at times t 0 , t 1 , t 2 , and t 3 over time.

도 2는 2D 경로에 따른 캐릭터의 동작을 생성하는 과정(200)에 대한 예이다.2 is an example of a process 200 for generating a motion of a character along a 2D path.

모션 매칭을 위한 모션 데이터는 모션 DB에 사전에 구축되어야 한다(210). 연구자는 구조화되지 않은 모션 캡쳐 데이터의 모든 동작 프레임에 대하여 27차원의 특성 데이터를 생성하였다. 연구자가 사용한 특성은 아래 수학식 1과 같다.Motion data for motion matching must be built in advance in the motion DB (210). The researcher created 27-dimensional feature data for all motion frames of unstructured motion capture data. The characteristics used by the researcher are shown in Equation 1 below.

Figure pat00001
Figure pat00001

모든 위치는 캐릭터의 루트(root) 좌표계로 표현될 수 있다. 특성들은 양발의 위치

Figure pat00002
Figure pat00003
, 양 발의 속도
Figure pat00004
Figure pat00005
, 루트의 속도
Figure pat00006
, 3개의 미래 프레임(20, 40 및 60 프레임 후의 시점)에서 평면상에 투사한 2차원 캐릭터 루트의 위치 ti 및 캐릭터가 바라보는 방향 di를 포함한다.All positions can be expressed in the character's root coordinate system. Traits are the position of the feet
Figure pat00002
and
Figure pat00003
, speed of both feet
Figure pat00004
and
Figure pat00005
, the velocity of the root
Figure pat00006
, the position t i of the 2D character root projected on the plane in three future frames (viewpoints after frames 20, 40 and 60) and the direction d i the character is looking at.

컴퓨터 장치는 캐릭터의 이동 경로를 입력받는다(220). 사용자는 마우스, 터치 입력 등과 같은 인터페이스를 사용하여 이동 경로를 컴퓨터 장치에 입력할 수 있다. 캐릭터의 초기 상태는 이동 경로의 시작점에서 이동할 방향을 바라보는 상태일 수 있다.The computer device receives an input of the character's movement path (220). A user may input a movement path into a computer device using an interface such as a mouse or a touch input. The initial state of the character may be a state in which the character is facing a moving direction from the starting point of the movement path.

컴퓨터 장치는 현재 시점에서 캐릭터의 상태, 미래 시점의 목표 위치 및 캐릭터의 지향 방향을 기준으로 모션 DB에 쿼리하여 특징들이 가장 유사한 모션을 선택한다(230). The computer device selects a motion having the most similar features by querying the motion DB based on the state of the character at the current time point, the target position at the future time point, and the character's heading direction (230).

컴퓨터 장치는 선택한 모션에 따라 캐릭터가 이동하면 경로를 이탈하는지 모니터링한다(240). 캐릭터가 이동 경로를 이탈하였다면, 컴퓨터 장치는 캐릭터의 이동 경로를 수정한다(250). 한편, 컴퓨터 장치는 캐릭터의 경로 이탈을 모니터링하지 않고, 항상 이동 경로를 수정하는 과정을 수행할 수도 있다. 이 경우 캐릭터가 이동 경로 상에 있다면 실제 이동 경로가 수정되지 않는다. 이동 경로 수정 과정은 후술한다.When the character moves according to the selected motion, the computer device monitors whether the character deviate from the path (240). If the character deviated from the movement path, the computer device corrects the movement path of the character (250). Meanwhile, the computer device may always perform a process of correcting the movement path without monitoring the character's deviation from the path. In this case, if the character is on the movement path, the actual movement path is not modified. A moving path correction process will be described later.

컴퓨터 장치는 이동 경로를 따른 캐릭터의 이동이 종료(목표 지점 도달)될 때(260)까지 모션 매칭 과정을 반복한다. 컴퓨터 장치는 일정한 시간 간격(예컨대, 매 10프레임)마다 캐릭터의 특성을 구성하여 매칭되는 모션을 선택하는 방식으로 캐릭터의 동작 정보를 반복적으로 생성할 수 있다.The computer device repeats the motion matching process until the movement of the character along the movement path ends (reaches the target point) (260). The computer device may repeatedly generate the motion information of the character in a manner of configuring the characteristics of the character at regular time intervals (eg, every 10 frames) and selecting a matching motion.

도 3은 캐릭터 이동 속도를 조절하는 경로 설정 과정에 대한 예이다. 사용자는 일정한 이동 경로를 설정하는데, 이때 캐릭터의 이동 속도에 대한 정보를 동시에 설정할 수 있다. 예컨대, 사용자가 마우스로 이동 경로를 입력한다면 일정한 선으로 이동 경로를 입력하게 되는데, 마우스의 드래그 속도를 다르게 하여 속도에 대한 정보를 설정할 수 있다.3 is an example of a path setting process for adjusting a character movement speed. The user sets a certain movement path, and at this time, information on the movement speed of the character can be set at the same time. For example, when a user inputs a movement path with a mouse, the movement path is input in a constant line, and speed information can be set by changing the drag speed of the mouse.

도 3에서 화살표는 이동 경로를 의미한다. 사각 포인트는 일정한 시간 간격(예컨대, 10프레임)으로 샘플링한 지점을 나타낸다. 즉, 사용자가 빠른 속도로 이동 경로를 입력할수록 포인트의 간격이 좁아지고, 반대로 이동 속도를 느리게 입력할수록 포인트의 간격이 넓어진다. 도 3에서 출발점에서 일정한 간격을 갖는 구간을 일반 속도 구간이라고 하면, 포인트 간격이 넓어지는 구간은 저속 구간이고, 포인트 간격이 좁은 구간은 고속 구간이라고 할 수 있다. 예컨대, 고속 구간에서 캐릭터는 달리는 동작을 할 수 있다. 이와 같이 사용자는 이동 경로 설정과 함께 캐릭터의 속도 정보로 설정할 수 있다.In FIG. 3 , an arrow indicates a movement path. The square points represent points sampled at regular time intervals (eg, 10 frames). That is, the faster the user inputs the movement path, the narrower the interval between points is, and conversely, the slower the user inputs the movement speed, the wider the interval between points. In FIG. 3 , if a section having a regular interval from the starting point is a normal speed section, a section with a wider point interval is a low-speed section, and a section with a narrow point interval is a high-speed section. For example, a character may perform a running motion in a high-speed section. In this way, the user can set the speed information of the character together with the movement path setting.

이동 경로상의 점들로 미래 경로의 위치를 곧바로 계산한다면 현재 캐릭터의 위치를 고려하지 못한다. 또한, 미래 경로상의 캐릭터의 방향을 경로 각 지점에서의 접선의 방향으로써 간단히 구한다면 캐릭터가 과거에 바라본 방향을 모두 무시하게 된다. 따라서, 캐릭터가 이동 경로를 따라 가지만 동작은 부자연스러울 수 있다. 캐릭터의 자연스러운 동작을 위해 아래 3가지 조건을 고려할 수 있다.If you calculate the position of the future path directly from the points on the movement path, the current character's position is not taken into account. In addition, if the direction of the character on the future path is simply obtained as the direction of the tangent line at each point on the path, all directions the character looked in the past are ignored. Therefore, although the character follows the movement path, the motion may be unnatural. The following three conditions can be considered for the natural movement of the character.

(1) 경로를 벗어난 캐릭터는 다시 경로 위로 돌아오도록 해야 한다.(1) A character who deviated from the path must return to the path again.

(2) 캐릭터가 미래에 바라보고 있을 방향은 현재 캐릭터가 진행해온 동작을 반영해야 한다.(2) The direction the character will be looking in the future must reflect the current action the character has made.

(3) 캐릭터의 현재 속도 및 미래 경로는 주어진 경로의 형태와 간격을 반영해야 한다.(3) The character's current speed and future path must reflect the shape and spacing of the given path.

캐릭터가 이동 경로를 벗어나는 경우, 컴퓨터 장치는 이동 경로를 수정하여 재설정할 수 있다. 도 4는 캐릭터의 이동 경로를 수정하는 과정에 대한 예이다. trajmouse는 마우스 입력으로 주어진 경로에서 현재 캐릭터의 위치와 가장 가까운 점(nearest point)으로부터 경로의 끝까지 잘라낸 단편이다. trajtranslated는 trajmouse을 이동 경로를 벗어난 캐릭터의 현재 위치에서 시작하도록 평행 이동 시킨 경로이다. 컴퓨터 장치는 두 경로 trajmouse와 trajtranslated를 적당한 스케일 함수로 합성하여 현재 위치에서 자연스럽게 설정된 경로까지 지나도록 하는 경로를 합성할 수 있다. 수정된 경로는 점선으로 표시하였다. 수정된 합성 경로는 아래 수학식 2와 같이 시간에 따른 위치 t* i로 표현할 수 있다. 이후 컴퓨터 장치는 새로운 위치 t* i를 이용하여 모션 DB에 매칭되는 모션을 쿼리하게 된다. 이 경우 현재 지점에서 목표 지점의 가장 가까운 점(nearest point)으로 직행하는 경우에 비하여 캐릭터 동작이 자연스러워 진다.If the character strays from the movement path, the computer device can modify the movement path and reset it. 4 is an example of a process of modifying a movement path of a character. traj mouse is a fragment cut from the nearest point to the current character position in the path given by mouse input to the end of the path. traj translated is the path that the traj mouse is moved in parallel to start from the current position of the character out of the movement path. The computer device can combine the two paths traj mouse and traj translated with an appropriate scale function to synthesize a path that passes from the current location to the naturally set path. The modified pathway is indicated by a dotted line. The modified synthesis path can be expressed as a position over time t * i as shown in Equation 2 below. Afterwards, the computer device queries the motion DB for a matched motion using the new position t * i . In this case, the character's motion becomes more natural compared to the case of going directly from the current point to the nearest point to the target point.

Figure pat00007
Figure pat00007

이와 같이 마우스 경로의 위치 ti는 현재 위치를 기준으로 쉽게 구할 수 있지만, 해당 시점에서 캐릭터가 바라보는 방향 di은 현재 방향만 고려해서 자연스러운 값을 구하기 어렵다. 연구자는 캐릭터의 지향 방향을 결정하기 위한 인공신경망 모델을 이용하였다. In this way, the position t i of the mouse path can be easily obtained based on the current position, but it is difficult to obtain a natural value for the direction d i the character is looking at at that time considering only the current direction. The researcher used an artificial neural network model to determine the character's orientation direction.

도 5는 캐릭터 진행 방향을 결정하는 인공신경망(300)에 대한 예이다. 인공신경망(300)은 순환형 네트워크(Recurrent neural network) 구조를 갖는다. 순환형 네트워크는 시계열 데이터를 다루어 일정 시점 이후의 정보를 산출할 수 있다.5 is an example of an artificial neural network 300 that determines a character progression direction. The artificial neural network 300 has a recurrent neural network structure. Recursive networks can handle time-series data to calculate information after a certain point in time.

연구자는 종래 연구되었던 QuaterNet (D. Pavllo et al.i, "Quaternet: A quaternion-based recurrent model for human motion., CoRR, vol. abs/1805.06485, 2018.)의 페이스 네트워크(Pace network) 구조를 사용하였다. 인공신경망(300)은 하나의 GRU(Gated recurrent units, 310)와 FC(fully connected layer, 320)로 구성된다. The researcher uses the Pace network structure of QuaterNet (D. Pavllo et al.i, "Quaternet: A quaternion-based recurrent model for human motion., CoRR, vol. abs/1805.06485, 2018.), which has been previously studied. The artificial neural network 300 is composed of one gated recurrent unit (GRU) 310 and a fully connected layer (FC) 320.

GRU(310)은 특정 시점에서 진행해 온 경로의 곡률과 캐릭터의 평균 속도를 입력받는다. FC(320)은 GRU(310)의 출력값을 입력받아 진행 방향(direction)을 출력한다. 물론, 인공신경망(300)은 학습 데이터로 사전에 학습된 모델을 사용한다. 인공신경망(300)이 캐릭터의 방향 d* i를 출력하면, 컴퓨터 장치는 새롭게 결정된 d* i를 기준으로 모션 DB에 매칭되는 모션을 쿼리하게 된다.The GRU 310 receives the curvature of the path traveled at a specific point in time and the average speed of the character. The FC 320 receives the output value of the GRU 310 and outputs a direction. Of course, the artificial neural network 300 uses a model trained in advance as training data. When the artificial neural network 300 outputs the direction d * i of the character, the computer device queries the motion DB for a motion matched with the newly determined d * i .

캐릭터의 지향 방향을 미래 경로의 접선 방향으로 설정하는 경우 캐릭터가 향하는 방향이 고정되기 때문에 캐릭터의 동작이 제안되며 부자연스러울 수 있다. 실험적으로 확인한 결과 전술한 인공신경망(300)을 이용하여 캐릭터의 지향 방향을 검출하는 것이 훨씬 자연스러운 동작을 보였다.If the direction of the character is set to the tangential direction of the future path, the direction the character is facing is fixed, so the character's motion is suggested and may be unnatural. As a result of experimental confirmation, detecting the character's direction using the above-described artificial neural network 300 showed a much more natural motion.

도 6은 2D 이동 경로에 따라 캐릭터 동작을 생성하는 컴퓨터 장치(400)에 대한 예이다. 컴퓨터 장치(400)는 도 1의 컴퓨터 장치(110 또는 130)에 해당하는 장치이다. 컴퓨터 장치(400)는 물리적으로 다양한 형태로 구현될 수 있다. 예컨대, 컴퓨터 장치(400)는 PC, 스마트 기기, 네트워크상의 서버, 데이터 처리 전용 칩셋 등의 형태를 가질 수 있다.6 is an example of a computer device 400 that generates character motion along a 2D movement path. The computer device 400 corresponds to the computer device 110 or 130 of FIG. 1 . The computer device 400 may be physically implemented in various forms. For example, the computer device 400 may have a form of a PC, a smart device, a server on a network, or a chipset dedicated to data processing.

컴퓨터 장치(400)는 저장장치(410), 메모리(420), 연산장치(430), 인터페이스 장치(440), 통신장치(450) 및 출력장치(460)를 포함할 수 있다.The computer device 400 may include a storage device 410, a memory 420, an arithmetic device 430, an interface device 440, a communication device 450, and an output device 460.

저장장치(410)는 사전에 캐릭터의 특징들과 이에 매칭되는 캐릭터의 모션 정보들을 저장할 수 있다. 여기서 모션 정보는 모션 매칭에 사용할 참조 모션들을 의미한다.The storage device 410 may store motion information of the character matched with the characteristics of the character in advance. Here, the motion information means reference motions to be used for motion matching.

저장장치(410)는 특정 좌표계에서 캐릭터의 이동 경로에 대한 정보를 저장할 수 있다. 저장장치(410)는 캐릭터가 경로를 벗어나는 이동 경로 수정을 위한 프로그램(코드)를 저장할 수 있다. 저장장치(410)는 과거 이동 경로를 고려하여 향후 캐릭터의 지향 방향을 정하는 신경망 모델(300)을 저장할 수 있다.The storage device 410 may store information about a character's movement path in a specific coordinate system. The storage device 410 may store a program (code) for correcting a movement path in which the character deviate from the path. The storage device 410 may store the neural network model 300 that determines the future direction of the character in consideration of the past movement path.

나아가 저장장치(410)는 데이터 처리에 필요한 프로그램 내지 소스 코드 등을 저장할 수 있다. Furthermore, the storage device 410 may store programs or source codes necessary for data processing.

저장장치(410)는 특정 시점에서 결정된 캐릭터의 동작 데이터를 저장할 수 있다.The storage device 410 may store motion data of a character determined at a specific point in time.

메모리(420)는 컴퓨터 장치(400)가 캐릭터의 동작을 결정하는 과정에서 생성되는 데이터 및 정보 등을 저장할 수 있다.The memory 420 may store data and information generated in a process in which the computer device 400 determines the character's motion.

인터페이스 장치(440)는 외부로부터 일정한 명령 및 데이터를 입력받는 장치이다. 인터페이스 장치(440)는 사용자가 설정한 캐릭터의 이동 경로를 입력받을 수 있다. The interface device 440 is a device that receives certain commands and data from the outside. The interface device 440 may receive an input of a movement path of a character set by a user.

인터페이스 장치(440)는 모션 DB 또는 저장장치(410)로부터 현재 시점에서 캐릭터의 특징들과 매칭되는 모션 정보(참조 모션)를 입력받을 수 있다.The interface device 440 may receive motion information (reference motion) matched with the characteristics of the character at the current point of view from the motion DB or the storage device 410 .

인터페이스 장치(440)는 컴퓨터 장치(400) 내지 연산 장치(430)가 결정한 현재 시점의 모션 정보를 다른 장치에 전달할 수 있다.The interface device 440 may transmit motion information of the current view determined by the computer device 400 to the computing device 430 to other devices.

통신장치(450)는 유선 또는 무선 네트워크를 통해 일정한 정보를 수신하고 전송하는 구성을 의미한다. 통신장치(450)는 사용자가 설정한 캐릭터의 이동 경로를 수신할 수 있다.The communication device 450 refers to a component that receives and transmits certain information through a wired or wireless network. The communication device 450 may receive the movement path of the character set by the user.

통신장치(450)는 모션 DB로부터 현재 시점에서 캐릭터의 특징들과 매칭되는 모션 정보(참조 모션)를 수신받을 수 있다.The communication device 450 may receive motion information (reference motion) matched with the characteristics of the character at the current point in time from the motion DB.

통신장치(450)는 컴퓨터 장치(400) 내지 연산 장치(430)가 결정한 현재 시점의 모션 정보를 외부 객체로 송신할 수 있다. The communication device 450 may transmit the motion information of the current view determined by the computer device 400 or the computing device 430 to an external object.

통신장치(450) 내지 인터페이스 장치(440)는 외부로부터 일정한 데이터 내지 명령을 입출력하는 장치이다. 따라서, 통신장치(450) 내지 인터페이스 장치(440)를 포괄하여 입출력장치라고 명명할 수 있다. 입력만을 고려하여 통신장치(450) 내지 인터페이스 장치(440)를 입력 장치라고 할 수도 있다.The communication device 450 or interface device 440 is a device that inputs/outputs certain data or commands from the outside. Accordingly, the communication device 450 to the interface device 440 may be collectively referred to as an input/output device. Considering only input, the communication device 450 or the interface device 440 may be referred to as an input device.

출력장치(460)는 일정한 정보를 출력하는 장치이다. 출력장치(460)는 데이터 처리 과정에 필요한 인터페이스를 출력할 수 있다. 출력장치(460)는 현재 시점의 캐릭터 모션 정보를 기준으로 캐릭터의 동작을 화면에 출력할 수도 있다.The output device 460 is a device that outputs certain information. The output device 460 may output an interface required for data processing. The output device 460 may output the motion of the character on the screen based on the motion information of the character at the current point of view.

연산 장치(430)는 설정된 2D 이동 경로를 기준으로 수학식 1에 표현된 현재 캐릭터의 특징들을 추출할 수 있다.The calculation device 430 may extract the characteristics of the current character expressed in Equation 1 based on the set 2D movement path.

연산 장치(430)는 현재 시점에서 추출한 캐릭터의 특징들을 기분으로 모션 DB에서 매칭되는(최대한 가까운) 모션을 결정할 수 있다.The arithmetic device 430 may determine a motion matched (as close as possible) in the motion DB based on the characteristics of the character extracted at the current point of view.

연산 장치(430)는 결정한 모션을 출력장치(460)에 출력되게 제어할 수 있다.The arithmetic device 430 may control the determined motion to be output to the output device 460 .

연산 장치(430)는 캐릭터가 설정된 경로를 벗어나는 경우, 수학식 2에서 설명한 새로운 합성 경로를 결정할 수 있다. 새로운 경로가 결정되면, 연산 장치(430)는 해당 시점에서의 새로운 특징들(갱신된 위치 포함)을 기준으로 매칭되는 동작 정보를 결정할 수 있다.The calculation device 430 may determine a new synthesis path described in Equation 2 when the character deviates from the set path. When a new route is determined, the computing device 430 may determine matched motion information based on new features (including an updated position) at a corresponding time point.

연산 장치(430)는 신경망 모델(300)을 이용하여 과거 이동 경로를 고려하여 캐릭터의 지향 방향을 결정할 수 있다. 연산 장치(430)는 특정 시점에서 진행해 온 경로의 곡률과 캐릭터의 평균 속도를 신경망 모델(300)에 입력하여 캐릭터의 지향 방향을 결정할 수 있다. 새로운 지향 방향이 결정되면, 연산 장치(430)는 해당 시점에서의 새로운 특징들(갱신된 지향 방향 포함)을 기준으로 매칭되는 동장 정보를 결정할 수 있다.The arithmetic device 430 may determine the direction of the character in consideration of the past movement path using the neural network model 300 . The arithmetic device 430 may input the curvature of a path traveled at a specific point in time and the average speed of the character to the neural network model 300 to determine the character's direction. When a new orientation direction is determined, the computing device 430 may determine matching movement information based on new features (including an updated orientation direction) at that time.

연산 장치(430)는 일정한 시간 간격으로 캐릭터의 특징을 추출하여 모션 정보를 반복적으로 결정하여 캐릭터의 연속 동작을 생성할 수 있다.The arithmetic device 430 may generate a continuous motion of the character by repeatedly determining motion information by extracting characteristics of the character at regular time intervals.

연산 장치(430)는 데이터를 처리하고, 일정한 연산을 처리하는 프로세서, AP, 프로그램이 임베디드된 칩과 같은 장치일 수 있다.The arithmetic device 430 may be a device such as a processor, an AP, or a chip in which a program is embedded that processes data and performs certain arithmetic operations.

또한, 상술한 바와 같은 2D 이동 경로 기준한 캐릭터 동작 정보 생성 방법 내지 동작 제어 방법은 컴퓨터에서 실행될 수 있는 실행가능한 알고리즘을 포함하는 프로그램(또는 어플리케이션)으로 구현될 수 있다. 상기 프로그램은 일시적 또는 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다.In addition, the above-described method of generating motion information or motion control of a character based on a 2D movement path may be implemented as a program (or application) including an executable algorithm that may be executed on a computer. The program may be stored and provided in a temporary or non-transitory computer readable medium.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM (read-only memory), PROM (programmable read only memory), EPROM(Erasable PROM, EPROM) 또는 EEPROM(Electrically EPROM) 또는 플래시 메모리 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is not a medium that stores data for a short moment, such as a register, cache, or memory, but a medium that stores data semi-permanently and can be read by a device. Specifically, the various applications or programs described above are CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM (read-only memory), PROM (programmable read only memory), EPROM (Erasable PROM, EPROM) Alternatively, it may be stored and provided in a non-transitory readable medium such as EEPROM (Electrically EPROM) or flash memory.

일시적 판독 가능 매체는 스태틱 램(Static RAM,SRAM), 다이내믹 램(Dynamic RAM,DRAM), 싱크로너스 디램 (Synchronous DRAM,SDRAM), 2배속 SDRAM(Double Data Rate SDRAM,DDR SDRAM), 증강형 SDRAM(Enhanced SDRAM,ESDRAM), 동기화 DRAM(Synclink DRAM,SLDRAM) 및 직접 램버스 램(Direct Rambus RAM,DRRAM) 과 같은 다양한 RAM을 의미한다.Temporary readable media include static RAM (SRAM), dynamic RAM (DRAM), synchronous DRAM (SDRAM), double data rate SDRAM (DDR SDRAM), and enhanced SDRAM (Enhanced SDRAM). SDRAM, ESDRAM), Synchronous DRAM (Synclink DRAM, SLDRAM) and Direct Rambus RAM (DRRAM).

본 실시례 및 본 명세서에 첨부된 도면은 전술한 기술에 포함되는 기술적 사상의 일부를 명확하게 나타내고 있는 것에 불과하며, 전술한 기술의 명세서 및 도면에 포함된 기술적 사상의 범위 내에서 당업자가 용이하게 유추할 수 있는 변형 예와 구체적인 실시례는 모두 전술한 기술의 권리범위에 포함되는 것이 자명하다고 할 것이다.This embodiment and the drawings accompanying this specification clearly represent only a part of the technical idea included in the foregoing technology, and those skilled in the art can easily understand it within the scope of the technical idea included in the specification and drawings of the above technology. It will be obvious that all variations and specific examples that can be inferred are included in the scope of the above-described technology.

Claims (8)

컴퓨터 장치가 캐릭터의 이동 경로를 입력받는 단계;
상기 컴퓨터 장치가 상기 이동 경로의 특정 지점에서 캐릭터의 특징들을 결정하는 단계;
상기 컴퓨터 장치가 상기 특징들을 기준으로 사전에 마련된 모션 데이터베이스에서 매칭되는 모션 정보를 결정하는 단계; 및
상기 컴퓨터 장치가 상기 모션 정보를 이용하여 상기 이동 경로에 따라 이동하는 캐릭터 동작을 생성하는 단계를 포함하되,
상기 컴퓨터 장치는 일정한 시간 또는 프레임 간격으로 결정되는 상기 캐릭터의 특징들과 매칭되는 모션 정보를 반복적으로 결정하여 시간 경과에 따라 상기 캐릭터의 동작을 생성하는 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 방법.
receiving, by a computer device, a movement path of a character;
determining, by the computer device, characteristics of a character at a specific point of the movement path;
determining, by the computer device, motion information matched in a pre-prepared motion database based on the characteristics; and
Generating, by the computer device, a character motion moving along the movement path using the motion information,
A method for generating motion information of a character according to a movement path in which the computer device repeatedly determines motion information matching characteristics of the character determined at regular time or frame intervals to generate the motion of the character over time. .
제1항에 있어서,
상기 특징들은 해당 시점에서 상기 캐릭터의 발 위치, 발의 속도, 루트 속도, 복수의 미래 시점에서의 캐릭터 루트 위치 및 캐릭터의 지향 방향을 포함하는 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 방법.
According to claim 1,
The features generate motion information of a character according to a movement path including the position of the character's feet, the speed of the feet, the root speed, the character's root position at a plurality of future points in time, and the character's heading direction at that point in time.
제1항에 있어서,
상기 컴퓨터 장치는 상기 캐릭터가 상기 이동 경로를 벗어나는 경우, 설정된 상기 이동 경로와 상기 캐릭터가 이동 경로를 벗어난 시점의 지점으로 상기 이동 경로를 평행 이동한 경로를 합성하여 상기 캐릭터가 상기 이동 경로로 합류하도록 새로운 이동 경로를 설정하고, 상기 새로운 이동 경로에서의 위치를 포함하는 특징들과 매칭되는 모션 정보를 결정하는 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 방법.
According to claim 1,
When the character leaves the movement path, the computer device synthesizes the set movement path and a path obtained by moving the movement path in parallel to a point at which the character deviated from the movement path, so that the character joins the movement path. A method of generating motion information of a character according to a movement path that sets a new movement path and determines motion information matched with features including a position on the new movement path.
제1항에 있어서,
상기 컴퓨터 장치는 현재 시점까지 진행한 경로의 곡률 및 상기 캐릭터의 평균 속도를 사전에 학습한 신경망 모델에 입력하여 상기 현재 시점에서의 상기 캐릭터의 새로운 지향 방향을 결정하고, 상기 새로운 지향 방향을 포함하는 특징들과 매칭되는 모션 정보를 결정하는 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 방법.
According to claim 1,
The computer device determines a new orientation direction of the character at the current viewpoint by inputting the curvature of the path progressed to the current viewpoint and the average speed of the character to a previously learned neural network model, and including the new orientation direction A method of generating motion information of a character according to a movement path that determines motion information matched with features.
캐릭터의 이동 경로를 입력받은 입력장치;
상기 캐릭터의 특징들에 매칭되는 참조 모션들을 저장하는 저장장치; 및
상기 이동 경로의 특정 지점에서 캐릭터의 특징들과 상기 저장장치에 저장된 특징들과 비교하여 상기 참조 모션들 중 매칭되는 모션 정보를 결정하고, 상기 모션 정보를 이용하여 상기 이동 경로에 따라 이동하는 캐릭터 동작 정보를 생성하는 연산장치를 포함하되,
상기 연산장치는 일정한 시간 또는 프레임 간격으로 결정되는 상기 캐릭터의 특징들과 매칭되는 모션 정보를 반복적으로 결정하여 시간 경과에 따라 상기 캐릭터의 동작 정보를 생성하는 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 컴퓨터 장치.
an input device that receives input of the character's movement path;
a storage device for storing reference motions matched with the characteristics of the character; and
The character's characteristics at a specific point of the movement path are compared with the characteristics stored in the storage device to determine matching motion information among the reference motions, and a character operation to move along the movement path using the motion information. Including an arithmetic device that generates information,
The calculation device repeatedly determines motion information matching the characteristics of the character determined at regular time or frame intervals to generate motion information of the character according to a movement path for generating motion information of the character over time computer device.
제6항에 있어서,
상기 특징들은 해당 시점에서 상기 캐릭터의 발 위치, 발의 속도, 루트 속도, 복수의 미래 시점에서의 캐릭터 루트 위치 및 캐릭터의 지향 방향을 포함하는 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 컴퓨터 장치.
According to claim 6,
The features generate motion information of the character according to a movement path including the character's foot position, foot speed, root speed, character root position at a plurality of future points in time, and the character's heading direction at that time. Computer device.
제6항에 있어서,
상기 연산장치는 상기 캐릭터가 상기 이동 경로를 벗어나는 경우, 설정된 상기 이동 경로와 상기 캐릭터가 이동 경로를 벗어난 시점의 지점으로 상기 이동 경로를 평행 이동한 경로를 합성하여 상기 캐릭터가 상기 이동 경로로 합류하도록 새로운 이동 경로를 설정하고, 상기 새로운 이동 경로에서의 위치를 포함하는 특징들과 매칭되는 모션 정보를 결정하는 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 컴퓨터 장치.
According to claim 6,
When the character deviates from the movement path, the calculation device synthesizes the set movement path and a path obtained by moving the movement path in parallel to a point at which the character deviated from the movement path, so that the character joins the movement path. A computer device for generating motion information of a character according to a movement path that sets a new movement path and determines motion information matched with features including a position on the new movement path.
제6항에 있어서,
상기 연산장치는 현재 시점까지 진행한 경로의 곡률 및 상기 캐릭터의 평균 속도를 사전에 학습한 신경망 모델에 입력하여 상기 현재 시점에서의 상기 캐릭터의 새로운 지향 방향을 결정하고, 상기 새로운 지향 방향을 포함하는 특징들과 매칭되는 모션 정보를 결정하는 이동 경로에 따라 캐릭터의 동작 정보를 생성하는 컴퓨터 장치.
According to claim 6,
The calculation device determines a new orientation direction of the character at the current viewpoint by inputting the curvature of the path progressed to the current viewpoint and the average speed of the character to a previously learned neural network model, and including the new orientation direction A computer device that generates motion information of a character according to a movement path that determines motion information that matches the features.
KR1020210120031A 2021-09-08 2021-09-08 Character motion generating based on trajectories and computer apparatus KR102640247B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210120031A KR102640247B1 (en) 2021-09-08 2021-09-08 Character motion generating based on trajectories and computer apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210120031A KR102640247B1 (en) 2021-09-08 2021-09-08 Character motion generating based on trajectories and computer apparatus

Publications (2)

Publication Number Publication Date
KR20230036923A true KR20230036923A (en) 2023-03-15
KR102640247B1 KR102640247B1 (en) 2024-02-22

Family

ID=85512065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210120031A KR102640247B1 (en) 2021-09-08 2021-09-08 Character motion generating based on trajectories and computer apparatus

Country Status (1)

Country Link
KR (1) KR102640247B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100408428B1 (en) 2001-06-15 2003-12-06 한국과학기술원 A probabilistic approach to planning biped locomotion with prescibed motions
KR20100072745A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Method for constructing motion-capture database and method for motion synthesis by using the motion-capture database
KR102061976B1 (en) * 2018-07-17 2020-01-02 계명대학교 산학협력단 Apparatus for three-dimensional multi-character motion and motion control method of three-dimentional character using the same
KR20210025324A (en) * 2019-08-27 2021-03-09 주식회사 엔씨소프트 Device and method for generating animation using deep neural network
KR102254290B1 (en) * 2020-11-18 2021-05-21 한국과학기술원 Motion processing method and apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100408428B1 (en) 2001-06-15 2003-12-06 한국과학기술원 A probabilistic approach to planning biped locomotion with prescibed motions
KR20100072745A (en) * 2008-12-22 2010-07-01 한국전자통신연구원 Method for constructing motion-capture database and method for motion synthesis by using the motion-capture database
KR102061976B1 (en) * 2018-07-17 2020-01-02 계명대학교 산학협력단 Apparatus for three-dimensional multi-character motion and motion control method of three-dimentional character using the same
KR20210025324A (en) * 2019-08-27 2021-03-09 주식회사 엔씨소프트 Device and method for generating animation using deep neural network
KR102254290B1 (en) * 2020-11-18 2021-05-21 한국과학기술원 Motion processing method and apparatus

Also Published As

Publication number Publication date
KR102640247B1 (en) 2024-02-22

Similar Documents

Publication Publication Date Title
US10860838B1 (en) Universal facial expression translation and character rendering system
US9690982B2 (en) Identifying gestures or movements using a feature matrix that was compressed/collapsed using principal joint variable analysis and thresholds
KR101906431B1 (en) Method and system for 3d modeling based on 2d image recognition
US20140204013A1 (en) Part and state detection for gesture recognition
CN105981075B (en) Utilize the efficient facial landmark tracking in wire shaped homing method
US20200324205A1 (en) Method and system for real-time animation generation using machine learning
US11217003B2 (en) Enhanced pose generation based on conditional modeling of inverse kinematics
KR20080066671A (en) Bi-directional tracking using trajectory segment analysis
JP2015079502A (en) Object tracking method, object tracking device, and tracking feature selection method
JP2020177615A (en) Method of generating 3d facial model for avatar and related device
Barnachon et al. A real-time system for motion retrieval and interpretation
US20150199592A1 (en) Contour-based classification of objects
KR102256314B1 (en) Method and system for providing dynamic content of face recognition camera
KR20230036923A (en) Character motion generating based on trajectories and computer apparatus
US11361467B2 (en) Pose selection and animation of characters using video data and training techniques
KR101515845B1 (en) Method and device for gesture recognition
Lee et al. Interactive Character Path-Following Using Long-Horizon Motion Matching With Revised Future Queries
KR102143227B1 (en) Method for generating 3d shape information of object and apparatus thereof
CN112651363A (en) Micro-expression fitting method and system based on multiple characteristic points
KR20220026426A (en) Method and apparatus for video quality improvement
KR20240008225A (en) Motion matching method for generating character motion based on trajectory and velocity and computer apparatus
CN117152843B (en) Digital person action control method and system
JP2020160815A (en) Route recognition method, route recognition device, route recognition program, and route recognition program recording medium
KR102532848B1 (en) Method and apparatus for creating avatar based on body shape
US11281312B2 (en) Methods and apparatuses for producing smooth representations of input motion in time and space

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant