KR20210025324A - Device and method for generating animation using deep neural network - Google Patents

Device and method for generating animation using deep neural network Download PDF

Info

Publication number
KR20210025324A
KR20210025324A KR1020190105203A KR20190105203A KR20210025324A KR 20210025324 A KR20210025324 A KR 20210025324A KR 1020190105203 A KR1020190105203 A KR 1020190105203A KR 20190105203 A KR20190105203 A KR 20190105203A KR 20210025324 A KR20210025324 A KR 20210025324A
Authority
KR
South Korea
Prior art keywords
animation
hands
feet
deep neural
neural network
Prior art date
Application number
KR1020190105203A
Other languages
Korean (ko)
Inventor
권병준
유문원
장한용
Original Assignee
주식회사 엔씨소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엔씨소프트 filed Critical 주식회사 엔씨소프트
Priority to KR1020190105203A priority Critical patent/KR20210025324A/en
Publication of KR20210025324A publication Critical patent/KR20210025324A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

According to an embodiment of the present invention, provided is an animation generation device which comprises at least one processor. The at least one processor receives location information of two hands and two feet at a starting point and a target point to generate each path through which the two hands, the two feet, and the center of a body move from the starting point to the target point during first time using a path network, obtains the location information of the two hands and the two feet at a second time interval in each of the generated paths, and generates a pose using a pose network based on the location information of the two hands and the two feet in each of the generated paths.

Description

딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법{DEVICE AND METHOD FOR GENERATING ANIMATION USING DEEP NEURAL NETWORK}Animation generation device and animation generation method using a deep neural network {DEVICE AND METHOD FOR GENERATING ANIMATION USING DEEP NEURAL NETWORK}

아래의 실시예들은 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법에 관한 것이다.The following embodiments relate to an animation generating apparatus and an animation generating method using a deep neural network.

전통적으로 애니메이션은 '프레임 촬영(일반 영화처럼 무비 카메라를 자동으로 1초당 24프레임씩 돌아가게 찍지 않고, 보통 사진기를 이용한 촬영처럼 한컷 한컷 찍는 방식)을 통하여 그림이나 사물을 움직이는 것처럼 보이게 만드는 영화의 한 장르'로 알려져 왔다. 그러나 애니메이션은 만화(cartoon)에서 추상미술까지, 종이나 셀을 이용한 기법에서 모래나 점토를 이용한 기법까지, 인형영화에서 컴퓨터의 지원으로 만들어지는 특수효과 영화까지 거대하게 넓은 영역에 걸쳐 잡다한 내용이 망라된 범주를 가지고 있다.Traditionally, animation is a film that makes a picture or object appear to move through frame shooting (the way a movie camera does not automatically rotate 24 frames per second like a normal movie, but takes a picture one by one like shooting with a normal camera). It has been known as'genre'. However, animation covers a huge wide range of miscellaneous contents, from cartoons to abstract art, from paper and cell techniques to sand or clay techniques, from puppet films to special effects films made with computer support. Has a category.

머신 러닝(machine learning)은 인공 지능의 한 분야로, 패턴인식과 컴퓨터 학습 이론의 연구로부터 진화한 분야이며, 컴퓨터가 학습할 수 있도록 하는 알고리즘과 기술을 개발하는 분야를 말한다. Machine learning is a field of artificial intelligence, a field that has evolved from the study of pattern recognition and computer learning theory, and refers to the field of developing algorithms and technologies that enable computers to learn.

머신 러닝의 핵심은 표현(representation)과 일반화(generalization)에 있다. 표현이란 데이터의 평가이며, 일반화란 아직 알 수 없는 데이터에 대한 처리이다. 이는 전산 학습 이론 분야이기도 하다.The core of machine learning lies in representation and generalization. Representation is the evaluation of data, and generalization is the processing of data that is still unknown. It is also a field of computational learning theory.

딥 러닝(deep learning)은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의되며, 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야라고 이야기할 수 있다.Deep learning is defined as a set of machine learning algorithms that attempt a high level of abstraction through a combination of several nonlinear transducers. It can be said that it is a field.

본 발명의 실시예에 따르면, 경로를 생성하는 경로 네트워크와 포즈를 생성하는 포즈 네트워크를 기초로 애니메이션을 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.According to an embodiment of the present invention, it is possible to provide an animation generation apparatus and an animation generation method using a deep neural network capable of generating animation based on a path network for generating a path and a pose network for generating a pose.

또한, 본 발명의 다른 실시예에 따르면, 손과 발의 위치는 동일하지만 몸의 위치가 상이한 포즈를 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, it is possible to provide an animation generating apparatus and an animation generating method using a deep neural network capable of generating a pose in which the positions of hands and feet are the same, but the positions of the body are different.

또한, 본 발명의 또 다른 실시예에 따르면, 경로 네트워크가 생성한 경로를 커브 피팅(Curve fitting)하여 노이즈를 줄일 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, it is possible to provide an animation generation apparatus and an animation generation method using a deep neural network capable of reducing noise by curve fitting a path generated by a path network.

또한, 본 발명의 또 다른 실시예에 따르면, 시간 독립적인 포즈를 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다. In addition, according to another embodiment of the present invention, an animation generating apparatus and an animation generating method using a deep neural network capable of generating a time-independent pose may be provided.

또한, 본 발명의 또 다른 실시예에 따르면, 실시간으로 빠르고 정확한 모션을 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, it is possible to provide an animation generating apparatus and an animation generating method using a deep neural network capable of generating fast and accurate motion in real time.

또한, 본 발명의 또 다른 실시예에 따르면, 특정 지점을 정확하게 손으로 잡거나 발로 딛으면서 이동할 수 있는 애니메이션을 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, it is possible to provide an animation generation apparatus and an animation generation method using a deep neural network capable of generating an animation that can move while accurately holding a specific point with a hand or stepping on a foot.

또한, 본 발명의 또 다른 실시예에 따르면, 오차를 반복적으로 줄여가는 기존 수치해석 방식을 딥러닝을 이용하여 한번에 연산 가능하도록 변경할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, an animation generating apparatus and an animation generating method using a deep neural network that can be changed to be able to compute at once using deep learning an existing numerical analysis method that repeatedly reduces errors. I can.

본 발명의 일실시예에 따르면, 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치에 있어서, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보를 입력 받아 경로 네트워크를 이용하여 제1 시간 동안 상기 두 손, 상기 두 발 및 몸의 중심이 상기 시작 지점에서 상기 목표 지점까지 이동할 각각의 경로를 생성하고, 상기 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈 네트워크를 이용하여 포즈를 생성한다.According to an embodiment of the present invention, an animation generating apparatus using a deep neural network, comprising at least one processor, wherein the at least one processor provides position information of two hands and two feet at a starting point and a target point. Receive input and generate a path for each of the two hands, the feet, and the center of the body to move from the start point to the target point for a first time using a path network, and a second time interval in each of the generated paths As a result, the position information of the two hands and the two feet is obtained, and a pose is generated using a pose network based on the obtained position information of the two hands and the two feet in each of the generated paths.

또한, 상기 적어도 하나의 프로세서는, 상기 생성한 상기 포즈를 결합하여 애니메이션을 생성할 수 있다.In addition, the at least one processor may generate an animation by combining the generated pose.

또한, 상기 두 손과 상기 두 발의 위치 정보는, 상기 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다.In addition, the location information of the two hands and the two feet may be relative coordinates of the two hands and the two feet with respect to the center of the body.

또한, 상기 제2 시간은, 1초를 미리 설정된 애니메이션의 초당 프레임 수로 나눈 시간일 수 있다.Also, the second time may be a time obtained by dividing 1 second by a preset number of frames per second of an animation.

또한, 상기 적어도 하나의 프로세서는, 상기 제2 시간의 역수와 상기 제1 시간을 곱한 수에 해당하는 수의 상기 포즈를 생성할 수 있다.In addition, the at least one processor may generate the pose of a number corresponding to a number obtained by multiplying the reciprocal of the second time and the first time.

또한, 상기 적어도 하나의 프로세서는, 상기 생성한 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting) 할 수 있다.In addition, the at least one processor may curve fitting each of the generated paths into a smooth curve.

본 발명의 다른 실시예에 따르면, 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보를 입력 받아 경로 네트워크를 이용하여 제1 시간 동안 상기 두 손, 상기 두 발 및 몸의 중심이 상기 시작 지점에서 상기 목표 지점까지 이동할 각각의 경로를 생성하는 동작 및 상기 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈 네트워크를 이용하여 포즈를 생성하는 애니메이션 생성하는 동작을 포함한다.According to another embodiment of the present invention, the center of the two hands, the two feet, and the body is the starting point for a first time using a route network by receiving position information of both hands and feet at a starting point and a target point. The operation of generating each path to move to the target point at and acquiring the location information of the two hands and the two feet at a second time interval in each of the generated paths, and in the obtained respective paths And generating an animation for generating a pose using a pose network based on the location information of the two hands and the two feet.

또한, 상기 애니메이션 생성 방법은, 상기 생성한 상기 포즈를 결합하여 애니메이션을 생성하는 애니메이션 생성하는 동작을 더 포함할 수 있다.In addition, the animation generating method may further include an operation of generating an animation for generating an animation by combining the generated pose.

또한, 상기 두 손과 상기 두 발의 위치 정보는, 상기 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다.In addition, the location information of the two hands and the two feet may be relative coordinates of the two hands and the two feet with respect to the center of the body.

또한, 상기 제2 시간은, 1초를 미리 설정된 애니메이션의 초당 프레임 수로 나눈 시간일 수 있다.Also, the second time may be a time obtained by dividing 1 second by a preset number of frames per second of an animation.

또한, 상기 애니메이션 생성 방법은, 상기 제2 시간의 역수와 상기 제1 시간을 곱한 수에 해당하는 수의 상기 포즈를 생성할 수 있다.In addition, the animation generating method may generate the number of poses corresponding to a number obtained by multiplying the reciprocal of the second time and the first time.

또한, 상기 애니메이션 생성 방법은, 상기 생성한 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하는 동작을 더 포함할 수 있다.In addition, the animation generation method may further include an operation of curve fitting each of the generated paths into a smooth curve.

본 발명의 일실시예에 따르면, 경로를 생성하는 경로 네트워크와 포즈를 생성하는 포즈 네트워크를 기초로 애니메이션을 생성할 수 있는 효과가 있다.According to an embodiment of the present invention, there is an effect of generating an animation based on a path network for generating a path and a pose network for generating a pose.

또한, 손과 발의 위치는 동일하지만 몸의 위치가 상이한 포즈를 생성할 수 있는 효과가 있다.In addition, there is an effect of generating a pose where the positions of the hands and feet are the same, but the positions of the body are different.

또한, 경로 네트워크가 생성한 경로를 커브 피팅(Curve fitting)하여 노이즈를 줄일 수 있는 효과가 있다.In addition, there is an effect of reducing noise by curve fitting the path generated by the path network.

또한, 시간 독립적인 포즈를 생성할 수 있는 효과가 있다.In addition, there is an effect of generating a time-independent pose.

또한, 실시간으로 빠르고 정확한 애니메이션을 생성할 수 있는 효과가 있다.In addition, there is an effect of generating fast and accurate animation in real time.

또한, 특정 지점을 정확하게 손으로 잡거나 발로 딛으면서 이동할 수 있는 애니메이션을 생성할 수 있는 효과가 있다.In addition, there is an effect of generating an animation that can move while holding a specific point with your hand or stepping on it.

또한, 오차를 반복적으로 줄여가는 기존 수치해석 방식을 딥러닝을 이용하여 한번에 연산 가능하도록 변경할 수 있는 효과가 있다.In addition, there is an effect of being able to change the existing numerical analysis method that repeatedly reduces errors so that it can be calculated at once using deep learning.

도 1은 일실시예에 따른 애니메이션 생성 장치의 구성을 나타내는 도면이다.
도 2는 일실시예에 따른 애니메이션 생성 방법을 나타내는 플로우 차트이다.
도 3은 일실시예에 따라 애니메이션이 생성되는 모습을 나타내는 도면이다.
1 is a diagram illustrating a configuration of an animation generating apparatus according to an exemplary embodiment.
2 is a flow chart illustrating a method of generating an animation according to an exemplary embodiment.
3 is a diagram illustrating a state in which an animation is generated according to an exemplary embodiment.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in the present specification are exemplified only for the purpose of describing the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention can apply various changes and have various forms, the embodiments will be illustrated in the drawings and described in detail in the present specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all changes, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various constituent elements, but the constituent elements should not be limited by the terms. The terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of the rights according to the concept of the present invention, the first component may be referred to as the second component, and similarly The second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle. Other expressions describing the relationship between components, such as "between" and "directly between" or "adjacent to" and "directly adjacent to" should be interpreted as well.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, action, component, part, or combination thereof is present, but one or more other features or numbers It is to be understood that the possibility of addition or presence of, steps, actions, components, parts, or combinations thereof is not preliminarily excluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms as defined in a commonly used dictionary should be construed as having a meaning consistent with the meaning of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present specification. Does not.

이하의 설명에서 동일한 식별 기호는 동일한 구성을 의미하며, 불필요한 중복적인 설명 및 공지 기술에 대한 설명은 생략하기로 한다.In the following description, the same identification symbols mean the same configuration, and unnecessary redundant descriptions and descriptions of known technologies will be omitted.

본 발명의 실시 예에서 '통신', '통신망' 및 '네트워크'는 동일한 의미로 사용될 수 있다. 상기 세 용어들은, 파일을 사용자 단말, 다른 사용자들의 단말 및 다운로드 서버 사이에서 송수신할 수 있는 유무선의 근거리 및 광역 데이터 송수신망을 의미한다.In an embodiment of the present invention,'communication','communication network', and'network' may be used with the same meaning. The three terms refer to wired/wireless local and wide area data transmission/reception networks capable of transmitting and receiving files between a user terminal, a terminal of other users, and a download server.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail by describing a preferred embodiment of the present invention with reference to the accompanying drawings.

도 1은 일실시예에 따른 애니메이션 생성 장치의 구성을 나타내는 도면이다.1 is a diagram illustrating a configuration of an animation generating apparatus according to an exemplary embodiment.

도 1을 참조하면, 애니메이션 생성 장치(100)는 프로세서(110), 입출력 인터페이스 모듈(120) 및 메모리(130)를 포함한다.Referring to FIG. 1, the animation generating apparatus 100 includes a processor 110, an input/output interface module 120, and a memory 130.

애니메이션 생성 장치(100)를 구성하는 프로세서(110), 입출력 인터페이스 모듈(120) 및 메모리(130)는 상호 연결되어 있으며, 상호 데이터를 전송하는 것이 가능하다.The processor 110, the input/output interface module 120, and the memory 130 constituting the animation generating apparatus 100 are interconnected and can transmit data to each other.

프로세서(110)는 메모리(130)에 저장된 프로그램들 또는 명령들을 실행시킬 수 있다. 이때, 메모리(130)에는 애니메이션 생성 장치(100)를 동작시키기 위한 동작프로그램(예컨대, OS)이 저장될 수 있다.The processor 110 may execute programs or instructions stored in the memory 130. In this case, an operation program (eg, OS) for operating the animation generating apparatus 100 may be stored in the memory 130.

프로세서(110)는 애니메이션 생성 장치(100)에 대한 정보를 관리하기 위한 프로그램을 실행시킬 수 있다.The processor 110 may execute a program for managing information on the animation generating apparatus 100.

프로세서(110)는 애니메이션 생성 장치(100)의 동작을 관리하기 위한 프로그램을 실행시킬 수 있다.The processor 110 may execute a program for managing the operation of the animation generating apparatus 100.

프로세서(110)는 입출력 인터페이스 모듈(120)의 동작을 관리하기 위한 프로그램을 실행시킬 수 있다.The processor 110 may execute a program for managing the operation of the input/output interface module 120.

ⅰ) 경로(Trajectory) 생성Ⅰ) Trajectory creation

프로세서(110)는 입출력 인터페이스 모듈(120)을 통해 입력 데이터를 획득할 수 있다. 이때, 상기 입력 데이터는 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보일 수 있으나 상기 입력 데이터가 이에 한정되는 것은 아니다.The processor 110 may obtain input data through the input/output interface module 120. In this case, the input data may be position information of two hands and two feet at a starting point and a target point, but the input data is not limited thereto.

프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 생성할 수 있다.The processor 110 may generate a path network (eg, a deep neural network (DNN)) that generates continuous animation information.

프로세서(110)는 상기 생성한 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 시작 지점에서 목표 지점까지의 최적의 경로를 생성할 수 있으나 프로세서(110)가 경로를 생성하는 방법이 이에 한정되는 것은 아니다. 이때, 상기 최적의 경로는 시작 지점에서 목표 지점까지의 지형에 따른 자연스러운 경로일 수 있으나, 상기 최적의 경로가 이에 한정되는 것은 아니다.The processor 110 may generate an optimal path from the start point to the target point using the generated path network (eg, a deep neural network (DNN)), but the processor 110 generates the path. How to do this is not limited thereto. In this case, the optimal path may be a natural path according to the terrain from the start point to the target point, but the optimal path is not limited thereto.

프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 두 손이 시작 지점에서 목표 지점까지 제1 시간 동안 이동할 2개의 경로를 생성할 수 있다. 이때, 상기 제1 시간은 상기 시작 지점과 상기 목표 지점의 위치, 시작 지점과 목표 지점의 지형, 두 손의 이동 거리 등에 따라 변할 수 있다.The processor 110 generates two paths that the two hands will move from the start point to the target point for a first time using a route network (eg, a deep neural network (DNN)) that generates continuous animation information. can do. In this case, the first time may vary depending on the location of the starting point and the target point, the topography of the starting point and the target point, and a moving distance of two hands.

프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 두 발이 시작 지점에서 목표 지점까지 제1 시간 동안 이동할 2개의 경로를 생성할 수 있다. 이때, 상기 제1 시간은 상기 시작 지점과 상기 목표 지점의 위치, 시작 지점과 목표 지점의 지형, 두 발의 이동 거리 등에 따라 변할 수 있다.The processor 110 uses a path network (e.g., a deep neural network (DNN)) that generates continuous animation information to generate two paths that the feet will move from the start point to the target point for the first time. I can. In this case, the first time may vary depending on the location of the starting point and the target point, the topography of the starting point and the target point, and the moving distance of two feet.

프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 몸의 중심이 시작 지점에서 목표 지점까지 제1 시간 동안 이동할 1개의 경로를 생성할 수 있다. 이때, 상기 제1 시간은 상기 시작 지점과 상기 목표 지점의 위치, 시작 지점과 목표 지점의 지형, 몸의 중심의 이동 거리 등에 따라 변할 수 있다.The processor 110 uses a path network (e.g., a deep neural network (DNN)) that generates continuous animation information to determine one path in which the center of the body moves from the start point to the target point for the first time. Can be generated. In this case, the first time may vary depending on the location of the starting point and the target point, the topography of the starting point and the target point, and a moving distance of the center of the body.

프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 시작 지점에서 목표 지점까지의 지형을 고려하여 경로를 생성할 수 있다.The processor 110 may generate a path in consideration of the terrain from the start point to the target point using a path network (eg, a deep neural network (DNN)) that generates continuous animation information.

프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 생성한 애니메이션이 손으로 잡아야 할 특정 지점을 두 손 중 적어도 어느 하나의 손이 지나도록 경로를 생성할 수 있다.The processor 110 uses a path network (eg, a deep neural network (DNN)) that generates continuous animation information to select a specific point to be held by hand at least one of the two hands. You can create a path through this.

프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 생성한 애니메이션이 발로 딛어야 할 특정 지점을 두 발 중 적어도 어느 하나의 발이 지나도록 경로를 생성할 수 있다.The processor 110 is at least one of the two feet at a specific point where the animation generated using a path network (eg, a deep neural network (DNN)) that generates continuous animation information You can create a path to pass through.

프로세서(110)는 데이터를 입력 받아 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시키기 위한 학습 데이터를 생성할 수 있다. 이때, 상기 데이터에는 시작 지점과 목표 지점에서의 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션 정보가 포함될 수 있다. 프로세서(110)는 상기 생성한 학습 데이터를 입력으로 상기 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시킬 수 있다. 이때, 상기 학습 데이터는 세트(set)(예컨대, 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션으로 구성된 세트(set))로 구성된 데이터일 수 있으나 상기 학습 데이터의 형태가 이에 한정되는 것은 아니다.The processor 110 may receive data and generate training data for training a path network (eg, a deep neural network (DNN)). In this case, the data may include positions of two hands and feet at a starting point and a target point, paths of both hands and feet, and animation information. The processor 110 may train the path network (eg, a deep neural network (DNN)) by inputting the generated training data. In this case, the learning data may be data consisting of a set (eg, a set consisting of the positions of two hands and feet, a path of two hands and two feet, and an animation), but the form of the learning data is limited thereto. It is not.

프로세서(110)는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시키기 위한 학습 데이터를 입력 받을 수 있다. 이때, 상기 학습 데이터는 세트(set)(예컨대, 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션으로 구성된 세트(set))로 구성된 데이터일 수 있으나 상기 학습 데이터의 형태가 이에 한정되는 것은 아니다.The processor 110 may receive training data for training a path network (eg, a deep neural network (DNN)). In this case, the learning data may be data consisting of a set (eg, a set consisting of the positions of two hands and feet, a path of two hands and two feet, and an animation), but the form of the learning data is limited thereto. It is not.

프로세서(110)는 상기 입력 받은 학습 데이터를 입력으로 상기 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시킬 수 있다.The processor 110 may train the path network (eg, a deep neural network (DNN)) by inputting the received training data.

프로세서(110)는

Figure pat00001
가 상기 학습 데이터의 두 손과 두 발의 경로이고,
Figure pat00002
가 경로 네트워크가 생성한 결과인 경우, 하기 [수학식 1]의 에러 값을 줄이도록 경로 네트워크를 학습시킬 수 있다.The processor 110 is
Figure pat00001
Is the path of both hands and feet of the training data,
Figure pat00002
If is the result of generating the path network, the path network may be trained to reduce the error value of [Equation 1] below.

Figure pat00003
Figure pat00003

여기서,

Figure pat00004
는 뉴럴 네트워크 파라미터
Figure pat00005
의 L2 레귤레이션이고,
Figure pat00006
은 실험으로 결정된 값이다.here,
Figure pat00004
Is the neural network parameter
Figure pat00005
Is the L2 regulation of,
Figure pat00006
Is the value determined by experiment.

프로세서(110)가 학습시킨 상기 경로 네트워크는 사용자가 원하는 경로와 장치가 생성한 경로의 오차를 반복적으로 줄여나가는 기존의 수치해석 방법이 아닌 딥러닝을 이용하여 사용자가 원하는 경로를 한번에 연산하는 딥 뉴럴 네트워크일 수 있다.The path network trained by the processor 110 is a deep neural that calculates the path desired by the user at once using deep learning rather than the conventional numerical analysis method that repeatedly reduces the error between the path desired by the user and the path generated by the device. It can be a network.

ⅱ) 경로 커브 피팅(Curve fitting)Ii) Curve fitting

프로세서(110)는 생성한 노이즈가 있는 곡선 형태의 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)할 수 있다.The processor 110 may curve-fit each path in the form of a curved line with noise generated into a smooth curve.

프로세서(110)는 생성한 노이즈가 있는 곡선 형태의 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하기 위하여 상기 각각의 경로를 변형할 수 있다.The processor 110 may transform each path in order to curve fitting each path in the form of a curved line with generated noise into a smooth curve.

ⅲ) 포즈 생성Iii) Create a pose

프로세서(110)는 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보(예컨대, X, Y, Z 좌표 정보)를 획득할 수 있다. 이때 상기 제2 시간은 1초를 미리 설정된 애니메이션의 초당 프레임 수(예컨대, 초당 30 프레임)로 나눈 시간(예컨대, 1/30 초)일 수 있으나 상기 제2 시간이 이에 한정되는 것은 아니다. 또한, 상기 두 손과 상기 두 발의 위치 정보는 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다. The processor 110 may acquire location information (eg, X, Y, Z coordinate information) of the two hands and the two feet at a second time interval in each generated path. In this case, the second time may be a time (eg, 1/30 second) obtained by dividing 1 second by a preset number of frames per second (eg, 30 frames per second) of the animation, but the second time is not limited thereto. In addition, the location information of the two hands and the two feet may be relative coordinates of the two hands and the two feet with respect to the center of the body.

프로세서(110)는 포즈를 생성하는 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 생성할 수 있다.The processor 110 may generate a pose network (eg, a deep neural network (DNN)) that generates a pose.

프로세서(110)는 상기 생성한 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 상기 획득한 상기 생성한 각각의 경로에서의 두 손과 두 발의 위치 정보를 만족하는 하나의 포즈를 생성할 수 있으나 프로세서(110)가 포즈를 생성하는 방법이 이에 한정되는 것은 아니다.The processor 110 uses the generated pose network (e.g., a deep neural network (DNN)) to satisfy the position information of both hands and feet in each of the generated paths. The pose may be generated, but the method of generating the pose by the processor 110 is not limited thereto.

프로세서(110)는 상기 생성한 경로의 시작 지점에서부터 포즈를 생성할 수 있다.The processor 110 may generate a pose from the starting point of the generated path.

프로세서(110)는 상기 생성한 경로의 목표 지점까지 포즈를 생성할 수 있다.The processor 110 may generate a pose to the target point of the generated path.

프로세서(110)는 제2 시간의 역수와 제1 시간을 곱한 수에 해당하는 수만큼 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 연속적으로 동작 시킬 수 있다. 이때, 상기 제2 시간은 1초를 미리 설정된 애니메이션의 초당 프레임 수(예컨대, 초당 30 프레임)로 나눈 시간(예컨대, 1/30 초)일 수 있으나 상기 제2 시간이 이에 한정되는 것은 아니다.The processor 110 may continuously operate a pause network (eg, a deep neural network (DNN)) by a number corresponding to a number obtained by multiplying the reciprocal of the second time and the first time. In this case, the second time may be a time (eg, 1/30 second) obtained by dividing 1 second by a preset number of frames per second (eg, 30 frames per second) of the animation, but the second time is not limited thereto.

프로세서(110)는 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 제2 시간의 역수와 제1 시간을 곱한 수에 해당하는 수의 포즈를 생성할 수 있다. 이때, 상기 제2 시간은 1초를 미리 설정된 애니메이션의 초당 프레임 수(예컨대, 초당 30 프레임)로 나눈 시간(예컨대, 1/30 초)일 수 있으나 상기 제2 시간이 이에 한정되는 것은 아니다.The processor 110 may generate a number of poses corresponding to a number obtained by multiplying the reciprocal of the second time and the first time using a pose network (eg, a deep neural network (DNN)). In this case, the second time may be a time (eg, 1/30 second) obtained by dividing 1 second by a preset number of frames per second (eg, 30 frames per second) of the animation, but the second time is not limited thereto.

프로세서(110)는 데이터를 입력 받아 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시키기 위한 학습 데이터를 생성할 수 있다. 이때, 상기 데이터에는 시작 지점과 목표 지점에서의 두 손과 및 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션 정보가 포함될 수 있다.The processor 110 may receive data and generate training data for training a pose network (eg, a deep neural network (DNN)). In this case, the data may include positions of two hands and feet at a starting point and a target point, paths of both hands and feet, and animation information.

프로세서(110)는 두 손과 두 발의 위치는 동일하지만 포즈가 다른 경우를 고려하기 위하여 미리 설정한 시점에서 제2 시간 간격을 갖는 적어도 하나의 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보 및 상기 설정한 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보가 포함된 학습 데이터를 생성할 수 있다.In order to consider a case where the positions of the two hands and the two feet are the same, but the poses are different, the processor 110 is It is possible to generate training data including location information and location information of both hands and feet in each path acquired at the set point in time.

일례로, 프로세서(110)는 두 손과 두 발의 위치는 동일하지만 포즈가 다른 경우를 고려하기 위하여 미리 설정한 시점과 제2 시간 간격을 갖는 이전 2개 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보, 상기 미리 설정한 시점에서 상기 제2 시간 간격을 갖는 이후 2개 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보 및 상기 미리 설정한 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보가 포함된 학습 데이터를 생성할 수 있다.For example, in order to consider a case in which the positions of the two hands and the two feet are the same, but the poses are different, the processor 110 has two hands in each path acquired at a preset time point and two previous time points having a second time interval. And position information of two feet, position information of two hands and feet in each path obtained at two viewpoints after having the second time interval at the preset time point, and each route obtained at the preset time point It is possible to generate training data that includes the location information of both hands and feet in.

다만, 상기 학습 데이터를 생성하는 것은 실시예에 불과하며, 상기 실시예에 의해 본 발명이 제한되거나 한정되는 것은 아니다.However, generating the learning data is only an example, and the present invention is not limited or limited by the example.

프로세서(110)는 상기 생성한 학습 데이터를 입력으로 상기 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시킬 수 있다. 이때, 상기 학습 데이터는 세트(set)(예컨대, 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션으로 구성된 세트(set))로 구성된 데이터일 수 있으나 상기 학습 데이터의 형태가 이에 한정되는 것은 아니다.The processor 110 may train the pose network (eg, a deep neural network (DNN)) by inputting the generated training data. In this case, the learning data may be data consisting of a set (eg, a set consisting of the positions of two hands and feet, a path of two hands and two feet, and an animation), but the form of the learning data is limited thereto. It is not.

프로세서(110)는 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시키기 위한 학습 데이터를 입력 받을 수 있다. 이때, 상기 학습 데이터는 세트(set)(예컨대, 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션으로 구성된 세트(set))로 구성된 데이터일 수 있으나 상기 학습 데이터의 형태가 이에 한정되는 것은 아니다.The processor 110 may receive training data for training a pose network (eg, a deep neural network (DNN)). In this case, the learning data may be data consisting of a set (eg, a set consisting of the positions of two hands and feet, a path of two hands and two feet, and an animation), but the form of the learning data is limited thereto. It is not.

프로세서(110)는 상기 입력 받은 학습 데이터를 입력으로 상기 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시킬 수 있다.The processor 110 may train the pose network (eg, a deep neural network (DNN)) by inputting the received training data.

프로세서(110)는

Figure pat00007
는 생성된 포즈이고,
Figure pat00008
가 그라운드 트루스(ground truth)인 경우, 하기 [수학식 2]의 에러 값을 줄이도록 포즈 네트워크를 학습시킬 수 있다.The processor 110 is
Figure pat00007
Is the created pose,
Figure pat00008
When is a ground truth, the pose network may be trained to reduce the error value of [Equation 2] below.

Figure pat00009
Figure pat00009

프로세서(110)가 학습시킨 상기 포즈 네트워크는 사용자가 원하는 포즈와 장치가 생성한 포즈의 오차를 반복적으로 줄여나가는 기존의 수치해석 방법이 아닌 딥러닝을 이용하여 사용자가 원하는 포즈를 한번에 연산하는 딥 뉴럴 네트워크일 수 있다.The pose network trained by the processor 110 is a deep neural that calculates the pose desired by the user at once using deep learning rather than the conventional numerical analysis method that repeatedly reduces the error between the pose desired by the user and the pose generated by the device. It can be a network.

ⅳ) 애니메이션 생성Iv) Animation creation

프로세서(110)는 생성한 포즈를 순차적으로 결합하여 애니메이션을 생성할 수 있다. The processor 110 may generate an animation by sequentially combining the generated poses.

프로세서(110)는 생성한 포즈와 애니메이션을 구성하는 프레임을 일대 일로 매칭하고, 상기 프레임과 매칭된 포즈를 결합하여 애니메이션을 생성할 수 있다.The processor 110 may match the generated pose and the frame constituting the animation on a one-to-one basis, and may generate the animation by combining the frame and the matched pose.

입출력 인터페이스 모듈(120)은 네트워크를 통하여 외부 장치(예컨대, 서버)와 연결될 수 있다.The input/output interface module 120 may be connected to an external device (eg, a server) through a network.

입출력 인터페이스 모듈(120)은 입력 데이터를 획득할 수 있다.The input/output interface module 120 may acquire input data.

입출력 인터페이스 모듈(120)은 학습 데이터 생성을 위한 데이터를 획득할 수 있다.The input/output interface module 120 may acquire data for generating training data.

입출력 인터페이스 모듈(120)은 학습 데이터를 획득할 수 있다.The input/output interface module 120 may acquire learning data.

입출력 인터페이스 모듈(120)은 사용자의 입력을 획득할 수 있다.The input/output interface module 120 may obtain a user's input.

입출력 인터페이스 모듈(120)은 생성한 애니메이션 디스플레이 할 수 있다.The input/output interface module 120 may display the generated animation.

입출력 인터페이스 모듈(120)은 애니메이션 생성 장치(100)와 일체형으로 제공될 수 있다.The input/output interface module 120 may be provided integrally with the animation generating device 100.

입출력 인터페이스 모듈(120)은 애니메이션 생성 장치(100)에서 분리되어 제공될 수 있다.The input/output interface module 120 may be provided separately from the animation generating apparatus 100.

입출력 인터페이스 모듈(120)은 애니메이션 생성 장치(100)와 통신적으로 연결될 별도의 장치일 수 있다.The input/output interface module 120 may be a separate device to be communicatively connected with the animation generating device 100.

입출력 인터페이스 모듈(120)은 외부 장치와 연결되기 위한 포트(예컨대, USB 포트)를 포함할 수 있다.The input/output interface module 120 may include a port (eg, a USB port) for connecting to an external device.

입출력 인터페이스 모듈(120)은 모니터, 터치스크린, 마우스, 전자펜, 마이크로폰, 키보드, 스피커, 이어폰, 헤드폰 또는 터치패드를 포함할 수 있다.The input/output interface module 120 may include a monitor, a touch screen, a mouse, an electronic pen, a microphone, a keyboard, a speaker, an earphone, a headphone, or a touch pad.

메모리(130)는 입출력 인터페이스 모듈(120)을 통해 획득한 입력데이터 저장할 수 있다.The memory 130 may store input data acquired through the input/output interface module 120.

메모리(130)는 프로세서(110)가 경로 네트워크를 이용하여 생성한 경로를 저장할 수 있다.The memory 130 may store a path generated by the processor 110 using a path network.

메모리(130)는 학습 데이터를 생성하기 위해 입출력 인터페이스 모듈(120)을 통해 획득한 데이터를 저장할 수 있다.The memory 130 may store data acquired through the input/output interface module 120 to generate learning data.

메모리(130)는 프로세서(110)가 생성한 학습 데이터를 저장할 수 있다.The memory 130 may store training data generated by the processor 110.

메모리(130)는 입력 받은 학습 데이터를 저장할 수 있다.The memory 130 may store the received training data.

메모리(130)는 프로세서(110)가 포즈 네트워크를 이용하여 생성한 포즈를 저장할 수 있다.The memory 130 may store a pose generated by the processor 110 using a pose network.

메모리(130)는 프로세서(110)가 생성한 애니메이션을 저장할 수 있다.The memory 130 may store an animation generated by the processor 110.

메모리(130)는 프로세서(110)가 생성한 경로 네트워크를 저장할 수 있다.The memory 130 may store a route network generated by the processor 110.

메모리(130)는 프로세서(110)가 생성한 포즈 네트워크를 저장할 수 있다.The memory 130 may store the pause network generated by the processor 110.

여기서 사용된 '모듈'이라는 용어는 논리적인 구성 단위를 나타내는 것으로서, 반드시 물리적으로 구분되는 구성 요소가 아니라는 점은 본 발명이 속하는 기술분야의 당업자에게 자명한 사항이다.The term'module' used herein denotes a logical structural unit, and it is obvious to those skilled in the art that the present invention is not necessarily a physically classified component.

도 2는 일실시예에 따른 애니메이션 생성 방법을 나타내는 플로우 차트이다.2 is a flow chart illustrating a method of generating an animation according to an exemplary embodiment.

도 2를 참조하면, 애니메이션 생성 장치가 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보를 입력 받아 제1 시간 동안 상기 두 손, 상기 두 발 및 상기 몸의 중심이 상기 시작 지점에서 상기 목표 지점까지 이동할 각각의 경로를 생성한다(200).2, the animation generating apparatus receives position information of two hands and two feet at a starting point and a target point, and the center of the two hands, the two feet, and the body is the target at the starting point for a first time. Each path to be moved to the point is generated (200).

이때, 상기 애니메이션 생성 장치는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 시작 지점에서 상기 목표 지점까지의 지형에 따른 자연스러운 경로를 한번에 생성할 수 있다.At this time, the animation generating device generates a natural path according to the terrain from the start point to the target point at once using a route network (e.g., a deep neural network (DNN)) that generates continuous animation information. I can.

애니메이션 생성 장치가 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)한다(210).The animation generating device curve fitting each path into a smooth curve (210).

이때, 상기 애니메이션 생성 장치는 노이즈가 있는 곡선 형태의 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하기 위하여 상기 각각의 경로를 변형할 수 있다.In this case, the animation generating apparatus may transform each path in order to curve fitting each path in a curved shape with noise into a smooth curve.

애니메이션 생성 장치가 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈를 생성한다(220).Acquires the position information of the two hands and the two feet at a second time interval in each path generated by the animation generating device, and based on the obtained position information of the two hands and the two feet in each of the generated paths Create a pose with a (220).

이때, 상기 애니메이션 생성 장치는 포즈를 생성하는 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 사용자가 원하는 포즈를 한번에 생성할 수 있다.In this case, the animation generating apparatus may generate a pose desired by the user at once using a pose network (eg, a deep neural network (DNN)) that generates a pose.

또한, 두 손과 상기 두 발의 위치 정보는, 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다. Also, the location information of the two hands and the two feet may be relative coordinates of the two hands and the two feet with respect to the center of the body.

애니메이션 생성 장치가 상기 생성한 상기 포즈를 결합하여 애니메이션을 생성한다(230).The animation generating device combines the generated pose to generate an animation (230).

이때, 상기 애니메이션 생성 장치는 상기 생성한 포즈와 애니메이션을 구성하는 프레임을 일대 일로 매칭하고, 상기 프레임과 매칭된 포즈를 결합하여 애니메이션을 생성할 수 있다.In this case, the animation generating apparatus may match the generated pose with a frame constituting the animation on a one-to-one basis, and may generate an animation by combining the frame and the matched pose.

도 3은 일실시예에 따라 애니메이션이 생성되는 모습을 나타내는 도면이다.3 is a diagram illustrating a state in which an animation is generated according to an exemplary embodiment.

도 3을 참조하면, 애니메이션 생성 장치는 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보(300)를 입력 받을 수 있다. 이때, 상기 위치 정보는 시작 지점과 목표 지점에서의 두 손 및 두 발이 위치하는 8개 지점의 X, Y, Z 좌표일 수 있으나, 상기 위치 정보가 이에 한정되는 것은 아니다.Referring to FIG. 3, the apparatus for generating animation may receive position information 300 of two hands and feet at a starting point and a target point. In this case, the location information may be X, Y, and Z coordinates of eight points at which two hands and two feet are located at a starting point and a target point, but the location information is not limited thereto.

애니메이션 생성 장치는 연속된 애니메이션 정보를 생성하는 경로 네트워크(310)를 이용하여 경로(320)를 생성할 수 있다. The animation generating apparatus may generate the path 320 using the path network 310 that generates continuous animation information.

애니메이션 생성 장치는 상기 시작 지점에서 상기 목표 지점까지 상기 두 손이 제1 시간(예컨대, 2초) 동안 이동할 경로 2개(321, 322), 상기 시작 지점에서 상기 목표 지점까지 상기 두 발이 제1 시간(예컨대, 2초) 동안 이동할 경로 2개(321, 322) 및 상기 시작 지점에서 상기 목표 지점까지 상기 몸의 중심이 제1 시간(예컨대, 2초) 동안 이동할 경로 1개(352)를 생성할 수 있다. 이때, 미리 설정된 애니메이션의 초당 프레임 수가 30 프레임인 경우, 상기 생성한 상기 5개의 경로 각각은 60프레임의 X, Y, Z 좌표로 표현될 수 있다.The animation generating apparatus includes two paths (321, 322) that the two hands will move from the start point to the target point for a first time (for example, 2 seconds), and the two feet from the start point to the target point are the first time. (E.g., 2 seconds) two paths to move (321, 322) and the center of the body from the start point to the target point during the first time (e.g., 2 seconds) to create one path (352) I can. In this case, when the number of frames per second of the preset animation is 30 frames, each of the five generated paths may be expressed as X, Y, and Z coordinates of 60 frames.

애니메이션 생성 장치는 자연스러운 동작을 갖는 애니메이션을 생성하기 위하여 노이즈가 존재하는 각각의 경로를 부드러운 곡선으로 커브 피팅(330)할 수 있다.The animation generating apparatus may curve-fit 330 each path in which noise exists into a smooth curve in order to generate an animation having a natural motion.

애니메이션 생성 장치는 커브 피팅이 완료(340)된 5개의 경로(341, 342, 343, 344, 345)에서 동일한 시간대의 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)를 획득할 수 있다. 이때, 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)는 동일한 시간대의 몸의 중심(355)에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다. The animation generating apparatus includes position information (351, 352) of the two hands and position information (353) of the two feet in the same time period in the five paths (341, 342, 343, 344, 345) where the curve fitting is completed (340). 354). In this case, the position information 351 and 352 of the two hands and the position information 353 and 354 of the two feet may be relative coordinates of the two hands and the two feet with respect to the center 355 of the body in the same time period.

애니메이션 생성 장치는 제2 시간(예컨대, 1/30 초) 간격으로 각각의 경로에서 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)를 획득할 수 있다.The animation generating apparatus may acquire position information 351 and 352 of the two hands and position information 353 and 354 of the two feet in each path at intervals of a second time (eg, 1/30 second).

애니메이션 생성 장치는 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)를 기초로 사용자가 원하는 포즈(370)를 한번에 생성할 수 있다.The animation generating device generates a pose 370 desired by the user based on the obtained position information (351, 352) of the two hands and the position information (353, 354) of the two hands in each of the generated paths. can do.

애니메이션 생성 장치는 포즈를 생성하는 포즈 네트워크(360)를 이용하여 포즈(370)를 생성할 수 있다. The animation generating apparatus may generate the pose 370 using the pose network 360 that generates the pose.

애니메이션 생성 장치는 제2 시간(예컨대, 1/30 초) 간격으로 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)에 해당하는 하나의 포즈(370)를 생성할 수 있다. 이때, 상기 생성한 하나의 포즈는 23개의 관절(joint)정보 및 9개의 뼈(bone)의 로테이션(rotation) 정보로 표현될 수 있다.The animation generating apparatus includes position information (351, 352) of the two hands and position information (353, 354) of the two hands in each of the acquired paths at intervals of a second time (for example, 1/30 second). One pose 370 corresponding to may be generated. In this case, the generated one pose may be expressed as 23 joint information and rotation information of 9 bones.

애니메이션 생성 장치는 제2 시간(예컨대, 1/30 초)의 역수와 제1 시간(예컨대, 2초)을 곱한 수에 해당하는 수(예컨대, 60)만큼 포즈 네트워크(360)를 동작 시킬 수 있다.The animation generating apparatus may operate the pose network 360 by a number (e.g., 60) corresponding to the number (e.g., 60) multiplied by the reciprocal of the second time (e.g., 1/30 second) and the first time (e.g., 2 seconds). .

애니메이션 생성 장치는 제2 시간(예컨대, 1/30 초)의 역수와 제1 시간(예컨대, 2초)을 곱한 수에 해당하는 수(예컨대, 60)의 포즈를 생성할 수 있다.The animation generating apparatus may generate a pose of a number (eg, 60) corresponding to a number obtained by multiplying the reciprocal of the second time (eg, 1/30 second) and the first time (eg, 2 seconds).

애니메이션 생성 장치는 생성한 포즈와 애니메이션을 구성하는 프레임을 일대 일로 매칭하고, 상기 프레임과 매칭된 포즈를 결합하여 애니메이션(380)을 생성할 수 있다.The animation generating apparatus may match the generated pose and the frame constituting the animation on a one-to-one basis, and may generate the animation 380 by combining the frame and the matched pose.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. In the above, even if all the constituent elements constituting the embodiments of the present invention have been described as being combined into one or operating in combination, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all the constituent elements may be selectively combined into at least one and operated.

또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. In addition, although all of the components may be implemented as one independent hardware, a program module that performs some or all functions combined in one or more hardware by selectively combining some or all of the components. It may be implemented as a computer program having Codes and code segments constituting the computer program may be easily inferred by those skilled in the art of the present invention.

이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.Such a computer program is stored in a computer-readable storage medium, and is read and executed by a computer, thereby implementing an embodiment of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, and the like.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. In addition, the terms such as "include", "consist of" or "have" described above mean that the corresponding component may be included unless otherwise stated, excluding other components. It should not be construed as being able to further include other components.

기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms generally used, such as terms defined in the dictionary, should be interpreted as being consistent with the meaning in the context of the related technology, and are not interpreted as ideal or excessively formal meanings unless explicitly defined in the present invention.

본 발명에서 개시된 방법들은 상술된 방법을 달성하기 위한 하나 이상의 동작들 또는 단계들을 포함한다. 방법 동작들 및/또는 단계들은 청구항들의 범위를 벗어나지 않으면서 서로 상호 교환될 수도 있다. 다시 말해, 동작들 또는 단계들에 대한 특정 순서가 명시되지 않는 한, 특정 동작들 및/또는 단계들의 순서 및/또는 이용은 청구항들의 범위로부터 벗어남이 없이 수정될 수도 있다.The methods disclosed in the present invention comprise one or more actions or steps for achieving the above-described method. Method actions and/or steps may be interchanged with each other without departing from the scope of the claims. In other words, unless a specific order for the actions or steps is specified, the order and/or use of specific actions and/or steps may be modified without departing from the scope of the claims.

본 발명에서 이용되는 바와 같이, 아이템들의 리스트 중 "그 중 적어도 하나" 를 지칭하는 구절은 단일 멤버들을 포함하여, 이들 아이템들의 임의의 조합을 지칭한다. 일 예로서, "a, b, 또는 c: 중의 적어도 하나" 는 a, b, c, a-b, a-c, b-c, 및 a-b-c 뿐만 아니라 동일한 엘리먼트의 다수의 것들과의 임의의 조합 (예를 들어, a-a, a-a-a, a-a-b, a-a-c, a-b-b, a-c-c, b-b, b-b-b, b-b-c, c-c, 및 c-c-c 또는 a, b, 및 c 의 다른 임의의 순서 화한 것) 을 포함하도록 의도된다.As used herein, a phrase referring to “at least one of” in a list of items refers to any combination of these items, including single members. As an example, “at least one of a, b, or c:” means a, b, c, ab, ac, bc, and abc, as well as any combination with multiples of the same element (e.g., aa , aaa, aab, aac, abb, acc, bb, bbb, bbc, cc, and ccc or any other ordering of a, b, and c).

본 발명에서 이용되는 바와 같이, 용어 "결정하는"는 매우 다양한 동작들을 망라한다. 예를 들어, "결정하는"는 계산하는, 컴퓨팅, 프로세싱, 도출하는, 조사하는, 룩업하는 (예를 들어, 테이블, 데이터베이스, 또는 다른 데이터 구조에서 룩업하는), 확인하는 등을 포함할 수도 있다. 또한, "결정하는"은 수신하는 (예를 들면, 정보를 수신하는), 액세스하는 (메모리의 데이터에 액세스하는) 등을 포함할 수 있다. 또한, "결정하는"은 해결하는, 선택하는, 고르는, 확립하는 등을 포함할 수 있다.As used herein, the term "determining" encompasses a wide variety of actions. For example, “determining” may include computing, computing, processing, deriving, examining, looking up (eg, looking up in a table, database, or other data structure), identifying, and the like. . Further, “determining” may include receiving (eg, receiving information), accessing (accessing data in a memory), and the like. Also, “determining” may include resolving, choosing, choosing, establishing, and the like.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention.

따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

100...애니메이션 생성 장치100... animation generating device

Claims (12)

애니메이션 생성 장치에 있어서,
적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는,
시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보를 입력 받아 경로 네트워크를 이용하여 제1 시간 동안 상기 두 손, 상기 두 발 및 몸의 중심이 상기 시작 지점에서 상기 목표 지점까지 이동할 각각의 경로를 생성하고,
상기 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈 네트워크를 이용하여 포즈를 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.
In the animation generating device,
Including at least one processor,
The at least one processor,
Each path that the center of the two hands, the two feet, and the body will move from the starting point to the target point during the first time using a route network by receiving position information of both hands and feet at a starting point and a target point And create
A pose network is obtained based on the location information of the two hands and the two feet at a second time interval in each of the generated paths, and the obtained position information of the two hands and the two feet in each of the generated paths An animation generation device using a deep neural network that generates a pose using.
제1항에 있어서,
상기 적어도 하나의 프로세서는,
상기 생성한 상기 포즈를 결합하여 애니메이션을 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.
The method of claim 1,
The at least one processor,
An animation generation apparatus using a deep neural network that combines the generated poses to generate animation.
제1항에 있어서,
상기 두 손과 상기 두 발의 위치 정보는,
상기 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표인 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.
The method of claim 1,
The location information of the two hands and the two feet,
An animation generating apparatus using a deep neural network, which is the relative coordinates of the two hands and the two feet with respect to the center of the body.
제1항에 있어서,
상기 제2 시간은,
1초를 미리 설정된 애니메이션의 초당 프레임 수로 나눈 시간인 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.
The method of claim 1,
The second time,
An animation generation device using a deep neural network, which is the time obtained by dividing 1 second by the number of frames per second of the preset animation.
제1항에 있어서,
상기 적어도 하나의 프로세서는,
상기 제2 시간의 역수와 상기 제1 시간을 곱한 수에 해당하는 수의 상기 포즈를 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.
The method of claim 1,
The at least one processor,
An animation generating apparatus using a deep neural network that generates the poses of a number corresponding to a number obtained by multiplying the reciprocal of the second time and the first time.
제1항에 있어서,
상기 적어도 하나의 프로세서는,
상기 생성한 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.
The method of claim 1,
The at least one processor,
An animation generation apparatus using a deep neural network for curve fitting each of the generated paths into a smooth curve.
시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보를 입력 받아 경로 네트워크를 이용하여 제1 시간 동안 상기 두 손, 상기 두 발 및 몸의 중심이 상기 시작 지점에서 상기 목표 지점까지 이동할 각각의 경로를 생성하는 동작; 및
상기 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈 네트워크를 이용하여 포즈를 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성하는 동작
을 포함하는 애니메이션 생성 방법.
Each path that the center of the two hands, the two feet, and the body will move from the starting point to the target point during the first time using a route network by receiving position information of both hands and feet at a starting point and a target point Generating an operation; And
A pose network is obtained based on the location information of the two hands and the two feet at a second time interval in each of the generated paths, and the obtained position information of the two hands and the two feet in each of the generated paths Animation creation using a deep neural network that creates a pose using
Animation generation method comprising a.
제7항에 있어서,
상기 애니메이션 생성 방법은,
상기 생성한 상기 포즈를 결합하여 애니메이션을 생성하는 애니메이션 생성하는 동작
을 더 포함하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.
The method of claim 7,
The animation creation method,
An operation of generating an animation by combining the generated poses to generate an animation
Animation generation method using a deep neural network further comprising.
제7항에 있어서,
상기 두 손과 상기 두 발의 위치 정보는,
상기 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표인 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.
The method of claim 7,
The location information of the two hands and the two feet,
An animation generation method using a deep neural network, which is the relative coordinates of the two hands and the two feet with respect to the center of the body.
제7항에 있어서,
상기 제2 시간은,
1초를 미리 설정된 애니메이션의 초당 프레임 수로 나눈 시간인 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.
The method of claim 7,
The second time,
Animation creation method using a deep neural network, which is the time obtained by dividing 1 second by the number of frames per second of the preset animation.
제7항에 있어서,
상기 애니메이션 생성 방법은,
상기 제2 시간의 역수와 상기 제1 시간을 곱한 수에 해당하는 수의 상기 포즈를 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.
The method of claim 7,
The animation creation method,
An animation generation method using a deep neural network for generating the number of poses corresponding to a number obtained by multiplying the reciprocal of the second time and the first time.
제7항에 있어서,
상기 애니메이션 생성 방법은,
상기 생성한 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하는 동작
을 더 포함하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.
The method of claim 7,
The animation creation method,
Curve fitting operation of each of the generated paths with a smooth curve
Animation generation method using a deep neural network further comprising.
KR1020190105203A 2019-08-27 2019-08-27 Device and method for generating animation using deep neural network KR20210025324A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190105203A KR20210025324A (en) 2019-08-27 2019-08-27 Device and method for generating animation using deep neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190105203A KR20210025324A (en) 2019-08-27 2019-08-27 Device and method for generating animation using deep neural network

Publications (1)

Publication Number Publication Date
KR20210025324A true KR20210025324A (en) 2021-03-09

Family

ID=75179698

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190105203A KR20210025324A (en) 2019-08-27 2019-08-27 Device and method for generating animation using deep neural network

Country Status (1)

Country Link
KR (1) KR20210025324A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230036923A (en) * 2021-09-08 2023-03-15 한양대학교 산학협력단 Character motion generating based on trajectories and computer apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230036923A (en) * 2021-09-08 2023-03-15 한양대학교 산학협력단 Character motion generating based on trajectories and computer apparatus

Similar Documents

Publication Publication Date Title
US20210256403A1 (en) Recommendation method and apparatus
CN108122264B (en) Facilitating sketch to drawing transformations
EP3815398B1 (en) Multi-sync ensemble model for device localization
CN110516096A (en) Synthesis perception digital picture search
CN110503124A (en) Vision like numeral image is identified based on the perceptual property that user selects using based on deep neural network model
CN106485773B (en) A kind of method and apparatus for generating animation data
CN111712832A (en) Automatic image correction using machine learning
US10832484B1 (en) Virtual reality risk detection
CN106776673A (en) Multimedia document is summarized
KR20190093813A (en) Method and system for recommending product based on artificial intelligence
US10713471B2 (en) System and method for simulating facial expression of virtual facial model
CN110462645A (en) Sensor data processor with updating ability
US20200285855A1 (en) Hub and spoke classification system
CN107003834B (en) Pedestrian detection device and method
JP2021528714A (en) Avatar generator and computer program
US11887224B2 (en) Method, apparatus, and computer program for completing painting of image, and method, apparatus, and computer program for training artificial neural network
CN115244495A (en) Real-time styling for virtual environment motion
CN108664465A (en) One kind automatically generating text method and relevant apparatus
US20230042221A1 (en) Modifying digital images utilizing a language guided image editing model
JP2021179979A (en) Method for extracting attribute of item for shopping search
CN110555102A (en) media title recognition method, device and storage medium
US20220207831A1 (en) Simulated control for 3- dimensional human poses in virtual reality environments
WO2022140540A1 (en) Simulated control for 3-dimensional human poses in virtual reality environments
KR102119518B1 (en) Method and system for recommending product based style space created using artificial intelligence
KR20210025324A (en) Device and method for generating animation using deep neural network

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal