KR20210025324A - Device and method for generating animation using deep neural network - Google Patents
Device and method for generating animation using deep neural network Download PDFInfo
- Publication number
- KR20210025324A KR20210025324A KR1020190105203A KR20190105203A KR20210025324A KR 20210025324 A KR20210025324 A KR 20210025324A KR 1020190105203 A KR1020190105203 A KR 1020190105203A KR 20190105203 A KR20190105203 A KR 20190105203A KR 20210025324 A KR20210025324 A KR 20210025324A
- Authority
- KR
- South Korea
- Prior art keywords
- animation
- hands
- feet
- deep neural
- neural network
- Prior art date
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 45
- 238000000034 method Methods 0.000 title claims description 39
- 238000012549 training Methods 0.000 description 18
- 230000000694 effects Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000470 constituent Substances 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000012876 topography Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 239000004927 clay Substances 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
아래의 실시예들은 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법에 관한 것이다.The following embodiments relate to an animation generating apparatus and an animation generating method using a deep neural network.
전통적으로 애니메이션은 '프레임 촬영(일반 영화처럼 무비 카메라를 자동으로 1초당 24프레임씩 돌아가게 찍지 않고, 보통 사진기를 이용한 촬영처럼 한컷 한컷 찍는 방식)을 통하여 그림이나 사물을 움직이는 것처럼 보이게 만드는 영화의 한 장르'로 알려져 왔다. 그러나 애니메이션은 만화(cartoon)에서 추상미술까지, 종이나 셀을 이용한 기법에서 모래나 점토를 이용한 기법까지, 인형영화에서 컴퓨터의 지원으로 만들어지는 특수효과 영화까지 거대하게 넓은 영역에 걸쳐 잡다한 내용이 망라된 범주를 가지고 있다.Traditionally, animation is a film that makes a picture or object appear to move through frame shooting (the way a movie camera does not automatically rotate 24 frames per second like a normal movie, but takes a picture one by one like shooting with a normal camera). It has been known as'genre'. However, animation covers a huge wide range of miscellaneous contents, from cartoons to abstract art, from paper and cell techniques to sand or clay techniques, from puppet films to special effects films made with computer support. Has a category.
머신 러닝(machine learning)은 인공 지능의 한 분야로, 패턴인식과 컴퓨터 학습 이론의 연구로부터 진화한 분야이며, 컴퓨터가 학습할 수 있도록 하는 알고리즘과 기술을 개발하는 분야를 말한다. Machine learning is a field of artificial intelligence, a field that has evolved from the study of pattern recognition and computer learning theory, and refers to the field of developing algorithms and technologies that enable computers to learn.
머신 러닝의 핵심은 표현(representation)과 일반화(generalization)에 있다. 표현이란 데이터의 평가이며, 일반화란 아직 알 수 없는 데이터에 대한 처리이다. 이는 전산 학습 이론 분야이기도 하다.The core of machine learning lies in representation and generalization. Representation is the evaluation of data, and generalization is the processing of data that is still unknown. It is also a field of computational learning theory.
딥 러닝(deep learning)은 여러 비선형 변환기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계학습(machine learning) 알고리즘의 집합으로 정의되며, 큰 틀에서 사람의 사고방식을 컴퓨터에게 가르치는 기계학습의 한 분야라고 이야기할 수 있다.Deep learning is defined as a set of machine learning algorithms that attempt a high level of abstraction through a combination of several nonlinear transducers. It can be said that it is a field.
본 발명의 실시예에 따르면, 경로를 생성하는 경로 네트워크와 포즈를 생성하는 포즈 네트워크를 기초로 애니메이션을 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.According to an embodiment of the present invention, it is possible to provide an animation generation apparatus and an animation generation method using a deep neural network capable of generating animation based on a path network for generating a path and a pose network for generating a pose.
또한, 본 발명의 다른 실시예에 따르면, 손과 발의 위치는 동일하지만 몸의 위치가 상이한 포즈를 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, it is possible to provide an animation generating apparatus and an animation generating method using a deep neural network capable of generating a pose in which the positions of hands and feet are the same, but the positions of the body are different.
또한, 본 발명의 또 다른 실시예에 따르면, 경로 네트워크가 생성한 경로를 커브 피팅(Curve fitting)하여 노이즈를 줄일 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, it is possible to provide an animation generation apparatus and an animation generation method using a deep neural network capable of reducing noise by curve fitting a path generated by a path network.
또한, 본 발명의 또 다른 실시예에 따르면, 시간 독립적인 포즈를 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다. In addition, according to another embodiment of the present invention, an animation generating apparatus and an animation generating method using a deep neural network capable of generating a time-independent pose may be provided.
또한, 본 발명의 또 다른 실시예에 따르면, 실시간으로 빠르고 정확한 모션을 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, it is possible to provide an animation generating apparatus and an animation generating method using a deep neural network capable of generating fast and accurate motion in real time.
또한, 본 발명의 또 다른 실시예에 따르면, 특정 지점을 정확하게 손으로 잡거나 발로 딛으면서 이동할 수 있는 애니메이션을 생성할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, it is possible to provide an animation generation apparatus and an animation generation method using a deep neural network capable of generating an animation that can move while accurately holding a specific point with a hand or stepping on a foot.
또한, 본 발명의 또 다른 실시예에 따르면, 오차를 반복적으로 줄여가는 기존 수치해석 방식을 딥러닝을 이용하여 한번에 연산 가능하도록 변경할 수 있는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법을 제공할 수 있다.In addition, according to another embodiment of the present invention, an animation generating apparatus and an animation generating method using a deep neural network that can be changed to be able to compute at once using deep learning an existing numerical analysis method that repeatedly reduces errors. I can.
본 발명의 일실시예에 따르면, 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치에 있어서, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보를 입력 받아 경로 네트워크를 이용하여 제1 시간 동안 상기 두 손, 상기 두 발 및 몸의 중심이 상기 시작 지점에서 상기 목표 지점까지 이동할 각각의 경로를 생성하고, 상기 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈 네트워크를 이용하여 포즈를 생성한다.According to an embodiment of the present invention, an animation generating apparatus using a deep neural network, comprising at least one processor, wherein the at least one processor provides position information of two hands and two feet at a starting point and a target point. Receive input and generate a path for each of the two hands, the feet, and the center of the body to move from the start point to the target point for a first time using a path network, and a second time interval in each of the generated paths As a result, the position information of the two hands and the two feet is obtained, and a pose is generated using a pose network based on the obtained position information of the two hands and the two feet in each of the generated paths.
또한, 상기 적어도 하나의 프로세서는, 상기 생성한 상기 포즈를 결합하여 애니메이션을 생성할 수 있다.In addition, the at least one processor may generate an animation by combining the generated pose.
또한, 상기 두 손과 상기 두 발의 위치 정보는, 상기 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다.In addition, the location information of the two hands and the two feet may be relative coordinates of the two hands and the two feet with respect to the center of the body.
또한, 상기 제2 시간은, 1초를 미리 설정된 애니메이션의 초당 프레임 수로 나눈 시간일 수 있다.Also, the second time may be a time obtained by dividing 1 second by a preset number of frames per second of an animation.
또한, 상기 적어도 하나의 프로세서는, 상기 제2 시간의 역수와 상기 제1 시간을 곱한 수에 해당하는 수의 상기 포즈를 생성할 수 있다.In addition, the at least one processor may generate the pose of a number corresponding to a number obtained by multiplying the reciprocal of the second time and the first time.
또한, 상기 적어도 하나의 프로세서는, 상기 생성한 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting) 할 수 있다.In addition, the at least one processor may curve fitting each of the generated paths into a smooth curve.
본 발명의 다른 실시예에 따르면, 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보를 입력 받아 경로 네트워크를 이용하여 제1 시간 동안 상기 두 손, 상기 두 발 및 몸의 중심이 상기 시작 지점에서 상기 목표 지점까지 이동할 각각의 경로를 생성하는 동작 및 상기 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈 네트워크를 이용하여 포즈를 생성하는 애니메이션 생성하는 동작을 포함한다.According to another embodiment of the present invention, the center of the two hands, the two feet, and the body is the starting point for a first time using a route network by receiving position information of both hands and feet at a starting point and a target point. The operation of generating each path to move to the target point at and acquiring the location information of the two hands and the two feet at a second time interval in each of the generated paths, and in the obtained respective paths And generating an animation for generating a pose using a pose network based on the location information of the two hands and the two feet.
또한, 상기 애니메이션 생성 방법은, 상기 생성한 상기 포즈를 결합하여 애니메이션을 생성하는 애니메이션 생성하는 동작을 더 포함할 수 있다.In addition, the animation generating method may further include an operation of generating an animation for generating an animation by combining the generated pose.
또한, 상기 두 손과 상기 두 발의 위치 정보는, 상기 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다.In addition, the location information of the two hands and the two feet may be relative coordinates of the two hands and the two feet with respect to the center of the body.
또한, 상기 제2 시간은, 1초를 미리 설정된 애니메이션의 초당 프레임 수로 나눈 시간일 수 있다.Also, the second time may be a time obtained by dividing 1 second by a preset number of frames per second of an animation.
또한, 상기 애니메이션 생성 방법은, 상기 제2 시간의 역수와 상기 제1 시간을 곱한 수에 해당하는 수의 상기 포즈를 생성할 수 있다.In addition, the animation generating method may generate the number of poses corresponding to a number obtained by multiplying the reciprocal of the second time and the first time.
또한, 상기 애니메이션 생성 방법은, 상기 생성한 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하는 동작을 더 포함할 수 있다.In addition, the animation generation method may further include an operation of curve fitting each of the generated paths into a smooth curve.
본 발명의 일실시예에 따르면, 경로를 생성하는 경로 네트워크와 포즈를 생성하는 포즈 네트워크를 기초로 애니메이션을 생성할 수 있는 효과가 있다.According to an embodiment of the present invention, there is an effect of generating an animation based on a path network for generating a path and a pose network for generating a pose.
또한, 손과 발의 위치는 동일하지만 몸의 위치가 상이한 포즈를 생성할 수 있는 효과가 있다.In addition, there is an effect of generating a pose where the positions of the hands and feet are the same, but the positions of the body are different.
또한, 경로 네트워크가 생성한 경로를 커브 피팅(Curve fitting)하여 노이즈를 줄일 수 있는 효과가 있다.In addition, there is an effect of reducing noise by curve fitting the path generated by the path network.
또한, 시간 독립적인 포즈를 생성할 수 있는 효과가 있다.In addition, there is an effect of generating a time-independent pose.
또한, 실시간으로 빠르고 정확한 애니메이션을 생성할 수 있는 효과가 있다.In addition, there is an effect of generating fast and accurate animation in real time.
또한, 특정 지점을 정확하게 손으로 잡거나 발로 딛으면서 이동할 수 있는 애니메이션을 생성할 수 있는 효과가 있다.In addition, there is an effect of generating an animation that can move while holding a specific point with your hand or stepping on it.
또한, 오차를 반복적으로 줄여가는 기존 수치해석 방식을 딥러닝을 이용하여 한번에 연산 가능하도록 변경할 수 있는 효과가 있다.In addition, there is an effect of being able to change the existing numerical analysis method that repeatedly reduces errors so that it can be calculated at once using deep learning.
도 1은 일실시예에 따른 애니메이션 생성 장치의 구성을 나타내는 도면이다.
도 2는 일실시예에 따른 애니메이션 생성 방법을 나타내는 플로우 차트이다.
도 3은 일실시예에 따라 애니메이션이 생성되는 모습을 나타내는 도면이다.1 is a diagram illustrating a configuration of an animation generating apparatus according to an exemplary embodiment.
2 is a flow chart illustrating a method of generating an animation according to an exemplary embodiment.
3 is a diagram illustrating a state in which an animation is generated according to an exemplary embodiment.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시 예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시 예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in the present specification are exemplified only for the purpose of describing the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention are It may be implemented in various forms and is not limited to the embodiments described herein.
본 발명의 개념에 따른 실시 예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시 예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시 예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention can apply various changes and have various forms, the embodiments will be illustrated in the drawings and described in detail in the present specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all changes, equivalents, or substitutes included in the spirit and scope of the present invention.
제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various constituent elements, but the constituent elements should not be limited by the terms. The terms are only for the purpose of distinguishing one component from other components, for example, without departing from the scope of the rights according to the concept of the present invention, the first component may be referred to as the second component, and similarly The second component may also be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle. Other expressions describing the relationship between components, such as "between" and "directly between" or "adjacent to" and "directly adjacent to" should be interpreted as well.
본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terms used in the present specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present specification, terms such as "comprise" or "have" are intended to designate that the described feature, number, step, action, component, part, or combination thereof is present, but one or more other features or numbers It is to be understood that the possibility of addition or presence of, steps, actions, components, parts, or combinations thereof is not preliminarily excluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms as defined in a commonly used dictionary should be construed as having a meaning consistent with the meaning of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in the present specification. Does not.
이하의 설명에서 동일한 식별 기호는 동일한 구성을 의미하며, 불필요한 중복적인 설명 및 공지 기술에 대한 설명은 생략하기로 한다.In the following description, the same identification symbols mean the same configuration, and unnecessary redundant descriptions and descriptions of known technologies will be omitted.
본 발명의 실시 예에서 '통신', '통신망' 및 '네트워크'는 동일한 의미로 사용될 수 있다. 상기 세 용어들은, 파일을 사용자 단말, 다른 사용자들의 단말 및 다운로드 서버 사이에서 송수신할 수 있는 유무선의 근거리 및 광역 데이터 송수신망을 의미한다.In an embodiment of the present invention,'communication','communication network', and'network' may be used with the same meaning. The three terms refer to wired/wireless local and wide area data transmission/reception networks capable of transmitting and receiving files between a user terminal, a terminal of other users, and a download server.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail by describing a preferred embodiment of the present invention with reference to the accompanying drawings.
도 1은 일실시예에 따른 애니메이션 생성 장치의 구성을 나타내는 도면이다.1 is a diagram illustrating a configuration of an animation generating apparatus according to an exemplary embodiment.
도 1을 참조하면, 애니메이션 생성 장치(100)는 프로세서(110), 입출력 인터페이스 모듈(120) 및 메모리(130)를 포함한다.Referring to FIG. 1, the
애니메이션 생성 장치(100)를 구성하는 프로세서(110), 입출력 인터페이스 모듈(120) 및 메모리(130)는 상호 연결되어 있으며, 상호 데이터를 전송하는 것이 가능하다.The
프로세서(110)는 메모리(130)에 저장된 프로그램들 또는 명령들을 실행시킬 수 있다. 이때, 메모리(130)에는 애니메이션 생성 장치(100)를 동작시키기 위한 동작프로그램(예컨대, OS)이 저장될 수 있다.The
프로세서(110)는 애니메이션 생성 장치(100)에 대한 정보를 관리하기 위한 프로그램을 실행시킬 수 있다.The
프로세서(110)는 애니메이션 생성 장치(100)의 동작을 관리하기 위한 프로그램을 실행시킬 수 있다.The
프로세서(110)는 입출력 인터페이스 모듈(120)의 동작을 관리하기 위한 프로그램을 실행시킬 수 있다.The
ⅰ) 경로(Trajectory) 생성Ⅰ) Trajectory creation
프로세서(110)는 입출력 인터페이스 모듈(120)을 통해 입력 데이터를 획득할 수 있다. 이때, 상기 입력 데이터는 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보일 수 있으나 상기 입력 데이터가 이에 한정되는 것은 아니다.The
프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 생성할 수 있다.The
프로세서(110)는 상기 생성한 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 시작 지점에서 목표 지점까지의 최적의 경로를 생성할 수 있으나 프로세서(110)가 경로를 생성하는 방법이 이에 한정되는 것은 아니다. 이때, 상기 최적의 경로는 시작 지점에서 목표 지점까지의 지형에 따른 자연스러운 경로일 수 있으나, 상기 최적의 경로가 이에 한정되는 것은 아니다.The
프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 두 손이 시작 지점에서 목표 지점까지 제1 시간 동안 이동할 2개의 경로를 생성할 수 있다. 이때, 상기 제1 시간은 상기 시작 지점과 상기 목표 지점의 위치, 시작 지점과 목표 지점의 지형, 두 손의 이동 거리 등에 따라 변할 수 있다.The
프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 두 발이 시작 지점에서 목표 지점까지 제1 시간 동안 이동할 2개의 경로를 생성할 수 있다. 이때, 상기 제1 시간은 상기 시작 지점과 상기 목표 지점의 위치, 시작 지점과 목표 지점의 지형, 두 발의 이동 거리 등에 따라 변할 수 있다.The
프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 몸의 중심이 시작 지점에서 목표 지점까지 제1 시간 동안 이동할 1개의 경로를 생성할 수 있다. 이때, 상기 제1 시간은 상기 시작 지점과 상기 목표 지점의 위치, 시작 지점과 목표 지점의 지형, 몸의 중심의 이동 거리 등에 따라 변할 수 있다.The
프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 시작 지점에서 목표 지점까지의 지형을 고려하여 경로를 생성할 수 있다.The
프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 생성한 애니메이션이 손으로 잡아야 할 특정 지점을 두 손 중 적어도 어느 하나의 손이 지나도록 경로를 생성할 수 있다.The
프로세서(110)는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 생성한 애니메이션이 발로 딛어야 할 특정 지점을 두 발 중 적어도 어느 하나의 발이 지나도록 경로를 생성할 수 있다.The
프로세서(110)는 데이터를 입력 받아 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시키기 위한 학습 데이터를 생성할 수 있다. 이때, 상기 데이터에는 시작 지점과 목표 지점에서의 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션 정보가 포함될 수 있다. 프로세서(110)는 상기 생성한 학습 데이터를 입력으로 상기 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시킬 수 있다. 이때, 상기 학습 데이터는 세트(set)(예컨대, 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션으로 구성된 세트(set))로 구성된 데이터일 수 있으나 상기 학습 데이터의 형태가 이에 한정되는 것은 아니다.The
프로세서(110)는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시키기 위한 학습 데이터를 입력 받을 수 있다. 이때, 상기 학습 데이터는 세트(set)(예컨대, 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션으로 구성된 세트(set))로 구성된 데이터일 수 있으나 상기 학습 데이터의 형태가 이에 한정되는 것은 아니다.The
프로세서(110)는 상기 입력 받은 학습 데이터를 입력으로 상기 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시킬 수 있다.The
프로세서(110)는 가 상기 학습 데이터의 두 손과 두 발의 경로이고, 가 경로 네트워크가 생성한 결과인 경우, 하기 [수학식 1]의 에러 값을 줄이도록 경로 네트워크를 학습시킬 수 있다.The
여기서, 는 뉴럴 네트워크 파라미터 의 L2 레귤레이션이고, 은 실험으로 결정된 값이다.here, Is the neural network parameter Is the L2 regulation of, Is the value determined by experiment.
프로세서(110)가 학습시킨 상기 경로 네트워크는 사용자가 원하는 경로와 장치가 생성한 경로의 오차를 반복적으로 줄여나가는 기존의 수치해석 방법이 아닌 딥러닝을 이용하여 사용자가 원하는 경로를 한번에 연산하는 딥 뉴럴 네트워크일 수 있다.The path network trained by the
ⅱ) 경로 커브 피팅(Curve fitting)Ii) Curve fitting
프로세서(110)는 생성한 노이즈가 있는 곡선 형태의 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)할 수 있다.The
프로세서(110)는 생성한 노이즈가 있는 곡선 형태의 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하기 위하여 상기 각각의 경로를 변형할 수 있다.The
ⅲ) 포즈 생성Iii) Create a pose
프로세서(110)는 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보(예컨대, X, Y, Z 좌표 정보)를 획득할 수 있다. 이때 상기 제2 시간은 1초를 미리 설정된 애니메이션의 초당 프레임 수(예컨대, 초당 30 프레임)로 나눈 시간(예컨대, 1/30 초)일 수 있으나 상기 제2 시간이 이에 한정되는 것은 아니다. 또한, 상기 두 손과 상기 두 발의 위치 정보는 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다. The
프로세서(110)는 포즈를 생성하는 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 생성할 수 있다.The
프로세서(110)는 상기 생성한 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 상기 획득한 상기 생성한 각각의 경로에서의 두 손과 두 발의 위치 정보를 만족하는 하나의 포즈를 생성할 수 있으나 프로세서(110)가 포즈를 생성하는 방법이 이에 한정되는 것은 아니다.The
프로세서(110)는 상기 생성한 경로의 시작 지점에서부터 포즈를 생성할 수 있다.The
프로세서(110)는 상기 생성한 경로의 목표 지점까지 포즈를 생성할 수 있다.The
프로세서(110)는 제2 시간의 역수와 제1 시간을 곱한 수에 해당하는 수만큼 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 연속적으로 동작 시킬 수 있다. 이때, 상기 제2 시간은 1초를 미리 설정된 애니메이션의 초당 프레임 수(예컨대, 초당 30 프레임)로 나눈 시간(예컨대, 1/30 초)일 수 있으나 상기 제2 시간이 이에 한정되는 것은 아니다.The
프로세서(110)는 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 제2 시간의 역수와 제1 시간을 곱한 수에 해당하는 수의 포즈를 생성할 수 있다. 이때, 상기 제2 시간은 1초를 미리 설정된 애니메이션의 초당 프레임 수(예컨대, 초당 30 프레임)로 나눈 시간(예컨대, 1/30 초)일 수 있으나 상기 제2 시간이 이에 한정되는 것은 아니다.The
프로세서(110)는 데이터를 입력 받아 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시키기 위한 학습 데이터를 생성할 수 있다. 이때, 상기 데이터에는 시작 지점과 목표 지점에서의 두 손과 및 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션 정보가 포함될 수 있다.The
프로세서(110)는 두 손과 두 발의 위치는 동일하지만 포즈가 다른 경우를 고려하기 위하여 미리 설정한 시점에서 제2 시간 간격을 갖는 적어도 하나의 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보 및 상기 설정한 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보가 포함된 학습 데이터를 생성할 수 있다.In order to consider a case where the positions of the two hands and the two feet are the same, but the poses are different, the
일례로, 프로세서(110)는 두 손과 두 발의 위치는 동일하지만 포즈가 다른 경우를 고려하기 위하여 미리 설정한 시점과 제2 시간 간격을 갖는 이전 2개 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보, 상기 미리 설정한 시점에서 상기 제2 시간 간격을 갖는 이후 2개 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보 및 상기 미리 설정한 시점에서 획득한 각각의 경로에서의 두 손과 두 발의 위치 정보가 포함된 학습 데이터를 생성할 수 있다.For example, in order to consider a case in which the positions of the two hands and the two feet are the same, but the poses are different, the
다만, 상기 학습 데이터를 생성하는 것은 실시예에 불과하며, 상기 실시예에 의해 본 발명이 제한되거나 한정되는 것은 아니다.However, generating the learning data is only an example, and the present invention is not limited or limited by the example.
프로세서(110)는 상기 생성한 학습 데이터를 입력으로 상기 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시킬 수 있다. 이때, 상기 학습 데이터는 세트(set)(예컨대, 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션으로 구성된 세트(set))로 구성된 데이터일 수 있으나 상기 학습 데이터의 형태가 이에 한정되는 것은 아니다.The
프로세서(110)는 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시키기 위한 학습 데이터를 입력 받을 수 있다. 이때, 상기 학습 데이터는 세트(set)(예컨대, 두 손과 두 발의 위치, 두 손과 두 발의 경로 및 애니메이션으로 구성된 세트(set))로 구성된 데이터일 수 있으나 상기 학습 데이터의 형태가 이에 한정되는 것은 아니다.The
프로세서(110)는 상기 입력 받은 학습 데이터를 입력으로 상기 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 학습시킬 수 있다.The
프로세서(110)는 는 생성된 포즈이고, 가 그라운드 트루스(ground truth)인 경우, 하기 [수학식 2]의 에러 값을 줄이도록 포즈 네트워크를 학습시킬 수 있다.The
프로세서(110)가 학습시킨 상기 포즈 네트워크는 사용자가 원하는 포즈와 장치가 생성한 포즈의 오차를 반복적으로 줄여나가는 기존의 수치해석 방법이 아닌 딥러닝을 이용하여 사용자가 원하는 포즈를 한번에 연산하는 딥 뉴럴 네트워크일 수 있다.The pose network trained by the
ⅳ) 애니메이션 생성Iv) Animation creation
프로세서(110)는 생성한 포즈를 순차적으로 결합하여 애니메이션을 생성할 수 있다. The
프로세서(110)는 생성한 포즈와 애니메이션을 구성하는 프레임을 일대 일로 매칭하고, 상기 프레임과 매칭된 포즈를 결합하여 애니메이션을 생성할 수 있다.The
입출력 인터페이스 모듈(120)은 네트워크를 통하여 외부 장치(예컨대, 서버)와 연결될 수 있다.The input/
입출력 인터페이스 모듈(120)은 입력 데이터를 획득할 수 있다.The input/
입출력 인터페이스 모듈(120)은 학습 데이터 생성을 위한 데이터를 획득할 수 있다.The input/
입출력 인터페이스 모듈(120)은 학습 데이터를 획득할 수 있다.The input/
입출력 인터페이스 모듈(120)은 사용자의 입력을 획득할 수 있다.The input/
입출력 인터페이스 모듈(120)은 생성한 애니메이션 디스플레이 할 수 있다.The input/
입출력 인터페이스 모듈(120)은 애니메이션 생성 장치(100)와 일체형으로 제공될 수 있다.The input/
입출력 인터페이스 모듈(120)은 애니메이션 생성 장치(100)에서 분리되어 제공될 수 있다.The input/
입출력 인터페이스 모듈(120)은 애니메이션 생성 장치(100)와 통신적으로 연결될 별도의 장치일 수 있다.The input/
입출력 인터페이스 모듈(120)은 외부 장치와 연결되기 위한 포트(예컨대, USB 포트)를 포함할 수 있다.The input/
입출력 인터페이스 모듈(120)은 모니터, 터치스크린, 마우스, 전자펜, 마이크로폰, 키보드, 스피커, 이어폰, 헤드폰 또는 터치패드를 포함할 수 있다.The input/
메모리(130)는 입출력 인터페이스 모듈(120)을 통해 획득한 입력데이터 저장할 수 있다.The
메모리(130)는 프로세서(110)가 경로 네트워크를 이용하여 생성한 경로를 저장할 수 있다.The
메모리(130)는 학습 데이터를 생성하기 위해 입출력 인터페이스 모듈(120)을 통해 획득한 데이터를 저장할 수 있다.The
메모리(130)는 프로세서(110)가 생성한 학습 데이터를 저장할 수 있다.The
메모리(130)는 입력 받은 학습 데이터를 저장할 수 있다.The
메모리(130)는 프로세서(110)가 포즈 네트워크를 이용하여 생성한 포즈를 저장할 수 있다.The
메모리(130)는 프로세서(110)가 생성한 애니메이션을 저장할 수 있다.The
메모리(130)는 프로세서(110)가 생성한 경로 네트워크를 저장할 수 있다.The
메모리(130)는 프로세서(110)가 생성한 포즈 네트워크를 저장할 수 있다.The
여기서 사용된 '모듈'이라는 용어는 논리적인 구성 단위를 나타내는 것으로서, 반드시 물리적으로 구분되는 구성 요소가 아니라는 점은 본 발명이 속하는 기술분야의 당업자에게 자명한 사항이다.The term'module' used herein denotes a logical structural unit, and it is obvious to those skilled in the art that the present invention is not necessarily a physically classified component.
도 2는 일실시예에 따른 애니메이션 생성 방법을 나타내는 플로우 차트이다.2 is a flow chart illustrating a method of generating an animation according to an exemplary embodiment.
도 2를 참조하면, 애니메이션 생성 장치가 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보를 입력 받아 제1 시간 동안 상기 두 손, 상기 두 발 및 상기 몸의 중심이 상기 시작 지점에서 상기 목표 지점까지 이동할 각각의 경로를 생성한다(200).2, the animation generating apparatus receives position information of two hands and two feet at a starting point and a target point, and the center of the two hands, the two feet, and the body is the target at the starting point for a first time. Each path to be moved to the point is generated (200).
이때, 상기 애니메이션 생성 장치는 연속된 애니메이션 정보를 생성하는 경로 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 시작 지점에서 상기 목표 지점까지의 지형에 따른 자연스러운 경로를 한번에 생성할 수 있다.At this time, the animation generating device generates a natural path according to the terrain from the start point to the target point at once using a route network (e.g., a deep neural network (DNN)) that generates continuous animation information. I can.
애니메이션 생성 장치가 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)한다(210).The animation generating device curve fitting each path into a smooth curve (210).
이때, 상기 애니메이션 생성 장치는 노이즈가 있는 곡선 형태의 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하기 위하여 상기 각각의 경로를 변형할 수 있다.In this case, the animation generating apparatus may transform each path in order to curve fitting each path in a curved shape with noise into a smooth curve.
애니메이션 생성 장치가 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈를 생성한다(220).Acquires the position information of the two hands and the two feet at a second time interval in each path generated by the animation generating device, and based on the obtained position information of the two hands and the two feet in each of the generated paths Create a pose with a (220).
이때, 상기 애니메이션 생성 장치는 포즈를 생성하는 포즈 네트워크(예컨대, 딥 뉴럴 네트워크(Deep Neural Network, DNN))를 이용하여 사용자가 원하는 포즈를 한번에 생성할 수 있다.In this case, the animation generating apparatus may generate a pose desired by the user at once using a pose network (eg, a deep neural network (DNN)) that generates a pose.
또한, 두 손과 상기 두 발의 위치 정보는, 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다. Also, the location information of the two hands and the two feet may be relative coordinates of the two hands and the two feet with respect to the center of the body.
애니메이션 생성 장치가 상기 생성한 상기 포즈를 결합하여 애니메이션을 생성한다(230).The animation generating device combines the generated pose to generate an animation (230).
이때, 상기 애니메이션 생성 장치는 상기 생성한 포즈와 애니메이션을 구성하는 프레임을 일대 일로 매칭하고, 상기 프레임과 매칭된 포즈를 결합하여 애니메이션을 생성할 수 있다.In this case, the animation generating apparatus may match the generated pose with a frame constituting the animation on a one-to-one basis, and may generate an animation by combining the frame and the matched pose.
도 3은 일실시예에 따라 애니메이션이 생성되는 모습을 나타내는 도면이다.3 is a diagram illustrating a state in which an animation is generated according to an exemplary embodiment.
도 3을 참조하면, 애니메이션 생성 장치는 시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보(300)를 입력 받을 수 있다. 이때, 상기 위치 정보는 시작 지점과 목표 지점에서의 두 손 및 두 발이 위치하는 8개 지점의 X, Y, Z 좌표일 수 있으나, 상기 위치 정보가 이에 한정되는 것은 아니다.Referring to FIG. 3, the apparatus for generating animation may receive
애니메이션 생성 장치는 연속된 애니메이션 정보를 생성하는 경로 네트워크(310)를 이용하여 경로(320)를 생성할 수 있다. The animation generating apparatus may generate the
애니메이션 생성 장치는 상기 시작 지점에서 상기 목표 지점까지 상기 두 손이 제1 시간(예컨대, 2초) 동안 이동할 경로 2개(321, 322), 상기 시작 지점에서 상기 목표 지점까지 상기 두 발이 제1 시간(예컨대, 2초) 동안 이동할 경로 2개(321, 322) 및 상기 시작 지점에서 상기 목표 지점까지 상기 몸의 중심이 제1 시간(예컨대, 2초) 동안 이동할 경로 1개(352)를 생성할 수 있다. 이때, 미리 설정된 애니메이션의 초당 프레임 수가 30 프레임인 경우, 상기 생성한 상기 5개의 경로 각각은 60프레임의 X, Y, Z 좌표로 표현될 수 있다.The animation generating apparatus includes two paths (321, 322) that the two hands will move from the start point to the target point for a first time (for example, 2 seconds), and the two feet from the start point to the target point are the first time. (E.g., 2 seconds) two paths to move (321, 322) and the center of the body from the start point to the target point during the first time (e.g., 2 seconds) to create one path (352) I can. In this case, when the number of frames per second of the preset animation is 30 frames, each of the five generated paths may be expressed as X, Y, and Z coordinates of 60 frames.
애니메이션 생성 장치는 자연스러운 동작을 갖는 애니메이션을 생성하기 위하여 노이즈가 존재하는 각각의 경로를 부드러운 곡선으로 커브 피팅(330)할 수 있다.The animation generating apparatus may curve-
애니메이션 생성 장치는 커브 피팅이 완료(340)된 5개의 경로(341, 342, 343, 344, 345)에서 동일한 시간대의 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)를 획득할 수 있다. 이때, 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)는 동일한 시간대의 몸의 중심(355)에 대한 상기 두 손과 상기 두 발의 상대 좌표일 수 있다. The animation generating apparatus includes position information (351, 352) of the two hands and position information (353) of the two feet in the same time period in the five paths (341, 342, 343, 344, 345) where the curve fitting is completed (340). 354). In this case, the
애니메이션 생성 장치는 제2 시간(예컨대, 1/30 초) 간격으로 각각의 경로에서 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)를 획득할 수 있다.The animation generating apparatus may acquire
애니메이션 생성 장치는 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)를 기초로 사용자가 원하는 포즈(370)를 한번에 생성할 수 있다.The animation generating device generates a
애니메이션 생성 장치는 포즈를 생성하는 포즈 네트워크(360)를 이용하여 포즈(370)를 생성할 수 있다. The animation generating apparatus may generate the
애니메이션 생성 장치는 제2 시간(예컨대, 1/30 초) 간격으로 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손의 위치 정보(351, 352)와 상기 두 발의 위치 정보(353, 354)에 해당하는 하나의 포즈(370)를 생성할 수 있다. 이때, 상기 생성한 하나의 포즈는 23개의 관절(joint)정보 및 9개의 뼈(bone)의 로테이션(rotation) 정보로 표현될 수 있다.The animation generating apparatus includes position information (351, 352) of the two hands and position information (353, 354) of the two hands in each of the acquired paths at intervals of a second time (for example, 1/30 second). One
애니메이션 생성 장치는 제2 시간(예컨대, 1/30 초)의 역수와 제1 시간(예컨대, 2초)을 곱한 수에 해당하는 수(예컨대, 60)만큼 포즈 네트워크(360)를 동작 시킬 수 있다.The animation generating apparatus may operate the
애니메이션 생성 장치는 제2 시간(예컨대, 1/30 초)의 역수와 제1 시간(예컨대, 2초)을 곱한 수에 해당하는 수(예컨대, 60)의 포즈를 생성할 수 있다.The animation generating apparatus may generate a pose of a number (eg, 60) corresponding to a number obtained by multiplying the reciprocal of the second time (eg, 1/30 second) and the first time (eg, 2 seconds).
애니메이션 생성 장치는 생성한 포즈와 애니메이션을 구성하는 프레임을 일대 일로 매칭하고, 상기 프레임과 매칭된 포즈를 결합하여 애니메이션(380)을 생성할 수 있다.The animation generating apparatus may match the generated pose and the frame constituting the animation on a one-to-one basis, and may generate the
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 적어도 하나로 선택적으로 결합하여 동작할 수도 있다. In the above, even if all the constituent elements constituting the embodiments of the present invention have been described as being combined into one or operating in combination, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all the constituent elements may be selectively combined into at least one and operated.
또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. In addition, although all of the components may be implemented as one independent hardware, a program module that performs some or all functions combined in one or more hardware by selectively combining some or all of the components. It may be implemented as a computer program having Codes and code segments constituting the computer program may be easily inferred by those skilled in the art of the present invention.
이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 등이 포함될 수 있다.Such a computer program is stored in a computer-readable storage medium, and is read and executed by a computer, thereby implementing an embodiment of the present invention. The storage medium of the computer program may include a magnetic recording medium, an optical recording medium, and the like.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. In addition, the terms such as "include", "consist of" or "have" described above mean that the corresponding component may be included unless otherwise stated, excluding other components. It should not be construed as being able to further include other components.
기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.All terms, including technical or scientific terms, unless otherwise defined, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms generally used, such as terms defined in the dictionary, should be interpreted as being consistent with the meaning in the context of the related technology, and are not interpreted as ideal or excessively formal meanings unless explicitly defined in the present invention.
본 발명에서 개시된 방법들은 상술된 방법을 달성하기 위한 하나 이상의 동작들 또는 단계들을 포함한다. 방법 동작들 및/또는 단계들은 청구항들의 범위를 벗어나지 않으면서 서로 상호 교환될 수도 있다. 다시 말해, 동작들 또는 단계들에 대한 특정 순서가 명시되지 않는 한, 특정 동작들 및/또는 단계들의 순서 및/또는 이용은 청구항들의 범위로부터 벗어남이 없이 수정될 수도 있다.The methods disclosed in the present invention comprise one or more actions or steps for achieving the above-described method. Method actions and/or steps may be interchanged with each other without departing from the scope of the claims. In other words, unless a specific order for the actions or steps is specified, the order and/or use of specific actions and/or steps may be modified without departing from the scope of the claims.
본 발명에서 이용되는 바와 같이, 아이템들의 리스트 중 "그 중 적어도 하나" 를 지칭하는 구절은 단일 멤버들을 포함하여, 이들 아이템들의 임의의 조합을 지칭한다. 일 예로서, "a, b, 또는 c: 중의 적어도 하나" 는 a, b, c, a-b, a-c, b-c, 및 a-b-c 뿐만 아니라 동일한 엘리먼트의 다수의 것들과의 임의의 조합 (예를 들어, a-a, a-a-a, a-a-b, a-a-c, a-b-b, a-c-c, b-b, b-b-b, b-b-c, c-c, 및 c-c-c 또는 a, b, 및 c 의 다른 임의의 순서 화한 것) 을 포함하도록 의도된다.As used herein, a phrase referring to “at least one of” in a list of items refers to any combination of these items, including single members. As an example, “at least one of a, b, or c:” means a, b, c, ab, ac, bc, and abc, as well as any combination with multiples of the same element (e.g., aa , aaa, aab, aac, abb, acc, bb, bbb, bbc, cc, and ccc or any other ordering of a, b, and c).
본 발명에서 이용되는 바와 같이, 용어 "결정하는"는 매우 다양한 동작들을 망라한다. 예를 들어, "결정하는"는 계산하는, 컴퓨팅, 프로세싱, 도출하는, 조사하는, 룩업하는 (예를 들어, 테이블, 데이터베이스, 또는 다른 데이터 구조에서 룩업하는), 확인하는 등을 포함할 수도 있다. 또한, "결정하는"은 수신하는 (예를 들면, 정보를 수신하는), 액세스하는 (메모리의 데이터에 액세스하는) 등을 포함할 수 있다. 또한, "결정하는"은 해결하는, 선택하는, 고르는, 확립하는 등을 포함할 수 있다.As used herein, the term "determining" encompasses a wide variety of actions. For example, “determining” may include computing, computing, processing, deriving, examining, looking up (eg, looking up in a table, database, or other data structure), identifying, and the like. . Further, “determining” may include receiving (eg, receiving information), accessing (accessing data in a memory), and the like. Also, “determining” may include resolving, choosing, choosing, establishing, and the like.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention.
따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
100...애니메이션 생성 장치100... animation generating device
Claims (12)
적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는,
시작 지점과 목표 지점에서의 두 손 및 두 발의 위치 정보를 입력 받아 경로 네트워크를 이용하여 제1 시간 동안 상기 두 손, 상기 두 발 및 몸의 중심이 상기 시작 지점에서 상기 목표 지점까지 이동할 각각의 경로를 생성하고,
상기 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈 네트워크를 이용하여 포즈를 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.In the animation generating device,
Including at least one processor,
The at least one processor,
Each path that the center of the two hands, the two feet, and the body will move from the starting point to the target point during the first time using a route network by receiving position information of both hands and feet at a starting point and a target point And create
A pose network is obtained based on the location information of the two hands and the two feet at a second time interval in each of the generated paths, and the obtained position information of the two hands and the two feet in each of the generated paths An animation generation device using a deep neural network that generates a pose using.
상기 적어도 하나의 프로세서는,
상기 생성한 상기 포즈를 결합하여 애니메이션을 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.The method of claim 1,
The at least one processor,
An animation generation apparatus using a deep neural network that combines the generated poses to generate animation.
상기 두 손과 상기 두 발의 위치 정보는,
상기 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표인 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.The method of claim 1,
The location information of the two hands and the two feet,
An animation generating apparatus using a deep neural network, which is the relative coordinates of the two hands and the two feet with respect to the center of the body.
상기 제2 시간은,
1초를 미리 설정된 애니메이션의 초당 프레임 수로 나눈 시간인 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.The method of claim 1,
The second time,
An animation generation device using a deep neural network, which is the time obtained by dividing 1 second by the number of frames per second of the preset animation.
상기 적어도 하나의 프로세서는,
상기 제2 시간의 역수와 상기 제1 시간을 곱한 수에 해당하는 수의 상기 포즈를 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.The method of claim 1,
The at least one processor,
An animation generating apparatus using a deep neural network that generates the poses of a number corresponding to a number obtained by multiplying the reciprocal of the second time and the first time.
상기 적어도 하나의 프로세서는,
상기 생성한 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치.The method of claim 1,
The at least one processor,
An animation generation apparatus using a deep neural network for curve fitting each of the generated paths into a smooth curve.
상기 생성한 각각의 경로에서 제2 시간 간격으로 상기 두 손과 상기 두 발의 위치 정보를 획득하고, 상기 획득한 상기 생성한 각각의 경로에서의 상기 두 손과 상기 두 발의 위치 정보를 기초로 포즈 네트워크를 이용하여 포즈를 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성하는 동작
을 포함하는 애니메이션 생성 방법.Each path that the center of the two hands, the two feet, and the body will move from the starting point to the target point during the first time using a route network by receiving position information of both hands and feet at a starting point and a target point Generating an operation; And
A pose network is obtained based on the location information of the two hands and the two feet at a second time interval in each of the generated paths, and the obtained position information of the two hands and the two feet in each of the generated paths Animation creation using a deep neural network that creates a pose using
Animation generation method comprising a.
상기 애니메이션 생성 방법은,
상기 생성한 상기 포즈를 결합하여 애니메이션을 생성하는 애니메이션 생성하는 동작
을 더 포함하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.The method of claim 7,
The animation creation method,
An operation of generating an animation by combining the generated poses to generate an animation
Animation generation method using a deep neural network further comprising.
상기 두 손과 상기 두 발의 위치 정보는,
상기 몸의 중심에 대한 상기 두 손과 상기 두 발의 상대 좌표인 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.The method of claim 7,
The location information of the two hands and the two feet,
An animation generation method using a deep neural network, which is the relative coordinates of the two hands and the two feet with respect to the center of the body.
상기 제2 시간은,
1초를 미리 설정된 애니메이션의 초당 프레임 수로 나눈 시간인 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.The method of claim 7,
The second time,
Animation creation method using a deep neural network, which is the time obtained by dividing 1 second by the number of frames per second of the preset animation.
상기 애니메이션 생성 방법은,
상기 제2 시간의 역수와 상기 제1 시간을 곱한 수에 해당하는 수의 상기 포즈를 생성하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.The method of claim 7,
The animation creation method,
An animation generation method using a deep neural network for generating the number of poses corresponding to a number obtained by multiplying the reciprocal of the second time and the first time.
상기 애니메이션 생성 방법은,
상기 생성한 각각의 경로를 부드러운 곡선으로 커브 피팅(Curve fitting)하는 동작
을 더 포함하는 딥 뉴럴 네트워크를 이용한 애니메이션 생성 방법.The method of claim 7,
The animation creation method,
Curve fitting operation of each of the generated paths with a smooth curve
Animation generation method using a deep neural network further comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190105203A KR20210025324A (en) | 2019-08-27 | 2019-08-27 | Device and method for generating animation using deep neural network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190105203A KR20210025324A (en) | 2019-08-27 | 2019-08-27 | Device and method for generating animation using deep neural network |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210025324A true KR20210025324A (en) | 2021-03-09 |
Family
ID=75179698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190105203A KR20210025324A (en) | 2019-08-27 | 2019-08-27 | Device and method for generating animation using deep neural network |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210025324A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230036923A (en) * | 2021-09-08 | 2023-03-15 | 한양대학교 산학협력단 | Character motion generating based on trajectories and computer apparatus |
-
2019
- 2019-08-27 KR KR1020190105203A patent/KR20210025324A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230036923A (en) * | 2021-09-08 | 2023-03-15 | 한양대학교 산학협력단 | Character motion generating based on trajectories and computer apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210256403A1 (en) | Recommendation method and apparatus | |
CN108122264B (en) | Facilitating sketch to drawing transformations | |
EP3815398B1 (en) | Multi-sync ensemble model for device localization | |
CN110516096A (en) | Synthesis perception digital picture search | |
CN110503124A (en) | Vision like numeral image is identified based on the perceptual property that user selects using based on deep neural network model | |
CN106485773B (en) | A kind of method and apparatus for generating animation data | |
CN111712832A (en) | Automatic image correction using machine learning | |
US10832484B1 (en) | Virtual reality risk detection | |
CN106776673A (en) | Multimedia document is summarized | |
KR20190093813A (en) | Method and system for recommending product based on artificial intelligence | |
US10713471B2 (en) | System and method for simulating facial expression of virtual facial model | |
CN110462645A (en) | Sensor data processor with updating ability | |
US20200285855A1 (en) | Hub and spoke classification system | |
CN107003834B (en) | Pedestrian detection device and method | |
JP2021528714A (en) | Avatar generator and computer program | |
US11887224B2 (en) | Method, apparatus, and computer program for completing painting of image, and method, apparatus, and computer program for training artificial neural network | |
CN115244495A (en) | Real-time styling for virtual environment motion | |
CN108664465A (en) | One kind automatically generating text method and relevant apparatus | |
US20230042221A1 (en) | Modifying digital images utilizing a language guided image editing model | |
JP2021179979A (en) | Method for extracting attribute of item for shopping search | |
CN110555102A (en) | media title recognition method, device and storage medium | |
US20220207831A1 (en) | Simulated control for 3- dimensional human poses in virtual reality environments | |
WO2022140540A1 (en) | Simulated control for 3-dimensional human poses in virtual reality environments | |
KR102119518B1 (en) | Method and system for recommending product based style space created using artificial intelligence | |
KR20210025324A (en) | Device and method for generating animation using deep neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal |