KR102181828B1 - 4d rig reconstructing device and a method thereof - Google Patents

4d rig reconstructing device and a method thereof Download PDF

Info

Publication number
KR102181828B1
KR102181828B1 KR1020180109797A KR20180109797A KR102181828B1 KR 102181828 B1 KR102181828 B1 KR 102181828B1 KR 1020180109797 A KR1020180109797 A KR 1020180109797A KR 20180109797 A KR20180109797 A KR 20180109797A KR 102181828 B1 KR102181828 B1 KR 102181828B1
Authority
KR
South Korea
Prior art keywords
information
rigging
rigging information
unit
deep learning
Prior art date
Application number
KR1020180109797A
Other languages
Korean (ko)
Other versions
KR20200030947A (en
Inventor
황영배
윤주홍
박민규
박한무
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Priority to KR1020180109797A priority Critical patent/KR102181828B1/en
Publication of KR20200030947A publication Critical patent/KR20200030947A/en
Application granted granted Critical
Publication of KR102181828B1 publication Critical patent/KR102181828B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 실시예들은 단안 카메라로부터 하나 이상의 객체를 촬영한 영상 시퀀스를 입력받는 영상획득부, 영상 시퀀스의 각 프레임별로 객체를 검출하고 객체의 2D관절위치를 기초로 2D리깅정보를 추정하는 2D리깅정보추정부, 2D리깅정보를 3D리깅정보로 변환하는 3D리깅정보변환부, 변환된 3D리깅정보를 2D리깅정보로 변환하는 2D리깅정보변환부 및 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 2D리깅정보를 보완하는 데이터연관부를 포함하는 4D리깅정보 복원장치를 제공한다.
이에, 본 발명의 실시예들은 단안 카메라에 의해 촬영된 영상으로부터 객체의 리깅정보를 정확하게 복원할 수 있다.
Embodiments of the present invention include an image acquisition unit that receives an image sequence photographing one or more objects from a monocular camera, and 2D rigging that detects an object for each frame of the image sequence and estimates 2D rigging information based on the 2D joint position of the object. Information estimation unit, 3D rigging information conversion unit that converts 2D rigging information into 3D rigging information, 2D rigging information conversion unit that converts 3D rigging information into 2D rigging information, and 2D rigging information estimated from subsequent frames It provides a 4D rigging information restoration apparatus including a data linking unit that complements 2D rigging information by comparing 2D rigging information.
Accordingly, embodiments of the present invention can accurately restore the rigging information of an object from an image captured by a monocular camera.

Figure 112018091347412-pat00002
Figure 112018091347412-pat00002

Description

4D리깅정보 복원장치 및 방법{4D RIG RECONSTRUCTING DEVICE AND A METHOD THEREOF}4D rigging information restoration device and method {4D RIG RECONSTRUCTING DEVICE AND A METHOD THEREOF}

본 발명의 실시예들은 4D리깅정보 복원장치 및 방법에 관한 것으로서, 더욱 상세하게는, 단안 카메라로부터 촬영된 영상 시퀀스로 하나 이상의 객체의 2D리깅정보를 추정하고 추정된 2D리깅정보를 3D리깅정보로 변환한 후에 변환된 3D리깅정보를 2D리깅정보로 변환하여 새로 추정된 2D리깅정보를 보완하는 4D리깅정보 복원장치 및 방법에 관한 것이다.Embodiments of the present invention relate to an apparatus and method for restoring 4D rigging information, and more particularly, estimating 2D rigging information of one or more objects from an image sequence photographed from a monocular camera, and using the estimated 2D rigging information as 3D rigging information. It relates to a 4D rigging information restoration apparatus and method for supplementing newly estimated 2D rigging information by converting the converted 3D rigging information into 2D rigging information after conversion.

리깅(rigging)이란 2D 또는 3D로 모델링이 된 데이터에 뼈(skeleton)를 붙이는 것을 의미할 수 있고 리깅정보란 관절위치정보, 관절간거리정보 또는 뼈대정보를 의미할 수 있다.Rigging may mean attaching a skeleton to data modeled in 2D or 3D, and rigging information may mean joint position information, joint distance information, or skeleton information.

여기에서, 관절위치정보란 각 관절별로 관절이 위치하는 좌표를 의미할 수 있고 관절간거리정보란 각 관절별로 다른 관절과의 거리를 의미할 수 있으며 뼈대정보란 인접한 관절을 연결한 각 뼈의 길이나 각도 등을 의미할 수 있다.Here, the joint position information may refer to the coordinates at which the joint is located for each joint, and the inter-joint distance information may refer to a distance from another joint for each joint, and the skeletal information refers to the length or length of each bone connecting adjacent joints. It can mean an angle, etc.

리깅정보 복원이란 영상 시퀀스로부터 시간에 따라 변하는 객체의 리깅정보를 산출하는 것을 의미할 수 있다.Reconstruction of rigging information may mean calculating rigging information of an object that changes over time from an image sequence.

한편, 리깅정보를 통해 객체의 자세를 알 수 있으므로 리깅정보는 자세정보와 동일한 의미로 사용될 수 있고 리깅정보 복원을 통해 객체의 자세변화를 알 수 있으므로 리깅정보 복원은 자세인식, 자세추정 또는 동작인식과 동일한 의미로 사용될 수 있다.On the other hand, since the posture of the object can be known through the rigging information, the rigging information can be used in the same meaning as the posture information, and the posture change of the object can be known through the restoration of the rigging information. It can be used with the same meaning as.

리깅정보 복원은 영상분석을 통한 동작인식 기술분야에서 이용되고 있고 이러한 분야에서는 주로 재활치료, 체감형 게임 또는 스포츠 동작 연습 등에 활용되고 있다.Rigging information restoration is used in the field of motion recognition technology through image analysis, and in this field, it is mainly used for rehabilitation treatment, tangible game, or sports motion practice.

이 때에, 대부분의 종래기술은 객체를 촬영한 영상과 함께 객체에 대한 깊이 정보를 이용하여 리깅정보 복원을 하고 있는데 깊이 정보를 측정하여 리깅정보 복원을 하기 위해서는 다시점 영상이나 깊이 측정 센서가 요구된다.At this time, most of the prior art restores rigging information by using depth information on the object along with the image captured by the object. In order to restore the rigging information by measuring depth information, a multi-view image or a depth measurement sensor is required. .

그런데, 다시점 영상을 얻기 위해서는 객체를 다양한 각도에서 촬영할 수 있도록 배치된 복수의 카메라가 필요하여 카메라 배치 공간이 필요하고 비용이 증가하는 문제가 있고 깊이 측정 센서를 사용하는 경우에는 깊이 측정거리나 측정범위가 제한되고 조명 등에 의한 노이즈로 인하여 깊이 측정 오차가 커지는 문제가 있다.However, in order to obtain a multi-view image, a plurality of cameras arranged so that objects can be photographed from various angles are required, which requires space for camera placement and increases cost. In the case of using a depth sensor, the depth measurement distance or measurement There is a problem in that the range is limited and the depth measurement error increases due to noise caused by lighting or the like.

한편, 다시점 영상이 아닌 스테레오 영상을 통해 깊이 정보를 측정할 수도 있는데 이 경우에는 양안(스테레오) 카메라가 필요하므로 일반적인 단안(모노) 카메라를 사용할 수 없다는 문제가 있다.Meanwhile, depth information may be measured through a stereo image rather than a multi-view image. In this case, since a binocular (stereo) camera is required, there is a problem that a general monocular (mono) camera cannot be used.

이와 관련하여 종래기술을 살펴보면 다음과 같다.In this regard, the prior art is as follows.

한국등록특허 제10-1784410호는 운동 자세 인식 방법에 관한 것으로, 더욱 상세하게는 제시된 특정 운동 자세를 취하는 사용자의 신체 관절 부분의 위치 정보를 구하는 단계, 상기 위치 정보를 이용해 3차원 공간에서의 벡터를 구하는 단계, 상기 벡터로부터 신체 관절 부분의 각도를 계산하는 단계, 상기 각도를 이용해 상기 특정 운동 자세에 대한 상기 사용자의 실제 자세의 일치율을 계산하는 단계를 포함하는 운동 자세 인식 방법에 관한 것이다.Korean Patent Registration No. 10-1784410 relates to a method for recognizing an exercise posture, and in more detail, the step of obtaining location information of a joint part of a user's body in a specific exercise posture presented, and a vector in a three-dimensional space using the location information. It relates to an exercise posture recognition method comprising the step of obtaining, calculating an angle of a body joint part from the vector, and calculating a match rate of the actual posture of the user with respect to the specific exercise posture using the angle.

그러나, 종래기술은 3차원 자세를 계산하기 위해 깊이 측정 센서(IR 프로젝터)를 사용하므로 깊이 정보 없이 단안 카메라로 촬영된 영상 시퀀스로부터 리깅정보를 복원하는 방법을 제시하지 못한다.However, since the prior art uses a depth measurement sensor (IR projector) to calculate a three-dimensional posture, it cannot propose a method of restoring rigging information from an image sequence captured by a monocular camera without depth information.

전술한 문제점을 해결하기 위하여, 본 발명의 실시예들은 단안 카메라로부터 하나 이상의 객체를 촬영한 영상 시퀀스를 입력받는 영상획득부, 영상 시퀀스의 각 프레임별로 객체를 검출하고 객체의 2D관절위치를 기초로 2D리깅정보를 추정하는 2D리깅정보추정부, 2D리깅정보를 3D리깅정보로 변환하는 3D리깅정보변환부, 변환된 3D리깅정보를 2D리깅정보로 변환하는 2D리깅정보변환부 및 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 2D리깅정보를 보완하는 데이터연관부를 포함하는 4D리깅정보 복원장치를 제공하는데 그 목적이 있다.In order to solve the above-described problem, embodiments of the present invention provide an image acquisition unit that receives an image sequence photographing one or more objects from a monocular camera, and detects an object for each frame of the image sequence, and based on the 2D joint position of the object. From the 2D rigging information estimation unit that estimates 2D rigging information, the 3D rigging information conversion unit that converts 2D rigging information to 3D rigging information, the 2D rigging information conversion unit that converts the converted 3D rigging information into 2D rigging information, and the subsequent frames. An object of the present invention is to provide a 4D rigging information restoration apparatus including a data linking unit that complements the 2D rigging information by comparing the estimated 2D rigging information and the converted 2D rigging information.

또한, 본 발명의 실시예들은 변환된 3D리깅정보로부터 특정시간 경과 후의 3D리깅정보를 예측하는 3D리깅정보예측부를 포함하고, 2D리깅정보변환부는 예측된 3D리깅정보를 2D리깅정보로 변환하는 4D리깅정보 복원장치를 제공하는데 그 목적이 있다.In addition, embodiments of the present invention include a 3D rigging information prediction unit that predicts 3D rigging information after a specific time elapses from the converted 3D rigging information, and the 2D rigging information conversion unit converts the predicted 3D rigging information into 2D rigging information. Its purpose is to provide a device for restoring rigging information.

또한, 본 발명의 실시예들은 데이터연관부가 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 객체별로 2D리깅정보를 보완하는 4D리깅정보 복원장치를 제공하는데 그 목적이 있다.In addition, an object of the present invention is to provide a 4D rigging information restoration apparatus in which a data association unit compares 2D rigging information estimated from a subsequent frame with converted 2D rigging information to supplement 2D rigging information for each object.

또한, 본 발명의 실시예들은 2D리깅정보가 2D관절간거리정보 또는 2D관절위치정보를 포함하고, 데이터연관부는 이후의 프레임으로부터 추정된 2D리깅정보 또는 이후의 프레임의 2D관절위치 주변의 영상패치와 변환된 2D리깅정보 또는 변환된 2D리깅정보와 관련된 2D관절위치 주변의 영상패치를 비교하여 객체별로 2D리깅정보를 보완하는 4D리깅정보 복원장치를 제공하는데 그 목적이 있다.In addition, in the embodiments of the present invention, the 2D rigging information includes 2D joint distance information or 2D joint position information, and the data linking unit includes 2D rigging information estimated from a subsequent frame or an image patch around the 2D joint position of a subsequent frame. An object of the present invention is to provide a 4D rigging information restoration apparatus that supplements 2D rigging information for each object by comparing the converted 2D rigging information or the image patch around the 2D joint position related to the converted 2D rigging information.

또한, 본 발명의 실시예들은 데이터연관부가 칼만필터 또는 LSTM을 이용하여 2D리깅정보를 보완하는 4D리깅정보 복원장치를 제공하는데 그 목적이 있다.In addition, an object of the present invention is to provide a 4D rigging information restoration apparatus in which a data association unit supplements 2D rigging information using a Kalman filter or LSTM.

또한, 본 발명의 실시예들은 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부는 2D리깅정보를 3D리깅정보로 변환하거나 변환된 3D리깅정보로부터 3D리깅정보를 예측하거나 3D리깅정보를 2D리깅정보로 변환하기 위해서 딥러닝모델을 이용하는 4D리깅정보 복원장치를 제공하는데 그 목적이 있다.In addition, embodiments of the present invention are 3D rigging information conversion unit, the 3D rigging information prediction unit, or the 2D rigging information conversion unit converts 2D rigging information into 3D rigging information, or predicts 3D rigging information from the converted 3D rigging information Its purpose is to provide a 4D rigging information restoration apparatus using a deep learning model to convert rigging information into 2D rigging information.

또한, 본 발명의 실시예들은 딥러닝모델이 2D관절간거리정보 또는 3D관절간거리정보를 이용하여 학습되고, 3D리깅정보변환부, 3D리깅정보예측부 또는 2D리깅정보변환부는 2D리깅정보 또는 3D리깅정보를 2D관절간거리정보 또는 3D관절간거리정보로 인코딩하여 학습된 딥러닝모델에 입력하는 4D리깅정보 복원장치를 제공하는데 그 목적이 있다.In addition, in embodiments of the present invention, a deep learning model is learned using 2D joint distance information or 3D joint distance information, and a 3D rigging information conversion unit, a 3D rigging information prediction unit, or a 2D rigging information conversion unit is 2D rigging information or 3D rigging information. An object thereof is to provide a 4D rigging information restoration apparatus that encodes information into 2D joint distance information or 3D joint distance information and inputs it into a learned deep learning model.

또한, 본 발명의 실시예들은 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부가 인코딩된 2D관절간거리정보 또는 3D관절간거리정보를 다차원척도법(MDS)을 이용하여 2D리깅정보 또는 3D리깅정보로 디코딩하는 4D리깅정보 복원장치를 제공하는데 그 목적이 있다.In addition, embodiments of the present invention are 2D rigging information using a 3D rigging information conversion unit, the 3D rigging information prediction unit or the 2D rigging information conversion unit encoded 2D joint distance information or 3D joint distance information using a multidimensional scaling method (MDS). Another object is to provide a 4D rigging information recovery apparatus that decodes 3D rigging information.

또한, 본 발명의 실시예들은 딥러닝모델을 학습시키는 딥러닝모델부를 포함하는 4D리깅정보 복원장치를 제공하는데 그 목적이 있다.Further, an object of the present invention is to provide an apparatus for restoring 4D rigging information including a deep learning model unit for learning a deep learning model.

또한, 본 발명의 실시예들은 단안 카메라로부터 하나 이상의 객체를 촬영한 영상 시퀀스를 입력받는 영상획득단계, 영상 시퀀스의 각 프레임별로 객체를 검출하고 객체의 2D관절위치를 기초로 2D리깅정보를 추정하는 2D리깅정보추정단계, 2D리깅정보를 3D리깅정보로 변환하는 3D리깅정보변환단계, 변환된 3D리깅정보를 2D리깅정보로 변환하는 2D리깅정보변환단계 및 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 2D리깅정보를 보완하는 데이터연관단계를 포함하는 4D리깅정보 복원방법을 제공하는데 그 목적이 있다.In addition, embodiments of the present invention include an image acquisition step of receiving an image sequence photographing one or more objects from a monocular camera, detecting an object for each frame of the image sequence, and estimating 2D rigging information based on the 2D joint position of the object. 2D rigging information estimation step, 3D rigging information conversion step for converting 2D rigging information to 3D rigging information, 2D rigging information conversion step for converting the converted 3D rigging information to 2D rigging information, and 2D rigging information estimated from subsequent frames. The purpose of this is to provide a method for restoring 4D rigging information including a data association step of compensating 2D rigging information by comparing the converted 2D rigging information.

전술한 목적을 달성하기 위한 본 발명의 일 실시예는 단안 카메라로부터 하나 이상의 객체를 촬영한 영상 시퀀스를 입력받는 영상획득부; 상기 영상 시퀀스의 각 프레임별로 객체를 검출하고 상기 객체의 2D관절위치를 기초로 2D리깅정보를 추정하는 2D리깅정보추정부; 상기 2D리깅정보를 3D리깅정보로 변환하는 3D리깅정보변환부; 변환된 상기 3D리깅정보를 2D리깅정보로 변환하는 2D리깅정보변환부; 및 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 상기 2D리깅정보를 비교하여 상기 2D리깅정보를 보완하는 데이터연관부를 포함하는 4D리깅정보 복원장치를 제공한다.An embodiment of the present invention for achieving the above object is an image acquisition unit for receiving an image sequence of one or more objects from a monocular camera; A 2D rigging information estimation unit for detecting an object for each frame of the image sequence and estimating 2D rigging information based on the 2D joint position of the object; A 3D rigging information conversion unit converting the 2D rigging information into 3D rigging information; A 2D rigging information conversion unit converting the converted 3D rigging information into 2D rigging information; And it provides a 4D rigging information restoration apparatus including a data linking unit for compensating the 2D rigging information by comparing the 2D rigging information estimated from a subsequent frame and the converted 2D rigging information.

일 실시예에서, 상기 4D리깅정보 복원장치는, 변환된 상기 3D리깅정보로부터 특정시간 경과 후의 3D리깅정보를 예측하는 3D리깅정보예측부를 포함하고, 상기 2D리깅정보변환부는 예측된 상기 3D리깅정보를 2D리깅정보로 변환할 수 있다.In one embodiment, the 4D rigging information restoration apparatus includes a 3D rigging information prediction unit for predicting 3D rigging information after a specific time elapses from the converted 3D rigging information, and the 2D rigging information conversion unit Can be converted into 2D rigging information.

일 실시예에서, 상기 데이터연관부는 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 상기 2D리깅정보를 비교하여 객체별로 상기 2D리깅정보를 보완할 수 있다.In an embodiment, the data linking unit may supplement the 2D rigging information for each object by comparing the 2D rigging information estimated from a subsequent frame with the converted 2D rigging information.

일 실시예에서, 상기 2D리깅정보는 2D관절간거리정보 또는 2D관절위치정보를 포함하고, 상기 데이터연관부는 이후의 프레임으로부터 추정된 2D리깅정보 또는 이후의 프레임의 2D관절위치 주변의 영상패치와 변환된 상기 2D리깅정보 또는 변환된 상기 2D리깅정보와 관련된 2D관절위치 주변의 영상패치를 비교하여 객체별로 상기 2D리깅정보를 보완할 수 있다.In one embodiment, the 2D rigging information includes 2D joint distance information or 2D joint position information, and the data linking unit converts 2D rigging information estimated from a later frame or an image patch around the 2D joint position of a later frame. The 2D rigging information may be supplemented for each object by comparing the image patch around the 2D joint position related to the converted 2D rigging information or the converted 2D rigging information.

일 실시예에서, 상기 데이터연관부는 칼만필터 또는 LSTM을 이용하여 상기 2D리깅정보를 보완할 수 있다.In one embodiment, the data linking unit may supplement the 2D rigging information using a Kalman filter or an LSTM.

일 실시예에서, 상기 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부는 2D리깅정보를 3D리깅정보로 변환하거나 변환된 3D리깅정보로부터 3D리깅정보를 예측하거나 3D리깅정보를 2D리깅정보로 변환하기 위해서 딥러닝모델을 이용할 수 있다.In one embodiment, the 3D rigging information conversion unit, the 3D rigging information prediction unit, or the 2D rigging information conversion unit converts 2D rigging information into 3D rigging information, or predicts 3D rigging information from the converted 3D rigging information or 3D rigging information. A deep learning model can be used to convert the data into 2D rigging information.

일 실시예에서, 상기 딥러닝모델은 2D관절간거리정보 또는 3D관절간거리정보를 이용하여 학습되고, 상기 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부는 2D리깅정보 또는 3D리깅정보를 2D관절간거리정보 또는 3D관절간거리정보로 인코딩하여 학습된 상기 딥러닝모델에 입력할 수 있다.In one embodiment, the deep learning model is learned using 2D joint distance information or 3D joint distance information, and the 3D rigging information conversion unit, the 3D rigging information prediction unit, or the 2D rigging information conversion unit is 2D rigging information or 3D The rigging information may be encoded into 2D joint distance information or 3D joint distance information and input into the learned deep learning model.

일 실시예에서, 상기 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부는 인코딩된 2D관절간거리정보 또는 3D관절간거리정보를 다차원척도법(MDS)을 이용하여 2D리깅정보 또는 3D리깅정보로 디코딩할 수 있다.In one embodiment, the 3D rigging information conversion unit, the 3D rigging information prediction unit, or the 2D rigging information conversion unit converts the encoded 2D joint distance information or 3D joint distance information into 2D rigging information or 3D using a multidimensional scaling method (MDS). It can be decoded with rigging information.

일 실시예에서, 상기 4D리깅정보 복원장치는, 상기 딥러닝모델을 학습시키는 딥러닝모델부를 포함할 수 있다.In one embodiment, the 4D rigging information restoration apparatus may include a deep learning model unit that trains the deep learning model.

또한, 전술한 목적을 달성하기 위한 본 발명의 다른 실시예는 단안 카메라로부터 하나 이상의 객체를 촬영한 영상 시퀀스를 입력받는 영상획득단계; 상기 영상 시퀀스의 각 프레임별로 객체를 검출하고 상기 객체의 2D관절위치를 기초로 2D리깅정보를 추정하는 2D리깅정보추정단계; 상기 2D리깅정보를 3D리깅정보로 변환하는 3D리깅정보변환단계; 변환된 상기 3D리깅정보를 2D리깅정보로 변환하는 2D리깅정보변환단계; 및 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 상기 2D리깅정보를 비교하여 상기 2D리깅정보를 보완하는 데이터연관단계를 포함하는 4D리깅정보 복원방법을 제공한다.In addition, another embodiment of the present invention for achieving the above object is an image acquisition step of receiving an image sequence photographing one or more objects from a monocular camera; A 2D rigging information estimation step of detecting an object for each frame of the image sequence and estimating 2D rigging information based on the 2D joint position of the object; 3D rigging information conversion step of converting the 2D rigging information into 3D rigging information; 2D rigging information conversion step of converting the converted 3D rigging information into 2D rigging information; And a data association step of compensating the 2D rigging information by comparing the 2D rigging information estimated from a subsequent frame with the converted 2D rigging information.

이상과 같이, 본 발명의 실시예들은 단안 카메라로부터 하나 이상의 객체를 촬영한 영상 시퀀스를 입력받는 영상획득부, 영상 시퀀스의 각 프레임별로 객체를 검출하고 객체의 2D관절위치를 기초로 2D리깅정보를 추정하는 2D리깅정보추정부, 2D리깅정보를 3D리깅정보로 변환하는 3D리깅정보변환부, 변환된 3D리깅정보를 2D리깅정보로 변환하는 2D리깅정보변환부 및 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 2D리깅정보를 보완하는 데이터연관부를 포함하는 4D리깅정보 복원장치를 제공함으로써, 단안 카메라에 의해 촬영된 영상으로부터 객체의 리깅정보를 정확하게 복원할 수 있다.As described above, embodiments of the present invention include an image acquisition unit that receives an image sequence photographing one or more objects from a monocular camera, detects an object for each frame of the image sequence, and provides 2D rigging information based on the 2D joint position of the object. Estimated 2D rigging information estimation unit, 3D rigging information conversion unit that converts 2D rigging information into 3D rigging information, 2D rigging information conversion unit that converts 3D rigging information into 2D rigging information, and 2D rigging estimated from subsequent frames By providing a 4D rigging information restoration apparatus including a data linking unit that complements the 2D rigging information by comparing the information and the converted 2D rigging information, it is possible to accurately restore the rigging information of the object from the image captured by the monocular camera.

또한, 본 발명의 실시예들은 변환된 3D리깅정보로부터 특정시간 경과 후의 3D리깅정보를 예측하는 3D리깅정보예측부를 포함하고, 2D리깅정보변환부는 예측된 3D리깅정보를 2D리깅정보로 변환하는 4D리깅정보 복원장치를 제공함으로써, 객체의 리깅정보를 정확하게 복원할 수 있다.In addition, embodiments of the present invention include a 3D rigging information prediction unit that predicts 3D rigging information after a specific time elapses from the converted 3D rigging information, and the 2D rigging information conversion unit converts the predicted 3D rigging information into 2D rigging information. By providing the rigging information restoration device, it is possible to accurately restore the rigging information of the object.

또한, 본 발명의 실시예들은 데이터연관부가 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 객체별로 2D리깅정보를 보완하는 4D리깅정보 복원장치를 제공함으로써, 객체별로 리깅정보를 정확하게 복원할 수 있다.In addition, embodiments of the present invention provide a 4D rigging information restoration apparatus that complements 2D rigging information for each object by comparing the 2D rigging information estimated from the subsequent frame with the converted 2D rigging information by the data association unit. Can be accurately restored.

또한, 본 발명의 실시예들은 2D리깅정보가 2D관절간거리정보 또는 2D관절위치정보를 포함하고, 데이터연관부는 이후의 프레임으로부터 추정된 2D리깅정보 또는 이후의 프레임의 2D관절위치 주변의 영상패치와 변환된 2D리깅정보 또는 변환된 2D리깅정보와 관련된 2D관절위치 주변의 영상패치를 비교하여 객체별로 2D리깅정보를 보완하는 4D리깅정보 복원장치를 제공함으로써, 객체별로 리깅정보를 정확하게 복원할 수 있다.In addition, in the embodiments of the present invention, the 2D rigging information includes 2D joint distance information or 2D joint position information, and the data linking unit includes 2D rigging information estimated from a subsequent frame or an image patch around the 2D joint position of a subsequent frame. By providing a 4D rigging information restoration device that complements the 2D rigging information for each object by comparing the converted 2D rigging information or the image patch around the 2D joint position related to the converted 2D rigging information, it is possible to accurately restore the rigging information for each object. .

또한, 본 발명의 실시예들은 데이터연관부가 칼만필터 또는 LSTM을 이용하여 2D리깅정보를 보완하는 4D리깅정보 복원장치를 제공함으로써, 단안 카메라에 의해 촬영된 영상으로부터 객체의 리깅정보를 정확하게 복원할 수 있다.In addition, embodiments of the present invention provide a 4D rigging information restoration device in which the data linking unit complements 2D rigging information using a Kalman filter or LSTM, so that the rigging information of an object can be accurately restored from an image captured by a monocular camera. have.

또한, 본 발명의 실시예들은 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부는 2D리깅정보를 3D리깅정보로 변환하거나 변환된 3D리깅정보로부터 3D리깅정보를 예측하거나 3D리깅정보를 2D리깅정보로 변환하기 위해서 딥러닝모델을 이용하는 4D리깅정보 복원장치를 제공함으로써, 단안 카메라에 의해 촬영된 영상으로부터 객체의 리깅정보를 정확하게 복원할 수 있다.In addition, embodiments of the present invention are 3D rigging information conversion unit, the 3D rigging information prediction unit, or the 2D rigging information conversion unit converts 2D rigging information into 3D rigging information, or predicts 3D rigging information from the converted 3D rigging information By providing a 4D rigging information restoration apparatus using a deep learning model to convert rigging information into 2D rigging information, rigging information of an object can be accurately restored from an image captured by a monocular camera.

또한, 본 발명의 실시예들은 딥러닝모델이 2D관절간거리정보 또는 3D관절간거리정보를 이용하여 학습되고, 3D리깅정보변환부, 3D리깅정보예측부 또는 2D리깅정보변환부는 2D리깅정보 또는 3D리깅정보를 2D관절간거리정보 또는 3D관절간거리정보로 인코딩하여 학습된 딥러닝모델에 입력하는 4D리깅정보 복원장치를 제공함으로써, 딥러닝 학습을 효율적으로 할 수 있고 단안 카메라에 의해 촬영된 영상으로부터 객체의 리깅정보를 정확하게 복원할 수 있다.In addition, in embodiments of the present invention, a deep learning model is learned using 2D joint distance information or 3D joint distance information, and a 3D rigging information conversion unit, a 3D rigging information prediction unit, or a 2D rigging information conversion unit is 2D rigging information or 3D rigging information. By providing a 4D rigging information restoration device that encodes the information into 2D joint distance information or 3D joint distance information and inputs it into the learned deep learning model, deep learning learning can be efficiently performed and objects can be retrieved from images captured by a monocular camera. Rigging information can be accurately restored.

또한, 본 발명의 실시예들은 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부가 인코딩된 2D관절간거리정보 또는 3D관절간거리정보를 다차원척도법(MDS)을 이용하여 2D리깅정보 또는 3D리깅정보로 디코딩하는 4D리깅정보 복원장치를 제공함으로써, 딥러닝 학습을 효율적으로 할 수 있고 단안 카메라에 의해 촬영된 영상으로부터 객체의 리깅정보를 정확하게 복원할 수 있다.In addition, embodiments of the present invention are 2D rigging information using a 3D rigging information conversion unit, the 3D rigging information prediction unit or the 2D rigging information conversion unit encoded 2D joint distance information or 3D joint distance information using a multidimensional scaling method (MDS). Alternatively, by providing a 4D rigging information restoration device that decodes into 3D rigging information, deep learning learning can be efficiently performed, and rigging information of an object can be accurately restored from an image captured by a monocular camera.

또한, 본 발명의 실시예들은 딥러닝모델을 학습시키는 딥러닝모델부를 포함하는 4D리깅정보 복원장치를 제공함으로써, 단안 카메라에 의해 촬영된 영상으로부터 객체의 리깅정보를 정확하게 복원할 수 있다.In addition, embodiments of the present invention provide a 4D rigging information restoration apparatus including a deep learning model unit for learning a deep learning model, so that rigging information of an object can be accurately restored from an image captured by a monocular camera.

또한, 본 발명의 실시예들은 단안 카메라로부터 하나 이상의 객체를 촬영한 영상 시퀀스를 입력받는 영상획득단계, 영상 시퀀스의 각 프레임별로 객체를 검출하고 객체의 2D관절위치를 기초로 2D리깅정보를 추정하는 2D리깅정보추정단계, 2D리깅정보를 3D리깅정보로 변환하는 3D리깅정보변환단계, 변환된 3D리깅정보를 2D리깅정보로 변환하는 2D리깅정보변환단계 및 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 2D리깅정보를 보완하는 데이터연관단계를 포함하는 4D리깅정보 복원방법을 제공함으로써, 단안 카메라에 의해 촬영된 영상으로부터 객체의 리깅정보를 정확하게 복원할 수 있다.In addition, embodiments of the present invention include an image acquisition step of receiving an image sequence photographing one or more objects from a monocular camera, detecting an object for each frame of the image sequence, and estimating 2D rigging information based on the 2D joint position of the object. 2D rigging information estimation step, 3D rigging information conversion step for converting 2D rigging information to 3D rigging information, 2D rigging information conversion step for converting the converted 3D rigging information to 2D rigging information, and 2D rigging information estimated from subsequent frames. By providing a 4D rigging information restoration method including a data association step of compensating the 2D rigging information by comparing the converted 2D rigging information, it is possible to accurately restore the rigging information of the object from the image captured by the monocular camera.

이상의 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있다.It is not limited to the above-mentioned effects, and other effects not mentioned may be clearly understood by those of ordinary skill in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 4D리깅정보 복원시스템을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 4D리깅정보 복원장치를 나타낸 블록 구성도이다.
도 3은 본 발명의 일 실시예에 따른 관절 및 골격을 나타낸 도면이다.
도 4는 본 발명의 일 실시예에 따른 2D관절위치정보를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 관절간거리정보를 나타낸 도면이다.
도 6은 본 발명의 일 실시예에 따른 딥러닝모델을 나타낸 도면이다.
도 7 및 도 8은 본 발명의 일 실시예에 따른 4D리깅정보 복원장치를 나타낸 도면이다.
도 9는 본 발명의 일 실시예에 따른 4D리깅정보 복원방법을 나타낸 순서도이다.
1 is a diagram showing a 4D rigging information restoration system according to an embodiment of the present invention.
2 is a block diagram showing a 4D rigging information restoration apparatus according to an embodiment of the present invention.
3 is a view showing a joint and skeleton according to an embodiment of the present invention.
4 is a view showing 2D joint position information according to an embodiment of the present invention.
5 is a view showing distance information between joints according to an embodiment of the present invention.
6 is a diagram showing a deep learning model according to an embodiment of the present invention.
7 and 8 are diagrams showing a 4D rigging information restoration apparatus according to an embodiment of the present invention.
9 is a flowchart illustrating a method of restoring 4D rigging information according to an embodiment of the present invention.

본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예들에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예들에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 본 실시예들은 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Since the description of the present invention is merely examples for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiments described in the text. That is, since the present embodiments can be variously changed and have various forms, the scope of the present invention should be understood to include equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only those effects, the scope of the present invention should not be understood as being limited thereto.

또한, 이하에 첨부되는 도면들은 본 발명의 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시예들을 제공한다. 다만, 본 발명의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시예로 구성될 수 있다.In addition, the accompanying drawings are provided to aid in the understanding of the present invention, and provide embodiments together with a detailed description. However, the technical features of the present invention are not limited to a specific drawing, and features disclosed in each drawing may be combined with each other to constitute a new embodiment.

이하의 실시예들에서 개시되는 4D리깅정보 복원장치 및 방법에 대해 각 도면을 참조하여 보다 구체적으로 살펴보기로 한다.The apparatus and method for restoring 4D rigging information disclosed in the following embodiments will be described in more detail with reference to each drawing.

도 1은 본 발명의 일 실시예에 따른 4D리깅정보 복원시스템을 나타낸 도면이다.1 is a diagram showing a 4D rigging information restoration system according to an embodiment of the present invention.

도 1을 참조하면, 일 실시예에 따른 4D리깅정보 복원시스템(100)은 객체(200), 카메라(300), 4D리깅정보 복원장치(400)를 포함하여 구성될 수 있다.Referring to FIG. 1, a 4D rigging information restoration system 100 according to an embodiment may include an object 200, a camera 300, and a 4D rigging information restoration apparatus 400.

객체(200)는 카메라(300)에 의해 촬영되고 자세를 바꾸면서 움직일 수 있으며 스포츠 선수일 수 있다. 또한, 객체(200)는 복수일 수 있다.The object 200 is photographed by the camera 300 and can move while changing a posture, and may be a sports player. In addition, the number of objects 200 may be plural.

카메라(300)는 단안(모노) 카메라일 수 있고 통신 네트워크를 통해 4D리깅정보 복원장치(400)와 연결될 수 있다. 카메라(300)는 하나 이상의 객체(200)를 촬영한 영상 시퀀스를 통신 네트워크를 통해 4D리깅정보 복원장치(400)에 전송할 수 잇다.The camera 300 may be a monocular (mono) camera and may be connected to the 4D rigging information restoration device 400 through a communication network. The camera 300 may transmit an image sequence photographing one or more objects 200 to the 4D rigging information restoration apparatus 400 through a communication network.

여기에서, 통신 네트워크는 유선 또는 무선 통신망을 포함하는 넓은 개념의 네트워크를 의미할 수 있다.Here, the communication network may mean a network of a wide concept including a wired or wireless communication network.

또한, 카메라(300)는 객체(200)의 움직임을 추적하면서 촬영할 수 있는 PTZ 카메라일 수 있다.Also, the camera 300 may be a PTZ camera capable of photographing while tracking the movement of the object 200.

여기에서, PTZ 카메라는 회전(PAN), 수직방향기울기(Tilt), 줌(Zoom) 조정이 가능한 카메라를 의미할 수 있다.Here, the PTZ camera may mean a camera capable of adjusting a rotation (PAN), a vertical tilt (Tilt), and a zoom (Zoom).

4D리깅정보 복원장치(400)는 통신 네트워크를 통해 카메라(300)와 연결되고 서버, PC, 노트북, 휴대폰, 스마트 폰(2G/3G/4G/LET, smart phone), PMP(Portable Media Player), PDA(Personal Digital Assistant) 및 타블렛 PC(Tablet PC) 중 어느 하나일 수 있다. 4D리깅정보 복원장치(400)의 세부적인 구성은 도 2와 관련하여 살펴본다.The 4D rigging information restoration device 400 is connected to the camera 300 through a communication network and is connected to a server, PC, notebook, mobile phone, smart phone (2G/3G/4G/LET, smart phone), PMP (Portable Media Player), It may be any one of PDA (Personal Digital Assistant) and Tablet PC (Tablet PC). A detailed configuration of the 4D rigging information restoration device 400 will be described with reference to FIG. 2.

도 2는 본 발명의 일 실시예에 따른 4D리깅정보 복원장치를 나타낸 블록 구성도이다.2 is a block diagram showing a 4D rigging information restoration apparatus according to an embodiment of the present invention.

도 2를 참조하면, 일 실시예에 따른 4D리깅정보 복원장치(400)는 영상획득부(410), 2D리깅정보추정부(420), 3D리깅정보변환부(430), 3D리깅정보예측부(440), 2D리깅정보변환부(450), 데이터연관부(460), 딥러닝모델부(470), 송수신부(480), 데이터베이스(490) 및 제어부(495)를 포함하여 구성될 수 있다.2, a 4D rigging information restoration apparatus 400 according to an embodiment includes an image acquisition unit 410, a 2D rigging information estimation unit 420, a 3D rigging information conversion unit 430, and a 3D rigging information prediction unit. 440, 2D rigging information conversion unit 450, data association unit 460, deep learning model unit 470, transmission and reception unit 480, database 490, and may be configured to include a control unit 495. .

영상획득부(410)는 단안(모노) 카메라(300)에 의해 촬영된 영상 시퀀스를 송수신부(480)를 통해 카메라(300)로부터 전송받거나 상기 영상 시퀀스가 저장된 데이터베이스(490)로부터 영상 시퀀스를 입력받을 수 있다.The image acquisition unit 410 receives the image sequence captured by the monocular (mono) camera 300 from the camera 300 through the transmission/reception unit 480 or inputs the image sequence from the database 490 in which the image sequence is stored. I can receive it.

여기에서, 영상 시퀀스란 일련의 프레임을 의미할 수 있고 프레임이란 동영상(일련의 프레임)을 구성하는 복수의 이미지(프레임)들 중의 하나를 의미할 수 있다. 영상 시퀀스에는 현재의 프레임과 이후의 프레임이 포함될 수 있다.Here, the image sequence may refer to a series of frames, and the frame may refer to one of a plurality of images (frames) constituting a moving picture (series of frames). The image sequence may include a current frame and a subsequent frame.

2D리깅정보추정부(420)는 영상획득부(410)로부터 영상 시퀀스를 전달받아서 영상 시퀀스의 각 프레임별로 객체(200)를 검출하고 상기 객체(200)의 2D관절위치를 기초로 2D리깅정보를 추정할 수 있다.The 2D rigging information estimation unit 420 receives the image sequence from the image acquisition unit 410, detects the object 200 for each frame of the image sequence, and calculates 2D rigging information based on the 2D joint position of the object 200. Can be estimated.

여기에서, 각 프레임별로 객체(200)를 검출한다는 것은 2D리깅정보추정부(420)가 영상획득부(410) 또는 데이터베이스(490)로부터 전달받은 모든 프레임에 대해 객체(200)를 검출한다는 것을 의미하는 것은 아니고 전달받은 영상 시퀀스의 일부의 프레임에 대해 각 프레임별로 객체(200)를 검출한다는 것을 의미할 수 있다.Here, detecting the object 200 for each frame means that the 2D rigging information estimation unit 420 detects the object 200 for all frames transmitted from the image acquisition unit 410 or the database 490 It does not mean that the object 200 is detected for each frame of a part of the transmitted image sequence.

또한 여기에서, 2D관절위치란 관절의 종류별 2차원 위치 좌표를 의미할 수 있다. 예컨대, 왼쪽 무릎 관절의 2차원 위치 좌표 또는 오른쪽 팔꿈치 관절의 2차원 위치 좌표를 의미할 수 있다.In addition, here, the 2D joint position may mean two-dimensional position coordinates for each type of joint. For example, it may mean a two-dimensional position coordinate of a left knee joint or a two-dimensional position coordinate of a right elbow joint.

또한 여기에서, 리깅(rigging)이란 2D 또는 3D로 모델링이 된 데이터에 뼈(skeleton)를 붙이는 것을 의미할 수 있다.In addition, here, rigging may mean attaching a skeleton to data modeled in 2D or 3D.

또한 여기에서, 리깅정보란 관절위치정보, 관절간거리정보 또는 뼈대정보를 의미할 수 있고 2D리깅정보란 2차원상에서의 리깅정보를 의미하고 3D리깅정보란 3차원상에서의 리깅정보를 의미할 수 있다.In addition, here, the rigging information may mean joint position information, joint distance information, or skeleton information, 2D rigging information may mean rigging information in two dimensions, and 3D rigging information may mean rigging information in three dimensions. .

여기에서, 관절위치정보란 관절의 종류별로 관절이 위치하는 좌표를 의미할 수 있고 관절간거리정보란 각 관절별로 다른 관절과의 거리를 의미할 수 있으며 뼈대정보란 인접한 관절을 연결한 각 뼈의 길이나 각도 등을 의미할 수 있다.Here, the joint position information may refer to the coordinates at which the joint is located for each type of joint, and the inter-joint distance information may refer to the distance from other joints for each joint, and the bone information refers to the length of each bone connecting adjacent joints. Or angle.

그런데, 관절간거리정보 또는 뼈대정보는 관절위치정보를 기초로 생성될 수 있으므로 리깅정보는 그 의미와 관계없이 기본적으로 관절위치정보를 기초로 추정될 수 있다.However, since inter-joint distance information or skeleton information may be generated based on joint position information, the rigging information may be basically estimated based on joint position information regardless of its meaning.

도 3은 본 발명의 일 실시예에 따른 관절 및 골격을 나타낸 도면이다.3 is a view showing a joint and skeleton according to an embodiment of the present invention.

도 3은 일 실시예에 따른 관절 및 골격의 일례를 예시적으로 나타낸 도면이다.3 is a diagram illustrating an example of a joint and a skeleton according to an embodiment.

도 3을 참조하면, 객체(200)는 어깨관절(J1, J4), 팔꿈치관절(J2, J5), 무릎관절(J8, J11), 발목관절(J9, J12) 등의 관절을 포함할 수 있고 무릎관절(J8, J11)과 발목관절(J9, J12)과 같은 인접한 관절을 연결하면 하부다리뼈대(B1, B2)와 같은 뼈대를 구할 수 있다. 즉, 관절로부터 뼈대를 구할 수 있다.Referring to FIG. 3, the object 200 may include joints such as shoulder joints J1 and J4, elbow joints J2 and J5, knee joints J8 and J11, and ankle joints J9 and J12. By connecting adjacent joints such as knee joints (J8, J11) and ankle joints (J9, J12), you can obtain a skeleton such as the lower leg bones (B1, B2). In other words, it is possible to obtain the skeleton from the joint.

도 4는 본 발명의 일 실시예에 따른 2D관절위치정보를 나타낸 도면이다.4 is a view showing 2D joint position information according to an embodiment of the present invention.

도 4를 참조하면, 2D관절위치정보는 관절(J1 내지 J14)의 종류별 2차원 위치 좌표(X, Y)에 해당할 수 있다. 여기에서, X 및 Y는 하나의 프레임에서 각 관절이 위치하는 픽셀의 X축과 Y축의 좌표값일 수 있다.Referring to FIG. 4, 2D joint position information may correspond to two-dimensional position coordinates (X, Y) for each type of joints J1 to J14. Here, X and Y may be coordinate values of the X-axis and Y-axis of a pixel in which each joint is located in one frame.

전술한 바와 같이, 리깅정보는 관절위치정보를 의미할 수 있으므로 2D리깅정보는 도 4의 2D관절위치정보를 의미할 수 있고 3D리깅정보는 도 4에서 Z축의 좌표를 더 부가한 관절(J1 내지 J14)의 종류별 3차원 위치 좌표(X축, Y축 및 Z축의 좌표)를 의미할 수 있다.As described above, since the rigging information may refer to joint position information, the 2D rigging information may refer to the 2D joint position information of FIG. 4, and the 3D rigging information is joints (J1 to J1 to which the coordinates of the Z-axis are added in FIG. J14) may mean three-dimensional position coordinates (coordinates of the X-axis, Y-axis, and Z-axis) for each type.

한편, 리깅정보는 각 뼈의 길이나 각도 등을 나타내는 뼈대정보를 의미할 수도 있는데 뼈대정보는 도 3에서 살펴본 바와 같이 인접하는 관절의 관절위치정보를 기초로 용이하게 계산될 수 있다.Meanwhile, the rigging information may mean skeleton information indicating the length or angle of each bone, and the skeleton information can be easily calculated based on joint position information of adjacent joints as shown in FIG. 3.

즉, 인접하는 두 관절을 잇는 직선의 길이가 뼈의 길이에 해당할 수 있고 직선의 기울기가 뼈의 각도에 해당할 수 있다.That is, the length of a straight line connecting two adjacent joints may correspond to the length of the bone, and the slope of the straight line may correspond to the angle of the bone.

도 5는 본 발명의 일 실시예에 따른 관절간거리정보를 나타낸 도면이다.5 is a view showing distance information between joints according to an embodiment of the present invention.

도 5를 참조하면, 관절간거리정보는 각 관절(J1 내지 J14)로부터 다른 모든 관절(J1 내지 J14)까지의 거리에 해당할 수 있고 두 개의 관절간 거리는 두 개의 관절위치정보를 기초로 계산할 수 있다. 여기에서, 거리는 유클리드 거리(Euclidean Distance)일 수 있다.Referring to FIG. 5, the inter-joint distance information may correspond to distances from each joint (J1 to J14) to all other joints (J1 to J14), and the distance between two joints may be calculated based on two joint position information. . Here, the distance may be an Euclidean distance.

전술한 바와 같이, 리깅정보는 도 5의 관절간거리정보를 의미할 수 있고 리깅정보가 2D리깅정보 또는 3D리깅정보 중 어느 것인지에 관계없이(즉, 차원에 관계없이) 도 5의 관절간거리정보의 형식(n행 n열, n은 관절의 개수)을 가질 수 있다.As described above, the rigging information may mean the inter-joint distance information of FIG. 5 and the format of the inter-joint distance information of FIG. 5 regardless of whether the rigging information is 2D rigging information or 3D rigging information (ie, regardless of the dimension). (n rows and n columns, n is the number of joints).

다만, 2차원에서의 관절간거리정보의 값들은 2D관절위치정보를 기초로 계산되고 3차원에서의 관절간거리정보의 값들은 3D관절위치정보를 기초로 계산되므로 2차원에서의 관절간거리정보의 값들은 3차원에서의 관절간거리정보의 값들보다 작거나 같을 수 있다.However, the values of the inter-joint distance information in 2D are calculated based on the 2D joint position information, and the values of the inter-joint distance information in 3D are calculated based on the 3D joint position information. It may be less than or equal to values of the inter-joint distance information in 3D.

다시 도 2로 돌아와서, 2D리깅정보추정부(420)는 예를 들면 보행자 검출 방법 중에서 보행자의 머리, 팔, 다리, 상반신 등을 따로 검출하는 방법을 이용하여 영상정보에서 객체(200)의 각 신체 부위를 검출한 후에 신체 부위 간 연결지점을 2D관절위치로 추정할 수 있다.Returning to FIG. 2 again, the 2D rigging information estimation unit 420 uses, for example, a method of separately detecting a pedestrian's head, arms, legs, upper body, etc. among the pedestrian detection methods. After detecting the part, the connection point between the body parts can be estimated as a 2D joint position.

다만, 2D리깅정보추정부(420)는 2D관절위치를 추정하기 위해 상기 방법에 한정되지 않고 다양한 다른 방법을 사용할 수 있다.However, the 2D rigging information estimation unit 420 is not limited to the above method and may use various other methods to estimate the 2D joint position.

또한, 2D리깅정보추정부(420)는 리깅정보가 관절위치정보인 경우에는 상기 방법으로 추정한 2D관절위치를 2D리깅정보로 그대로 사용할 수 있고 리깅정보가 뼈대정보 또는 관절간거리정보인 경우에는 상기 방법으로 추정한 2D관절위치를 기초로 뼈대정보 또는 관절간거리정보를 계산하여 2D리깅정보로 사용할 수 있다.In addition, the 2D rigging information estimation unit 420 may use the 2D joint position estimated by the above method as 2D rigging information when the rigging information is joint position information, and when the rigging information is skeleton information or inter-joint distance information, the Based on the 2D joint position estimated by the method, skeleton information or inter-joint distance information can be calculated and used as 2D rigging information.

3D리깅정보변환부(430)는 2D리깅정보추정부(420)에 의해 추정되거나 후술할 데이터연관부(460)에 의해 보완된 2D리깅정보를 전달받아서 3D리깅정보로 변환할 수 있다.The 3D rigging information conversion unit 430 may receive 2D rigging information estimated by the 2D rigging information estimating unit 420 or supplemented by the data linking unit 460 to be described later, and convert it into 3D rigging information.

3D리깅정보예측부(440)는 3D리깅정보변환부(430)에 의해 변환된 3D리깅정보로부터 특정시간 경과 후의 3D리깅정보를 예측할 수 있다. 여기에서, 특정시간이란 현재 프레임의 촬영 시각과 리깅정보를 복원할 이후 프레임의 촬영 시각의 차를 의미할 수 있다.The 3D rigging information prediction unit 440 may predict 3D rigging information after a specific time has elapsed from the 3D rigging information converted by the 3D rigging information conversion unit 430. Here, the specific time may mean a difference between a current frame capture time and a frame capture time after the rigging information is restored.

2D리깅정보변환부(450)는 3D리깅정보변환부(430)에 의해 변환되거나 3D리깅정보예측부(440)에 의해 예측된 3D리깅정보를 전달받아서 2D리깅정보로 변환할 수 있다.The 2D rigging information converting unit 450 may receive 3D rigging information converted by the 3D rigging information converting unit 430 or predicted by the 3D rigging information predicting unit 440 and convert it into 2D rigging information.

이 때에, 리깅정보 중에서 깊이(Z축)와 관련된 정보에 손실이 발생할 수 있는데 손실되는 깊이 정보는 카메라의 촬영 방향에 의해 결정되고 카메라의 정면 방향이 깊이(Z축)에 해당할 수 있다.At this time, loss may occur in information related to depth (Z axis) among the rigging information. The lost depth information may be determined by the photographing direction of the camera, and the front direction of the camera may correspond to the depth (Z axis).

3D리깅정보변환부(430), 3D리깅정보예측부(440) 또는 2D리깅정보변환부(450)는 2D리깅정보를 3D리깅정보로 변환하거나 변환된 3D리깅정보로부터 3D리깅정보를 예측하거나 3D리깅정보를 2D리깅정보로 변환하기 위해서 딥러닝모델을 이용할 수 있다.The 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440 or the 2D rigging information conversion unit 450 converts 2D rigging information into 3D rigging information, or predicts 3D rigging information from the converted 3D rigging information. Deep learning models can be used to convert rigging information into 2D rigging information.

딥러닝모델과 관련하여, 후술할 딥러닝모델부(470)에서 구체적으로 살펴본다.Regarding the deep learning model, it will be described in detail in the deep learning model unit 470 to be described later.

이와 같이, 3D리깅정보변환부(430), 3D리깅정보예측부(440) 및 2D리깅정보변환부(450)는 2D리깅정보를 3D리깅정보로 변환하고 특정시간 이후의 3D리깅정보를 예측하고 변환되거나 예측된 3D리깅정보를 2D리깅정보로 변환함으로써 이후의 프레임으로부터 리깅정보의 정확도를 높일 수 있다.In this way, the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, and the 2D rigging information conversion unit 450 convert 2D rigging information into 3D rigging information and predict 3D rigging information after a specific time. By converting the converted or predicted 3D rigging information into 2D rigging information, the accuracy of the rigging information from a subsequent frame can be improved.

데이터연관부(460)는 2D리깅정보추정부(420) 및 2D리깅정보변환부(450)와 연결되고 2D리깅정보추정부(420) 및 2D리깅정보변환부(450)로부터 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 전달받고 두 개의 2D리깅정보를 비교하여 2D리깅정보를 보완할 수 있다.The data linking unit 460 is connected to the 2D rigging information estimating unit 420 and the 2D rigging information converting unit 450, and is estimated from the subsequent frames from the 2D rigging information estimating unit 420 and the 2D rigging information converting unit 450. The 2D rigging information can be supplemented by receiving the converted 2D rigging information and the converted 2D rigging information and comparing the two 2D rigging information.

여기에서, 이후의 프레임으로부터 추정된 2D리깅정보란 2D리깅정보추정부(420)가 이후의 프레임으로부터 객체(200)를 검출하고 객체(200)의 2D관절위치를 기초로 추정한 2D리깅정보를 의미할 수 있다.Here, the 2D rigging information estimated from a subsequent frame means that the 2D rigging information estimation unit 420 detects the object 200 from the subsequent frame and estimates the 2D rigging information based on the 2D joint position of the object 200. It can mean.

또한 여기에서, 변환된 2D리깅정보란 2D리깅정보추정부(420)에 의해 현재프레임으로부터 추정된 2D리깅정보가 데이터연관부(460), 3D리깅정보변환부(430) 및 2D리깅정보변환부(450)를 거쳐서 변환된 2D리깅정보를 의미할 수 있다. 이 때에, 3D리깅정보변환부(430)와 2D리깅정보변환부(450) 사이에 3D리깅정보예측부(440)를 더 거칠 수도 있다.In addition, here, the converted 2D rigging information refers to the 2D rigging information estimated from the current frame by the 2D rigging information estimating unit 420, the data linking unit 460, the 3D rigging information converting unit 430, and the 2D rigging information converting unit. It may mean 2D rigging information converted through 450. At this time, the 3D rigging information prediction unit 440 may be further passed between the 3D rigging information conversion unit 430 and the 2D rigging information conversion unit 450.

또한 여기에서, 데이터연관부(460)에 의해 보완되는 2D리깅정보는 이후의 프레임으로부터 추정된 2D리깅정보일 수도 있고 변환된 2D리깅정보일 수도 있는데 어느 경우이든지 데이터연관부(460)에 의해 보완된 2D리깅정보가 3D리깅정보변환부(430)에 전달되어 3D리깅정보로 변환될 수 있다는 점은 공통된다.In addition, here, the 2D rigging information supplemented by the data linking unit 460 may be 2D rigging information estimated from a later frame or converted 2D rigging information. In either case, the 2D rigging information supplemented by the data linking unit 460 It is common in that the 2D rigging information can be transferred to the 3D rigging information conversion unit 430 and converted into 3D rigging information.

또한, 데이터연관부(460)는 칼만필터 또는 LSTM 등을 이용하여 2D리깅정보를 보완할 수 있다.In addition, the data linking unit 460 may supplement 2D rigging information using a Kalman filter or LSTM.

첫번째로, 데이터연관부(460)가 칼만필터를 이용하여 2D리깅정보를 보완하는 방법을 살펴본다.First, a method of supplementing 2D rigging information using a Kalman filter by the data association unit 460 will be described.

여기에서, 칼만필터는 시간에 따라 관측되는 일련의 측정치를 기반으로 하는 알고리즘으로, 잡음이 포함된 측정치로부터 상태에 대한 정확한 추정치를 산출할 수 있다.Here, the Kalman filter is an algorithm based on a series of measurements observed over time, and can calculate an accurate estimate of a state from measurements including noise.

칼만필터 알고리즘은 예측단계와 업데이트단계의 두 단계로 나뉠 수 있는데 예측단계에서는 이전 시간에 추정된 상태로부터 예상되는 상태를 계산하고 업데이트단계에서는 앞서 계산된 예측 상태와 실제로 측정된 상태를 토대로 정확한 상태를 계산할 수 있다.The Kalman filter algorithm can be divided into two stages: a prediction stage and an update stage. In the prediction stage, the predicted state is calculated from the state estimated at the previous time, and in the update stage, the accurate state is determined based on the previously calculated predicted state and the actually measured state. Can be calculated.

구체적으로, 데이터연관부(460)는 칼만필터를 사용하여 예측단계에서는 현재 프레임으로부터 구한 2D리깅정보를 기초로 이후에 예상되는 2D리깅정보를 예측하고 업데이트단계에서는 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 2D리깅정보를 보완할 수 있다.Specifically, the data linking unit 460 uses the Kalman filter to predict future 2D rigging information based on the 2D rigging information obtained from the current frame in the prediction step, and 2D rigging information estimated from the subsequent frames in the update step. 2D rigging information can be supplemented by comparing the converted 2D rigging information.

이 때에, 데이터연관부(460)는 2D리깅정보 예측을 위해서 각 관절점의 속도를 이용할 수 있다.At this time, the data linking unit 460 may use the speed of each joint point to predict 2D rigging information.

또한, 데이터연관부(460)는 칼만필터의 예측단계 또는 보완단계를 3D리깅정보변환부(430), 3D리깅정보예측부(440) 또는 2D리깅정보변환부(450)에서의 변환 또는 예측과 독립적으로 수행할 수도 있고 3D리깅정보변환부(430), 3D리깅정보예측부(440) 또는 2D리깅정보변환부(450)에서의 변환 또는 예측과 연동하여 수행할 수도 있다.In addition, the data linking unit 460 performs transformation or prediction in the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, or the 2D rigging information conversion unit 450 in the prediction step or supplementation step of the Kalman filter. It may be performed independently, or may be performed in conjunction with transformation or prediction in the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, or the 2D rigging information conversion unit 450.

두번째로, 데이터연관부(460)가 LSTM을 이용하여 2D리깅정보를 보완하는 방법을 살펴본다.Second, it looks at how the data linking unit 460 supplements the 2D rigging information using LSTM.

여기에서, LSTM(Long Short-Term Memory)은 순환 신경망(RNN)의 단위로서 셀, 입력 게이트, 출력 게이트 및 망각 게이트로 구성될 수 있다. 셀은 임의의 시간 간격에 걸쳐 값을 기억하며 세 개의 게이트는 셀 안팎으로의 정보 흐름을 조절할 수 있다.Here, the LSTM (Long Short-Term Memory) is a unit of a cyclic neural network (RNN) and may be composed of a cell, an input gate, an output gate, and a forgetting gate. The cell stores values over arbitrary time intervals, and the three gates can control the flow of information into and out of the cell.

구체적으로, 데이터연관부(460)는 LSTM을 구성단위로 하는 딥러닝(RNN)모델을 사용하여 현재 프레임으로부터 구한 2D리깅정보를 기초로 이후에 예상되는 2D리깅정보를 예측할 수 있고 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 2D리깅정보를 보완할 수 있다.Specifically, the data linking unit 460 can predict the 2D rigging information expected later based on the 2D rigging information obtained from the current frame using a deep learning (RNN) model with LSTM as a constituent unit. 2D rigging information can be supplemented by comparing the estimated 2D rigging information with the converted 2D rigging information.

여기에서, 딥러닝모델 및 RNN에 관해서는 딥러닝모델부(470)에서 살펴본다.Here, the deep learning model and the RNN will be described in the deep learning model unit 470.

한편, 데이터연관부(460)는 칼만필터 및 LSTM을 사용할 수도 있는데, 구체적으로 데이터연관부(460)는 예측단계에서는 LSTM을 구성단위로 하는 딥러닝모델을 사용하여 현재 프레임으로부터 구한 2D리깅정보를 기초로 예상되는 2D리깅정보 및 칼만필터에 사용될 변수를 예측할 수 있고 업데이트단계에서는 칼만필터를 사용하여 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 2D리깅정보를 보완할 수 있다.Meanwhile, the data linking unit 460 may use a Kalman filter and an LSTM. Specifically, in the prediction step, the data linking unit 460 uses a deep learning model with LSTM as a constituent unit to obtain 2D rigging information from the current frame. It is possible to predict the 2D rigging information expected as a basis and the variables to be used in the Kalman filter, and in the update step, the 2D rigging information can be supplemented by comparing the 2D rigging information estimated from the subsequent frames using the Kalman filter and the converted 2D rigging information. have.

또한, 데이터연관부(460)는 LSTM을 구성단위로 하는 딥러닝모델을 3D리깅정보변환부(430), 3D리깅정보예측부(440) 또는 2D리깅정보변환부(450)에서의 변환 또는 예측과 독립적으로 사용할 수도 있고 3D리깅정보변환부(430), 3D리깅정보예측부(440) 또는 2D리깅정보변환부(450)에서의 변환 또는 예측과 연동하여 사용할 수도 있다.In addition, the data linking unit 460 converts or predicts the deep learning model using LSTM as a constituent unit in the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, or the 2D rigging information conversion unit 450. It may be used independently of the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, or may be used in conjunction with the transformation or prediction in the 2D rigging information conversion unit 450.

이와 같이, 데이터연관부(460)는 칼만필터 또는 LSTM을 사용하여 2D리깅정보의 시간적 변화를 기초로 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 상기 2D리깅정보를 비교하여 상기 2D리깅정보를 보완함으로써 리깅정보의 정확도를 높일 수 있다.In this way, the data linking unit 460 compares the 2D rigging information estimated from a subsequent frame with the converted 2D rigging information based on the temporal change of the 2D rigging information using a Kalman filter or LSTM to compare the 2D rigging information. By supplementing, the accuracy of the rigging information can be improved.

한편, 영상정보에 복수의 객체(200)가 촬영된 경우에는 객체(200)별로 구별하여 리깅정보를 복원해야 하는데 이와 관련된 방법을 살펴본다.On the other hand, when a plurality of objects 200 are photographed in the image information, the rigging information must be restored by distinguishing each object 200, and a method related thereto will be described.

데이터연관부(460)는 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 객체(200)별로 2D리깅정보를 보완할 수 있다.The data linking unit 460 may supplement the 2D rigging information for each object 200 by comparing the 2D rigging information estimated from a subsequent frame with the converted 2D rigging information.

이 때에, 데이터연관부(460)는 이후의 프레임으로부터 추정된 2D리깅정보 또는 이후의 프레임의 2D관절위치 주변의 영상패치와 변환된 2D리깅정보 또는 변환된 2D리깅정보와 관련된 2D관절위치 주변의 영상패치를 비교하여 객체(200)별로 2D리깅정보를 보완할 수 있다.At this time, the data linking unit 460 includes the 2D rigging information estimated from the subsequent frame or the image patch around the 2D joint position of the subsequent frame and the converted 2D rigging information or the 2D joint position related to the converted 2D rigging information. 2D rigging information for each object 200 may be supplemented by comparing image patches.

구체적으로, 데이터연관부(460)는 이후의 프레임으로부터 추정된 2D리깅정보를 현재프레임으로부터 객체(200)별로 구별되어 2D리깅정보변환부(450)에 의해 변환된 2D리깅정보와 비교하여 객체(200)별로 구별하여 2D리깅정보를 보완할 수 있다.Specifically, the data linking unit 460 compares the 2D rigging information estimated from the subsequent frame with the 2D rigging information that has been distinguished by object 200 from the current frame and converted by the 2D rigging information conversion unit 450 200), 2D rigging information can be supplemented.

즉, 2D리깅정보추정부(420)가 이후의 프레임으로부터 두 객체(200)의 리깅정보를 잘못 구별하여 두 객체(200)의 관절이 서로 바뀐 채로 2D리깅정보를 추정한 경우에 데이터연관부(460)는 현재프레임으로부터 객체(200)별로 올바로 구별되어 변환된 2D리깅정보와 비교하여 이후의 프레임의 2D리깅정보를 보완할 수 있다.That is, when the 2D rigging information estimation unit 420 incorrectly distinguishes the rigging information of the two objects 200 from a subsequent frame and estimates the 2D rigging information with the joints of the two objects 200 changed, the data linking unit ( 460 may supplement 2D rigging information of a subsequent frame by comparing it with 2D rigging information that has been correctly distinguished and converted for each object 200 from the current frame.

이 때에, 데이터연관부(460)는 2D관절위치정보, 2D관절간거리정보 또는 2D관절위 주변의 영상패치를 비교하여 객체(200)를 구별하여 2D리깅정보를 보완할 수 있다. 여기에서, 영상패치란 특정한 크기의 2D 이미지를 의미할 수 있다.At this time, the data linking unit 460 may compare 2D joint position information, 2D joint distance information, or image patches around 2D joints to differentiate the object 200 to supplement 2D rigging information. Here, the image patch may mean a 2D image of a specific size.

이와 같이, 데이터연관부(460)는 객체(200)를 구별하여 2D리깅정보를 보완함으로써 리깅정보의 정확도를 높일 수 있다. 특히, 데이터연관부(460)는 2D관절간거리정보를 비교하여 객체(200)를 구별함으로써 빠르고 정확하게 리깅정보를 보완할 수 있다.In this way, the data linking unit 460 may differentiate the object 200 and supplement the 2D rigging information, thereby increasing the accuracy of the rigging information. In particular, the data linking unit 460 can quickly and accurately supplement the rigging information by comparing the 2D joint distance information to distinguish the object 200.

딥러닝모델부(470)는 3D리깅정보변환부(430), 3D리깅정보예측부(440), 2D리깅정보변환부(450) 또는 데이터연관부(460)와 연결될 수 있고 후술할 딥러닝모델을 제공할 수 있다.The deep learning model unit 470 may be connected to the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, the 2D rigging information conversion unit 450, or the data linking unit 460, and a deep learning model to be described later. Can provide.

딥러닝모델부(470)는 딥러닝모델을 생성할 수 있고 데이터베이스(490)에 미리 저장된 학습데이터를 이용하여 딥러닝모델을 학습시킬 수 있다. 여기에서, 딥러닝이란 데이터 표현을 학습하는 기계학습 방법의 일종으로서 대표적으로 DNN, CNN, RNN 등이 이에 해당될 수 있다. 다만, DBN 등 다른 딥러닝 방법도 사용될 수 있다.The deep learning model unit 470 may generate a deep learning model and train the deep learning model using training data previously stored in the database 490. Here, deep learning is a type of machine learning method for learning data representation, and representatively, DNN, CNN, RNN, etc. may correspond to this. However, other deep learning methods such as DBN can also be used.

여기에서, DNN(Deep Neural Network, 심층신경망)은 입력층(input layer)과 출력층(output layer) 사이에 여러 개의 은닉층(hidden layer)들로 이루어진 인공신경망(Artificial Neural Network)이다.Here, the DNN (Deep Neural Network) is an artificial neural network made up of several hidden layers between an input layer and an output layer.

또한 여기에서, CNN(Convolutional Neural Network, 합성곱 신경망)은 최소한의 전처리(preprocess)를 사용하도록 설계된 다계층 퍼셉트론(multilayer perceptrons)의 한 종류로서 하나 또는 여러개의 합성곱 계층과 그 위에 올려진 일반적인 인공 신경망 계층들로 이루어져 있으며, 가중치와 통합 계층(pooling layer)들을 추가로 활용할 수 있다.In addition, here, CNN (Convolutional Neural Network) is a kind of multilayer perceptrons designed to use minimal preprocessing, and one or several convolutional layers and general artificial It consists of neural network layers, and weights and pooling layers can be additionally used.

또한 여기에서, RNN(Recurrent Neural Network, 순환 신경망)은 인공신경망을 구성하는 유닛 사이의 연결이 Directed cycle을 구성하는 신경망으로서 임의의 입력을 처리하기 위해 신경망 내부의 메모리를 활용할 수 있다. 순환 신경망을 구성하는 구조로 완전 순환망(Fully Recurrent Network), LSTM(Long short term memory network) 등 여러가지 방식이 사용될 수 있다.In addition, here, a recurrent neural network (RNN) is a neural network in which a connection between units constituting an artificial neural network constitutes a directed cycle, and the memory inside the neural network can be used to process an arbitrary input. As a structure of a recurrent neural network, various methods such as a Fully Recurrent Network and a Long Short Term Memory Network (LSTM) can be used.

딥러닝모델부(470)는 3D리깅정보변환부(430), 3D리깅정보예측부(440), 2D리깅정보변환부(450) 또는 데이터연관부(460)의 기능에 맞는 딥러닝모델을 생성하고 학습시켜서 제공할 수 있는데 이하 살펴본다.The deep learning model unit 470 generates a deep learning model suitable for the functions of the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, the 2D rigging information conversion unit 450 or the data linking unit 460. It can be provided by learning and learning, but we will look at it below.

첫번째로, 3D리깅정보변환부(430)와 관련하여 살펴본다.First, it looks in relation to the 3D rigging information conversion unit 430.

딥러닝모델부(470)는 2D리깅정보를 3D리깅정보로 변환하기 위한 3D변환딥러닝모델을 생성할 수 있다. 이 때에, 딥러닝모델부(470)는 2D리깅정보를 입력값으로 하고 3D리깅정보를 출력값으로 하는 3D변환딥러닝모델을 생성할 수 있는데 입력값과 출력값이 비교적 간단하고 현재의 출력값이 이전의 입출력 값에 영향을 받지 않을 수 있으므로 3D변환딥러닝모델은 DNN 모델이 바람직할 수 있다. 다만, RNN, CNN 등 다른 방식도 사용될 수 있다.The deep learning model unit 470 may generate a 3D transformed deep learning model for converting 2D rigging information into 3D rigging information. At this time, the deep learning model unit 470 can generate a 3D transformed deep learning model using 2D rigging information as an input value and 3D rigging information as an output value. The input value and the output value are relatively simple, and the current output value is Since the input/output value may not be affected, the DNN model may be preferable for the 3D transformed deep learning model. However, other methods such as RNN and CNN may also be used.

또한, 딥러닝모델부(470)는 다양한 2D리깅정보와 각 2D리깅정보에 대응하는 3D리깅정보로 구성된 트레이닝데이터를 데이터베이스(490)로부터 전달받아서 3D변환딥러닝모델을 학습시킬 수 있다.In addition, the deep learning model unit 470 may receive training data composed of various 2D rigging information and 3D rigging information corresponding to each 2D rigging information from the database 490 to train a 3D transformed deep learning model.

또한, 딥러닝모델부(470)는 학습이 완료된 3D변환딥러닝모델을 3D리깅정보변환부(430)에 제공할 수 있다.In addition, the deep learning model unit 470 may provide the 3D transformed deep learning model in which the training has been completed to the 3D rigging information conversion unit 430.

두번째로, 3D리깅정보예측부(440)와 관련하여 살펴본다.Second, it looks in relation to the 3D rigging information prediction unit 440.

딥러닝모델부(470)는 3D리깅정보로부터 특정시간 경과 후의 3D리깅정보를 예측하기 위한 3D예측딥러닝모델을 생성할 수 있다. 이 때에, 딥러닝모델부(470)는 3D리깅정보를 입력값으로 하고 3D리깅정보를 출력값으로 하는 3D예측딥러닝모델을 생성할 수 있는데 입력값과 출력값이 비교적 간단하고 현재의 예측된 출력값이 이전의 출력값에 영향을 받을 수 있으므로, 3D예측딥러닝모델은 RNN 모델이 바람직할 수 있다. 다만, DNN, CNN 등 다른 방식도 사용될 수 있는데 이러한 경우에 3D예측딥러닝모델은 관절별 속도를 계산하기 위해 이전의 관절위치정보 또는 관절별 속도와 같은 추가적인 정보를 입력해야 할 필요가 있을 수 있다.The deep learning model unit 470 may generate a 3D predictive deep learning model for predicting 3D rigging information after a specific time elapses from the 3D rigging information. At this time, the deep learning model unit 470 can generate a 3D predictive deep learning model using 3D rigging information as an input value and 3D rigging information as an output value. The input value and the output value are relatively simple, and the current predicted output value is Since it may be affected by the previous output value, the RNN model may be preferable for the 3D prediction deep learning model. However, other methods such as DNN and CNN may also be used. In this case, the 3D prediction deep learning model may need to input additional information such as previous joint position information or joint speed in order to calculate the joint speed. .

또한, 딥러닝모델부(470)는 다양한 3D리깅정보와 각 3D리깅정보에 대응하는 예측된 3D리깅정보로 구성된 트레이닝데이터를 데이터베이스(490)로부터 전달받아서 3D예측딥러닝모델을 학습시킬 수 있다.In addition, the deep learning model unit 470 may receive training data composed of various 3D rigging information and predicted 3D rigging information corresponding to each 3D rigging information from the database 490 to train a 3D predictive deep learning model.

또한, 딥러닝모델부(470)는 학습이 완료된 3D예측딥러닝모델을 3D리깅정보예측부(440)에 제공할 수 있다.In addition, the deep learning model unit 470 may provide the 3D predictive deep learning model in which the learning has been completed to the 3D rigging information predictor 440.

세번째로, 2D리깅정보변환부(450)와 관련하여 살펴본다.Third, it looks in relation to the 2D rigging information conversion unit 450.

딥러닝모델부(470)는 3D리깅정보를 2D리깅정보로 변환하기 위한 2D변환딥러닝모델을 생성할 수 있다. 이 때에, 딥러닝모델부(470)는 3D리깅정보를 입력값으로 하고 2D리깅정보를 출력값으로 하는 2D변환딥러닝모델을 생성할 수 있는데 입력값과 출력값이 비교적 간단하고 현재의 출력값이 이전의 입출력 값에 영향을 받지 않을 수 있으므로 2D변환딥러닝모델은 DNN 모델이 바람직할 수 있다. 다만, RNN, CNN 등 다른 방식도 사용될 수 있다.The deep learning model unit 470 may generate a 2D transformed deep learning model for converting 3D rigging information into 2D rigging information. At this time, the deep learning model unit 470 can generate a 2D transformed deep learning model using 3D rigging information as an input value and 2D rigging information as an output value. The input value and output value are relatively simple, and the current output value is Since the input/output value may not be affected, the DNN model may be preferable for the 2D transformed deep learning model. However, other methods such as RNN and CNN may also be used.

또한, 딥러닝모델부(470)는 다양한 3D리깅정보와 각 3D리깅정보에 대응하는 2D리깅정보로 구성된 트레이닝데이터를 데이터베이스(490)로부터 전달받아서 2D변환딥러닝모델을 학습시킬 수 있다.In addition, the deep learning model unit 470 may receive training data composed of various 3D rigging information and 2D rigging information corresponding to each 3D rigging information from the database 490 to train a 2D transformed deep learning model.

또한, 딥러닝모델부(470)는 학습이 완료된 2D변환딥러닝모델을 2D리깅정보변환부(450)에 제공할 수 있다.In addition, the deep learning model unit 470 may provide the 2D transformed deep learning model in which the training has been completed to the 2D rigging information conversion unit 450.

네번째로, 데이터연관부(460)와 관련하여 살펴본다.Fourth, it looks in relation to the data association unit 460.

딥러닝모델부(470)는 현재 프레임으로부터 구한 2D리깅정보를 기초로 이후에 예상되는 2D리깅정보를 예측하기 위한 2D예측딥러닝모델을 생성할 수 있다. 이 때에, 딥러닝모델부(470)는 2D리깅정보를 입력값으로 하고 2D리깅정보를 출력값으로 하는 2D예측딥러닝모델을 생성할 수 있는데 입력값과 출력값이 비교적 간단하고 이후의 예측된 출력값이 현재의 출력값에 영향을 받을 수 있으므로, 2D예측딥러닝모델은 RNN 모델이 바람직할 수 있다. 다만, DNN, CNN 등 다른 방식도 사용될 수 있는데 이러한 경우에 2D예측딥러닝모델은 관절별 속도를 계산하기 위해 이전의 관절위치정보 또는 관절별 속도와 같은 추가적인 정보를 입력해야 할 필요가 있을 수 있다.The deep learning model unit 470 may generate a 2D predictive deep learning model for predicting future 2D rigging information based on the 2D rigging information obtained from the current frame. At this time, the deep learning model unit 470 can generate a 2D prediction deep learning model using 2D rigging information as an input value and 2D rigging information as an output value. The input value and the output value are relatively simple, and the predicted output value is Since it may be affected by the current output value, the RNN model may be preferable for the 2D prediction deep learning model. However, other methods such as DNN and CNN may also be used. In this case, the 2D prediction deep learning model may need to input additional information such as previous joint position information or joint speed to calculate the joint speed. .

또한, 딥러닝모델부(470)는 다양한 2D리깅정보와 각 2D리깅정보에 대응하는 예측된 2D리깅정보로 구성된 트레이닝데이터를 데이터베이스(490)로부터 전달받아서 2D예측딥러닝모델을 학습시킬 수 있다.In addition, the deep learning model unit 470 may receive training data consisting of various 2D rigging information and predicted 2D rigging information corresponding to each 2D rigging information from the database 490 to train the 2D predictive deep learning model.

또한, 딥러닝모델부(470)는 학습이 완료된 2D예측딥러닝모델을 데이터연관부(460)에 제공할 수 있다.In addition, the deep learning model unit 470 may provide the 2D predictive deep learning model in which the training has been completed to the data association unit 460.

이와 같이, 딥러닝모델부(470)는 딥러닝모델을 학습시켜서 제공하고 3D리깅정보변환부(430), 3D리깅정보예측부(440), 2D리깅정보변환부(450) 또는 데이터연관부(460)는 딥러닝모델부(470)에 의해 제공된 딥러닝모델을 이용함으로써 리깅정보의 정확도를 높일 수 있다.In this way, the deep learning model unit 470 trains and provides a deep learning model, and the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, the 2D rigging information conversion unit 450 or the data linking unit ( 460 can increase the accuracy of the rigging information by using the deep learning model provided by the deep learning model unit 470.

한편, 딥러닝모델부(470)는 3D변환딥러닝모델, 3D예측딥러닝모델, 2D변환딥러닝모델 또는 2D예측딥러닝모델을 학습시킬 경우에 2D관절간거리정보 또는 3D관절간거리정보를 이용할 수 있다.Meanwhile, the deep learning model unit 470 may use 2D joint distance information or 3D joint distance information when learning a 3D transformed deep learning model, a 3D predictive deep learning model, a 2D transformed deep learning model, or a 2D predictive deep learning model. have.

즉, 3D변환딥러닝모델, 3D예측딥러닝모델, 2D변환딥러닝모델 또는 2D예측딥러닝모델의 입력값 및 출력값이 2D관절간거리정보 또는 3D관절간거리정보에 해당할 수 있다.That is, the input and output values of the 3D transformed deep learning model, 3D predicted deep learning model, 2D transformed deep learning model, or 2D predicted deep learning model may correspond to 2D joint distance information or 3D joint distance information.

도 6은 본 발명의 일 실시예에 따른 딥러닝모델을 나타낸 도면이다.6 is a diagram showing a deep learning model according to an embodiment of the present invention.

도 6을 참조하면, 딥러닝모델은 관절간거리정보를 입력값 및 출력값으로 하여 딥러닝모델부(470)에 의해 학습될 수 있고 학습이 완료된 후에 3D리깅정보변환부(430), 3D리깅정보예측부(440), 2D리깅정보변환부(450) 또는 데이터연관부(460)에 제공될 수도 있다.6, the deep learning model can be learned by the deep learning model unit 470 using inter-joint distance information as input values and output values, and after the learning is completed, the 3D rigging information conversion unit 430, the 3D rigging information prediction It may be provided to the unit 440, the 2D rigging information conversion unit 450, or the data association unit 460.

도 6의 입력값 및 출력값에 해당하는 14행 14열의 행렬은 도 3의 J1 내지 J14의 14개 관절에 대한 관절간 유클리드 거리(Euclidean Distance)를 의미할 수 있고 도 5의 관절간거리정보와 동일한 의미일 수 있다.The matrix of 14 rows and 14 columns corresponding to the input values and output values of FIG. 6 may mean the Euclidean distance between the joints for the 14 joints of J1 to J14 of FIG. 3, and has the same meaning as the inter-joint distance information of FIG. Can be

이와 같이, 딥러닝모델부(470)는 관절간거리정보를 이용하여 딥러닝모델을 학습시키고 제공함으로써 영상의 회전(rotation) 및 변환(translation)에 영향을 받지 않고 2차원과 3차원 리깅정보를 같은 차원(n행 n열, n은 관절의 개수)으로 표현할 수 있으며 2차원 또는 3차원 좌표를 사용하지 않아서 딥러닝 학습 시 솔루션 스페이스를 감축하므로 딥러닝 학습을 효율적으로 할 수 있도록 한다.In this way, the deep learning model unit 470 learns and provides a deep learning model using the inter-joint distance information, so that the 2D and 3D rigging information are not affected by rotation and translation of the image. It can be expressed in dimensions (n rows and n columns, where n is the number of joints) and does not use 2D or 3D coordinates to reduce the solution space during deep learning learning, so deep learning learning can be performed efficiently.

한편, 딥러닝모델이 관절간거리정보를 이용하여 학습된 경우에는 3D리깅정보변환부(430), 3D리깅정보예측부(440), 2D리깅정보변환부(450) 또는 데이터연관부(460)는 학습된 딥러닝모델을 이용하기 위해서 2D리깅정보 또는 3D리깅정보를 2D관절간거리정보 또는 3D관절간거리정보로 인코딩해야 할 수 있다.On the other hand, when the deep learning model is learned using the joint distance information, the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, the 2D rigging information conversion unit 450 or the data linking unit 460 In order to use the learned deep learning model, it may be necessary to encode 2D rigging information or 3D rigging information into 2D joint distance information or 3D joint distance information.

또한, 3D리깅정보변환부(430), 3D리깅정보예측부(440), 2D리깅정보변환부(450) 또는 데이터연관부(460)는 인코딩된 2D관절간거리정보 또는 3D관절간거리정보를 이용하여 딥러닝모델을 사용한 후에는 인코딩된 2D관절간거리정보 또는 3D관절간거리정보을 2D리깅정보 또는 3D리깅정보로 디코딩해야 할 수 있는데 이 때에 다차원 척도법(Multi-Dimensional Scaling)을 이용할 수 있다.In addition, the 3D rigging information conversion unit 430, the 3D rigging information prediction unit 440, the 2D rigging information conversion unit 450, or the data linking unit 460 uses the encoded 2D joint distance information or 3D joint distance information. After using the deep learning model, it may be necessary to decode the encoded 2D joint distance information or 3D joint distance information into 2D rigging information or 3D rigging information, and at this time, multi-dimensional scaling can be used.

여기에서, 다차원 척도법이란 데이터들의 유사정도를 시각화 하는 수단으로서 유클리드 거리 행렬(Euclidean Distance Matrix)을 시각화하기 위해 사용될 수 있다. 시각화는 주로 2차원 또는 3차원 공간상에 점으로 표현하는 방법이 사용된다.Here, the multidimensional scaling method may be used to visualize the Euclidean distance matrix as a means to visualize the degree of similarity of data. Visualization mainly uses a method of representing points in a two-dimensional or three-dimensional space.

다만, 2D리깅정보 또는 3D리깅정보가 2D관절간거리정보 또는 3D관절간거리정보인 경우에는 인코딩이나 디코딩 없이 그대로 사용될 수 있다.However, when 2D rigging information or 3D rigging information is 2D joint distance information or 3D joint distance information, it can be used as it is without encoding or decoding.

데이터베이스(490)는 카메라(300)로부터 수신한 영상 시퀀스 및 3D변환딥러닝모델, 3D예측딥러닝모델, 2D변환딥러닝모델 또는 2D예측딥러닝모델을 학습시키기 위한 트레이닝데이터 등을 저장할 수 있다.The database 490 may store an image sequence received from the camera 300 and training data for learning a 3D transformed deep learning model, a 3D predictive deep learning model, a 2D transformed deep learning model or a 2D predictive deep learning model.

이러한 데이터베이스(490)는 컴퓨터 판독 가능한 기록 매체를 포함하는 개념으로서, 협의의 데이터베이스뿐만 아니라, 파일 시스템에 기반한 데이터 기록 등을 포함하는 넓은 의미의 데이터베이스도 포함하여 지칭하며, 단순한 로그의 집합이라도 이를 검색하여 데이터를 추출할 수 있다면 본 발명에서 말하는 데이터베이스의 범주안에 포함된다.This database 490 is a concept including a computer-readable recording medium, and refers to not only a database of consultations, but also a database in a broad sense including data recording based on a file system, and searches for a simple set of logs. Thus, if data can be extracted, it is included within the scope of the database referred to in the present invention.

마지막으로, 제어부(495)는 영상획득부(410), 2D리깅정보추정부(420), 3D리깅정보변환부(430), 3D리깅정보예측부(440), 2D리깅정보변환부(450), 데이터연관부(460), 딥러닝모델부(470), 송수신부(480), 데이터베이스(490) 간의 제어 흐름 또는 데이터 흐름을 제어할 수 있다.Finally, the control unit 495 is an image acquisition unit 410, 2D rigging information estimation unit 420, 3D rigging information conversion unit 430, 3D rigging information prediction unit 440, 2D rigging information conversion unit 450 , Control flow or data flow between the data linking unit 460, the deep learning model unit 470, the transmission/reception unit 480, and the database 490 may be controlled.

도 7 및 도 8은 본 발명의 일 실시예에 따른 4D리깅정보 복원장치를 나타낸 도면이다.7 and 8 are diagrams showing a 4D rigging information restoration apparatus according to an embodiment of the present invention.

도 7 및 도 8을 참조하면, 일 실시예에 따른 4D리깅정보 복원장치(400)는 영상획득부(410), 2D리깅정보추정부(420), 3D리깅정보변환부(430), 3D리깅정보예측부(440), 2D리깅정보변환부(450), 데이터연관부(460)를 포함하여 구성될 수 있다.7 and 8, the 4D rigging information restoration apparatus 400 according to an embodiment includes an image acquisition unit 410, a 2D rigging information estimation unit 420, a 3D rigging information conversion unit 430, and a 3D rigging. It may include an information prediction unit 440, a 2D rigging information conversion unit 450, and a data association unit 460.

도 7에서, A는 이후의 프레임이고 B는 현재의 프레임이며 데이터연관부(460)는 이후의 프레임(A)으로부터 추정된 2D리깅정보를 전달받으면 현재의 프레임(B)으로부터 변환된 2D리깅정보와 비교하여 객체별로 2D리깅정보를 보완할 수 있다.In FIG. 7, A is a later frame, B is a current frame, and the data linking unit 460 receives 2D rigging information estimated from a later frame (A), and 2D rigging information converted from the current frame (B) Compared with, 2D rigging information can be supplemented for each object.

이 때에, 데이터연관부(460)는 이후의 프레임(A)으로부터 추정된 2D리깅정보 또는 이후의 프레임(A)의 2D관절위치 주변의 영상패치와 현재의 프레임(B)으로부터 변환된 2D리깅정보 또는 현재의 프레임(B)으로부터 변환된 2D리깅정보와 관련된 2D관절위치 주변의 영상패치를 비교하여 A 및 B에서 매칭점을 찾고 객체(200)별로 2D리깅정보를 보완할 수 있다.At this time, the data linking unit 460 includes 2D rigging information estimated from a subsequent frame (A) or an image patch around the 2D joint position of a subsequent frame (A) and 2D rigging information converted from the current frame (B). Alternatively, the 2D rigging information converted from the current frame B may be compared with the image patches around the 2D joint position related to the 2D rigging information to find a matching point in A and B, and 2D rigging information may be supplemented for each object 200.

도 8에서, 3D리깅정보변환부(430), 3D리깅정보예측부(440) 및 2D리깅정보변환부(450)가 관절간거리정보로 학습된 딥러닝모델을 사용할 수 있도록 3D리깅정보변환부(430)는 2D리깅정보를 2D관절간거리정보로 인코딩(C)하고 2D리깅정보변환부(450)는 3D관절간거리정보를 3D리깅정보로 디코딩(D)할 수 있다.In FIG. 8, a 3D rigging information conversion unit 430, a 3D rigging information prediction unit 440, and a 2D rigging information conversion unit 450 can use a deep learning model learned from joint distance information. 430) encodes the 2D rigging information into 2D joint distance information (C), and the 2D rigging information converter 450 may decode (D) the 3D joint distance information into 3D rigging information.

도 9는 본 발명의 일 실시예에 따른 4D리깅정보 복원방법을 나타낸 순서도이다.9 is a flowchart illustrating a method of restoring 4D rigging information according to an embodiment of the present invention.

도 9를 참조하면, 일 실시예에 따른 4D리깅정보 복원방법(500)은 영상획득단계(S510), 2D리깅정보추정단계(S520), 3D리깅정보변환단계(S530), 3D리깅정보예측단계(S540), 2D리깅정보변환단계(S550) 및 데이터연관단계(S560)를 포함하여 구성될 수 있다.9, the 4D rigging information restoration method 500 according to an embodiment includes an image acquisition step (S510), 2D rigging information estimation step (S520), 3D rigging information conversion step (S530), and 3D rigging information prediction step. It may be configured to include (S540), 2D rigging information conversion step (S550), and data association step (S560).

영상획득단계(S510)에서, 4D리깅정보 복원장치(400)는 단안(모노) 카메라(300)에 의해 촬영된 영상 시퀀스를 카메라(300)로부터 전송받거나 상기 영상 시퀀스가 저장된 데이터베이스(490)로부터 영상 시퀀스를 입력받을 수 있다.In the image acquisition step (S510), the 4D rigging information restoration device 400 receives an image sequence captured by the monocular (mono) camera 300 from the camera 300 or from the database 490 in which the image sequence is stored. Sequence can be input.

2D리깅정보추정단계(S520)에서, 4D리깅정보 복원장치(400)는 영상 시퀀스를 전달받아서 영상 시퀀스의 각 프레임별로 객체(200)를 검출하고 상기 객체(200)의 2D관절위치를 기초로 2D리깅정보를 추정할 수 있다.In the 2D rigging information estimation step (S520), the 4D rigging information restoration device 400 receives the image sequence, detects the object 200 for each frame of the image sequence, and detects the object 200 based on the 2D joint position of the object 200. Rigging information can be estimated.

3D리깅정보변환단계(S530)에서, 4D리깅정보 복원장치(400)는 2D리깅정보추정단계(S520)에서 추정되거나 후술할 데이터연관단계(S560)에서 보완된 2D리깅정보를 전달받아서 3D리깅정보로 변환할 수 있다.In the 3D rigging information conversion step (S530), the 4D rigging information restoration device 400 receives the 2D rigging information estimated in the 2D rigging information estimating step (S520) or supplemented in the data association step (S560) to be described later, and the 3D rigging information Can be converted to

3D리깅정보예측단계(S540)에서, 4D리깅정보 복원장치(400)는 변환된 3D리깅정보로부터 특정시간 경과 후의 3D리깅정보를 예측할 수 있다.In the 3D rigging information prediction step (S540), the 4D rigging information restoration device 400 may predict 3D rigging information after a specific time has elapsed from the converted 3D rigging information.

2D리깅정보변환단계(S550)에서, 4D리깅정보 복원장치(400)는 3D리깅정보변환단계(S530)에서 변환되거나 3D리깅정보예측단계(S540)에서 예측된 3D리깅정보를 전달받아서 2D리깅정보로 변환할 수 있다.In the 2D rigging information conversion step (S550), the 4D rigging information restoration device 400 receives the 3D rigging information converted in the 3D rigging information conversion step (S530) or predicted in the 3D rigging information prediction step (S540) to receive 2D rigging information. Can be converted to

데이터연관단계(S560)에서, 4D리깅정보 복원장치(400)는 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 전달받고 두 개의 2D리깅정보를 비교하여 2D리깅정보를 보완할 수 있다.In the data association step (S560), the 4D rigging information restoration device 400 receives the estimated 2D rigging information and the converted 2D rigging information from a subsequent frame, and compares the two 2D rigging information to supplement the 2D rigging information. have.

또한, 4D리깅정보 복원장치(400)는 칼만필터 또는 LSTM 등을 이용하여 2D리깅정보를 보완할 수 있다.In addition, the 4D rigging information restoration device 400 may supplement 2D rigging information using a Kalman filter or LSTM.

또한, 4D리깅정보 복원장치(400)는 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 2D리깅정보를 비교하여 객체(200)별로 2D리깅정보를 보완할 수 있다.In addition, the 4D rigging information restoration apparatus 400 may supplement the 2D rigging information for each object 200 by comparing the 2D rigging information estimated from a subsequent frame with the converted 2D rigging information.

이 때에, 4D리깅정보 복원장치(400)는 이후의 프레임으로부터 추정된 2D리깅정보 또는 이후의 프레임의 2D관절위치 주변의 영상패치와 변환된 2D리깅정보 또는 변환된 2D리깅정보와 관련된 2D관절위치 주변의 영상패치를 비교하여 객체(200)별로 2D리깅정보를 보완할 수 있다.At this time, the 4D rigging information restoration device 400 includes 2D rigging information estimated from a subsequent frame or an image patch around the 2D joint position of a subsequent frame and converted 2D rigging information or 2D joint position related to the converted 2D rigging information. 2D rigging information for each object 200 may be supplemented by comparing surrounding image patches.

또한, 4D리깅정보 복원장치(400)는 3D리깅정보변환단계(S530)로 되돌아가서 데이터연관단계(S560)에서 보완된 2D리깅정보를 3D리깅정보로 변환함으로써 순환적으로 리깅정보를 복원할 수 있다.In addition, the 4D rigging information restoration device 400 returns to the 3D rigging information conversion step (S530) and converts the 2D rigging information supplemented in the data association step (S560) into 3D rigging information, thereby cyclically recovering the rigging information. have.

한편, 4D리깅정보 복원장치(400)는 3D리깅정보변환단계(S530), 3D리깅정보예측단계(S540), 2D리깅정보변환단계(S550) 또는 데이터연관단계(S560)에서 2D리깅정보를 3D리깅정보로 변환하거나 변환된 3D리깅정보로부터 3D리깅정보를 예측하거나 3D리깅정보를 2D리깅정보로 변환하거나 2D리깅정보로부터 2D리깅정보를 예측하기 위해서 딥러닝모델을 이용할 수 있다.Meanwhile, the 4D rigging information restoration device 400 converts 2D rigging information into 3D in the 3D rigging information conversion step (S530), the 3D rigging information prediction step (S540), the 2D rigging information conversion step (S550), or the data association step (S560). A deep learning model can be used to convert 3D rigging information into rigging information or predict 3D rigging information from the converted 3D rigging information, convert 3D rigging information into 2D rigging information, or predict 2D rigging information from 2D rigging information.

또한, 4D리깅정보 복원장치(400)는 딥러닝모델이 관절간거리정보를 이용하여 학습된 경우에는 3D리깅정보변환단계(S530), 3D리깅정보예측단계(S540), 2D리깅정보변환단계(S550) 또는 데이터연관단계(S560)에서 학습된 딥러닝모델을 이용하기 위해서 2D리깅정보 또는 3D리깅정보를 2D관절간거리정보 또는 3D관절간거리정보로 인코딩 또는 디코딩해야 할 수 있다.In addition, the 4D rigging information restoration device 400, when the deep learning model is learned using the joint distance information, 3D rigging information conversion step (S530), 3D rigging information prediction step (S540), 2D rigging information conversion step (S550). ) Or, in order to use the deep learning model learned in the data association step (S560), it may be necessary to encode or decode 2D rigging information or 3D rigging information into 2D joint distance information or 3D joint distance information.

이상에서와 같이, 본 출원의 바람직한 실시예 들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 출원을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.As described above, although it has been described with reference to the preferred embodiments of the present application, those skilled in the art will variously modify the present application within the scope not departing from the spirit and scope of the present invention described in the following claims. And it will be appreciated that it can be changed.

100 : 4D리깅정보 복원시스템
200 : 객체 300 : 카메라
400 : 4D리깅정보 복원장치
410 : 영상획득부 420 : 2D리깅정보추정부
430 : 3D리깅정보변환부 440 : 3D리깅정보예측부
450 : 2D리깅정보변환부 460 : 데이터연관부
470 : 딥러닝모델부 480 : 송수신부
490 : 데이터베이스 495 : 제어부
500 : 4D리깅정보 복원방법
100: 4D rigging information restoration system
200: object 300: camera
400: 4D rigging information restoration device
410: image acquisition unit 420: 2D rigging information estimation
430: 3D rigging information conversion unit 440: 3D rigging information prediction unit
450: 2D rigging information conversion unit 460: Data connection unit
470: deep learning model unit 480: transceiver unit
490: database 495: control unit
500: 4D rigging information restoration method

Claims (10)

단안 카메라로부터 하나 이상의 객체를 촬영한 영상 시퀀스를 입력받는 영상획득부;
상기 영상 시퀀스의 각 프레임별로 객체를 검출하고 상기 객체의 2D관절위치를 기초로 2D리깅정보를 추정하는 2D리깅정보추정부;
2D리깅정보를 3D리깅정보로 변환하는 3D리깅정보변환부;
변환된 상기 3D리깅정보로부터 특정시간 경과 후의 3D리깅정보를 예측하는 3D리깅정보예측부;
예측된 상기 3D리깅정보를 2D리깅정보로 변환하는 2D리깅정보변환부; 및
상기 2D리깅정보추정부에 의해 이후의 프레임으로부터 추정된 2D리깅정보와 상기 2D리깅정보변환부에 의해 변환된 2D리깅정보를 비교하여 상기 추정된 2D리깅정보를 보완하는 데이터연관부를 포함하여 구성되는 4D리깅정보 복원장치.
An image acquisition unit receiving an image sequence photographing one or more objects from a monocular camera;
A 2D rigging information estimation unit for detecting an object for each frame of the image sequence and estimating 2D rigging information based on the 2D joint position of the object;
3D rigging information conversion unit for converting 2D rigging information into 3D rigging information;
A 3D rigging information prediction unit for predicting 3D rigging information after a specific time has elapsed from the converted 3D rigging information;
A 2D rigging information conversion unit converting the predicted 3D rigging information into 2D rigging information; And
Comprising a data linking unit for compensating the estimated 2D rigging information by comparing the 2D rigging information estimated from a later frame by the 2D rigging information estimating unit and the 2D rigging information converted by the 2D rigging information conversion unit. 4D rigging information restoration device.
삭제delete 제1항에 있어서,
상기 데이터연관부는 이후의 프레임으로부터 추정된 2D리깅정보와 변환된 상기 2D리깅정보를 비교하여 객체별로 상기 2D리깅정보를 보완하는 4D리깅정보 복원장치.
The method of claim 1,
The data linking unit compares the 2D rigging information estimated from a subsequent frame with the converted 2D rigging information to supplement the 2D rigging information for each object.
제3항에 있어서,
상기 2D리깅정보는 2D관절간거리정보 또는 2D관절위치정보를 포함하고,
상기 데이터연관부는 이후의 프레임으로부터 추정된 2D리깅정보 또는 이후의 프레임의 2D관절위치 주변의 영상패치와 변환된 상기 2D리깅정보 또는 변환된 상기 2D리깅정보와 관련된 2D관절위치 주변의 영상패치를 비교하여 객체별로 상기 2D리깅정보를 보완하는 4D리깅정보 복원장치.
The method of claim 3,
The 2D rigging information includes 2D joint distance information or 2D joint position information,
The data linking unit compares the 2D rigging information estimated from a later frame or an image patch around the 2D joint position of a later frame and the converted 2D rigging information or the image patch around the 2D joint position related to the converted 2D rigging information. Thus, a 4D rigging information restoration device that supplements the 2D rigging information for each object.
제1항에 있어서,
상기 데이터연관부는 칼만필터 또는 LSTM을 이용하여 상기 2D리깅정보를 보완하는 4D리깅정보 복원장치.
The method of claim 1,
The data linking unit is a 4D rigging information restoration device that supplements the 2D rigging information using a Kalman filter or LSTM.
제1항에 있어서,
상기 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부는 2D리깅정보를 3D리깅정보로 변환하거나 변환된 3D리깅정보로부터 3D리깅정보를 예측하거나 3D리깅정보를 2D리깅정보로 변환하기 위해서 딥러닝모델을 이용하는 4D리깅정보 복원장치.
The method of claim 1,
The 3D rigging information conversion unit, the 3D rigging information prediction unit, or the 2D rigging information conversion unit converts 2D rigging information into 3D rigging information, or predicts 3D rigging information from the converted 3D rigging information, or converts 3D rigging information into 2D rigging information. 4D rigging information restoration device that uses a deep learning model to transform.
제6항에 있어서,
상기 딥러닝모델은 2D관절간거리정보 또는 3D관절간거리정보를 이용하여 학습되고,
상기 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부는 2D리깅정보 또는 3D리깅정보를 2D관절간거리정보 또는 3D관절간거리정보로 인코딩하여 학습된 상기 딥러닝모델에 입력하는 4D리깅정보 복원장치.
The method of claim 6,
The deep learning model is learned using 2D joint distance information or 3D joint distance information,
The 3D rigging information conversion unit, the 3D rigging information prediction unit, or the 2D rigging information conversion unit is a 4D input to the deep learning model that is learned by encoding 2D rigging information or 3D rigging information into 2D joint distance information or 3D joint distance information. Rigging information restoration device.
제7항에 있어서,
상기 3D리깅정보변환부, 상기 3D리깅정보예측부 또는 상기 2D리깅정보변환부는 인코딩된 2D관절간거리정보 또는 3D관절간거리정보를 다차원척도법(MDS)을 이용하여 2D리깅정보 또는 3D리깅정보로 디코딩하는 4D리깅정보복원 장치.
The method of claim 7,
The 3D rigging information conversion unit, the 3D rigging information prediction unit, or the 2D rigging information conversion unit decodes the encoded 2D joint distance information or 3D joint distance information into 2D rigging information or 3D rigging information using a multidimensional scaling method (MDS). 4D rigging information restoration device.
제6항에 있어서,
상기 4D리깅정보 복원장치는,
상기 딥러닝모델을 학습시키는 딥러닝모델부를 포함하는 4D리깅정보 복원장치.
The method of claim 6,
The 4D rigging information restoration device,
4D rigging information restoration apparatus comprising a deep learning model unit for training the deep learning model.
삭제delete
KR1020180109797A 2018-09-13 2018-09-13 4d rig reconstructing device and a method thereof KR102181828B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180109797A KR102181828B1 (en) 2018-09-13 2018-09-13 4d rig reconstructing device and a method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180109797A KR102181828B1 (en) 2018-09-13 2018-09-13 4d rig reconstructing device and a method thereof

Publications (2)

Publication Number Publication Date
KR20200030947A KR20200030947A (en) 2020-03-23
KR102181828B1 true KR102181828B1 (en) 2020-11-23

Family

ID=69998685

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180109797A KR102181828B1 (en) 2018-09-13 2018-09-13 4d rig reconstructing device and a method thereof

Country Status (1)

Country Link
KR (1) KR102181828B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11450053B1 (en) * 2021-04-13 2022-09-20 Sony Group Corporation Efficient 5G transmission of volumetric data using 3D character rigging techniques
KR102601940B1 (en) * 2021-04-19 2023-11-14 고려대학교 세종산학협력단 Biometric identification system based on individual gait patterns and method of the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020578A (en) * 2011-07-14 2013-01-31 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional posture estimation device, three-dimensional posture estimation method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0894320A (en) * 1994-09-28 1996-04-12 Nec Corp Traveling object-measuring instrument

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020578A (en) * 2011-07-14 2013-01-31 Nippon Telegr & Teleph Corp <Ntt> Three-dimensional posture estimation device, three-dimensional posture estimation method and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Bruce Xiaohan Nie ET AL:"Monocular 3D Human Pose Estimation by Predicting Depth on Joints", 2017 IEEE International Conference on Computer Vision (ICCV), pp.3447-3455, 22-29 Oct. 2017(2017.10.22.) 1부.*

Also Published As

Publication number Publication date
KR20200030947A (en) 2020-03-23

Similar Documents

Publication Publication Date Title
CN111881887A (en) Multi-camera-based motion attitude monitoring and guiding method and device
CN107423729B (en) Remote brain-like three-dimensional gait recognition system oriented to complex visual scene and implementation method
CN109377513B (en) Global three-dimensional human body posture credible estimation method for two views
KR101791590B1 (en) Object pose recognition apparatus and method using the same
Jalal et al. Human depth sensors-based activity recognition using spatiotemporal features and hidden markov model for smart environments
CN111414797B (en) System and method for estimating pose and pose information of an object
CN112200165A (en) Model training method, human body posture estimation method, device, equipment and medium
CN114220176A (en) Human behavior recognition method based on deep learning
KR20180026400A (en) Three-dimensional space modeling
Saini et al. Markerless outdoor human motion capture using multiple autonomous micro aerial vehicles
CN113255522B (en) Personalized motion attitude estimation and analysis method and system based on time consistency
CN110544302A (en) Human body action reconstruction system and method based on multi-view vision and action training system
Bashirov et al. Real-time rgbd-based extended body pose estimation
CN110348321A (en) Human motion recognition method based on bone space-time characteristic and long memory network in short-term
CN113711276A (en) Scale-aware monocular positioning and mapping
KR102181828B1 (en) 4d rig reconstructing device and a method thereof
Chen et al. Camera networks for healthcare, teleimmersion, and surveillance
CN113989928B (en) Motion capturing and redirecting method
Sheu et al. Improvement of human pose estimation and processing with the intensive feature consistency network
Li et al. Sparse-to-local-dense matching for geometry-guided correspondence estimation
CN116580169B (en) Digital man driving method and device, electronic equipment and storage medium
CN114548224A (en) 2D human body pose generation method and device for strong interaction human body motion
CN117671738B (en) Human body posture recognition system based on artificial intelligence
Dong et al. YH-Pose: Human pose estimation in complex coal mine scenarios
Wu et al. Capturing implicit spatial cues for monocular 3D hand reconstruction

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant