KR20140056992A - Method of tracking motion using depth image and device thereof - Google Patents

Method of tracking motion using depth image and device thereof Download PDF

Info

Publication number
KR20140056992A
KR20140056992A KR1020120123557A KR20120123557A KR20140056992A KR 20140056992 A KR20140056992 A KR 20140056992A KR 1020120123557 A KR1020120123557 A KR 1020120123557A KR 20120123557 A KR20120123557 A KR 20120123557A KR 20140056992 A KR20140056992 A KR 20140056992A
Authority
KR
South Korea
Prior art keywords
pose
motion
parameters
joint
fliers
Prior art date
Application number
KR1020120123557A
Other languages
Korean (ko)
Other versions
KR101925879B1 (en
Inventor
한재준
최창규
차 진샹
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020120123557A priority Critical patent/KR101925879B1/en
Publication of KR20140056992A publication Critical patent/KR20140056992A/en
Application granted granted Critical
Publication of KR101925879B1 publication Critical patent/KR101925879B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

Disclosed is a motion tracking method using a depth image. According to an embodiment, the present invention includes a step of obtaining continuous depth images of at least two frames; a step of calculating first parameters related to a depth flow between adjacent frames based on the depth images; a step of obtaining second parameters related to motion priors; and a step of estimating a pose change rate between the at least two continuous frames based on the first parameters and the second parameters.

Description

깊이 영상을 이용하는 동작 추정 방법 및 장치{METHOD OF TRACKING MOTION USING DEPTH IMAGE AND DEVICE THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a motion estimation method and an apparatus using depth images,

아래 실시예들은 깊이 영상을 이용하는 동작 추정 방법 및 장치에 관한 것이다. 특히, 아래 실시예들은 깊이 흐름과 관련된 파라미터들과 모션 프라이어들과 관련된 파라미터들에 기초하여 포즈의 변화량을 추정하는 방법 및 장치에 관한 것이다.
The following embodiments relate to motion estimation methods and apparatus using depth images. In particular, the following embodiments are directed to a method and apparatus for estimating a change in pose based on parameters associated with depth flows and parameters associated with motion fliers.

최근 비디오 게임, 가상 세계(virtual world), 영화 컴퓨터 그래픽(computer graphic, CG) 등 실제 공간에서의 타깃 오브젝트(이를 테면, 인체(human body))의 동작을 추정하고, 이를 3-Dimensional(3D) 공간 내에서 구현하는 기술에 관한 관심이 증가하고 있다.Recently, the motion of a target object (such as a human body) in a real space, such as a video game, a virtual world, a cinematographic computer graphic (CG) There is an increasing interest in technology to implement in space.

깊이 영상(depth image)은 깊이 영상 카메라로부터 타깃 오브젝트까지의 깊이를 저장하는 영상이다. 이 때, 단일 깊이 영상(single depth image)은 단일 깊이 카메라(single depth camera)에 의하여 단일 방향에서 타깃 오브젝트가 촬영된 깊이 영상들을 포함할 수 있다.
The depth image is an image that stores the depth from the depth image camera to the target object. In this case, the single depth image may include depth images in which the target object is imaged in a single direction by a single depth camera.

일 측에 따른 깊이 영상(depth image)을 이용하는 동작 추정 방법은 연속된 적어도 두 프레임들의 깊이 영상들을 획득하는 단계; 상기 깊이 영상들에 기초하여 인접 프레임들 사이의 깊이 흐름(depth flow)과 관련된 제1 파라미터들을 계산하는 단계; 모션 프라이어들(motion priors)-상기 모션 프라이어들 각각은 미리 정해진 포즈(pose)에 대응되는 정보를 포함함-과 관련된 제2 파라미터들을 획득하는 단계; 및 상기 제1 파라미터들 및 상기 제2 파라미터들에 기초하여 상기 연속된 적어도 두 프레임들 사이에서 포즈의 변화량을 추정하는 단계를 포함한다.An operation estimation method using a depth image according to one side includes obtaining depth images of at least two consecutive frames; Calculating first parameters related to a depth flow between adjacent frames based on the depth images; Motion priors - acquiring second parameters associated with each of the motion fliers comprising information corresponding to a predetermined pose; And estimating a change amount of a pause between the at least two consecutive frames based on the first parameters and the second parameters.

이 때, 상기 포즈의 변화량은 복수의 조인트 각도들 각각의 변화량으로 모델링 되고, 상기 복수의 조인트 각도들 각각은 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 중 어느 하나에 대응될 수 있다.At this time, the amount of change in the pose is modeled by a variation amount of each of the plurality of joint angles, and each of the plurality of joint angles may correspond to any one of a plurality of joints included in the skeleton model of the target object.

또한, 상기 포즈의 변화량을 추정하는 단계는 상기 제1 파라미터들과 관련된 절대값과 상기 제2 파라미터들과 관련된 절대값의 합계가 최소가 되도록 상기 포즈의 변화량을 결정하는 단계를 포함할 수 있다.In addition, estimating the amount of change in the pose may include determining an amount of change in the pose such that a sum of an absolute value associated with the first parameters and an absolute value associated with the second parameters is minimized.

또한, 상기 포즈의 변화량을 추정하는 단계는 상기 제1 파라미터들과 관련된 제한 조건과 상기 제2 파라미터들과 관련된 제한 조건을 고려하면서, 상기 포즈의 변화량이 최소가 되도록 상기 포즈의 변화량을 결정하는 단계를 포함할 수 있다.The step of estimating the amount of change of the pose may include determining a change amount of the pose such that the amount of change of the pose is minimized while taking into consideration the constraint associated with the first parameters and the constraint associated with the second parameters . ≪ / RTI >

또한, 상기 모션 프라이어들은 데이터베이스에 미리 저장되고, 상기 제2 파라미터들은 상기 모션 프라이어들에 주성분 분석(PCA: Principal Components Analysis) 기법을 적용함으로써 생성될 수 있다.Also, the motion fliers may be stored in advance in the database, and the second parameters may be generated by applying Principal Components Analysis (PCA) techniques to the motion fliers.

또한, 상기 모션 프라이어들은 데이터베이스에 미리 저장되고, 상기 제2 파라미터들은 상기 모션 프라이어들에 인자 분석기 혼합(MFA: Mixture of Factor Analyzers) 기법을 적용함으로써 생성될 수 있다.In addition, the motion fliers may be stored in advance in the database, and the second parameters may be generated by applying a Mixture of Factor Analyzers (MFA) technique to the motion fliers.

또한, 상기 제2 파라미터들을 획득하는 단계는 제t 프레임에서의 포즈에 기초하여 상기 모션 프라이어들 중 상기 제t 프레임에서의 포즈와 유사한 K개의 이웃 포즈들을 추출하는 단계; 및 상기 K개의 이웃 포즈들에 지역 주성분 분석(LPCA: Local Principal Components Analysis) 기법을 적용함으로써 상기 제2 파라미터들을 생성하는 단계를 포함하고, 상기 제t 프레임은 상기 연속된 적어도 두 프레임들에 포함되며, 상기 K의 값은 기 설정된 유사도 결정 임계치에 의존할 수 있다.The obtaining of the second parameters may further include extracting K neighboring pauses similar to the pose in the tth frame of the motion ficers based on a pose in the tth frame; And generating the second parameters by applying a Local Principal Components Analysis (LPCA) technique to the K neighboring pauses, wherein the t < th > frame is included in the at least two consecutive frames , The value of K may depend on a predetermined similarity determination threshold.

또한, 상기 K개의 이웃 포즈들을 추출하는 단계는 복수의 스레드들을 병렬 처리하는 프로세서를 이용하여 상기 제t 프레임에서의 포즈와 상기 모션 프라이어들 중 적어도 일부 사이의 유사도 값들을 병렬적으로 계산하는 단계; 및 상기 병렬적으로 계산된 유사도 값들과 상기 기 설정된 유사도 결정 임계치에 기초하여 상기 K개의 이웃 포즈들을 선택하는 단계를 포함할 수 있다.The step of extracting the K neighboring pauses may further comprise the steps of: calculating in parallel the similarity values between the pose in the t < th > frame and at least a portion of the motion fryers using a processor that parallelizes the plurality of threads; And selecting the K neighboring pauses based on the parallelly calculated similarity values and the predetermined similarity determination threshold.

또한, 상기 K개의 이웃 포즈들을 추출하는 단계는 상기 모션 프라이어들 및 상기 제t 프레임에서의 포즈에 각각 프로덕트 양자화(product quantization) 기법을 적용함으로써 제1 양자화 결과들과 제2 양자화 결과를 생성하는 단계; 및 상기 제1 양자화 결과들과 상기 제2 양자화 결과에 기초하여 상기 제t 프레임에서의 포즈와 상기 모션 프라이어들 사이의 유사도 값들을 계산하는 단계를 포함할 수 있다.The step of extracting the K neighboring pauses may include generating first quantization results and a second quantization result by applying a product quantization technique to each of the pauses in the motion fliers and the t frame, ; And calculating a similarity value between the motion fliers and a pose in the t-th frame based on the first quantization results and the second quantization result.

또한, 상기 일 측에 따른 동작 추정 방법은 미리 정해진 기준 포즈를 취하는 타깃 오브젝트의 기준 깊이 영상을 획득하는 단계; 상기 미리 정해진 기준 포즈와 관련된 정보에 기초하여 상기 기준 깊이 영상에 포함된 복수의 픽셀들을 상기 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 중 어느 하나로 분류하는 단계; 및 랜덤 샘플링 기법에 기초하여 상기 복수의 조인트들 각각에 대응되는 깊이 픽셀들의 수가 최대가 되도록 상기 복수의 조인트들 각각의 반지름 파라미터를 결정하는 단계를 더 포함할 수 있다.The motion estimating method according to the one aspect further includes obtaining a reference depth image of a target object that takes a predetermined reference pose; Classifying the plurality of pixels included in the reference depth image into one of a plurality of joints included in the skeleton model of the target object based on the information related to the predetermined reference pose; And determining a radius parameter of each of the plurality of joints such that a maximum number of depth pixels corresponding to each of the plurality of joints is maximum based on a random sampling technique.

또한, 상기 일 측에 따른 동작 추정 방법은 상기 스켈레톤 모델의 대칭성(symmetric nature)에 기초하여, 상기 복수의 조인트들 중 서로 대칭을 이루는 조인트 페어를 인지하는 단계; 상기 조인트 페어에 포함된 제1 조인트의 반지름 파라미터 및 상기 조인트 페어에 포함된 제2 조인트의 반지름 파라미터의 평균을 계산하는 단계; 및 상기 제1 조인트의 반지름 파라미터와 상기 제2 조인트의 반지름 파라미터 각각을 상기 평균으로 수정하는 단계를 더 포함할 수 있다.According to another aspect of the present invention, there is provided a method for estimating an operation according to one side, comprising: recognizing a joint pair symmetric to each other among the plurality of joints based on a symmetric nature of the skeleton model; Calculating an average of a radius parameter of a first joint included in the joint pair and a radius parameter of a second joint included in the joint pair; And modifying each of the radius parameter of the first joint and the radius parameter of the second joint to the average.

다른 일 측에 따른 깊이 영상(depth image)을 이용하는 동작 추정 장치는 프로세서; 및 연속된 적어도 두 프레임들의 깊이 영상들을 획득하는 깊이 영상 획득부를 포함하고, 상기 프로세서는 상기 깊이 영상들에 기초하여 인접 프레임들 사이의 깊이 흐름(depth flow)과 관련된 제1 파라미터들을 계산하는 파라미터 계산부; 모션 프라이어들(motion priors)-상기 모션 프라이어들 각각은 미리 정해진 포즈(pose)에 대응되는 정보를 포함함-과 관련된 제2 파라미터들을 획득하는 파라미터 획득부; 및 상기 제1 파라미터들 및 상기 제2 파라미터들에 기초하여 상기 연속된 적어도 두 프레임들 사이에서 포즈의 변화량을 추정하는 포즈 변화량 추정부를 포함한다.A motion estimation apparatus using a depth image according to another aspect includes: a processor; And a depth image acquisition unit for acquiring depth images of at least two consecutive frames, wherein the processor calculates parameter calculations for calculating first parameters related to a depth flow between adjacent frames based on the depth images, part; Motion priors - a parameter acquiring unit for acquiring second parameters associated with each of the motion fliers, wherein each of the motion fiers includes information corresponding to a predetermined pose; And a pose change amount estimating unit that estimates a change amount of a pause between the at least two consecutive frames based on the first parameters and the second parameters.

이 때, 상기 포즈의 변화량은 복수의 조인트 각도들 각각의 변화량으로 모델링 되고, 상기 복수의 조인트 각도들 각각은 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 중 어느 하나에 대응될 수 있다At this time, the amount of change in the pose is modeled by a variation amount of each of the plurality of joint angles, and each of the plurality of joint angles may correspond to any one of a plurality of joints included in the skeleton model of the target object

또한, 상기 포즈 변화량 추정부는 상기 제1 파라미터들과 관련된 절대값과 상기 제2 파라미터들과 관련된 절대값의 합계가 최소가 되도록 상기 포즈의 변화량을 결정할 수 있다.The pose change amount estimating unit may determine the amount of change of the pose such that a sum of an absolute value associated with the first parameters and an absolute value associated with the second parameters is minimized.

또한, 상기 포즈 변화량 추정부는 상기 제1 파라미터들과 관련된 제한 조건과 상기 제2 파라미터들과 관련된 제한 조건을 고려하면서, 상기 포즈의 변화량이 최소가 되도록 상기 포즈의 변화량을 결정할 수 있다.The pose change amount estimating unit may determine the amount of change of the pose such that the change amount of the pose is minimized while considering the restriction condition related to the first parameters and the restriction condition related to the second parameters.

또한, 상기 모션 프라이어들은 데이터베이스에 미리 저장되고, 상기 제2 파라미터들은 상기 모션 프라이어들에 주성분 분석(PCA: Principal Components Analysis) 기법을 적용함으로써 생성될 수 있다.Also, the motion fliers may be stored in advance in the database, and the second parameters may be generated by applying Principal Components Analysis (PCA) techniques to the motion fliers.

또한, 상기 모션 프라이어들은 데이터베이스에 미리 저장되고, 상기 제2 파라미터들은 상기 모션 프라이어들에 인자 분석기 혼합(MFA: Mixture of Factor Analyzers) 기법을 적용함으로써 생성될 수 있다.In addition, the motion fliers may be stored in advance in the database, and the second parameters may be generated by applying a Mixture of Factor Analyzers (MFA) technique to the motion fliers.

또한, 상기 파라미터 획득부는 제t 프레임에서의 포즈에 기초하여 상기 모션 프라이어들 중 상기 제t 프레임에서의 포즈와 유사한 K개의 이웃 포즈들을 추출하는 이웃 포즈 추출부; 및 상기 K개의 이웃 포즈들에 지역 주성분 분석(LPCA: Local Principal Components Analysis) 기법을 적용함으로써 상기 제2 파라미터들을 생성하는 파라미터 생성부를 포함하고, 상기 제t 프레임은 상기 연속된 적어도 두 프레임들에 포함되며, 상기 K의 값은 기 설정된 유사도 결정 임계치에 의존할 수 있다.The parameter obtaining unit may further include: a neighbor pose extracting unit for extracting K neighboring pose similar to the pose in the t-th frame of the motion ficers based on the pose in the tth frame; And a parameter generator for generating the second parameters by applying a local principal component analysis (LPCA) technique to the K neighboring pauses, wherein the t < th > frame is included in at least two consecutive frames , And the value of K may depend on a predetermined similarity determination threshold.

또한, 상기 이웃 포즈 추출부는 상기 제t 프레임에서의 포즈와 상기 모션 프라이어들 중 적어도 일부 사이의 유사도 값들을 병렬적으로 계산하는 병렬 처리부; 및 상기 병렬적으로 계산된 유사도 값들과 상기 기 설정된 유사도 결정 임계치에 기초하여 상기 K개의 이웃 포즈들을 선택하는 이웃 포즈 선택부를 포함할 수 있다.The neighbor pose extracting unit may include a parallel processing unit for calculating the similarity values between the pose of the t-th frame and at least a part of the motion fingers in parallel; And a neighbor pose selector for selecting the K neighbor pose based on the parallel calculated similarity values and the predetermined similarity determination threshold.

또한, 상기 이웃 포즈 추출부는 상기 모션 프라이어들 및 상기 제t 프레임에서의 포즈에 각각 프로덕트 양자화(product quantization) 기법을 적용함으로써 제1 양자화 결과들과 제2 양자화 결과를 생성하는 프로덕트 양자화부; 및 상기 제1 양자화 결과들과 상기 제2 양자화 결과에 기초하여 상기 제t 프레임에서의 포즈와 상기 모션 프라이어들 사이의 유사도 값들을 계산하는 유사도 계산부를 포함할 수 있다.The neighboring pose extracting unit may include a product quantization unit that generates first quantization results and a second quantization result by applying a product quantization technique to the motion fliers and the pose in the t frame, respectively; And a similarity calculation unit for calculating a pose in the t-th frame and similarity values between the motion fliers based on the first quantization results and the second quantization result.

또한, 상기 깊이 영상 획득부는 미리 정해진 기준 포즈를 취하는 타깃 오브젝트의 기준 깊이 영상을 획득하고, 상기 프로세서는 상기 미리 정해진 기준 포즈와 관련된 정보에 기초하여 상기 기준 깊이 영상에 포함된 복수의 픽셀들을 상기 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 중 어느 하나로 분류하는 분류부; 및 랜덤 샘플링 기법에 기초하여 상기 복수의 조인트들 각각에 대응되는 깊이 픽셀들의 수가 최대가 되도록 상기 복수의 조인트들 각각의 반지름 파라미터를 결정하는 반지름 파라미터 결정부를 더 포함할 수 있다.The depth image acquisition unit may acquire a reference depth image of a target object that takes a predetermined reference pose, and the processor may calculate a plurality of pixels included in the reference depth image based on the information associated with the predetermined reference pose, A classifier for classifying the object into any one of a plurality of joints included in the skeleton model of the object; And a radius parameter determination unit for determining a radius parameter of each of the plurality of joints so that the number of depth pixels corresponding to each of the plurality of joints becomes the maximum based on a random sampling technique.

또한, 상기 프로세서는 상기 스켈레톤 모델의 대칭성(symmetric nature)에 기초하여, 상기 복수의 조인트들 중 서로 대칭을 이루는 조인트 페어를 인지하고, 상기 조인트 페어에 포함된 제1 조인트의 반지름 파라미터 및 상기 조인트 페어에 포함된 제2 조인트의 반지름 파라미터의 평균을 계산하며, 상기 제1 조인트의 반지름 파라미터와 상기 제2 조인트의 반지름 파라미터 각각을 상기 평균으로 수정할 수 있다.
The processor is further configured to recognize a symmetric symmetry pair of the plurality of joints based on the symmetric nature of the skeleton model and determine a radius parameter of the first joint included in the joint pair, And the radius parameter of the first joint and the radius parameter of the second joint may be modified to the average of the radius parameter of the first joint and the radius parameter of the second joint.

도 1은 일 실시예에 따른 깊이 영상(depth image)을 이용하는 동작 추정 방법을 나타낸 동작 흐름도.
도 2는 일 실시예에 따른 깊이 흐름 함수(depth flow function)를 설명하기 위한 도면.
도 3은 일 실시예에 따른 인체 스켈레톤 모델(human skeleton model)을 설명하기 위한 도면.
도 4는 일 실시예에 따른 자동 스켈레톤 보정(automatic skeleton calibration)을 설명하기 위한 도면.
도 5는 일 실시예에 따른 깊이 영상을 이용하는 동작 추정 장치를 나타낸 블록도.
1 is a flowchart illustrating an operation estimation method using a depth image according to an exemplary embodiment;
2 is a diagram for explaining a depth flow function according to an embodiment;
3 is a view for explaining a human skeleton model according to an embodiment.
4 is a diagram for describing automatic skeleton calibration according to one embodiment;
5 is a block diagram illustrating an operation estimating apparatus using a depth image according to an embodiment.

Work 실시예에In the embodiment 따른 깊이 영상( Depth image ( depthdepth imageimage )을 이용하는 동작 추정 방법) ≪ / RTI >

일 실시예에 따른 깊이 영상을 이용하는 동작 추정 방법은 깊이 영상들을 획득하는 단계(110), 제1 파라미터들을 계산하는 단계(120), 제2 파라미터들을 획득하는 단계(130) 및 포즈의 변화량을 추정하는 단계(140)를 포함한다.An operation estimation method using a depth image according to an exemplary embodiment includes a step 110 of acquiring depth images, a step 120 of calculating first parameters, a step of acquiring second parameters 130, (Step 140).

이 때, 깊이 영상들을 획득하는 단계(110)는 연속된 적어도 두 프레임들의 깊이 영상들을 획득할 수 있다. 여기서, 깊이 영상은 타깃 오브젝트까지의 거리와 관련된 정보를 저장하는 영상으로, 예를 들어 깊이 영상 촬영 장치의 2차원 투영면(project plane)으로부터 타깃 오브젝트까지의 거리 정보를 각 픽셀 값으로 저장하는 영상을 포함할 수 있다.At this time, acquiring depth images 110 may acquire depth images of at least two consecutive frames. Here, the depth image is an image storing information related to the distance to the target object, for example, an image storing the distance information from the two-dimensional projection plane (project plane) of the depth image photographing apparatus to the target object as each pixel value .

또한, 제1 파라미터들을 계산하는 단계(120)는 깊이 영상들에 기초하여 인접 프레임들 사이의 깊이 흐름(depth flow)과 관련된 제1 파라미터들을 계산할 수 있다. 보다 구체적으로, 제1 파라미터들은 깊이 흐름 함수(depth flow equation)에 포함된 다양한 편미분 파라미터들을 포함할 수 있다. 제1 파라미터들과 관련된 보다 상세한 사항들은 도 3을 참조하여 후술한다.In addition, calculating 120 the first parameters may calculate first parameters related to a depth flow between adjacent frames based on the depth images. More specifically, the first parameters may include various partial differential parameters included in a depth flow equation. More details related to the first parameters will be described below with reference to FIG.

또한, 제2 파라미터들을 획득하는 단계(130)는 모션 프라이어들(motion priors)과 관련된 제2 파라미터들을 획득할 수 있다. 여기서, 모션 프라이어들 각각은 미리 정해진 포즈(pose)에 대응되는 정보를 포함할 수 있다. 예를 들어, 타깃 오브젝트가 사람인 경우 사람의 관절 구조에 따라 사람이 취할 수 있는 포즈는 한정될 수 있다. 따라서, 모션 프라이어들은 타깃 오브젝트가 취할 수 있는 포즈들에 대응되는 정보를 포함하는 것들로 제한될 수 있다.In addition, acquiring (130) the second parameters may acquire second parameters associated with motion priors. Here, each of the motion fliers may include information corresponding to a predetermined pose. For example, if the target object is a person, the pose that a person can take depending on the joint structure of a person can be limited. Thus, motion fliers may be limited to those that contain information corresponding to the poses that the target object may take.

또한, 포즈의 변화량을 추정하는 단계(140)는 제1 파라미터들 및 제2 파라미터들에 기초하여 연속된 적어도 두 프레임들 사이에서 포즈의 변화량을 추정할 수 있다.In addition, estimating the amount of change in the pose 140 may estimate the amount of change in the pose between at least two consecutive frames based on the first and second parameters.

여기서, 제1 파라미터들은 인접 프레임들 사이의 깊이 흐름과 관련된 파라미터들이고, 제2 파라미터들은 모션 프라이어들과 관련된 파라미터들이다. 따라서, 포즈의 변화량을 추정하는 단계(140)는 깊이 흐름과 관련된 제한 조건과 모션 프라이어들과 관련된 제한 조건을 모두 만족시키는 포즈의 변화량을 추정할 수 있다.Here, the first parameters are parameters related to the depth flow between adjacent frames, and the second parameters are parameters related to motion fliers. Thus, step 140 of estimating the amount of change in the pose can estimate the amount of change in the pose that satisfies both the constraints associated with the depth flow and the constraints associated with the motion fliers.

예를 들어, 포즈의 변화량을 추정하는 단계(140)는 깊이 흐름과 관련된 제한 조건을 제1 파라미터들과 관련된 절대값으로 표현하고, 모션 프라이어들과 관련된 제한 조건을 제2 파라미터들과 관련된 절대값으로 표현할 수 있다. 포즈의 변화량을 추정하는 단계(140)는 제1 파라미터들과 관련된 절대값과 제2 파라미터들과 관련된 절대값의 합계가 최소가 되도록 포즈의 변화량을 결정할 수 있다. For example, estimating a variation amount of a pose (140) may include expressing a constraint associated with the depth flow with an absolute value associated with the first parameters, expressing the constraint associated with the motion fliers with an absolute value associated with the second parameters . Estimating the amount of change in the pose 140 may determine the amount of change in the pose such that the sum of the absolute values associated with the first parameters and the absolute values associated with the second parameters is at a minimum.

이로 인하여, 일 실시예에 따른 동작 추정 방법은 깊이 영상들에 노이즈가 많은 경우에도, 모션 프라이어들과 관련된 제한 조건을 만족시킴에 따라 자연스러운 결과 포즈가 도출되는 포즈의 변화량을 추정할 수 있다. Accordingly, even when there is a large amount of noise in the depth images, the motion estimation method according to an exemplary embodiment can estimate a variation amount of a pose in which a natural result pose is derived by satisfying a constraint related to motion fliers.

또한, 일 실시예에 따른 동작 추정 방법은 깊이 영상들에 자체적으로 가려지는(self-occluded) 픽셀들이 포함되는 경우에도, 모션 프라이어들과 관련된 제한 조건을 만족시킴에 따라 자연스러운 결과 포즈가 도출되는 포즈의 변화량을 추정할 수 있다. In addition, the motion estimation method according to an exemplary embodiment of the present invention includes a pause in which a natural result pose is derived by satisfying a constraint associated with motion fliers even when self-occluded pixels are included in depth images Can be estimated.

예를 들어, 양 팔을 크로스 시킨 자세로부터 차려 자세로 움직이는 동작을 추정하는 경우를 가정하자. 이 경우, 크로스 된 양 팔 중 앞 쪽에 위치한 팔에 의하여 뒤 쪽에 위치한 팔의 일부는 가려질 수 밖에 없다. For example, suppose a case where the motion of moving both arms from the posture of crossing to the posture of posture is estimated. In this case, the part of the arm that is located on the back side of the crossed arms is inevitably covered.

따라서, 깊이 흐름과 관련된 제한 조건만을 이용하는 경우 뒤 쪽에 의치한 팔의 동작을 정확하게 추정하기 어렵다. 다만, 모션 프라이어들과 관련된 제한 조건을 추가로 고려하게 되면, 깊이 영상들에 자체적으로 가려지는 픽셀들이 포함되는 경우에도, 자연스러운 결과 포즈가 도출되는 포즈의 변화량을 추정할 수 있다.Therefore, it is difficult to accurately estimate the motion of the dorsal arm on the back side when using only the constraints related to the depth flow. However, by further considering the constraints associated with motion fliers, it is possible to estimate the amount of change in pose that results in a natural result pose, even if the pixels that are hidden by the depth images are included.

뿐만 아니라, 다른 실시예에 따른 포즈의 변화량을 추정하는 단계(140)는 제1 파라미터들과 관련된 제한 조건과 제2 파라미터들과 관련된 제한 조건을 고려하면서, 포즈의 변화량이 최소가 되도록 포즈의 변화량을 결정할 수 있다.In addition, the step 140 of estimating the amount of change in pose according to another embodiment may include calculating a variation amount of the pose such that the variation amount of the pose is minimized while taking into consideration the restriction condition related to the first parameters and the restriction condition related to the second parameters Can be determined.

이로 인하여, 일 실시예에 따른 동작 추정 방법은 보다 부드러운(smooth) 동작을 도출할 수 있다.Accordingly, the motion estimation method according to an exemplary embodiment can derive smoother motion.

한편, 일 실시예에 따른 포즈는 복수의 조인트 각도들(joint angles)로 모델링 될 수 있다. 이 경우, 복수의 조인트 각도들 각각은 타깃 오브젝트의 스켈레톤 모델(skeleton model)에 포함된 복수의 조인트들(joints) 중 어느 하나에 대응될 수 있다.Meanwhile, a pose according to one embodiment may be modeled as a plurality of joint angles. In this case, each of the plurality of joint angles may correspond to any one of a plurality of joints included in a skeleton model of the target object.

예를 들어, 도 2를 참조하면, 일 실시예에 따른 타깃 오브젝트가 사람인 경우 타깃 오브젝트의 스켈레톤 모델은 15개의 조인트들(210, 220, 230, 235, 240, 245, 250, 255, 260, 270, 275, 280, 285, 290, 295)을 포함할 수 있다. 각각의 조인트들은 타깃 오브젝트의 특정 뼈 세그먼트(bone segment)에 대응될 수 있다.For example, referring to FIG. 2, if the target object according to one embodiment is a person, the skeleton model of the target object may include fifteen joints 210, 220, 230, 235, 240, 245, 250, 255, , 275, 280, 285, 290, 295). Each joint may correspond to a particular bone segment of the target object.

각각의 조인트들은 조인트 좌표(joint coordinate)와 조인트 각도로 표현될 수 있다. 조인트 좌표는 해당 조인트에 대응되는 뼈 세그먼트가 회전 운동을 하는 기점인 관절의 위치 좌표를 포함하고, 조인트 각도는 해당 조인트 좌표를 중심으로 타깃 오브젝트의 뼈 세그먼트가 회전된 각도 벡터를 포함할 수 있다.Each joint can be represented by a joint coordinate and a joint angle. The joint coordinates may include the position coordinates of the joint, which is the origin of the rotation of the bone segment corresponding to the joint, and the joint angle may include an angle vector in which the bone segment of the target object is rotated about the corresponding joint coordinate.

따라서, 일 실시예에 따른 포즈는 스켈레톤 모델에 포함된 조인트들의 조인트 각도들에 의해 모델링 될 수 있다. 각각의 조인트들은 하나의 조인트 각도에 의하여 표현될 수 있고, 경우에 따라서 복수의 조인트 각도에 의하여 표현될 수 있다. 예를 들어, 허벅지 뼈와 정강이 뼈 사이의 관절은 한 방향으로만 회전 운동을 할 수 있다. 이 때, 정강이 뼈에 대응되는 조인트(290, 295)는 하나의 조인트 각도에 의하여 모델링 될 수 있다. 반면, 두개골의 경우 세 방향(머리를 좌우로 기울이는 방향, 머리를 앞뒤로 기울이는 방향, 고개를 좌우로 흔드는 방향)으로 회전 운동을 할 수 있다. 따라서, 두개골에 대응되는 조인트(210)는 세 개의 조인트 각도들에 의하여 모델링 될 수 있다. Thus, the pose according to one embodiment may be modeled by the joint angles of the joints included in the skeleton model. Each joint can be represented by one joint angle, and in some cases can be represented by a plurality of joint angles. For example, joints between the thigh bone and the shin bone can only rotate in one direction. At this time, the joints 290 and 295 corresponding to the shin bone can be modeled by one joint angle. On the other hand, the skull can be rotated in three directions (tilting the head to the left and right, tilting the head back and forth, and shaking the head to the left and right). Thus, the joint 210 corresponding to the skull can be modeled by three joint angles.

다른 실시예에 따르면, 일 실시예에 따른 포즈는 스켈레톤 모델에 포함된 조인트들의 조인트 각도들 및 조인트 좌표들에 의하여 모델링 될 수 있다. 이 경우, 각각의 조인트들은 하나의 조인트 좌표 및 적어도 하나의 조인트 각도에 의하여 모델링 될 수 있다. 예를 들어, 척추 뼈는 인체의 중심이 되고 척추 뼈 또한 세 방향으로 회전 운동을 할 수 있으므로, 척추 뼈에 대응되는 조인트(260)는 루트 위치 좌표(root position coordinate) 및 세 개의 조인트 각도들에 의하여 모델링 될 수 있다. 또한, 정강이 뼈는 허벅지 뼈와 맞닿은 관절을 기준으로 회전 운동을 하므로, 정강이 뼈에 대응되는 조인트(290, 295)는 무릎 관절의 위치 좌표 및 하나의 조인트 각도에 의하여 모델링 될 수 있다.According to another embodiment, a pose according to an embodiment may be modeled by joint angles and joint coordinates of the joints included in the skeleton model. In this case, each joint may be modeled by one joint coordinate and at least one joint angle. For example, since the vertebrae become the center of the human body and the vertebrae can also be rotated in three directions, the joint 260 corresponding to the vertebrae will have a root position coordinate and three joint angles Lt; / RTI > In addition, since the shin bone is rotated with reference to the joint which is in contact with the thigh bone, the joints 290 and 295 corresponding to the shin bone can be modeled by the position coordinates of the knee joint and the angle of one joint.

나아가, 일 실시예에 따른 포즈의 변화량은 복수의 조인트 각도들 각각의 변화량으로 모델링 될 수 있다. 물론, 다른 실시예에 따르면 포즈의 변화량은 복수의 조인트 각도들 각각의 변화량 및 복수의 조인트 좌표들 각각의 변화량으로 모델링 될 수 있다.Further, the amount of change in the pose according to one embodiment can be modeled by the amount of change of each of the plurality of joint angles. Of course, according to another embodiment, the amount of change in the pose can be modeled by the amount of change of each of the plurality of joint angles and the amount of change of each of the plurality of joint coordinates.

이하, 제1 파라미터들 및 제2 파라미터들을 상세히 설명한다.
Hereinafter, the first parameters and the second parameters will be described in detail.

(1) 깊이 흐름 함수
(1) Depth flow function

이하 도 3를 참조하여 일 실시예에 따른 동작 추정 방법이 제1 파라미터들을 계산하는 과정을 설명하기로 한다.Hereinafter, a process of calculating the first parameters by the motion estimation method according to an embodiment will be described with reference to FIG.

3차원 공간 좌표(x, y, z)에서 계산하고자 하는 픽셀이 제1 위치(320)에서 제2 위치(330)로 이동한 경우, 2차원 평면 좌표(u, v)의 투영면(projection plane) 예를 들어, 제1 깊이 영상에서 상기 제1 위치(330)에 대응하는 상기 픽셀의 위치는 제3 위치(340)에서 제4 위치(350)로 이동하게 된다.When the pixel to be calculated in the three-dimensional spatial coordinates (x, y, z) moves from the first position 320 to the second position 330, the projection plane of the two- For example, the position of the pixel corresponding to the first position 330 at the first depth image is moved from the third position 340 to the fourth position 350.

상기 픽셀은 제1 위치(320)에서 제2 위치(330)로 이동함에 따라 깊이 카메라(310)로부터의 거리가 멀어지므로, 상기 픽셀은 깊이 값의 변화(△D)가 발생한다.As the pixel moves from the first position 320 to the second position 330, the distance from the depth camera 310 increases, so that a change in depth value DELTA D occurs in the pixel.

이 때, 상기 픽셀의 움직임(△q)이 충분히 작다고 가정할 때, 다음과 같은 수학식이 성립한다.At this time, assuming that the motion (? Q) of the pixel is sufficiently small, the following equation holds.

Figure pat00001
Figure pat00001

여기서, t는 프레임, q는 픽셀의 좌표이다.Here, t is a frame, and q is a coordinate of a pixel.

수학식 1의 우측 변에 테일러 급수 전개(Taylor series expansion) 기법을 적용하면 다음과 같은 수학식이 성립한다.When the Taylor series expansion method is applied to the right side of Equation (1), the following equation is established.

Figure pat00002
Figure pat00002

여기서 수학식 2의 우측 변은 입력 깊이 영상(110)의 픽셀과 제1 깊이 영상의 픽셀 간의 깊이 값 차로 계산할 수 있다.Here, the right side of Equation (2) can be calculated by a difference in depth value between the pixel of the input depth image 110 and the pixel of the first depth image.

상기 수학식 2를 인체 등의 포즈 생성에 이용하기 위해서 3차원 공간 상에서 상기 픽셀의 이동(△q)은 키네마틱스 함수(kinematics function)를 이용하여 수학식 3과 같이 표현할 수 있다.In order to use Equation (2) to generate a pose of a human body or the like, the movement (? Q) of the pixel in the three-dimensional space can be expressed as Equation (3) using a kinematics function.

Figure pat00003
Figure pat00003

여기서 f는 전방 키네마틱스 함수(forward kinematics function)이고, q0는 각 구성 인덱스(bone index)의 좌표 값이고, k는 각 구성 인덱스 번호이다.Where f is the forward kinematics function, q0 is the coordinate value of each configuration index, and k is the respective configuration index number.

연쇄 법칙(chain rules)을 이용해 수학식 2와 수학식 3을 통합하면 다음의 수학식이 성립한다.By integrating equations (2) and (3) using chain rules, the following equations are established.

Figure pat00004
Figure pat00004

두 인접한 프레임들에서 깊이 픽셀들 각각은 수학식 4를 만족해야 한다. 따라서, 복수의 깊이 픽셀들의 깊이 흐름을 포함하는 세트(set)를 이용하여 선형 함수의 시스템이 구축될 수 있다. 이러한 선형 함수의 시스템은 수학식 5와 같이 단순화되어 표현될 수 있다.In each of the two adjacent frames, each of the depth pixels must satisfy Equation (4). Thus, a system of linear functions can be constructed using a set including a depth flow of a plurality of depth pixels. The system of such a linear function can be simplified as shown in Equation (5).

Figure pat00005
Figure pat00005

두 인접한 프레임들 사이의 포즈의 변화량(△p)은 수학식 5를 풀이함으로써 도출될 수 있다. 그러므로, 타깃 오브젝트의 동작은 수학식 5를 반복적으로 풀이함으로써 순차적으로 추정될 수 있다.The amount of change ([Delta] p) of the pose between two adjacent frames can be derived by solving Equation (5). Therefore, the operation of the target object can be sequentially estimated by repeatedly solving Equation (5).

전술한 바와 같이, 일 실시예에 따른 동작 추정 방법은 깊이 흐름과 관련된 제한 조건과 모션 프라이어들과 관련된 제한 조건을 모두 만족시키는 포즈의 변화량을 추정할 수 있다. 이하, 모션 프라이어들과 관련된 세 가지 통계학적 모델들을 설명한다.
As described above, the motion estimation method according to an exemplary embodiment can estimate a variation amount of a pose that satisfies both constraints related to the depth flow and constraints associated with motion fliers. Hereinafter, three statistical models related to motion fliers are described.

(2-1) 주성분 분석(PCA: Principle Component Analysis)
(2-1) Principle Component Analysis (PCA)

타깃 오브젝트의 포즈(예를 들어 인체의 포즈)는 일반적으로 큰 자유도를 가진다. 예를 들어, 인체의 스켈레톤 모델은 38개의 조인트 각도들에 의해 모델링 될 수 있다. 그러나, 특정한 인체의 포즈는 다른 자유도와 높은 연관성을 가질 수 있다. 여기서, 다른 자유도는 특정한 인체의 포즈가 가지는 큰 자유도보다 낮은 자유도를 포함할 수 있다. 결론적으로, 주성분 분석은 이러한 높은 연관성을 모델링 하기 위한 선형 통계학적 모델이다.The pose of the target object (for example, the pose of the human body) generally has a large degree of freedom. For example, the human skeleton model can be modeled by 38 joint angles. However, the pose of a particular human body can be highly correlated with other degrees of freedom. Here, the other degrees of freedom may include a degree of freedom that is less than the greater degrees of freedom of a particular human body pose. In conclusion, Principal Component Analysis is a linear statistical model for modeling these high associations.

수학적으로, 주성분 분석은 고차원 포즈(예를 들어, 큰 자유도를 가지는 인체의 포즈)를 수학식 6과 같이 모델링 한다. Mathematically, principal component analysis models a high dimensional pose (e. G., A pose of the human body with a large degree of freedom) as shown in equation (6).

Figure pat00006
Figure pat00006

여기서, plow는 저차원 벡터(예를 들어, 인체의 포즈에 비하여 낮은 자유도를 가지는 벡터)이고,

Figure pat00007
는 평균 포즈이며, C는 저차원 공간으로부터 고차원 공간으로의 변환(transformation) 매트릭스이다. 이 때, plow는 제로-평균 가우스 분포된 N(0;1)으로 가정될 수 있다. Where p low is a low dimensional vector (e.g., a vector with a lower degree of freedom relative to the pose of the human body)
Figure pat00007
Is the average pose, and C is the transformation matrix from low dimensional space to high dimensional space. At this time, p low can be assumed to be a zero-mean gaussian distributed N (0; 1).

또한, phigh는 plow로 변환될 수 있어야 하고, 다시 phigh로 복원된 이후에도 기존의 값이 변경되지 않아야 한다.Also, p high must be converted to p low and the existing values should not change even after being restored to p high again.

Figure pat00008
Figure pat00008

여기서, 수학식 7에

Figure pat00009
을 대입하면, 수학식 8이 도출된다.In Equation 7,
Figure pat00009
, Equation (8) is derived.

Figure pat00010
Figure pat00010

수학식 8은 포즈의 변화량(△p)과 관련된 선형 함수이고, 수학식 9와 같이 단순화 될 수 있다.Equation (8) is a linear function related to the amount of change (? P) of the pose, and can be simplified as shown in Equation (9).

Figure pat00011
Figure pat00011

한편, 또 다른 제한 조건으로 plow는 제로-평균 가우스 분포된 N(0;1)으로 가정되었으므로, 수학식 10으로부터 수학식 11이 도출될 수 있다.On the other hand, as another constraint condition, p low is assumed to be a zero-mean gaussian distributed N (0; 1), the equation (11) can be derived from the equation (10).

Figure pat00012
Figure pat00012

Figure pat00013
Figure pat00013

수학식 11도 포즈의 변화량(△p)과 관련된 선형 함수이고, 수학식 12와 같이 단순화 될 수 있다.Equation (11) is also a linear function related to the change amount (p) of the pose, and can be simplified as shown in Equation (12).

Figure pat00014
Figure pat00014

또한, 일 실시예에 따른 동작 추정 방법은 동작의 부드러움을 위하여 제1 파라미터들과 관련된 제한 조건과 제2 파라미터들과 관련된 제한 조건을 고려하면서, 포즈의 변화량이 최소가 되도록 포즈의 변화량을 결정할 수 있다. 포즈의 변화량이 최소가 되도록 하는 제한 조건은 수학식 13에 의하여 고려될 수 있다.In addition, the motion estimation method according to an exemplary embodiment may determine a variation amount of a pose such that a variation amount of the pose is minimized while taking into consideration the constraints related to the first parameters and the constraints related to the second parameters for smoothness of operation have. The constraint condition that minimizes the amount of change of the pose can be considered by Equation (13).

Figure pat00015
Figure pat00015

결론적으로, 동작 추정 방법은 수학식 5, 수학식 9, 수학식 12, 및 수학식 13에 기초하여 포즈의 변화량(△p)을 추정할 수 있다. 수학식 5, 수학식 9, 수학식 12, 및 수학식 13을 정리하면 수학식 14와 같다.Consequently, the motion estimation method can estimate the amount of change? P of the pose based on Equations (5), (9), (12), and (13). Equation (5), Equation (9), Equation (12) and Equation (13) are summarized as Equation (14).

Figure pat00016
Figure pat00016

이 경우, 수학식 14는 수학식 5, 수학식 9, 수학식 12 각각에 대응되는 선형 시스템보다 더 큰 선형 시스템에 대응될 수 있다. 일 실시예에 따른 동작 추정 방법은 수학식 15를 이용하여 수학식 14를 풀이함으로써 포즈의 변화량(△p)을 추정할 수 있다.In this case, equation (14) may correspond to a linear system that is larger than the linear system corresponding to each of equations (5), (9) and (12). The operation estimating method according to an embodiment can estimate the amount of change? P of the pose by solving Equation (14) using Equation (15).

Figure pat00017
Figure pat00017

여기서, a1, a2, a3, a4는 동작 추정 방법에 의하여 조절될 수 있는 계수들이다.Here, a 1 , a 2 , a 3 , a 4 are coefficients that can be adjusted by the motion estimation method.

동작 추정 방법은 기존 프레임(예를 들면, 제t 프레임)에서의 포즈(pt)와 포즈의 변화량(△p)에 기초하여 새 프레임(예를 들면, 제t+1 프레임)에서의 포즈(pt+1)을 생성할 수 있다. 예를 들어, 새 프레임에서의 포즈를 생성하는 과정은 수학식 16에 의하여 간단하게 표현될 수 있다.The motion estimation method is based on a pause (p) in a new frame (e.g., the (t + 1) frame) based on a pose (p t ) in an existing frame p t + 1 ). For example, the process of generating a pose in a new frame can be simply expressed by Equation (16).

Figure pat00018
Figure pat00018

(2-2) 요인 분석기 혼합(MFA: Mixture of Factor Analyzer)
(2-2) Mixture of Factor Analyzer (MFA)

요인 분석기(FA: Factor Analyzer)는 고차원 실제 값 데이터 벡터(high-dimensional real-valued data vector)인 p∈RD(예를 들어, 인체의 포즈)를 저차원 벡터 s∈Rd와 다변수 가우스 랜덤 벡터 u∈RD에 기초하여 표현하는 통계학적 모델이다.The Factor Analyzer (FA) analyzes the high-dimensional real-valued data vector p∈R D (for example, the pose of the human body) with a low-dimensional vector s∈R d and a multivariate Gaussian Lt; RTI ID = 0.0 > u < / RTI >

수학적으로, 요인 분석기는 고차원 실제 값 데이터 벡터를 수학식 17과 같이 모델링 한다.Mathematically, the factor analyzer models the high dimensional real value data vector as shown in equation (17).

Figure pat00019
Figure pat00019

여기서,

Figure pat00020
은 요인 로딩 매트릭스(factor loading matrix)이고, 저차원 벡터 s는 제로-평균 가우스 분포된 N(0;1)로 가정될 수 있다. 또한, 랜덤 벡터 u는 다변수 가우스 분포된
Figure pat00021
로 가정될 수 있다. 이 때,
Figure pat00022
는 평균 벡터이고
Figure pat00023
는 대각 공분산 매트릭스(diagonal covariance matrix)이다.here,
Figure pat00020
Is a factor loading matrix, and the low dimensional vector s can be assumed to be a zero-mean gaussian distributed N (0; 1). Also, the random vector u is a multivariate Gaussian distributed
Figure pat00021
. ≪ / RTI > At this time,
Figure pat00022
Is the mean vector
Figure pat00023
Is a diagonal covariance matrix.

대부분의 인체의 포즈들은 선형 함수의 시스템으로 표현되기 어렵다. 대신, 이러한 인체의 포즈들은 비선형 시스템에 의하여 용이하게 표현될 수 있다.The poses of most human bodies are hardly represented by a system of linear functions. Instead, these human body poses can be easily represented by a nonlinear system.

요인 분석기 혼합은 비선형 포즈의 분포를 모델링 할 수 있도록 요인 분석기들을 혼합할 수 있다. 보다 구체적으로, 요인 분석기 혼합은 확률적으로 고차원 실제 값 데이터 벡터 p∈RD를 복수의 지역 공간들로 파티션 할 수 있다. 나아가, 요인 분석기 혼합은 파티션 된 복수의 지역 공간들 각각을 상이한 요인 분석기를 이용하여 모델링 할 수 있다.Factor analyzer mixing can mix factor analyzers to model the distribution of nonlinear pose. More specifically, the factor analyzer mixer may partition the high dimensional real value data vector p < RTI ID = 0.0 > R D < / RTI > into a plurality of local spaces probabilistically. Further, the factor analyzer mixing can model each of the plurality of partitioned local spaces using a different factor analyzer.

수학적으로, 요인 분석기 혼합은 입력 데이터 p를 위한 정규 분포들의 혼합으로 가정될 수 있다.Mathematically, the factor analyzer mix can be assumed to be a mixture of normal distributions for input data p.

Figure pat00024
Figure pat00024

여기서, K는 요인 분석기들의 수이고, 벡터 μk는 k번째 요인 분석기의 평균 벡터이며, 매트릭스 Lk는 k번째 요인 분석기의 요인 로딩 매트릭스이다. ψ∈RDxD는 독립 노이즈 u를 위한 대각 공분산 매트릭스이다.Where K is the number of factor analyzers, the vector μ k is the mean vector of the kth factor analyzer, and the matrix L k is the factor loading matrix of the kth factor analyzer. ψ∈R DxD is a diagonal covariance matrix for an independent noise u.

이 때, 일 실시예에 따른 동작 추정 방법은 수학식 5, 수학식 18, 및 수학식 13에 기초하여 포즈의 변화량(△p)을 추정할 수 있다. 보다 구체적으로, 동작 추정 방법은 수학식 19를 풀이함으로써 포즈의 변화량(△p)을 추정할 수 있다.At this time, the motion estimation method according to the embodiment can estimate the amount of change? P of the pose based on Equations (5), (18), and (13). More specifically, the motion estimation method can estimate the amount of change? P of the pose by solving Equation (19).

Figure pat00025
Figure pat00025

여기서, b1, b2, b3는 동작 추정 방법에 의하여 조절될 수 있는 계수들이다. 일 실시예에 따른 동작 추정 방법은 Levenberg-Marquart 알고리즘을 이용하여 수학식 15를 풀이할 수 있다.
Here, b 1 , b 2 , and b 3 are coefficients that can be adjusted by the motion estimation method. The motion estimation method according to an exemplary embodiment can solve Equation (15) using the Levenberg-Marquart algorithm.

(2-3) 지역 주성분 분석(LPCA: Local Principle Component Analysis)
(2-3) Local Principle Component Analysis (LPCA)

앞서, 대부분의 인체의 포즈들은 선형 함수의 시스템으로 표현되기 어렵고, 대신 비선형 시스템에 의하여 용이하게 표현될 수 있음을 언급하였다. 지역 주성분 분석도 비선형 포즈의 분포를 모델링 할 수 있다.Previously, we have mentioned that most human poses are difficult to represent as a system of linear functions and can instead be easily represented by nonlinear systems. Local principal component analysis can also model the distribution of nonlinear pose.

보다 구체적으로, 지역 주성분 분석은 글로벌 주성분 분석 모델을 생성하는 대신 각각의 프레임에서 지역 주성분 분석 모델을 생성할 수 있다.More specifically, local principal component analysis can generate a local principal component analysis model in each frame instead of generating a global principal component analysis model.

예를 들어, 제t 프레임에서 지역 주성분 분석 모델을 생성하는 경우를 가정하자. 동작 추정 방법은 데이터베이스에 저장된 모션 프라이어들로부터 제t 프레임에서의 포즈와 유사한 K개의 이웃 포즈들을 추출할 수 있다. 나아가, 동작 추정 방법은 실시간으로 K개의 이웃 포즈들에 기초하여 제t 프레임에서의 지역 주성분 분석 모델을 생성할 수 있다.For example, suppose that a local principal component analysis model is generated in the t-th frame. The motion estimation method may extract K neighbor pose similar to the pose in the t frame from the motion fliers stored in the database. Furthermore, the motion estimation method may generate a local principal component analysis model in the t-th frame based on K neighbor poses in real time.

수학적으로, 지역 주성분 분석 모델은 제t 프레임에서의 평균 포즈

Figure pat00026
와 제t 프레임에서의 변환 매트릭스
Figure pat00027
를 이용할 수 있다. 나아가, 지역 주성분 분석은 수학식 14와 유사한 선형 함수의 시스템을 풀이함으로써 포즈의 변화량(△p)을 추정할 수 있다. Mathematically, the local principal component analysis model is the average pose
Figure pat00026
And the transformation matrix in the t < th >
Figure pat00027
Can be used. Further, the local principal component analysis can estimate the change amount (p) of the pose by solving a system of linear functions similar to the equation (14).

특정 프레임에서의 지역 주성분 분석 모델은 선형 함수이지만 상이한 프레임에서의 지역 주성분 분석 모델들은 서로 다른 지역 주성분 분석 모델을 이용하므로, 지역 주성분 분석은 비선형 포즈의 분포를 모델링 할 수 있다.The local principal component analysis model in a specific frame is a linear function, but local principal component analysis models in different frames use different local principal component analysis models, so local principal component analysis can model the distribution of nonlinear pose.

이 때, 지역 주성분 분석은 주성분 분석과 달리 실시간으로 계산되어야 한다. 예를 들어, 지역 주성분 분석은 제t 프레임에서의 포즈에 기초하여 K개의 이웃 포즈들을 검출하고, 검출된 K개의 이웃 포즈들에 기초하여 제t 프레임에서의 지역 주성분 분석 모델을 생성한다. 따라서, 지역 주성분 분석은 제t 프레임에서의 포즈를 알아야 동작할 수 있고, 지역 주성분 분석 모델은 실시간으로 생성되어야 한다.In this case, local principal component analysis should be calculated in real time, unlike principal component analysis. For example, the regional principal component analysis detects K neighbor poses based on the pose in the tth frame and generates a local principal component analysis model in the tth frame based on the detected K neighbor poses. Therefore, the local principal component analysis can only be performed by knowing the pose in the t-th frame, and the local principal component analysis model should be generated in real time.

일 실시예에 따른 동작 추정 방법은 GPU 가속 기반 병렬 처리 기법을 활용할 수 있다. 이로 인하여, 동작 추정 방법은 지역 주성분 분석을 이용하여 모델링 하는데 필요한 연산 시간을 단축시킬 수 있다.The motion estimation method according to an exemplary embodiment may utilize a GPU acceleration based parallel processing technique. Thus, the motion estimation method can shorten the computation time required for modeling using local principal component analysis.

예를 들어, 동작 추정 방법은 제t 프레임에서의 포즈와 데이터베이스에 저장된 복수의 모션 프라이어들 사이의 유사도 값을 병렬적으로 계산할 수 있다. 이 때, 동작 추정 방법은 복수의 스레드들을 병렬적으로 처리할 수 있는 GPU 프로세서를 이용할 수 있다.For example, the motion estimation method may calculate a similarity value between a pose in a t-th frame and a plurality of motion fliers stored in a database in parallel. At this time, the motion estimation method may use a GPU processor capable of processing a plurality of threads in parallel.

일 실시예에 따르면, 제t 프레임에서의 포즈와 데이터베이스에 저장된 복수의 모션 프라이어들 사이의 유사도 값은 수학식 20과 같이 표현될 수 있다.According to one embodiment, the similarity value between a pause in the t < th > frame and a plurality of motion fiers stored in the database may be expressed as: < EMI ID = 20.0 >

Figure pat00028
Figure pat00028

여기서, N은 하나의 포즈에 포함된 조인트들의 수(인체의 스켈레톤 모델이 15개의 조인트들로 구성되는 경우, N은 15일 수 있음)이고, q0는 제t 프레임에서의 포즈이며, qn은 데이터베이스에 저장된 j번째 모션 프라이어의 n번째 조인트이다. 또한, d(q0, qn)는 제t 프레임에서의 포즈에 포함된 n번째 조인트의 앤드포인트(endpoint)와 데이터베이스에 저장된 j번째 모션 프라이어의 n번째 조인트의 앤드포인트(endpoint) 사이의 거리이다. 따라서, 제t 프레임에서의 포즈와 데이터베이스에 저장된 j번째 모션 프라이어 사이의 유사도 값, Dj는 각각의 조인트들 사이의 거리를 평균 낸 값으로 표현될 수 있다.Here, N is the number of joint included in one pose and (if a skeleton model of a human body is composed of 15 joints, N is that number of 15 days), q 0 is posing in the t frame, q n Is the nth joint of the jth motion flier stored in the database. Also, d (q 0 , q n ) is the distance between the end point of the nth joint included in the pose in the tth frame and the end point of the nth joint of the jth motion primary stored in the database to be. Therefore, the similarity value between the pose in the t-th frame and the j-th motion leader stored in the database, D j can be expressed as a value obtained by averaging the distance between the respective joints.

나아가, 동작 추정 방법은 병렬적으로 계산된 유사도 값들을 유사도 결정 임계치와 비교함으로써 K개의 이웃 포즈들을 선택할 수 있다. 예를 들어, 동작 추정 방법은 계산된 유사도 값이 미리 설정된 유사도 결정 임계치보다 작은 모션 프라이어들을 이웃 포즈들로 선정할 수 있다.Further, the motion estimation method may select K neighboring poses by comparing the similarity values calculated in parallel to the similarity determination threshold. For example, the motion estimation method may select motion fryers whose computed similarity values are less than a preset similarity determination threshold as neighboring poses.

여기서, 유사도 결정 임계치는 동작 추정 방법에 의하여 설정될 수 있는 수치로, 유사도 결정 임계치에 따라 선택되는 이웃 포즈들의 수인 K의 값이 변경될 수 있다.Here, the similarity determination threshold is a value that can be set by the motion estimation method, and the value of K, which is the number of neighboring pauses selected according to the similarity determination threshold, can be changed.

GPU 가속 기반 병렬 처리 기법의 결과물은 선정된 K개의 이웃 포즈들 각각의 유사도 값과 해당 이웃 포즈에 대응되는 모션 프라이어의 인덱스를 포함할 수 있다. 이 때, 이러한 결과물은 열 우선(column-major) 형태로 저장됨으로써 GPU 가속 기반 병렬 처리 기법의 성능을 최대로 활용할 수 있다.The output of the GPU acceleration based parallel processing technique may include the similarity value of each of the selected K neighboring pauses and the index of the motion fryer corresponding to the neighboring pose. At this time, these results are stored in a column-major format, so that the performance of the GPU acceleration-based parallel processing technique can be utilized to the maximum.

다른 실시예에 따른 동작 추정 방법은 프로덕트 양자화(product quantization) 기법을 활용할 수 있다. The motion estimation method according to another embodiment may utilize a product quantization technique.

보다 구체적으로, 동작 추정 방법은 데이터베이스에 저장된 복수의 모션 프라이어에 프로덕트 양자화 기법을 적용함으로써 제1 양자화 결과들을 생성할 수 있다. 동작 추정 방법은 제t 프레임에서의 포즈에도 프로덕트 양자화 기법을 적용함으로써 제2 양자화 결과를 생성할 수 있다.More specifically, the motion estimation method can generate the first quantization results by applying a product quantization technique to a plurality of motion fliers stored in a database. The motion estimation method can generate the second quantization result by applying the product quantization technique to the pose in the t < th > frame.

동작 추정 방법은 제1 양자화 결과들과 제2 양자화 결과에 기초하여 제t 프레임에서의 포즈와 모션 프라이어들 사이의 유사도 값들을 계산할 수 있다. 이 때, 동작 추정 방법은 계산된 유사도 값들을 유사도 결정 임계치와 비교함으로써 K개의 이웃 포즈들을 선택할 수 있다. 예를 들어, 동작 추정 방법은 계산된 유사도 값이 미리 설정된 유사도 결정 임계치보다 작은 모션 프라이어들을 이웃 포즈들로 선정할 수 있다.The motion estimation method may calculate the similarity values between the pauses in the t-th frame and the motion fliers based on the first quantization results and the second quantization result. At this time, the motion estimation method may select K neighboring poses by comparing the calculated similarity values to the similarity determination threshold. For example, the motion estimation method may select motion fryers whose computed similarity values are less than a preset similarity determination threshold as neighboring poses.

이러한 프로덕트 양자화 기법을 통하여, 동작 추정 방법은 지역 주성분 분석을 이용하여 모델링 하는데 필요한 연산 시간을 단축시킬 수 있다.
Through such a product quantization technique, the motion estimation method can shorten the computation time required for modeling using local principal component analysis.

(3) 자동 스켈레톤 보정(automatic skeleton calibration)
(3) Automatic skeleton calibration

다른 실시예에 따른 동작 추정 방법은 자동 스켈레톤 보정을 수행할 수 있다. 동작 추정 방법은 자동 스켈레톤 보정을 함으로써, 상이한 골격 크기를 가지는 타깃 오브젝트들(예를 들면, 상이한 골격 크기를 가지는 인체들)의 동작들을 보다 정확하게 추정할 수 있다.The motion estimation method according to another embodiment may perform automatic skeleton correction. The motion estimation method can more accurately estimate the motions of target objects having different skeletal sizes (for example, human bodies having different skeletal sizes) by performing automatic skeleton correction.

보다 구체적으로, 동작 추정 방법은 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 각각의 길이와 반지름을 자동으로 예측할 수 있다. 이 때, 타깃 오브젝트의 스켈레톤 모델은 척추를 포함하는 몸통을 제외한 나머지 뼈 세그먼트들을 원기둥으로 모델링 할 수 있다. 척추를 포함하는 몸통의 경우 타원기둥으로 모델링 될 수 있다.More specifically, the motion estimation method can automatically predict the length and radius of each of a plurality of joints included in the skeleton model of the target object. At this time, the skeleton model of the target object can model the remaining bone segments except the body including the spine as a cylinder. In the case of the body including the vertebra, it can be modeled as an elliptical column.

동작 추정 방법은 타깃 오브젝트가 변경되는 경우 일 회만 자동 스켈레톤 보정을 수행할 수 있다. 이하, 자동 스켈레톤 보정의 수행 과정을 상세히 설명한다.The motion estimation method can perform automatic skeleton correction only once when the target object is changed. Hereinafter, the process of performing automatic skeleton correction will be described in detail.

우선, 도 4a를 참조하면, 동작 추정 방법은 미리 정해진 기준 포즈를 취하는 타깃 오브젝트의 기준 깊이 영상을 획득할 수 있다. 여기서, 기준 포즈는 스켈레톤 모델에 포함된 복수의 조인트들 각각을 구분하기 용이하도록 미리 정해질 수 있다.First, referring to FIG. 4A, the motion estimation method may obtain a reference depth image of a target object that takes a predetermined reference pose. Here, the reference pose can be predetermined so as to easily distinguish each of the plurality of joints included in the skeleton model.

동작 추정 방법은 미리 정해진 기준 포즈와 관련된 정보에 기초하여 기준 깊이 영상에 포함된 복수의 픽셀들을 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 중 어느 하나로 분류할 수 있다.The motion estimation method may classify the plurality of pixels included in the reference depth image into any one of a plurality of joints included in the skeleton model of the target object based on information related to a predetermined reference pose.

예를 들어, 동작 추정 방법은 깊이 영상에서 두개골 부분의 픽셀들(410)을 쇄골 뼈 부분의 픽셀들 및 목 뼈 부분의 픽셀들과 용이하게 구분할 수 있다. 또한, 기준 포즈는 양 팔을 접은 자세를 포함하므로, 동작 추정 방법은 팔꿈치를 기준으로 상완부의 픽셀들(430)과 하완부의 픽셀들(420)을 용이하게 구분할 수 있다. 나아가, 기준 포즈는 양 무릎을 구부리고 왼 발은 전방에 디디며 오른 발은 후방에 디디는 자세를 포함할 수 있다. 이 경우, 동작 추정 방법은 왼쪽 허벅지 부분의 픽셀들(440), 왼쪽 정강이 부분의 픽셀들(450), 오른쪽 허벅지 부분의 픽셀들(460), 및 오른쪽 정강이 부분의 픽셀들(470)을 용이하게 구분할 수 있다.For example, the motion estimation method can easily distinguish the pixels 410 of the skull portion from the pixels of the clavicle bone portion and the pixels of the neck bone portion in the depth image. In addition, since the reference pose includes both arms folded, the motion estimation method can easily distinguish between the upper-arm pixels 430 and the lower-side pixels 420 with reference to the elbow. Further, the reference pose may include a posture in which both knees are bent, the left foot is directed forward, and the right foot is positioned posteriorly. In this case, the motion estimation method facilitates the use of pixels 440 in the left thigh portion, pixels 450 in the left shin portion, pixels 460 in the right thigh portion, and pixels 470 in the right shin portion .

또한, 도 4b를 참조하면,동작 추정 방법은 랜덤 샘플링 기법에 기초하여 복수의 조인트들 각각에 대응되는 깊이 픽셀들의 수가 최대가 되도록 복수의 조인트들 각각의 반지름 파라미터를 결정할 수 있다.Also, referring to FIG. 4B, the motion estimation method may determine the radius parameters of each of the plurality of joints such that the number of depth pixels corresponding to each of the plurality of joints is maximized based on the random sampling technique.

보다 구체적으로, 동작 추정 방법은 각각의 조인트들의 반지름 및 해당 조인트에 대응되는 깊이 픽셀의 페어(pair)를 랜덤하게 선택할 수 있다. 동작 추정 방법은 랜덤하게 선택된 조인트들의 반지름 및 깊이 픽셀의 페어에 기초하여 3차원 공간 상의 원기둥을 정의할 수 있다. 이후, 동작 추정 방법은 정의된 원기둥이 2차원 평면 상에 투영된 영상에서 인라이어들(inliers)의 수와 아웃라이어들(outliers)의 수를 카운트(count)함으로써 해당 원기둥을 평가할 수 있다.More specifically, the motion estimation method can randomly select the radius of each joint and a pair of depth pixels corresponding to that joint. The motion estimation method may define a cylinder on a three-dimensional space based on pairs of radial and depth pixels of randomly selected joints. The motion estimation method can then evaluate the cylinder by counting the number of inliers and the number of outliers in the image projected on a two-dimensional plane of the defined cylinder.

예를 들어, 동작 추정 방법은 정의된 원기둥을 수학식 21에 기초하여 평가할 수 있다.For example, the motion estimation method may evaluate the defined cylinder based on equation (21).

Figure pat00029
Figure pat00029

여기서,

Figure pat00030
는 i번째 조인트와 관련된 인라이어들의 수이고,
Figure pat00031
는 i번째 조인트와 관련된 아웃라이어들의 수이다. 따라서, 동작 추정 방법은 각각의 조인트들에서 인라이어들의 수가 최대가 되고, 아웃라이어들의 수가 최소가 되도록 각각의 조인트들의 반지름 파라미터를 결정할 수 있다.here,
Figure pat00030
Is the number of inducers associated with the ith joint,
Figure pat00031
Is the number of outliers associated with the i-th joint. Thus, the motion estimation method can determine the radius parameter of each joint to maximize the number of inlayers at each joint and minimize the number of outliers.

또 다른 실시예에 따른 동작 추정 방법은 스켈레톤 모델의 대칭성(symmetric nature)을 활용할 수 있다.The motion estimation method according to another embodiment may utilize the symmetric nature of the skeleton model.

보다 구체적으로, 동작 추정 방법은 스켈레톤 모델의 대칭성에 기초하여, 복수의 조인트들 중 서로 대칭을 이루는 조인트 페어를 인지할 수 있다. 동작 추정 방법은 조인트 페어에 포함된 제1 조인트의 반지름 파라미터 및 조인트 페어에 포함된 제2 조인트의 반지름 파라미터의 평균을 계산하고, 제1 조인트의 반지름 파라미터와 제2 조인트의 반지름 파라미터 각각을 계산된 평균으로 수정할 수 있다.
More specifically, based on the symmetry of the skeleton model, the motion estimation method can recognize a joint pair that is symmetric to each other among a plurality of joints. The motion estimation method calculates an average of a radius parameter of the first joint included in the joint pair and a radius parameter of the second joint included in the joint pair and calculates a radius parameter of the first joint and a radius parameter of the second joint, The average can be modified.

Work 실시예에In the embodiment 따른 깊이 영상을 이용하는 동작 추정 장치 Motion estimation apparatus using a depth image according to the present invention

도 5는 일 실시예에 따른 깊이 영상을 이용하는 동작 추정 장치를 나타낸 블록도이다.5 is a block diagram illustrating an operation estimating apparatus using a depth image according to an embodiment.

도 5를 참조하면, 일 실시예에 따른 동작 추정 장치(500)는 프로세서(510) 및 깊이 영상 획득부(520)를 포함한다.Referring to FIG. 5, a motion estimation apparatus 500 according to an embodiment includes a processor 510 and a depth image acquisition unit 520.

이 때, 깊이 영상 획득부(520)는 연속된 적어도 두 프레임들의 깊이 영상들을 획득할 수 있다.At this time, the depth image acquisition unit 520 may acquire depth images of at least two consecutive frames.

또한, 프로세서(510)는 깊이 영상들에 기초하여 인접 프레임들 사이의 깊이 흐름과 관련된 제1 파라미터들을 계산하는 파라미터 계산부(511), 모션 프라이어들과 관련된 제2 파라미터들을 획득하는 파라미터 획득부(512) 및 제1 파라미터들 및 제2 파라미터들에 기초하여 연속된 적어도 두 프레임들 사이에서 포즈의 변화량을 추정하는 포즈 변화량 추정부(513)을 포함할 수 있다.The processor 510 further includes a parameter calculator 511 for calculating first parameters related to the depth flow between adjacent frames based on the depth images, a parameter acquiring unit 512 for acquiring second parameters related to the motion fryers 512) and a pose change amount estimating unit 513 for estimating a change amount of the pause between at least two consecutive frames based on the first parameters and the second parameters.

여기서, 모션 프라이어들 각각은 미리 정해진 포즈에 대응되는 정보를 포함할 수 있다.Here, each of the motion fliers may include information corresponding to a predetermined pose.

도 5에 도시된 각 모듈들에는 도 1 내지 도 4를 통하여 기술된 사항들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 생략한다.
1 to 4 may be applied to each of the modules shown in FIG. 5, so that a detailed description thereof will be omitted.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (23)

깊이 영상(depth image)을 이용하는 동작 추정 방법에 있어서,
연속된 적어도 두 프레임들의 깊이 영상들을 획득하는 단계;
상기 깊이 영상들에 기초하여 인접 프레임들 사이의 깊이 흐름(depth flow)과 관련된 제1 파라미터들을 계산하는 단계;
모션 프라이어들(motion priors)-상기 모션 프라이어들 각각은 미리 정해진 포즈(pose)에 대응되는 정보를 포함함-과 관련된 제2 파라미터들을 획득하는 단계; 및
상기 제1 파라미터들 및 상기 제2 파라미터들에 기초하여 상기 연속된 적어도 두 프레임들 사이에서 포즈의 변화량을 추정하는 단계
를 포함하는 동작 추정 방법.
A motion estimation method using a depth image,
Obtaining depth images of at least two consecutive frames;
Calculating first parameters related to a depth flow between adjacent frames based on the depth images;
Motion priors - acquiring second parameters associated with each of the motion fliers comprising information corresponding to a predetermined pose; And
Estimating a change amount of a pause between the at least two consecutive frames based on the first parameters and the second parameters
/ RTI >
제1항에 있어서,
상기 포즈의 변화량은 복수의 조인트 각도들 각각의 변화량으로 모델링 되고, 상기 복수의 조인트 각도들 각각은 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 중 어느 하나에 대응되는 동작 추정 방법.
The method according to claim 1,
Wherein the amount of change of the pose is modeled by a variation amount of each of a plurality of joint angles, and each of the plurality of joint angles corresponds to any one of a plurality of joints included in a skeleton model of a target object.
제1항에 있어서,
상기 포즈의 변화량을 추정하는 단계는
상기 제1 파라미터들과 관련된 절대값과 상기 제2 파라미터들과 관련된 절대값의 합계가 최소가 되도록 상기 포즈의 변화량을 결정하는 단계
를 포함하는 동작 추정 방법.
The method according to claim 1,
The step of estimating the amount of change of the pose
Determining an amount of change in the pose such that a sum of an absolute value associated with the first parameters and an absolute value associated with the second parameters is at a minimum;
/ RTI >
제1항에 있어서,
상기 포즈의 변화량을 추정하는 단계는
상기 제1 파라미터들과 관련된 제한 조건과 상기 제2 파라미터들과 관련된 제한 조건을 고려하면서, 상기 포즈의 변화량이 최소가 되도록 상기 포즈의 변화량을 결정하는 단계
를 포함하는 동작 추정 방법.
The method according to claim 1,
The step of estimating the amount of change of the pose
Determining a variation amount of the pose such that a variation amount of the pose is minimized while considering a constraint associated with the first parameters and a constraint associated with the second parameters
/ RTI >
제1항에 있어서,
상기 모션 프라이어들은 데이터베이스에 미리 저장되고, 상기 제2 파라미터들은 상기 모션 프라이어들에 주성분 분석(PCA: Principal Components Analysis) 기법을 적용함으로써 생성되는 동작 추정 방법.
The method according to claim 1,
Wherein the motion fliers are pre-stored in a database and the second parameters are generated by applying Principal Components Analysis (PCA) techniques to the motion fryers.
제1항에 있어서,
상기 모션 프라이어들은 데이터베이스에 미리 저장되고, 상기 제2 파라미터들은 상기 모션 프라이어들에 인자 분석기 혼합(MFA: Mixture of Factor Analyzers) 기법을 적용함으로써 생성되는 동작 추정 방법.
The method according to claim 1,
Wherein the motion fliers are pre-stored in a database and the second parameters are generated by applying a Mixture of Factor Analyzers (MFA) technique to the motion fryers.
제1항에 있어서,
상기 제2 파라미터들을 획득하는 단계는
제t 프레임에서의 포즈에 기초하여 상기 모션 프라이어들 중 상기 제t 프레임에서의 포즈와 유사한 K개의 이웃 포즈들을 추출하는 단계; 및
상기 K개의 이웃 포즈들에 지역 주성분 분석(LPCA: Local Principal Components Analysis) 기법을 적용함으로써 상기 제2 파라미터들을 생성하는 단계
를 포함하고,
상기 제t 프레임은 상기 연속된 적어도 두 프레임들에 포함되며, 상기 K의 값은 기 설정된 유사도 결정 임계치에 의존하는 동작 추정 방법.
The method according to claim 1,
The step of acquiring the second parameters
Extracting K neighboring pauses similar to the pose in the tth frame of the motion fryers based on a pose in the tth frame; And
Generating the second parameters by applying a local principal component analysis (LPCA) technique to the K neighboring pose
Lt; / RTI >
Wherein the t < th > frame is included in the at least two consecutive frames, and the value of K is dependent on a predetermined similarity determination threshold.
제7항에 있어서,
상기 K개의 이웃 포즈들을 추출하는 단계는
복수의 스레드들을 병렬 처리하는 프로세서를 이용하여 상기 제t 프레임에서의 포즈와 상기 모션 프라이어들 중 적어도 일부 사이의 유사도 값들을 병렬적으로 계산하는 단계; 및
상기 병렬적으로 계산된 유사도 값들과 상기 기 설정된 유사도 결정 임계치에 기초하여 상기 K개의 이웃 포즈들을 선택하는 단계
를 포함하는 동작 추정 방법.
8. The method of claim 7,
The step of extracting the K neighboring pose
Calculating in parallel a similarity value between a pose in the t < th > frame and at least a portion of the motion fryers using a processor that parallelizes a plurality of threads; And
Selecting the K neighboring pose based on the parallelly calculated similarity values and the predetermined similarity determination threshold
/ RTI >
제7항에 있어서,
상기 K개의 이웃 포즈들을 추출하는 단계는
상기 모션 프라이어들 및 상기 제t 프레임에서의 포즈에 각각 프로덕트 양자화(product quantization) 기법을 적용함으로써 제1 양자화 결과들과 제2 양자화 결과를 생성하는 단계; 및
상기 제1 양자화 결과들과 상기 제2 양자화 결과에 기초하여 상기 제t 프레임에서의 포즈와 상기 모션 프라이어들 사이의 유사도 값들을 계산하는 단계
를 포함하는 동작 추정 방법.
8. The method of claim 7,
The step of extracting the K neighboring pose
Generating first quantization results and a second quantization result by applying a product quantization technique to each of the motion fliers and the pose in the t < th >frame; And
Calculating pose in the t-th frame and similarity values between the motion fliers based on the first quantization results and the second quantization result
/ RTI >
제1항에 있어서,
미리 정해진 기준 포즈를 취하는 타깃 오브젝트의 기준 깊이 영상을 획득하는 단계;
상기 미리 정해진 기준 포즈와 관련된 정보에 기초하여 상기 기준 깊이 영상에 포함된 복수의 픽셀들을 상기 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 중 어느 하나로 분류하는 단계; 및
랜덤 샘플링 기법에 기초하여 상기 복수의 조인트들 각각에 대응되는 깊이 픽셀들의 수가 최대가 되도록 상기 복수의 조인트들 각각의 반지름 파라미터를 결정하는 단계
를 더 포함하는 동작 추정 방법.
The method according to claim 1,
Obtaining a reference depth image of a target object that takes a predetermined reference pose;
Classifying the plurality of pixels included in the reference depth image into one of a plurality of joints included in the skeleton model of the target object based on the information related to the predetermined reference pose; And
Determining a radius parameter of each of the plurality of joints such that the number of depth pixels corresponding to each of the plurality of joints is maximized based on a random sampling technique
≪ / RTI >
제10항에 있어서,
상기 스켈레톤 모델의 대칭성(symmetric nature)에 기초하여, 상기 복수의 조인트들 중 서로 대칭을 이루는 조인트 페어를 인지하는 단계;
상기 조인트 페어에 포함된 제1 조인트의 반지름 파라미터 및 상기 조인트 페어에 포함된 제2 조인트의 반지름 파라미터의 평균을 계산하는 단계; 및
상기 제1 조인트의 반지름 파라미터와 상기 제2 조인트의 반지름 파라미터 각각을 상기 평균으로 수정하는 단계
를 더 포함하는 동작 추정 방법.
11. The method of claim 10,
Recognizing a joint pair symmetric to each other among the plurality of joints based on a symmetric nature of the skeleton model;
Calculating an average of a radius parameter of a first joint included in the joint pair and a radius parameter of a second joint included in the joint pair; And
Modifying each of the radius parameter of the first joint and the radius parameter of the second joint to the average
≪ / RTI >
제1항 내지 제11항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method according to any one of claims 1 to 11. 깊이 영상(depth image)을 이용하는 동작 추정 장치에 있어서,
프로세서; 및
연속된 적어도 두 프레임들의 깊이 영상들을 획득하는 깊이 영상 획득부
를 포함하고,
상기 프로세서는
상기 깊이 영상들에 기초하여 인접 프레임들 사이의 깊이 흐름(depth flow)과 관련된 제1 파라미터들을 계산하는 파라미터 계산부;
모션 프라이어들(motion priors)-상기 모션 프라이어들 각각은 미리 정해진 포즈(pose)에 대응되는 정보를 포함함-과 관련된 제2 파라미터들을 획득하는 파라미터 획득부; 및
상기 제1 파라미터들 및 상기 제2 파라미터들에 기초하여 상기 연속된 적어도 두 프레임들 사이에서 포즈의 변화량을 추정하는 포즈 변화량 추정부
를 포함하는 동작 추정 장치.
A motion estimation apparatus using a depth image,
A processor; And
A depth image acquiring unit for acquiring depth images of at least two consecutive frames,
Lt; / RTI >
The processor
A parameter calculation unit for calculating first parameters related to a depth flow between adjacent frames based on the depth images;
Motion priors - a parameter acquiring unit for acquiring second parameters associated with each of the motion fliers, wherein each of the motion fiers includes information corresponding to a predetermined pose; And
And a pose variation amount estimating unit estimating a variation amount of a pause between at least two consecutive frames based on the first parameters and the second parameters,
And a motion estimation unit.
제13항에 있어서,
상기 포즈의 변화량은 복수의 조인트 각도들 각각의 변화량으로 모델링 되고, 상기 복수의 조인트 각도들 각각은 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 중 어느 하나에 대응되는 동작 추정 장치.
14. The method of claim 13,
Wherein the amount of change of the pose is modeled by a variation amount of each of a plurality of joint angles, and each of the plurality of joint angles corresponds to any one of a plurality of joints included in a skeleton model of a target object.
제13항에 있어서,
상기 포즈 변화량 추정부는 상기 제1 파라미터들과 관련된 절대값과 상기 제2 파라미터들과 관련된 절대값의 합계가 최소가 되도록 상기 포즈의 변화량을 결정하는 동작 추정 장치.
14. The method of claim 13,
Wherein the pose change amount estimating unit determines the amount of change of the pose such that a sum of an absolute value associated with the first parameters and an absolute value associated with the second parameters is minimum.
제13항에 있어서,
상기 포즈 변화량 추정부는 상기 제1 파라미터들과 관련된 제한 조건과 상기 제2 파라미터들과 관련된 제한 조건을 고려하면서, 상기 포즈의 변화량이 최소가 되도록 상기 포즈의 변화량을 결정하는 동작 추정 장치.
14. The method of claim 13,
Wherein the pose change amount estimating unit determines a change amount of the pose such that a change amount of the pose is minimized while considering a constraint related to the first parameters and a constraint associated with the second parameters.
제13항에 있어서,
상기 모션 프라이어들은 데이터베이스에 미리 저장되고, 상기 제2 파라미터들은 상기 모션 프라이어들에 주성분 분석(PCA: Principal Components Analysis) 기법을 적용함으로써 생성되는 동작 추정 장치.
14. The method of claim 13,
Wherein the motion fliers are stored in advance in a database, and the second parameters are generated by applying Principal Components Analysis (PCA) techniques to the motion fryers.
제13항에 있어서,
상기 모션 프라이어들은 데이터베이스에 미리 저장되고, 상기 제2 파라미터들은 상기 모션 프라이어들에 인자 분석기 혼합(MFA: Mixture of Factor Analyzers) 기법을 적용함으로써 생성되는 동작 추정 장치.
14. The method of claim 13,
Wherein the motion fliers are pre-stored in a database and the second parameters are generated by applying a Mixture of Factor Analyzers (MFA) technique to the motion fryers.
제13항에 있어서,
상기 파라미터 획득부는
제t 프레임에서의 포즈에 기초하여 상기 모션 프라이어들 중 상기 제t 프레임에서의 포즈와 유사한 K개의 이웃 포즈들을 추출하는 이웃 포즈 추출부; 및
상기 K개의 이웃 포즈들에 지역 주성분 분석(LPCA: Local Principal Components Analysis) 기법을 적용함으로써 상기 제2 파라미터들을 생성하는 파라미터 생성부
를 포함하고,
상기 제t 프레임은 상기 연속된 적어도 두 프레임들에 포함되며, 상기 K의 값은 기 설정된 유사도 결정 임계치에 의존하는 동작 추정 장치.
14. The method of claim 13,
The parameter obtaining unit
A neighbor pose extractor for extracting K neighbor pose similar to the pose in the t-th frame of the motion fics based on the pose in the t-th frame; And
And generating the second parameters by applying a Local Principal Components Analysis (LPCA) technique to the K neighboring pose (s)
Lt; / RTI >
Wherein the t < th > frame is included in the at least two consecutive frames, and the value of K is dependent on a predetermined similarity determination threshold.
제19항에 있어서,
상기 이웃 포즈 추출부는
상기 제t 프레임에서의 포즈와 상기 모션 프라이어들 중 적어도 일부 사이의 유사도 값들을 병렬적으로 계산하는 병렬 처리부; 및
상기 병렬적으로 계산된 유사도 값들과 상기 기 설정된 유사도 결정 임계치에 기초하여 상기 K개의 이웃 포즈들을 선택하는 이웃 포즈 선택부
를 포함하는 동작 추정 장치.
20. The method of claim 19,
The neighboring pose extracting unit
A parallel processing unit for calculating in parallel the similarity values between a pose in the t-th frame and at least a part of the motion fryers; And
A neighbor pose selection unit for selecting the K neighbor pose based on the parallel-calculated similarity values and the predetermined similarity determination threshold,
And a motion estimation unit.
제19항에 있어서,
상기 이웃 포즈 추출부는
상기 모션 프라이어들 및 상기 제t 프레임에서의 포즈에 각각 프로덕트 양자화(product quantization) 기법을 적용함으로써 제1 양자화 결과들과 제2 양자화 결과를 생성하는 프로덕트 양자화부; 및
상기 제1 양자화 결과들과 상기 제2 양자화 결과에 기초하여 상기 제t 프레임에서의 포즈와 상기 모션 프라이어들 사이의 유사도 값들을 계산하는 유사도 계산부
를 포함하는 동작 추정 장치.
20. The method of claim 19,
The neighboring pose extracting unit
A product quantizer for generating a first quantization result and a second quantization result by applying a product quantization technique to each of the motion fliers and the pose in the t-th frame; And
Calculating a similarity value between the motion fliers and the pose in the t-th frame based on the first quantization results and the second quantization result,
And a motion estimation unit.
제13항에 있어서,
상기 깊이 영상 획득부는 미리 정해진 기준 포즈를 취하는 타깃 오브젝트의 기준 깊이 영상을 획득하고,
상기 프로세서는
상기 미리 정해진 기준 포즈와 관련된 정보에 기초하여 상기 기준 깊이 영상에 포함된 복수의 픽셀들을 상기 타깃 오브젝트의 스켈레톤 모델에 포함된 복수의 조인트들 중 어느 하나로 분류하는 분류부; 및
랜덤 샘플링 기법에 기초하여 상기 복수의 조인트들 각각에 대응되는 깊이 픽셀들의 수가 최대가 되도록 상기 복수의 조인트들 각각의 반지름 파라미터를 결정하는 반지름 파라미터 결정부
를 더 포함하는 동작 추정 장치.
14. The method of claim 13,
Wherein the depth image obtaining unit obtains a reference depth image of a target object that takes a predetermined reference pose,
The processor
A classifier for classifying a plurality of pixels included in the reference depth image into one of a plurality of joints included in the skeleton model of the target object based on information associated with the predetermined reference pose; And
A radius parameter determining unit for determining a radius parameter of each of the plurality of joints so that the number of depth pixels corresponding to each of the plurality of joints becomes a maximum based on a random sampling technique,
Further comprising:
제22항에 있어서,
상기 프로세서는
상기 스켈레톤 모델의 대칭성(symmetric nature)에 기초하여, 상기 복수의 조인트들 중 서로 대칭을 이루는 조인트 페어를 인지하고, 상기 조인트 페어에 포함된 제1 조인트의 반지름 파라미터 및 상기 조인트 페어에 포함된 제2 조인트의 반지름 파라미터의 평균을 계산하며, 상기 제1 조인트의 반지름 파라미터와 상기 제2 조인트의 반지름 파라미터 각각을 상기 평균으로 수정하는 동작 추정 장치.
23. The method of claim 22,
The processor
Recognizing a symmetric nature of the skeleton model, recognizing a symmetric pair of the plurality of joints, determining a radial parameter of the first joint included in the joint pair, Calculating an average of the radius parameters of the joint and modifying each of the radius parameter of the first joint and the radius parameter of the second joint to the average.
KR1020120123557A 2012-11-02 2012-11-02 Method of tracking motion using depth image and device thereof KR101925879B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120123557A KR101925879B1 (en) 2012-11-02 2012-11-02 Method of tracking motion using depth image and device thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120123557A KR101925879B1 (en) 2012-11-02 2012-11-02 Method of tracking motion using depth image and device thereof

Publications (2)

Publication Number Publication Date
KR20140056992A true KR20140056992A (en) 2014-05-12
KR101925879B1 KR101925879B1 (en) 2019-02-26

Family

ID=50888046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120123557A KR101925879B1 (en) 2012-11-02 2012-11-02 Method of tracking motion using depth image and device thereof

Country Status (1)

Country Link
KR (1) KR101925879B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101581138B1 (en) 2014-12-05 2015-12-30 박남태 The method and apparatus of Rhythm game
KR20160015728A (en) * 2014-07-31 2016-02-15 삼성에스디에스 주식회사 Method and Apparatus for Detecting Fall Down in Video
KR20160048602A (en) 2014-10-25 2016-05-04 박남태 The security input method and apparatus of voice control for display device
KR20190065859A (en) 2017-12-04 2019-06-12 한국전자통신연구원 Apparatus and method for monitoring a human pose and action
CN111192308A (en) * 2019-12-31 2020-05-22 浙江商汤科技开发有限公司 Image processing method and device, electronic equipment and computer storage medium
CN111935389A (en) * 2019-12-30 2020-11-13 苏州臻迪智能科技有限公司 Shot object switching method and device, shooting equipment and readable storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210087680A (en) 2020-01-03 2021-07-13 네이버 주식회사 Method and apparatus for generating data for estimating 3 dimensional pose of object included in input image, and prediction model for estimating 3 dimensional pose of object
KR20240026051A (en) 2022-08-19 2024-02-27 숭실대학교산학협력단 3d pose estimation apparatus based on graph convolution network, pose estimation method, and recording medium for performing the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120225719A1 (en) * 2011-03-04 2012-09-06 Mirosoft Corporation Gesture Detection and Recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120225719A1 (en) * 2011-03-04 2012-09-06 Mirosoft Corporation Gesture Detection and Recognition

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160015728A (en) * 2014-07-31 2016-02-15 삼성에스디에스 주식회사 Method and Apparatus for Detecting Fall Down in Video
KR20160048602A (en) 2014-10-25 2016-05-04 박남태 The security input method and apparatus of voice control for display device
KR101581138B1 (en) 2014-12-05 2015-12-30 박남태 The method and apparatus of Rhythm game
KR20190065859A (en) 2017-12-04 2019-06-12 한국전자통신연구원 Apparatus and method for monitoring a human pose and action
CN111935389A (en) * 2019-12-30 2020-11-13 苏州臻迪智能科技有限公司 Shot object switching method and device, shooting equipment and readable storage medium
CN111192308A (en) * 2019-12-31 2020-05-22 浙江商汤科技开发有限公司 Image processing method and device, electronic equipment and computer storage medium
CN111192308B (en) * 2019-12-31 2023-11-03 浙江商汤科技开发有限公司 Image processing method and device, electronic equipment and computer storage medium

Also Published As

Publication number Publication date
KR101925879B1 (en) 2019-02-26

Similar Documents

Publication Publication Date Title
KR101925879B1 (en) Method of tracking motion using depth image and device thereof
Wei et al. Videomocap: Modeling physically realistic human motion from monocular video sequences
Zheng et al. Hybridfusion: Real-time performance capture using a single depth sensor and sparse imus
US9058663B2 (en) Modeling human-human interactions for monocular 3D pose estimation
Liu et al. Realtime human motion control with a small number of inertial sensors
US9619704B2 (en) Fast articulated motion tracking
JP4625129B2 (en) Monocular tracking of 3D human motion using coordinated mixed factor analysis
CN113168710A (en) Three-dimensional object reconstruction
US9224245B2 (en) Mesh animation
Dockstader et al. Stochastic kinematic modeling and feature extraction for gait analysis
KR20080073933A (en) Object tracking method and apparatus, and object pose information calculating method and apparatus
Baumann et al. Data-Driven Completion of Motion Capture Data.
CN113449570A (en) Image processing method and device
Krzeszowski et al. Articulated body motion tracking by combined particle swarm optimization and particle filtering
Kolesov et al. A stochastic approach to diffeomorphic point set registration with landmark constraints
Mousas et al. Data-driven motion reconstruction using local regression models
KR102564849B1 (en) System, apparatus and method for recognizing motion of multi-users
Ni et al. A hybrid framework for 3-D human motion tracking
CN116248920A (en) Virtual character live broadcast processing method, device and system
Sharifi et al. Marker-based human pose tracking using adaptive annealed particle swarm optimization with search space partitioning
Alcoverro et al. Skeleton and shape adjustment and tracking in multicamera environments
KR101547208B1 (en) Apparatus and method for reconstructing whole-body motion using wrist trajectories
Kim et al. Reconstructing whole-body motions with wrist trajectories
Kim et al. Tracking 3D human body using particle filter in moving monocular camera
Pan et al. Modeling for deformable body and motion analysis: A review

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right