KR101845253B1 - Apparatus and method for estimating motion using depth image - Google Patents

Apparatus and method for estimating motion using depth image Download PDF

Info

Publication number
KR101845253B1
KR101845253B1 KR1020110077389A KR20110077389A KR101845253B1 KR 101845253 B1 KR101845253 B1 KR 101845253B1 KR 1020110077389 A KR1020110077389 A KR 1020110077389A KR 20110077389 A KR20110077389 A KR 20110077389A KR 101845253 B1 KR101845253 B1 KR 101845253B1
Authority
KR
South Korea
Prior art keywords
pose
depth image
result
pixel
input
Prior art date
Application number
KR1020110077389A
Other languages
Korean (ko)
Other versions
KR20120115063A (en
Inventor
하인우
이태현
김도균
진시앙 차이
후아쥰 리우
샤오린 웨이
Original Assignee
삼성전자주식회사
더 텍사스 에이 앤드 엠 유니버시티 시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 더 텍사스 에이 앤드 엠 유니버시티 시스템 filed Critical 삼성전자주식회사
Publication of KR20120115063A publication Critical patent/KR20120115063A/en
Application granted granted Critical
Publication of KR101845253B1 publication Critical patent/KR101845253B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

입력 깊이 영상을 이용한 동작 추정 장치 및 방법이 개시된다. 동작 추정 장치는 입력 깊이 영상에 대응하는 초기 포즈 파라미터를 결정하는 포즈 파라미터 결정부 및 동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 포즈 생성부를 포함하고, 상기 포즈 생성부는 상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하기 때문에 보다 신속하고 정확하게 대상의 동작을 추정할 수 있다.An apparatus and method for motion estimation using input depth images are disclosed. The motion estimation apparatus includes a pose parameter determination unit for determining an initial pose parameter corresponding to an input depth image and a pose generation unit for applying the pose parameter to an operation model to generate a first result pose of the operation model, Can generate a second result pose of the motion model based on the difference between the first result pose and the input depth image, so that the motion of the object can be estimated more quickly and accurately.

Description

깊이 영상을 이용한 동작 추정 장치 및 방법{APPARATUS AND METHOD FOR ESTIMATING MOTION USING DEPTH IMAGE}[0001] APPARATUS AND METHOD FOR ESTIMATING MOTION USING DEPTH IMAGE [0002]

본 발명의 실시예들은 깊이 영상을 이용하여 동작을 추정하는 동작 추정 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to motion estimation apparatus and method for estimating motion using a depth image.

최근 비디오 게임, 가상 세계(virtual world), 영화 컴퓨터 그래픽(computer graphic, CG) 등 실제 공간에서의 타깃 오브젝트(이를 테면, 인체(human body))의 동작을 추정하고, 이를 3-Dimensional(3D) 공간 내에서 구현하는 기술에 관한 관심이 증가하고 있다.Recently, the motion of a target object (such as a human body) in a real space, such as a video game, a virtual world, a cinematographic computer graphic (CG) There is an increasing interest in technology to implement in space.

그러나, 동작 추정, 동작 캡처 등 다양한 명칭으로 불릴 수 있는 이러한 기술에 있어서, 동작의 검출에서부터 동작 추정 결과를 도출할 때까지에 이르는 계산 시간이 길다는 점은 단점으로 작용한다.However, this technique, which can be called various names such as motion estimation, motion capture, etc., has a disadvantage in that the computation time from the detection of the motion to the derivation of the motion estimation result is long.

또한, 사람의 동작을 추정하는 경우, 카메라, 마커, 센서 등의 수가 많을수록 동작 추정의 결과 값은 정밀할 것으로 예상되나, 카메라를 이용하는 동작 추정 방식의 경우에는 조명 및 배경 등에 민감하다는 문제가 있고, 마커, 센서 등을 이용하는 동작 추정 방식의 경우에는 사람에 몸에 부착할 수 있는 센서의 수 및 위치 등으로 인해 인체의 움직임이 제한되고 인체 전체의 동작을 추정하기 어렵다는 문제점이 있다. 그리고, 카메라, 마커, 센서 등의 수가 증가할수록 정밀한 동적 추정은 가능하지만, 계산해야 되는 파라미터의 수도 증가하기 때문에 동작 추정에 필요한 시간이 더욱 증가하는 등의 문제가 발생한다.In the case of estimating the motion of a person, the result of motion estimation is expected to be more accurate as the number of cameras, markers, sensors, and the like increases. However, in the case of motion estimation using a camera, In the case of the motion estimation method using a marker, a sensor, etc., there is a problem that motion of the human body is limited due to the number and position of sensors that can be attached to a human body, and it is difficult to estimate the motion of the whole human body. As the number of cameras, markers, sensors, and the like increases, precise dynamic estimation can be performed. However, since the number of parameters to be calculated increases, the time required for motion estimation further increases.

그러므로, 지금까지 카메라 혹은 모션 센서 입력에 기초한 동작 추정 기술들은 인체 전체의 동작과 같이 복잡한 동작을 추정하는 데에는 한계가 있었다.Therefore, until now, motion estimation techniques based on camera or motion sensor input have been limited in estimating complex motion as the entire human body.

따라서, 복잡한 동작도 정밀하면서도 빠르게 추정할 수 있는 기술이 요구되고 있다.Therefore, there is a demand for a technique capable of accurately estimating complex operations.

복잡한 조명, 배경 등의 환경에서도 정밀하게 동작을 추정할 수 있는 동작 추정 장치 및 방법이 제공된다.There is provided an apparatus and method for motion estimation capable of precisely estimating motion in environments such as complicated lighting, background, and the like.

정밀한 동작을 추정 시에도 계산 속도가 빠른 동작 추정 장치 및 방법이 제공된다.There is provided an apparatus and method for estimating motion with high calculation speed even when accurate motion is estimated.

입력 깊이 영상을 이용한 동작 추정 장치는 입력 깊이 영상에 대응하는 초기 포즈 파라미터를 결정하는 포즈 파라미터 결정부 및 동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 포즈 생성부를 포함하고, 상기 포즈 생성부는, 상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.An operation estimating apparatus using an input depth image includes a pose parameter determining unit for determining an initial pose parameter corresponding to an input depth image and a pause generating unit for generating a first result pose of the operation model by applying the pose parameter to the operation model And the pause generator may generate a second result pose of the motion model based on a difference between the first result pose and the input depth image.

일측에 따르면, 상기 포즈 파라미터 결정부는 LSH(Locality Sensitive Hash) 기반 포즈 검출 기법을 이용하여, 데이터베이스에 저장된 복수 개의 포즈 파라미터 중 상기 입력 깊이 영상에 부합하는 제1 포즈 파라미터를 검출하여, 상기 제1 포즈 파라미터를 상기 초기 포즈 파라미터로 결정할 수 있다.According to one aspect, the pose parameter determination unit detects a first pose parameter corresponding to the input depth image among a plurality of pose parameters stored in a database, using a Locality Sensitive Hash (pseudo Hash) based pause detection technique, Parameter to the initial pose parameter.

다른 측면에 따르면, 상기 포즈 파라미터 결정부는 상기 동작 모델을 상기 입력 깊이 영상에 매칭시키는 제2 포즈 파라미터를 계산하여, 상기 제2 포즈 파라미터를 상기 초기 포즈 파라미터로 결정할 수 있다.According to another aspect, the pose parameter determination unit may calculate a second pose parameter that matches the operation model with the input depth image, and determine the second pose parameter as the initial pose parameter.

또 다른 측면에 따르면, 상기 포즈 생성부는 상기 동작 모델의 상기 제1 결과 포즈를 이용하여 제1 깊이 영상을 생성하고, 상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.According to another aspect of the present invention, the pause generation unit generates a first depth image using the first result pose of the operation model, and generates a first depth image based on a difference between the first depth image and the input depth image, 2 result pose can be generated.

또 다른 측면에 따르면, 상기 포즈 생성부는 상기 제1 깊이 영상의 각 픽셀에 대해 상기 픽셀에 대응하는 깊이 값, 상기 동작 모델의 구성 인덱스 및 좌표 값을 계산하고, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.According to another aspect of the present invention, the pause generation unit may calculate a depth value corresponding to the pixel, a configuration index of the operation model, and a coordinate value for each pixel of the first depth image, A difference in depth value of a pixel in the corresponding input depth image may be calculated to generate a second result pose of the motion model.

또 다른 측면에 따르면, 상기 포즈 생성부는 데이터베이스에 대한 주성분 분석을 통하여 분석된 결과에 따라 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.According to another aspect, the pause generator may generate a second result pose of the motion model according to a result analyzed through principal component analysis on the database.

또 다른 측면에 따르면, 상기 포즈 생성부는 상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치는 영역에 위치할 경우, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하고, 상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치지 않는 영역에 위치할 경우, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값을 매칭시켜 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.According to another aspect of the present invention, when the pixel is located in an overlapping area between the input depth image and the first depth image, the pose generating unit may calculate the depth value of the calculated pixel and the pixel value of the pixel Calculating a difference of depth values to generate a second result pose of the motion model; and if the pixel is located in a non-overlapping region of the input depth image and the first depth image, using an IPC (Iterative Closest Point) To generate a second result pose of the motion model by matching the depth value of the calculated pixel with the depth value of the pixel in the corresponding input depth image.

또 다른 측면에 따르면, 상기 제2 결과 포즈와 상기 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우, 상기 제2 결과 포즈를 상기 입력 영상에 해당하는 결과 포즈로 결정하는 포즈 결정부를 더 포함할 수 있다.According to another aspect of the present invention, the method may further include a pose determining unit that determines the second result pose as a result pose corresponding to the input image when the difference between the second result pose and the input depth image is less than or equal to a predetermined threshold value .

또 다른 측면에 따르면, 상기 포즈 생성부는 상기 제2 결과 포즈 생성 시 입력 칼라 영상, 실루엣, 엣지 및 상기 동작 모델의 물리적인 제약 중 적어도 하나를 더 이용하여 상기 제2 결과 포즈를 생성할 수 있다.According to another aspect, the pause generation unit may generate the second result pose using at least one of input color images, silhouettes, edges, and physical constraints of the motion model at the time of generating the second result pose.

한편, 동작 추정 장치가 수신한 입력 깊이 영상을 이용하여 동작을 추정하는 방법은 상기 입력 깊이 영상에 대응하는 초기 포즈 파라미터를 결정하는 포즈 파라미터 결정 단계, 동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 제1 결과 포즈 생성 단계 및 상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는 제2 결과 포즈 생성 단계를 포함할 수 있다.Meanwhile, a method of estimating an operation using an input depth image received by an operation estimating apparatus includes a pose parameter determining step of determining an initial pose parameter corresponding to the input depth image, a pose parameter determining step of applying the pose parameter to an operation model, And a second result pose generation step of generating a second result pose of the motion model based on a difference between the first result pose and the input depth image .

깊이 영상을 이용하여 동작을 추정함으로써 복잡한 조명, 배경 등의 환경에서도 정밀하게 동작을 추정할 수 있다.By estimating the motion using the depth image, it is possible to accurately estimate the motion even in an environment of complicated lighting, background, and the like.

칼라 영상, 실루엣, 엣지 및 인체의 물리적인 제약 등을 함께 이용하여 동작을 추정할 수 있기 때문에 보다 정밀하게 동작을 추정할 수 있다.The motion can be estimated using the color image, the silhouette, the edge, and the physical constraints of the human body, so that the motion can be estimated more accurately.

주성분 분석을 통하여 동작 추정 시 계산하는 파라미터의 수를 줄임으로써 복잡한 동작도 실시간으로 추정할 수 있다.Complex operations can be estimated in real time by reducing the number of parameters to be calculated in motion estimation through principal component analysis.

도 1은 본 발명의 일실시예에 있어서, 입력 깊이 영상을 이용한 동작 추정 장치를 도시한 블록도이다.
도 2a는 본 발명의 일실시예에 있어서 입력 깊이 영상의 예시도이고, 도 2b는 본 발명의 일실시예에 있어서 동작 모델의 예시도이고, 도 2c는 본 발명의 일실시예에 있어서 입력 깊이 영상을 이용하여 생성된 결과 포즈의 일 예를 나타내는 도면이다.
도 3은 본 발명의 일실시예에 있어서, 입력 깊이 영상과 제1 깊이 영상의 차이를 계산하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 동작 추정 장치가 동작을 추정하는 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 동작 추정 방법을 나타내는 흐름도이다.
1 is a block diagram illustrating an operation estimating apparatus using an input depth image according to an embodiment of the present invention.
FIG. 2A is an exemplary view of an input depth image in an embodiment of the present invention, FIG. 2B is an exemplary view of an operation model in an embodiment of the present invention, and FIG. FIG. 8 is a diagram showing an example of a result pose generated using an image. FIG.
FIG. 3 is a diagram for explaining a process of calculating a difference between an input depth image and a first depth image, according to an embodiment of the present invention.
4 is a diagram for explaining a process of estimating an operation of an operation estimating apparatus according to an embodiment of the present invention.
5 is a flowchart illustrating an operation estimation method in an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 있어서, 입력 깊이 영상을 이용한 동작 추정 장치를 도시한 블록도이다. 도면을 참조하면, 동작 추정 장치(100)는 포즈 파라미터 결정부(120) 및 포즈 생성부(140)를 포함한다.1 is a block diagram illustrating an operation estimating apparatus using an input depth image according to an embodiment of the present invention. Referring to the drawings, the motion estimation apparatus 100 includes a pose parameter determination unit 120 and a pause generation unit 140.

동작 추정 장치(100)에 깊이 카메라(depth camera) 등으로부터 깊이 영상이 입력되면, 포즈 파라미터 결정부(120)는 입력 깊이 영상(110)에 대응하는 초기 포즈 파라미터를 결정한다.When a depth image is input to the motion estimation apparatus 100 from a depth camera or the like, the pose parameter determination unit 120 determines an initial pose parameter corresponding to the input depth image 110.

포즈 생성부(140)는 상기 포즈 파라미터 결정부(120)에서 결정된 상기 포즈 파라미터를 동작 모델에 적용하여 상기 동작 모델의 제1 결과 포즈를 생성한다. 그리고 상기 포즈 생성부(140)는 상기 제1 결과 포즈와 상기 입력 깊이 영상(110)의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성한다.The pose generation unit 140 applies the pose parameter determined by the pose parameter determination unit 120 to the operation model to generate a first result pose of the operation model. And the pose generator 140 generates a second result pose of the motion model based on the difference between the first result pose and the input depth image 110. [

이 때, 상기 포즈 파라미터 결정부(120)는 보다 정확한 동작 추정을 위하여 LSH(Locality Sensitive Hash) 기반 포즈 검출 기법을 이용하여, 데이터베이스(130)에 저장된 복수 개의 포즈 파라미터 중 상기 입력 깊이 영상(110)에 부합하는 제1 포즈 파라미터를 검출하여, 상기 제1 포즈 파라미터를 상기 초기 포즈 파라미터로 결정할 수 있다. At this time, the pose parameter determination unit 120 uses the Locality Sensitive Hash (LSH) -based pose detection technique to more precisely estimate the motion of the input depth image 110 among a plurality of pose parameters stored in the database 130, To determine the first pose parameter as the initial pose parameter.

한편, 상기 포즈 파라미터 결정부(120)는 상기 동작 모델을 상기 입력 깊이 영상에 매칭시키는 제2 포즈 파라미터를 계산하여, 상기 제2 포즈 파라미터를 상기 초기 포즈 파라미터로 결정할 수 있다.Meanwhile, the pose parameter determination unit 120 may calculate a second pose parameter that matches the operation model with the input depth image, and determine the second pose parameter as the initial pose parameter.

보다 구체적으로 설명하면, 상기 데이터베이스(130)에는 복수개의 정밀한 센서, 마커, 카메라 등을 이용하여 인체와 같은 오브젝트의 다양한 동작을 캡처(capture)함으로써 산출된 포즈 파라미터들이 저장된다. 이러한 포즈 파라미터들을 이용하면, 인체가 만들어 낼 수 있는 거의 대부분의 포즈(pose)를 생성할 수 있다.More specifically, the database 130 stores pose parameters calculated by capturing various operations of an object such as a human body using a plurality of precise sensors, markers, cameras, and the like. Using these pose parameters, you can create almost any pose the body can produce.

예를 들어, 포즈 파라미터 결정부(120)는 입력 깊이 영상(110)으로부터 Adaboost(adaptive boost) 기법을 통해 특징을 추출한 후 LSH 기법을 이용하여 데이터베이스(130)에서 상기 특징에 해당하는 픽셀의 파라미터와 가장 가까운 복수개의 파라미터들을 검출한다. 이 중 분석 합성(analysis-by-synthesis) 기법을 이용하여 적합한 매치를 결정한다. 결정된 매치는 초기 포즈 파라미터로서 동작 모델에 사용되거나 동작 추정 실패 시 복구하기 위한 모델에 사용될 수 있다.For example, the pose parameter determination unit 120 extracts features from the input depth image 110 through an adaptive boost (Adaboost) technique, and then uses the LSH technique to calculate the parameters of the pixels corresponding to the feature in the database 130 And detects the closest plurality of parameters. An appropriate match is determined using an analysis-by-synthesis technique. The determined match can be used in a motion model as an initial pose parameter or in a model for restoring motion estimation failure.

포즈 파라미터 결정부(120)는 이와 같은 처리 과정을 주기적으로 수행함으로써, 포즈 생성부(140)에서 결과 포즈를 생성할 때 상기 포즈 파라미터가 반영되도록 하여 초기 결과 포즈가 생성되도록 할 뿐만 아니라 동작 추정 시 에러가 발생하더라도 다시 정확한 동작이 검출되도록 할 수 있다.The pose parameter determination unit 120 periodically performs such a process to thereby generate an initial result pose by causing the pose generation unit 140 to reflect the pose parameter when generating a result pose, So that accurate operation can be detected again even if an error occurs.

이하 도 1 및 도 2를 참조하여 결과 포즈를 생성하는 과정을 상세히 설명한다. 도 2a는 본 발명의 일실시예에 있어서 입력 깊이 영상의 예시도이고, 도 2b는 본 발명의 일실시예에 있어서 동작 모델의 예시도이고, 도 2c는 본 발명의 일실시예에 있어서 입력 깊이 영상을 이용하여 생성된 결과 포즈의 일 예를 나타내는 도면이다.Hereinafter, a process of generating a result pose will be described in detail with reference to FIGS. 1 and 2. FIG. FIG. 2A is an exemplary view of an input depth image in an embodiment of the present invention, FIG. 2B is an exemplary view of an operation model in an embodiment of the present invention, and FIG. FIG. 8 is a diagram showing an example of a result pose generated using an image. FIG.

포즈 생성부(140)는 상기 포즈 파라미터 결정부(120)에서 결정된 상기 포즈 파라미터를 동작 모델에 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하고, 상기 제1 결과 포즈를 이용하여 제1 깊이 영상을 생성한다. 그리고, 상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성한다.The pose generation unit 140 applies the pose parameter determined by the pose parameter determination unit 120 to the operation model to generate a first result pose of the operation model and outputs the first result pose to the first depth image . A second result pose of the motion model is then generated based on the difference between the first depth image and the input depth image.

상기 입력 깊이 영상(110)은 도 2a에 도시된 것과 같이 깊이 카메라에 의하여 촬상되어 깊이 값 만을 가지고 있는 영상이다. 도면에서는 편의를 위하여 인체의 깊이 값이 일정하게 표시되었지만, 실제 인체 각 부분의 깊이 값은 3차원 공간 상에서 상기 깊이 카메라와의 거리에 따라 서로 다르게 표시된다. 이러한 깊이 영상은 깊이 카메라와의 거리에 따른 깊이 값만을 가지고 있기 때문에 조명, 배경 등과 같은 주변 환경의 변화에도 인체 등의 오브젝트를 정확하게 추출할 수 있다.The input depth image 110 is an image captured by a depth camera and having only a depth value as shown in FIG. 2A. In the drawings, the depth values of the human body are displayed constantly for convenience, but the actual depth values of the human body are differently displayed in the three-dimensional space according to the distance from the depth camera. Since the depth image has only the depth value according to the distance from the depth camera, the object such as the human body can be accurately extracted even in a change of surrounding environment such as illumination, background, and the like.

그러므로 본원 발명에 따른 동작 추정 장치(100)는 입력 깊이 영상(110)을 이용하여 상기 입력 깊이 영상에 포함된 인체와 같은 오브젝트의 동작을 추정하기 때문에 정확하게 오브젝트의 포즈를 검출할 수 있고 동작을 추정할 수 있게 된다.Therefore, the motion estimation apparatus 100 according to the present invention estimates the motion of an object such as a human body included in the input depth image using the input depth image 110, so that it can accurately detect the pose of the object, .

한편, 상기 동작 모델은 도 2b에 도시된 것과 같이 데이터베이스(130)에 저장된 복수개의 포즈 파라미터를 이용하여 동작을 생성할 수 있는 모델이다. 도면에서는 상기 동작 모델이 3D 모델인 것으로 도시되어 있지만, 상기 동작 모델은 3D 모델로 한정되는 것이 아니라 깊이 값을 가지는 2D 모델로 구현되어 이를 이용하여 상기 포즈 생성부(140)가 입력 깊이 영상(110)의 오브젝트의 동작을 추정할 수도 있다.Meanwhile, the operation model is a model capable of generating an operation using a plurality of pose parameters stored in the database 130 as shown in FIG. 2B. Although the operation model is shown as a 3D model in the drawing, the operation model is not limited to a 3D model. Instead, the operation model is implemented as a 2D model having a depth value, and the pose generation unit 140 uses the input depth image 110 May be estimated based on the motion of the object.

그리고, 상기 제1 결과 포즈는 도 2c에 도시된 것과 같이 포즈 파라미터 결정부(120)에서 결정된 초기 포즈 파라미터를 동작 모델에 적용하여, 상기 동작 모델이 상기 입력 깊이 영상에서의 포즈와 유사한 포즈가 되도록 생성한 것이다.The first result pose may be determined by applying an initial pose parameter determined by the pose parameter determination unit 120 to the motion model as shown in FIG. 2C so that the motion model is in a pose similar to the pose in the input depth image .

즉, 포즈 생성부(140)는 상기 포즈 파라미터 결정부(120)에서 결정된 상기 포즈 파라미터를 동작 모델(도 2b)에 적용하여 입력 깊이 영상(110)의 포즈(도 2a)와 유사한 상기 동작 모델의 제1 결과 포즈(도 2c)를 생성한다.That is, the pose generation unit 140 applies the pose parameter determined by the pose parameter determination unit 120 to the operation model (FIG. 2B) to generate a pose of the operation model similar to the pose of the input depth image 110 To produce a first result pose (Figure 2c).

그러나, 이와 같이 생성된 제1 결과 포즈는 입력 깊이 영상에 대한 측정 값만으로 생성된 포즈이기 때문에, 제1 결과 포즈와 입력 깊이 영상의 포즈 사이에는 소정의 차이가 존재한다. 따라서, 포즈 생성부(140)는 상기 제1 결과 포즈가 상기 입력 깊이 영상의 포즈와 동일한 포즈가 되도록, 입력 깊이 영상의 포즈가 반영된 상기 제1 결과 포즈를 랜더링하여 제1 깊이 영상을 생성하고, 상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 입력 깊이 영상의 포즈에 부합되는 상기 동작 모델의 제2 결과 포즈를 생성한다.However, there is a certain difference between the first result pose and the pose of the input depth image, since the first result pose thus generated is a pose generated only by the measured values for the input depth image. Accordingly, the pose generator 140 generates the first depth image by rendering the first result pose reflecting the pose of the input depth image, such that the first result pose is in the same pose as the pose of the input depth image, Generating a second result pose of the motion model consistent with a pose of the input depth image based on a difference between the first depth image and the input depth image.

구체적으로 설명하면, 상기 포즈 생성부(140)는 상기 제1 깊이 영상의 각 픽셀에 대해, 상기 픽셀에 대응하는 깊이 값, 상기 동작 모델의 구성 인덱스 및 좌표 값을 계산하고, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상(110)에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.Specifically, the pose generator 140 calculates a depth value corresponding to the pixel, a composition index of the motion model, and a coordinate value for each pixel of the first depth image, A second result pose of the motion model may be generated by calculating a difference between a depth value and a depth value of a pixel in the input depth image 110 corresponding thereto.

한편, 상기 포즈 생성부(140)는 동작 추정 장치(100)가 실시간으로 동작을 추정할 수 있도록, 데이터베이스(130)에 대한 주성분 분석(PCA: Principal Components Analysis)을 통하여 분석된 결과에 따라 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.Meanwhile, the pause generation unit 140 generates the pause generation unit 140 based on the analyzed result through Principal Components Analysis (PCA) on the database 130 so that the motion estimation apparatus 100 can estimate the operation in real time. A second result pose of the model can be generated.

예를 들어, 인체의 동작을 결정하기 위한 파라미터가 17개라고 가정하면, 상기 파라미터에 대한 3차원 공간 좌표(x, y, z)에 의하여 17x3 즉, 51개의 자유도(DOF: Degree Of Freedom)가 존재하게 된다. 상기 파라미터를 그대로 동작 추정에 적용하여 계산할 경우, 계산량은 상기 데이터베이스에 저장된 파라미터의 개수에 따라 증가하게 되고, 이는 동작 추정 시 계산 속도에 직접적으로 연관된다.For example, assuming that there are 17 parameters for determining the motion of the human body, it is assumed that 17x3, that is, 51 degrees of freedom (DOF: Degree of Freedom) is calculated by the three-dimensional spatial coordinates (x, . When the parameter is directly applied to the motion estimation, the amount of calculation is increased according to the number of parameters stored in the database, which is directly related to the calculation speed at the time of motion estimation.

따라서. 본원 발명에서는 주성분 분석을 통하여 동작 추정 시 계산할 파라미터에 우선 순위를 둠으로써, 계산하는 파라미터의 수를 줄일 수 있기 때문에 복잡한 동작도 실시간으로 추정할 수 있는 효과가 있다.therefore. In the present invention, by prioritizing the parameters to be calculated at the time of motion estimation through principal component analysis, it is possible to reduce the number of parameters to be calculated, so that complex operations can be estimated in real time.

또한, 동작 추정 장치(100)는 물리적 제약 등과 같은 오브젝트 동작의 연관도(예들 들어, 인체의 팔과 같은 경우 뒤쪽으로는 굽혀질 수 없음)를 이용하여 계산해야 되는 파라미터의 수를 줄임으로써 더욱 빠르게 동작을 추정할 수도 있다.In addition, the motion estimation apparatus 100 can reduce the number of parameters that must be calculated using the degree of association of object motion, such as physical constraints (e.g., it can not be bent backward in the case of an arm of the human body) It is possible to estimate the operation.

한편, 상기 포즈 생성부(140)는 상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치는 영역에 위치할 경우, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하고, 상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치지 않는 영역에 위치할 경우, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값을 매칭시켜 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.When the pixel is located in the overlapping region of the input depth image and the first depth image, the pose generating unit 140 generates a pose of the pixel in the input depth image corresponding to the depth value of the calculated pixel Calculating a difference of depth values to generate a second result pose of the motion model; and if the pixel is located in a non-overlapping region of the input depth image and the first depth image, using an IPC (Iterative Closest Point) To generate a second result pose of the motion model by matching the depth value of the calculated pixel with the depth value of the pixel in the corresponding input depth image.

이하 도 3을 참조하여 이를 상세히 설명한다. 도 3은 본 발명의 일실시예에 있어서, 입력 깊이 영상과 제1 깊이 영상의 차이를 계산하는 과정을 설명하기 위한 도면이다. This will be described in detail with reference to FIG. FIG. 3 is a diagram for explaining a process of calculating a difference between an input depth image and a first depth image, according to an embodiment of the present invention.

예를 들어, 입력 깊이 영상(110)에 포함된 인체의 포즈 중 팔 부분을 제1 영역(310)이라 하고, 이에 해당하는 제1 깊이 영상에서의 팔 부분을 제2 영역(330)이라 한다. 이 때, 제1 영역(310)과 제 영역(320)이 겹치는 영역(320)에 계산할 픽셀이 위치하는 경우, 상기 픽셀에 대응하는 입력 깊이 영상(110)의 픽셀이 존재하므로, 상기 픽셀의 깊이 값과 이에 대응하는 입력 깊이 영상(110)에서의 픽셀의 깊이 값을 비교하여 그 차이를 계산함으로써 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.For example, an arm portion of a human body pose included in the input depth image 110 is referred to as a first region 310, and an arm portion in the corresponding first depth image is referred to as a second region 330. In this case, when a pixel to be calculated is located in the region 320 where the first region 310 and the region 320 overlap, the pixel of the input depth image 110 corresponding to the pixel exists, Value and the depth value of the pixel in the corresponding input depth image 110 and calculating the difference to generate a second result pose of the motion model.

그러나 상기 픽셀이 제1 영역(310)과 제2 영역(330)이 겹치지 않는 영역(315, 335)에 위치할 경우, 계산할 픽셀을 비교할 픽셀이 존재하지 않기 때문에, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산할 픽셀의 좌표 값을 상기 겹치는 영역(320) 방향으로 이동시킴으로써 이동한 픽셀의 깊이 값과 이에 대응하는 픽셀의 깊이 값을 매칭시키고 이들의 차이 값을 계산하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.However, when the pixel is located in the areas 315 and 335 where the first area 310 and the second area 330 do not overlap, there is no pixel to be compared with the pixel to be calculated. Therefore, the IPC (Iterative Closest Point) The depth value of the moved pixel is matched with the depth value of the corresponding pixel by moving the coordinate value of the pixel to be calculated in the direction of the overlapping area 320 and calculates the difference value thereof to calculate the second result You can create a pose.

포즈 생성부(140)는 이와 같은 과정을 통하여 생성한 제2 결과 포즈가 상기 입력 깊이 영상(110)의 포즈와 일치될 때까지 반복하여 수행함으로써 동작 추정 장치(100)의 성능을 높일 수 있다.The pose generation unit 140 may repeat the process until the second result pose generated through the above process coincides with the pose of the input depth image 110, thereby enhancing the performance of the motion estimation apparatus 100.

한편, 도 1에는 도시되지 않았지만, 동작 추정 장치(100)는 포즈 결정부를 더 포함하고, 상기 포즈 결정부를 이용하여 제2 결과 포즈와 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우, 제2 결과 포즈를 상기 입력 영상에 해당하는 결과 포즈(150)로 결정할 수 있다. 이때 상기 포즈 결정부는 동작 추정 장치(100)에 별도의 구성으로 구현되는 것이 아니라 포즈 생성부(140)에 포함됨으로써, 포즈 생성부(140)가 제2 결과 포즈와 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우 상기 제2 결과 포즈를 상기 입력 영상에 해당하는 결과 포즈(150)로 결정하도록 할 수도 있다.Although not shown in FIG. 1, the motion estimation apparatus 100 further includes a pause determination unit, and when the difference between the second result pose and the input depth image is equal to or less than a preset threshold value using the pause determination unit, As a result pose 150 corresponding to the input image. In this case, the pose determining unit is not included in the operation estimating apparatus 100 but is included in the pose generating unit 140, so that the pause generating unit 140 may calculate the difference between the second result pose and the input depth image The second result pose may be determined as a result pose 150 corresponding to the input image.

이와 같이 동작 추정 장치(100)는 입력되는 각각의 입력 깊이 영상(110)에 대한 결과 포즈(150)를 생성하므로 인체 등의 동작을 신속하고 정확하게 추정할 수 있다.As described above, the motion estimation apparatus 100 generates a result pose 150 for each input depth image 110 input, so that it can quickly and accurately estimate the motion of the human body and the like.

한편, 상기 포즈 생성부(140)는 제2 결과 포즈 생성 시 입력 깊이 영상뿐만 아니라 입력 칼라 영상, 실루엣, 엣지 및 상기 동작 모델의 물리적인 제약 등을 추가적으로 이용하여 상기 제2 결과 포즈를 생성함으로써, 동작 추정의 정확도를 보다 향상시킬 수 있다.The pose generator 140 may generate the second result pose by additionally using the input depth image, the input color image, the silhouette, the edge, and the physical constraints of the operation model at the time of generating the second result pose, The accuracy of motion estimation can be further improved.

이하 도 4를 참조하여 본 발명의 일실시예에 따른 동작 추정 장치(100)가 동작을 추정하는 과정을 설명하기로 한다.Hereinafter, a process of estimating an operation of the motion estimation apparatus 100 according to an embodiment of the present invention will be described with reference to FIG.

3차원 공간 좌표(x, y, z)에서 계산하고자 하는 픽셀이 제1 위치(420)에서 제2 위치(430)로 이동한 경우, 2차원 평면 좌표(u, v)의 투영면(projection plane) 예를 들어, 제1 깊이 영상에서 상기 제1 위치(430)에 대응하는 상기 픽셀의 위치는 제3 위치(440)에서 제4 위치(450)로 이동하게 된다.When a pixel to be calculated in the three-dimensional spatial coordinates (x, y, z) moves from the first position 420 to the second position 430, the projection plane of the two- For example, the position of the pixel corresponding to the first position 430 in the first depth image is moved from the third position 440 to the fourth position 450.

상기 픽셀은 제1 위치(420)에서 제2 위치(430)로 이동함에 따라 깊이 카메라(410)로부터의 거리가 멀어지므로, 상기 픽셀은 깊이 값의 변화(

Figure 112011060087074-pat00001
D)가 발생한다.As the pixel moves from the first position 420 to the second position 430, the distance from the depth camera 410 becomes farther away,
Figure 112011060087074-pat00001
D) occurs.

이 때, 상기 픽셀의 움직임(

Figure 112011060087074-pat00002
p)이 충분히 작다고 가정할 때, 다음과 같은 수학식이 성립한다.At this time, the motion of the pixel
Figure 112011060087074-pat00002
p is sufficiently small, the following equation is established.

Figure 112011060087074-pat00003
Figure 112011060087074-pat00003

여기서, t는 시간, p는 픽셀의 좌표이다.Here, t is time and p is the coordinates of the pixel.

수학식 1의 우측 변에 테일러 급수 전개(Taylor series expansion) 기법을 적용하면 다음과 같은 수학식이 성립한다.When the Taylor series expansion method is applied to the right side of Equation (1), the following equation is established.

Figure 112011060087074-pat00004
Figure 112011060087074-pat00004

여기서 수학식 2의 우측 변은 입력 깊이 영상(110)의 픽셀과 제1 깊이 영상의 픽셀 간의 깊이 값 차로 계산할 수 있다.Here, the right side of Equation (2) can be calculated by a difference in depth value between the pixel of the input depth image 110 and the pixel of the first depth image.

상기 수학식 2를 인체 등의 포즈 생성에 이용하기 위해서 3차원 공간 상에서 상기 픽셀의 이동(

Figure 112011060087074-pat00005
p)은 키네마틱스 함수(kinematics function)를 이용하여 수학식 3과 같이 표현할 수 있다.In order to use Equation (2) to generate a pose of a human body or the like,
Figure 112011060087074-pat00005
p) can be expressed as Equation (3) using a kinematics function.

Figure 112011060087074-pat00006
Figure 112011060087074-pat00006

여기서 h는 전방 키네마틱스 함수(forward kinematics function)이고, p0는 각 구성 인덱스(bone index)의 좌표 값이고, k는 각 구성 인덱스 번호이다.Here, h is a forward kinematics function, p0 is a coordinate value of each constituent index, and k is a constituent index number.

연쇄 법칙(chain rules)을 이용해 수학식 2와 수학식 3을 통합하면 다음의 수학식이 성립한다.By integrating equations (2) and (3) using chain rules, the following equations are established.

Figure 112011060087074-pat00007
Figure 112011060087074-pat00007

따라서 포즈 생성부(140)는 수학식 4를 이용하여 제1 깊이 영상 및 입력 깊이 영상의 픽셀 간의 깊이 값 차를 계산함으로써 제2 깊이 영상의 생성이 가능하다.Accordingly, the pose generation unit 140 can generate the second depth image by calculating the depth difference difference between the pixels of the first depth image and the input depth image using Equation (4).

도 5는 본 발명의 일실시예에 있어서, 동작 추정 방법을 나타내는 흐름도이다.5 is a flowchart illustrating an operation estimation method in an embodiment of the present invention.

동작 추정 장치(100)가 입력 깊이 영상을 수신(S510)하면, 포즈 파라미터 결정부(120)는 입력 깊이 영상(110)에 포함된 포즈에 대응하는 초기 파라미터를 결정(S520)한다.When the motion estimation apparatus 100 receives the input depth image (S510), the pose parameter determination unit 120 determines an initial parameter corresponding to the pose included in the input depth image 110 (S520).

포즈 생성부(140)는 상기 포즈 파라미터 결정부(120)에서 수신한 초기 파라미터를 동작 모델에 적용하여 입력 깊이 영상(110)과 유사한 제1 결과 포즈를 생성(S530)한다.The pose generation unit 140 generates a first result pose similar to the input depth image 110 by applying the initial parameters received by the pose parameter determination unit 120 to the motion model (S530).

이후, 포즈 생성부(140)는 상기 제1 결과 포즈가 반영된 동작 모델을 랜더링하여 제1 깊이 영상 생성(S540)하고, 상기 제1 깊이 영상과 입력 깊이 영상의 깊이 값의 차이를 기초로 상기 입력 깊이 영상(110)에 부합하는 제2 결과 포즈 생성(S550)할 수 있다.Thereafter, the pose generator 140 generates a first depth image by rendering an operation model reflecting the first result pose (S540), and generates a first depth image based on the difference between the first depth image and the depth value of the input depth image A second result pose corresponding to the depth image 110 may be generated (S550).

그리고, 포즈 생성부(140) 또는 포즈 결정부는 제2 결과 포즈와 입력 깊이 영상의 일치 여부를 판단한다(S560). 여기서, 생성한 제2 결과 포즈와 입력 깊이 영상(110)의 차이가 기 설정된 임계치 이하일 경우(S560), 상기 2 결과 포즈는 입력 깊이 영상과 일치하는 것으로 판단하여 상기 제2 결과 포즈를 결과 포즈로서 결정한다. 그러나, 상기 제2 결과 포즈와 입력 깊이 영상(110)의 차이가 상기 임계치 이상일 경우, 다시 상기 제2 결과 포즈와 입력 깊이 영상의 깊이 차를 비교하여 상기 입력 깊이 영상(100)과 보다 일치도가 높은 결과 포즈를 생성하는 과정을 반복함으로써 동작을 추정한다.The pose generation unit 140 or the pose determination unit determines whether the second result pose matches the input depth image (S560). If the difference between the generated second result pose and the input depth image 110 is less than or equal to a preset threshold value (S560), the second result pose is determined to coincide with the input depth image and the second result pose is determined as a result pose . However, if the difference between the second result pose and the input depth image 110 is equal to or greater than the threshold value, the depth difference between the second result pose and the input depth image is compared with the input depth image 110, The operation is estimated by repeating the process of generating the result pose.

본 발명의 일실시예에 따른 동작 추정 장치는 상술한 바와 같은 과정을 통하여 입력된 각각의 깊이 영상에 대한 결과 포즈를 생성하여 동작을 추정할 수 있다.The motion estimation apparatus according to an embodiment of the present invention can estimate a motion by generating a result pose for each depth image input through the process described above.

본 발명의 일실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment of the present invention can be implemented in the form of a program command which can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

100: 동작 추정 장치
110: 입력 깊이 영상
120: 포즈 파라미터 결정부
130: 데이터베이스
140: 포즈 생성부
150: 결과 포즈
100: motion estimation device
110: input depth image
120: pose parameter determination unit
130: Database
140:
150: Results pose

Claims (19)

입력 깊이 영상에 대응하는 초기 포즈 파라미터를 결정하는 포즈 파라미터 결정부; 및
동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 포즈 생성부
를 포함하고,
상기 포즈 생성부는, 상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.
A pose parameter determination unit that determines an initial pose parameter corresponding to an input depth image; And
Generating a first result pose of the motion model by applying the pose parameter to the motion model;
Lt; / RTI >
Wherein the pause generator generates a second result pose of the motion model based on a difference between the first result pose and the input depth image.
제1항에 있어서,
상기 포즈 파라미터 결정부는,
LSH(Locality Sensitive Hash) 기반 포즈 검출 기법을 이용하여, 데이터베이스에 저장된 복수 개의 포즈 파라미터 중 상기 입력 깊이 영상에 부합하는 제1 포즈 파라미터를 검출하여, 상기 제1 포즈 파라미터를 상기 초기 포즈 파라미터로 결정하는, 동작 추정 장치.
The method according to claim 1,
Wherein the pose parameter determination unit determines,
A first pose parameter matching the input depth image is detected among a plurality of pose parameters stored in a database by using a Locality Sensitive Hash (LSH) based pose detection technique, and the first pose parameter is determined as the initial pose parameter , Motion estimation device.
제1항에 있어서,
상기 포즈 파라미터 결정부는,
상기 동작 모델을 상기 입력 깊이 영상에 매칭시키는 제2 포즈 파라미터를 계산하여, 상기 제2 포즈 파라미터를 상기 초기 포즈 파라미터로 결정하는, 동작 추정 장치.
The method according to claim 1,
Wherein the pose parameter determination unit determines,
Calculates a second pose parameter that matches the motion model to the input depth image, and determines the second pose parameter as the initial pose parameter.
제1항에 있어서,
상기 포즈 생성부는,
상기 동작 모델의 상기 제1 결과 포즈를 이용하여 제1 깊이 영상을 생성하고, 상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.
The method according to claim 1,
Wherein the pause generating unit comprises:
Generate a first depth image using the first result pose of the motion model and generate a second result pose of the motion model based on a difference between the first depth image and the input depth image, .
제4항에 있어서,
상기 포즈 생성부는,
상기 제1 깊이 영상의 각 픽셀에 대해 상기 픽셀에 대응하는 깊이 값, 상기 동작 모델의 구성 인덱스 및 좌표 값을 계산하고, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.
5. The method of claim 4,
Wherein the pause generating unit comprises:
Calculating a depth value corresponding to the pixel, a composition index of the operation model, and a coordinate value for each pixel of the first depth image, calculating a depth value of the calculated pixel and a pixel value of the pixel in the input depth image corresponding thereto And calculates a difference in depth value to generate a second result pose of the motion model.
제5항에 있어서,
상기 포즈 생성부는,
데이터베이스에 대한 주성분 분석을 통하여 분석된 결과에 따라 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.
6. The method of claim 5,
Wherein the pause generating unit comprises:
And generates a second result pose of the motion model according to the analyzed result through principal component analysis on the database.
제5항에 있어서,
상기 포즈 생성부는,
상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치는 영역에 위치할 경우, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하고,
상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치지 않는 영역에 위치할 경우, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값을 매칭시켜 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.
6. The method of claim 5,
Wherein the pause generating unit comprises:
Calculating a difference between a depth value of the calculated pixel and a depth value of a pixel in the input depth image corresponding to the depth value of the calculated pixel when the pixel is located in an overlapping area of the input depth image and the first depth image, To produce a second result pose of < RTI ID = 0.0 >
When the pixel is located in a non-overlapping area between the input depth image and the first depth image, a depth value of the calculated pixel is calculated using an IPC (Iterative Closest Point) To generate a second result pose of the motion model.
제1항에 있어서,
상기 제2 결과 포즈와 상기 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우, 상기 제2 결과 포즈를 상기 입력 깊이 영상에 해당하는 결과 포즈로 결정하는 포즈 결정부를 더 포함하는, 동작 추정 장치.
The method according to claim 1,
And a pose determining unit that determines the second result pose as a result pose corresponding to the input depth image, when the difference between the second result pose and the input depth image is less than or equal to a preset threshold value.
제1항에 있어서,
상기 포즈 생성부는,
상기 제2 결과 포즈 생성 시 입력 칼라 영상, 실루엣, 엣지 및 상기 동작 모델의 물리적인 제약 중 적어도 하나를 더 이용하여 상기 제2 결과 포즈를 생성하는, 동작 추정 장치.
The method according to claim 1,
Wherein the pause generating unit comprises:
And generating the second result pose using at least one of an input color image, a silhouette, an edge, and a physical constraint of the motion model at the time of generating the second result pose.
동작 추정 장치가 수신한 입력 깊이 영상을 이용하여 동작을 추정하는 방법에 있어서,
상기 입력 깊이 영상에 대응하는 초기 포즈 파라미터를 결정하는 포즈 파라미터 결정 단계;
동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 제1 결과 포즈 생성 단계; 및
상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는 제2 결과 포즈 생성 단계
를 포함하는, 동작 추정 방법.
A method for estimating an operation using an input depth image received by an operation estimating apparatus,
A pose parameter determining step of determining an initial pose parameter corresponding to the input depth image;
Applying a pose parameter to the action model to generate a first result pose of the action model; And
A second result pose generation step of generating a second result pose of the motion model based on a difference between the first result pose and the input depth image
/ RTI >
제10항에 있어서,
상기 포즈 파라미터 결정 단계는,
LSH(Locality Sensitive Hash) 기반 포즈 검출 기법을 이용하여, 데이터베이스에 저장된 복수 개의 포즈 파라미터 중 상기 입력 깊이 영상에 부합하는 제1 포즈 파라미터를 검출하는 단계; 및
상기 제1 포즈 파라미터를 상기 초기 포즈 파라미터로 결정하는 단계
를 포함하는, 동작 추정 방법.
11. The method of claim 10,
Wherein the pose parameter determination step comprises:
Detecting a first pose parameter corresponding to the input depth image among a plurality of pose parameters stored in a database using a locality sensitive hash (LSH) based pose detection technique; And
Determining the first pose parameter as the initial pose parameter
/ RTI >
제10항에 있어서,
상기 포즈 파라미터 결정 단계는,
상기 동작 모델을 상기 입력 깊이 영상에 매칭시키는 제2 포즈 파라미터를 계산하는 단계; 및
상기 제2 포즈 파라미터를 상기 초기 포즈 파라미터로 결정하는 단계
를 포함하는, 동작 추정 방법.
11. The method of claim 10,
Wherein the pose parameter determination step comprises:
Calculating a second pose parameter that matches the motion model to the input depth image; And
Determining the second pose parameter as the initial pose parameter
/ RTI >
제10항에 있어서,
상기 제2 결과 포즈 생성 단계는,
상기 동작 모델의 상기 제1 결과 포즈를 이용하여 제1 깊이 영상을 생성하는 단계; 및
상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는 단계
를 포함하는, 동작 추정 방법.
11. The method of claim 10,
Wherein the second result pose generation step comprises:
Generating a first depth image using the first result pose of the motion model; And
Generating a second result pose of the motion model based on a difference between the first depth image and the input depth image
/ RTI >
제13항에 있어서,
상기 동작 모델의 제2 결과 포즈를 생성하는 단계는,
상기 제1 깊이 영상의 각 픽셀에 대해 상기 픽셀에 대응하는 깊이 값, 동작 모델의 구성 인덱스 및 좌표 값을 계산하는 단계; 및
상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하는 단계
를 포함하는, 동작 추정 방법.
14. The method of claim 13,
Wherein generating a second result pose of the action model comprises:
Calculating a depth value corresponding to the pixel, a configuration index of the operation model, and a coordinate value for each pixel of the first depth image; And
Calculating a difference between a depth value of the computed pixel and a depth value of a pixel in the input depth image corresponding thereto to generate a second result pose of the operation model
/ RTI >
제14항에 있어서,
상기 동작 모델의 제2 결과 포즈를 생성하는 단계는,
데이터베이스에 대한 주성분 분석을 통하여 분석된 결과에 따라 상기 동작 모델의 제2 결과 포즈를 생성하는 단계인, 동작 추정 방법.
15. The method of claim 14,
Wherein generating a second result pose of the action model comprises:
And generating a second result pose of the motion model according to a result analyzed through principal component analysis on the database.
제14항에 있어서,
상기 동작 모델의 제2 결과 포즈를 생성하는 단계는,
상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치는 영역에 위치할 경우, 상기 계산된 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하는 단계이고,
상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치지 않는 영역에 위치할 경우, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산된 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값을 매칭시켜 상기 동작 모델의 제2 결과 포즈를 생성하는 단계인, 동작 추정 방법.
15. The method of claim 14,
Wherein generating a second result pose of the action model comprises:
Calculating a difference between the calculated depth value and a depth value of a pixel in the input depth image corresponding to the input depth image if the pixel is located in an overlapping area of the input depth image and the first depth image, 2 result pose,
When the pixel is located in a non-overlapping area between the input depth image and the first depth image, the calculated depth value and the depth of the pixel in the input depth image corresponding to the calculated depth value using the IPC (Iterative Closest Point) Value to generate a second result pose of the motion model.
제10항에 있어서,
상기 제2 결과 포즈 생성 단계 이후에,
상기 제2 결과 포즈와 상기 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우, 상기 제2 결과 포즈를 상기 입력 깊이 영상에 해당하는 결과 포즈로 결정하는 단계를 더 포함하는, 동작 추정 방법.
11. The method of claim 10,
After the second result pose generation step,
Further comprising determining the second result pose as a result pose corresponding to the input depth image if the difference between the second result pose and the input depth image is less than or equal to a predetermined threshold.
제10항에 있어서,
상기 제2 결과 포즈 생성 단계는,
상기 제2 결과 포즈 생성 시 입력 칼라 영상, 실루엣, 엣지 및 상기 동작 모델의 물리적인 제약 중 적어도 하나를 더 이용하여 상기 제2 결과 포즈를 생성하는 단계인, 동작 추정 방법.
11. The method of claim 10,
Wherein the second result pose generation step comprises:
And generating the second result pose using at least one of an input color image, a silhouette, an edge, and a physical constraint of the motion model at the time of generating the second result pose.
제10항 내지 제18항 중 어느 한 항의 동작 추정 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium containing a program for performing the motion estimation method according to any one of claims 10 to 18.
KR1020110077389A 2011-04-08 2011-08-03 Apparatus and method for estimating motion using depth image KR101845253B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161473289P 2011-04-08 2011-04-08
US61/473,289 2011-04-08

Publications (2)

Publication Number Publication Date
KR20120115063A KR20120115063A (en) 2012-10-17
KR101845253B1 true KR101845253B1 (en) 2018-04-04

Family

ID=47284076

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110077389A KR101845253B1 (en) 2011-04-08 2011-08-03 Apparatus and method for estimating motion using depth image

Country Status (1)

Country Link
KR (1) KR101845253B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050265583A1 (en) 1999-03-08 2005-12-01 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050265583A1 (en) 1999-03-08 2005-12-01 Vulcan Patents Llc Three dimensional object pose estimation which employs dense depth information

Also Published As

Publication number Publication date
KR20120115063A (en) 2012-10-17

Similar Documents

Publication Publication Date Title
US20210190497A1 (en) Simultaneous location and mapping (slam) using dual event cameras
JP4912388B2 (en) Visual tracking method for real world objects using 2D appearance and multi-cue depth estimation
TWI536318B (en) Depth measurement quality enhancement
EP3016071B1 (en) Estimating device and estimation method
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
KR101410273B1 (en) Method and apparatus for environment modeling for ar
KR102455632B1 (en) Mehtod and apparatus for stereo matching
CN115509352A (en) Optimized object scanning using sensor fusion
EP2671384A2 (en) Mobile camera localization using depth maps
KR101715780B1 (en) Voxel Map generator And Method Thereof
JP2008176504A (en) Object detector and method therefor
KR102110459B1 (en) Method and apparatus for generating three dimension image
US20150139505A1 (en) Method and apparatus for predicting human motion in virtual environment
Yamazoe et al. Easy depth sensor calibration
KR20140134090A (en) Apparatus and method of processing a depth image using a relative angle between an image sensor and a target object
JP7103354B2 (en) Information processing equipment, information processing methods, and programs
US9025022B2 (en) Method and apparatus for gesture recognition using a two dimensional imaging device
JP2016152586A (en) Projection mapping device, and device, method and program for video projection control
JP2016148649A (en) Information processing apparatus, control method therefor, and program
KR101656618B1 (en) Method and Device for Providing Augmented Reality to Physical Object
KR20100006736A (en) System and apparatus for implementing augmented reality, and method of implementing augmented reality using the said system or the said apparatus
KR101896183B1 (en) 3-d straight lines detection method for camera motion estimation
JP2009301242A (en) Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program
KR102093455B1 (en) Apparatus and method for displaying hologram using pupil track based on hybrid camera
KR101845253B1 (en) Apparatus and method for estimating motion using depth image

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant