KR101845253B1 - Apparatus and method for estimating motion using depth image - Google Patents
Apparatus and method for estimating motion using depth image Download PDFInfo
- Publication number
- KR101845253B1 KR101845253B1 KR1020110077389A KR20110077389A KR101845253B1 KR 101845253 B1 KR101845253 B1 KR 101845253B1 KR 1020110077389 A KR1020110077389 A KR 1020110077389A KR 20110077389 A KR20110077389 A KR 20110077389A KR 101845253 B1 KR101845253 B1 KR 101845253B1
- Authority
- KR
- South Korea
- Prior art keywords
- pose
- depth image
- result
- pixel
- input
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
입력 깊이 영상을 이용한 동작 추정 장치 및 방법이 개시된다. 동작 추정 장치는 입력 깊이 영상에 대응하는 초기 포즈 파라미터를 결정하는 포즈 파라미터 결정부 및 동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 포즈 생성부를 포함하고, 상기 포즈 생성부는 상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하기 때문에 보다 신속하고 정확하게 대상의 동작을 추정할 수 있다.An apparatus and method for motion estimation using input depth images are disclosed. The motion estimation apparatus includes a pose parameter determination unit for determining an initial pose parameter corresponding to an input depth image and a pose generation unit for applying the pose parameter to an operation model to generate a first result pose of the operation model, Can generate a second result pose of the motion model based on the difference between the first result pose and the input depth image, so that the motion of the object can be estimated more quickly and accurately.
Description
본 발명의 실시예들은 깊이 영상을 이용하여 동작을 추정하는 동작 추정 장치 및 방법에 관한 것이다.Embodiments of the present invention relate to motion estimation apparatus and method for estimating motion using a depth image.
최근 비디오 게임, 가상 세계(virtual world), 영화 컴퓨터 그래픽(computer graphic, CG) 등 실제 공간에서의 타깃 오브젝트(이를 테면, 인체(human body))의 동작을 추정하고, 이를 3-Dimensional(3D) 공간 내에서 구현하는 기술에 관한 관심이 증가하고 있다.Recently, the motion of a target object (such as a human body) in a real space, such as a video game, a virtual world, a cinematographic computer graphic (CG) There is an increasing interest in technology to implement in space.
그러나, 동작 추정, 동작 캡처 등 다양한 명칭으로 불릴 수 있는 이러한 기술에 있어서, 동작의 검출에서부터 동작 추정 결과를 도출할 때까지에 이르는 계산 시간이 길다는 점은 단점으로 작용한다.However, this technique, which can be called various names such as motion estimation, motion capture, etc., has a disadvantage in that the computation time from the detection of the motion to the derivation of the motion estimation result is long.
또한, 사람의 동작을 추정하는 경우, 카메라, 마커, 센서 등의 수가 많을수록 동작 추정의 결과 값은 정밀할 것으로 예상되나, 카메라를 이용하는 동작 추정 방식의 경우에는 조명 및 배경 등에 민감하다는 문제가 있고, 마커, 센서 등을 이용하는 동작 추정 방식의 경우에는 사람에 몸에 부착할 수 있는 센서의 수 및 위치 등으로 인해 인체의 움직임이 제한되고 인체 전체의 동작을 추정하기 어렵다는 문제점이 있다. 그리고, 카메라, 마커, 센서 등의 수가 증가할수록 정밀한 동적 추정은 가능하지만, 계산해야 되는 파라미터의 수도 증가하기 때문에 동작 추정에 필요한 시간이 더욱 증가하는 등의 문제가 발생한다.In the case of estimating the motion of a person, the result of motion estimation is expected to be more accurate as the number of cameras, markers, sensors, and the like increases. However, in the case of motion estimation using a camera, In the case of the motion estimation method using a marker, a sensor, etc., there is a problem that motion of the human body is limited due to the number and position of sensors that can be attached to a human body, and it is difficult to estimate the motion of the whole human body. As the number of cameras, markers, sensors, and the like increases, precise dynamic estimation can be performed. However, since the number of parameters to be calculated increases, the time required for motion estimation further increases.
그러므로, 지금까지 카메라 혹은 모션 센서 입력에 기초한 동작 추정 기술들은 인체 전체의 동작과 같이 복잡한 동작을 추정하는 데에는 한계가 있었다.Therefore, until now, motion estimation techniques based on camera or motion sensor input have been limited in estimating complex motion as the entire human body.
따라서, 복잡한 동작도 정밀하면서도 빠르게 추정할 수 있는 기술이 요구되고 있다.Therefore, there is a demand for a technique capable of accurately estimating complex operations.
복잡한 조명, 배경 등의 환경에서도 정밀하게 동작을 추정할 수 있는 동작 추정 장치 및 방법이 제공된다.There is provided an apparatus and method for motion estimation capable of precisely estimating motion in environments such as complicated lighting, background, and the like.
정밀한 동작을 추정 시에도 계산 속도가 빠른 동작 추정 장치 및 방법이 제공된다.There is provided an apparatus and method for estimating motion with high calculation speed even when accurate motion is estimated.
입력 깊이 영상을 이용한 동작 추정 장치는 입력 깊이 영상에 대응하는 초기 포즈 파라미터를 결정하는 포즈 파라미터 결정부 및 동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 포즈 생성부를 포함하고, 상기 포즈 생성부는, 상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.An operation estimating apparatus using an input depth image includes a pose parameter determining unit for determining an initial pose parameter corresponding to an input depth image and a pause generating unit for generating a first result pose of the operation model by applying the pose parameter to the operation model And the pause generator may generate a second result pose of the motion model based on a difference between the first result pose and the input depth image.
일측에 따르면, 상기 포즈 파라미터 결정부는 LSH(Locality Sensitive Hash) 기반 포즈 검출 기법을 이용하여, 데이터베이스에 저장된 복수 개의 포즈 파라미터 중 상기 입력 깊이 영상에 부합하는 제1 포즈 파라미터를 검출하여, 상기 제1 포즈 파라미터를 상기 초기 포즈 파라미터로 결정할 수 있다.According to one aspect, the pose parameter determination unit detects a first pose parameter corresponding to the input depth image among a plurality of pose parameters stored in a database, using a Locality Sensitive Hash (pseudo Hash) based pause detection technique, Parameter to the initial pose parameter.
다른 측면에 따르면, 상기 포즈 파라미터 결정부는 상기 동작 모델을 상기 입력 깊이 영상에 매칭시키는 제2 포즈 파라미터를 계산하여, 상기 제2 포즈 파라미터를 상기 초기 포즈 파라미터로 결정할 수 있다.According to another aspect, the pose parameter determination unit may calculate a second pose parameter that matches the operation model with the input depth image, and determine the second pose parameter as the initial pose parameter.
또 다른 측면에 따르면, 상기 포즈 생성부는 상기 동작 모델의 상기 제1 결과 포즈를 이용하여 제1 깊이 영상을 생성하고, 상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.According to another aspect of the present invention, the pause generation unit generates a first depth image using the first result pose of the operation model, and generates a first depth image based on a difference between the first depth image and the input depth image, 2 result pose can be generated.
또 다른 측면에 따르면, 상기 포즈 생성부는 상기 제1 깊이 영상의 각 픽셀에 대해 상기 픽셀에 대응하는 깊이 값, 상기 동작 모델의 구성 인덱스 및 좌표 값을 계산하고, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.According to another aspect of the present invention, the pause generation unit may calculate a depth value corresponding to the pixel, a configuration index of the operation model, and a coordinate value for each pixel of the first depth image, A difference in depth value of a pixel in the corresponding input depth image may be calculated to generate a second result pose of the motion model.
또 다른 측면에 따르면, 상기 포즈 생성부는 데이터베이스에 대한 주성분 분석을 통하여 분석된 결과에 따라 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.According to another aspect, the pause generator may generate a second result pose of the motion model according to a result analyzed through principal component analysis on the database.
또 다른 측면에 따르면, 상기 포즈 생성부는 상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치는 영역에 위치할 경우, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하고, 상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치지 않는 영역에 위치할 경우, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값을 매칭시켜 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.According to another aspect of the present invention, when the pixel is located in an overlapping area between the input depth image and the first depth image, the pose generating unit may calculate the depth value of the calculated pixel and the pixel value of the pixel Calculating a difference of depth values to generate a second result pose of the motion model; and if the pixel is located in a non-overlapping region of the input depth image and the first depth image, using an IPC (Iterative Closest Point) To generate a second result pose of the motion model by matching the depth value of the calculated pixel with the depth value of the pixel in the corresponding input depth image.
또 다른 측면에 따르면, 상기 제2 결과 포즈와 상기 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우, 상기 제2 결과 포즈를 상기 입력 영상에 해당하는 결과 포즈로 결정하는 포즈 결정부를 더 포함할 수 있다.According to another aspect of the present invention, the method may further include a pose determining unit that determines the second result pose as a result pose corresponding to the input image when the difference between the second result pose and the input depth image is less than or equal to a predetermined threshold value .
또 다른 측면에 따르면, 상기 포즈 생성부는 상기 제2 결과 포즈 생성 시 입력 칼라 영상, 실루엣, 엣지 및 상기 동작 모델의 물리적인 제약 중 적어도 하나를 더 이용하여 상기 제2 결과 포즈를 생성할 수 있다.According to another aspect, the pause generation unit may generate the second result pose using at least one of input color images, silhouettes, edges, and physical constraints of the motion model at the time of generating the second result pose.
한편, 동작 추정 장치가 수신한 입력 깊이 영상을 이용하여 동작을 추정하는 방법은 상기 입력 깊이 영상에 대응하는 초기 포즈 파라미터를 결정하는 포즈 파라미터 결정 단계, 동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 제1 결과 포즈 생성 단계 및 상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는 제2 결과 포즈 생성 단계를 포함할 수 있다.Meanwhile, a method of estimating an operation using an input depth image received by an operation estimating apparatus includes a pose parameter determining step of determining an initial pose parameter corresponding to the input depth image, a pose parameter determining step of applying the pose parameter to an operation model, And a second result pose generation step of generating a second result pose of the motion model based on a difference between the first result pose and the input depth image .
깊이 영상을 이용하여 동작을 추정함으로써 복잡한 조명, 배경 등의 환경에서도 정밀하게 동작을 추정할 수 있다.By estimating the motion using the depth image, it is possible to accurately estimate the motion even in an environment of complicated lighting, background, and the like.
칼라 영상, 실루엣, 엣지 및 인체의 물리적인 제약 등을 함께 이용하여 동작을 추정할 수 있기 때문에 보다 정밀하게 동작을 추정할 수 있다.The motion can be estimated using the color image, the silhouette, the edge, and the physical constraints of the human body, so that the motion can be estimated more accurately.
주성분 분석을 통하여 동작 추정 시 계산하는 파라미터의 수를 줄임으로써 복잡한 동작도 실시간으로 추정할 수 있다.Complex operations can be estimated in real time by reducing the number of parameters to be calculated in motion estimation through principal component analysis.
도 1은 본 발명의 일실시예에 있어서, 입력 깊이 영상을 이용한 동작 추정 장치를 도시한 블록도이다.
도 2a는 본 발명의 일실시예에 있어서 입력 깊이 영상의 예시도이고, 도 2b는 본 발명의 일실시예에 있어서 동작 모델의 예시도이고, 도 2c는 본 발명의 일실시예에 있어서 입력 깊이 영상을 이용하여 생성된 결과 포즈의 일 예를 나타내는 도면이다.
도 3은 본 발명의 일실시예에 있어서, 입력 깊이 영상과 제1 깊이 영상의 차이를 계산하는 과정을 설명하기 위한 도면이다.
도 4는 본 발명의 일실시예에 있어서, 동작 추정 장치가 동작을 추정하는 과정을 설명하기 위한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 동작 추정 방법을 나타내는 흐름도이다.1 is a block diagram illustrating an operation estimating apparatus using an input depth image according to an embodiment of the present invention.
FIG. 2A is an exemplary view of an input depth image in an embodiment of the present invention, FIG. 2B is an exemplary view of an operation model in an embodiment of the present invention, and FIG. FIG. 8 is a diagram showing an example of a result pose generated using an image. FIG.
FIG. 3 is a diagram for explaining a process of calculating a difference between an input depth image and a first depth image, according to an embodiment of the present invention.
4 is a diagram for explaining a process of estimating an operation of an operation estimating apparatus according to an embodiment of the present invention.
5 is a flowchart illustrating an operation estimation method in an embodiment of the present invention.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 있어서, 입력 깊이 영상을 이용한 동작 추정 장치를 도시한 블록도이다. 도면을 참조하면, 동작 추정 장치(100)는 포즈 파라미터 결정부(120) 및 포즈 생성부(140)를 포함한다.1 is a block diagram illustrating an operation estimating apparatus using an input depth image according to an embodiment of the present invention. Referring to the drawings, the
동작 추정 장치(100)에 깊이 카메라(depth camera) 등으로부터 깊이 영상이 입력되면, 포즈 파라미터 결정부(120)는 입력 깊이 영상(110)에 대응하는 초기 포즈 파라미터를 결정한다.When a depth image is input to the
포즈 생성부(140)는 상기 포즈 파라미터 결정부(120)에서 결정된 상기 포즈 파라미터를 동작 모델에 적용하여 상기 동작 모델의 제1 결과 포즈를 생성한다. 그리고 상기 포즈 생성부(140)는 상기 제1 결과 포즈와 상기 입력 깊이 영상(110)의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성한다.The
이 때, 상기 포즈 파라미터 결정부(120)는 보다 정확한 동작 추정을 위하여 LSH(Locality Sensitive Hash) 기반 포즈 검출 기법을 이용하여, 데이터베이스(130)에 저장된 복수 개의 포즈 파라미터 중 상기 입력 깊이 영상(110)에 부합하는 제1 포즈 파라미터를 검출하여, 상기 제1 포즈 파라미터를 상기 초기 포즈 파라미터로 결정할 수 있다. At this time, the pose
한편, 상기 포즈 파라미터 결정부(120)는 상기 동작 모델을 상기 입력 깊이 영상에 매칭시키는 제2 포즈 파라미터를 계산하여, 상기 제2 포즈 파라미터를 상기 초기 포즈 파라미터로 결정할 수 있다.Meanwhile, the pose
보다 구체적으로 설명하면, 상기 데이터베이스(130)에는 복수개의 정밀한 센서, 마커, 카메라 등을 이용하여 인체와 같은 오브젝트의 다양한 동작을 캡처(capture)함으로써 산출된 포즈 파라미터들이 저장된다. 이러한 포즈 파라미터들을 이용하면, 인체가 만들어 낼 수 있는 거의 대부분의 포즈(pose)를 생성할 수 있다.More specifically, the
예를 들어, 포즈 파라미터 결정부(120)는 입력 깊이 영상(110)으로부터 Adaboost(adaptive boost) 기법을 통해 특징을 추출한 후 LSH 기법을 이용하여 데이터베이스(130)에서 상기 특징에 해당하는 픽셀의 파라미터와 가장 가까운 복수개의 파라미터들을 검출한다. 이 중 분석 합성(analysis-by-synthesis) 기법을 이용하여 적합한 매치를 결정한다. 결정된 매치는 초기 포즈 파라미터로서 동작 모델에 사용되거나 동작 추정 실패 시 복구하기 위한 모델에 사용될 수 있다.For example, the pose
포즈 파라미터 결정부(120)는 이와 같은 처리 과정을 주기적으로 수행함으로써, 포즈 생성부(140)에서 결과 포즈를 생성할 때 상기 포즈 파라미터가 반영되도록 하여 초기 결과 포즈가 생성되도록 할 뿐만 아니라 동작 추정 시 에러가 발생하더라도 다시 정확한 동작이 검출되도록 할 수 있다.The pose
이하 도 1 및 도 2를 참조하여 결과 포즈를 생성하는 과정을 상세히 설명한다. 도 2a는 본 발명의 일실시예에 있어서 입력 깊이 영상의 예시도이고, 도 2b는 본 발명의 일실시예에 있어서 동작 모델의 예시도이고, 도 2c는 본 발명의 일실시예에 있어서 입력 깊이 영상을 이용하여 생성된 결과 포즈의 일 예를 나타내는 도면이다.Hereinafter, a process of generating a result pose will be described in detail with reference to FIGS. 1 and 2. FIG. FIG. 2A is an exemplary view of an input depth image in an embodiment of the present invention, FIG. 2B is an exemplary view of an operation model in an embodiment of the present invention, and FIG. FIG. 8 is a diagram showing an example of a result pose generated using an image. FIG.
포즈 생성부(140)는 상기 포즈 파라미터 결정부(120)에서 결정된 상기 포즈 파라미터를 동작 모델에 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하고, 상기 제1 결과 포즈를 이용하여 제1 깊이 영상을 생성한다. 그리고, 상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성한다.The
상기 입력 깊이 영상(110)은 도 2a에 도시된 것과 같이 깊이 카메라에 의하여 촬상되어 깊이 값 만을 가지고 있는 영상이다. 도면에서는 편의를 위하여 인체의 깊이 값이 일정하게 표시되었지만, 실제 인체 각 부분의 깊이 값은 3차원 공간 상에서 상기 깊이 카메라와의 거리에 따라 서로 다르게 표시된다. 이러한 깊이 영상은 깊이 카메라와의 거리에 따른 깊이 값만을 가지고 있기 때문에 조명, 배경 등과 같은 주변 환경의 변화에도 인체 등의 오브젝트를 정확하게 추출할 수 있다.The
그러므로 본원 발명에 따른 동작 추정 장치(100)는 입력 깊이 영상(110)을 이용하여 상기 입력 깊이 영상에 포함된 인체와 같은 오브젝트의 동작을 추정하기 때문에 정확하게 오브젝트의 포즈를 검출할 수 있고 동작을 추정할 수 있게 된다.Therefore, the
한편, 상기 동작 모델은 도 2b에 도시된 것과 같이 데이터베이스(130)에 저장된 복수개의 포즈 파라미터를 이용하여 동작을 생성할 수 있는 모델이다. 도면에서는 상기 동작 모델이 3D 모델인 것으로 도시되어 있지만, 상기 동작 모델은 3D 모델로 한정되는 것이 아니라 깊이 값을 가지는 2D 모델로 구현되어 이를 이용하여 상기 포즈 생성부(140)가 입력 깊이 영상(110)의 오브젝트의 동작을 추정할 수도 있다.Meanwhile, the operation model is a model capable of generating an operation using a plurality of pose parameters stored in the
그리고, 상기 제1 결과 포즈는 도 2c에 도시된 것과 같이 포즈 파라미터 결정부(120)에서 결정된 초기 포즈 파라미터를 동작 모델에 적용하여, 상기 동작 모델이 상기 입력 깊이 영상에서의 포즈와 유사한 포즈가 되도록 생성한 것이다.The first result pose may be determined by applying an initial pose parameter determined by the pose
즉, 포즈 생성부(140)는 상기 포즈 파라미터 결정부(120)에서 결정된 상기 포즈 파라미터를 동작 모델(도 2b)에 적용하여 입력 깊이 영상(110)의 포즈(도 2a)와 유사한 상기 동작 모델의 제1 결과 포즈(도 2c)를 생성한다.That is, the
그러나, 이와 같이 생성된 제1 결과 포즈는 입력 깊이 영상에 대한 측정 값만으로 생성된 포즈이기 때문에, 제1 결과 포즈와 입력 깊이 영상의 포즈 사이에는 소정의 차이가 존재한다. 따라서, 포즈 생성부(140)는 상기 제1 결과 포즈가 상기 입력 깊이 영상의 포즈와 동일한 포즈가 되도록, 입력 깊이 영상의 포즈가 반영된 상기 제1 결과 포즈를 랜더링하여 제1 깊이 영상을 생성하고, 상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 입력 깊이 영상의 포즈에 부합되는 상기 동작 모델의 제2 결과 포즈를 생성한다.However, there is a certain difference between the first result pose and the pose of the input depth image, since the first result pose thus generated is a pose generated only by the measured values for the input depth image. Accordingly, the
구체적으로 설명하면, 상기 포즈 생성부(140)는 상기 제1 깊이 영상의 각 픽셀에 대해, 상기 픽셀에 대응하는 깊이 값, 상기 동작 모델의 구성 인덱스 및 좌표 값을 계산하고, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상(110)에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.Specifically, the
한편, 상기 포즈 생성부(140)는 동작 추정 장치(100)가 실시간으로 동작을 추정할 수 있도록, 데이터베이스(130)에 대한 주성분 분석(PCA: Principal Components Analysis)을 통하여 분석된 결과에 따라 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.Meanwhile, the
예를 들어, 인체의 동작을 결정하기 위한 파라미터가 17개라고 가정하면, 상기 파라미터에 대한 3차원 공간 좌표(x, y, z)에 의하여 17x3 즉, 51개의 자유도(DOF: Degree Of Freedom)가 존재하게 된다. 상기 파라미터를 그대로 동작 추정에 적용하여 계산할 경우, 계산량은 상기 데이터베이스에 저장된 파라미터의 개수에 따라 증가하게 되고, 이는 동작 추정 시 계산 속도에 직접적으로 연관된다.For example, assuming that there are 17 parameters for determining the motion of the human body, it is assumed that 17x3, that is, 51 degrees of freedom (DOF: Degree of Freedom) is calculated by the three-dimensional spatial coordinates (x, . When the parameter is directly applied to the motion estimation, the amount of calculation is increased according to the number of parameters stored in the database, which is directly related to the calculation speed at the time of motion estimation.
따라서. 본원 발명에서는 주성분 분석을 통하여 동작 추정 시 계산할 파라미터에 우선 순위를 둠으로써, 계산하는 파라미터의 수를 줄일 수 있기 때문에 복잡한 동작도 실시간으로 추정할 수 있는 효과가 있다.therefore. In the present invention, by prioritizing the parameters to be calculated at the time of motion estimation through principal component analysis, it is possible to reduce the number of parameters to be calculated, so that complex operations can be estimated in real time.
또한, 동작 추정 장치(100)는 물리적 제약 등과 같은 오브젝트 동작의 연관도(예들 들어, 인체의 팔과 같은 경우 뒤쪽으로는 굽혀질 수 없음)를 이용하여 계산해야 되는 파라미터의 수를 줄임으로써 더욱 빠르게 동작을 추정할 수도 있다.In addition, the
한편, 상기 포즈 생성부(140)는 상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치는 영역에 위치할 경우, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하고, 상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치지 않는 영역에 위치할 경우, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값을 매칭시켜 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.When the pixel is located in the overlapping region of the input depth image and the first depth image, the
이하 도 3을 참조하여 이를 상세히 설명한다. 도 3은 본 발명의 일실시예에 있어서, 입력 깊이 영상과 제1 깊이 영상의 차이를 계산하는 과정을 설명하기 위한 도면이다. This will be described in detail with reference to FIG. FIG. 3 is a diagram for explaining a process of calculating a difference between an input depth image and a first depth image, according to an embodiment of the present invention.
예를 들어, 입력 깊이 영상(110)에 포함된 인체의 포즈 중 팔 부분을 제1 영역(310)이라 하고, 이에 해당하는 제1 깊이 영상에서의 팔 부분을 제2 영역(330)이라 한다. 이 때, 제1 영역(310)과 제 영역(320)이 겹치는 영역(320)에 계산할 픽셀이 위치하는 경우, 상기 픽셀에 대응하는 입력 깊이 영상(110)의 픽셀이 존재하므로, 상기 픽셀의 깊이 값과 이에 대응하는 입력 깊이 영상(110)에서의 픽셀의 깊이 값을 비교하여 그 차이를 계산함으로써 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.For example, an arm portion of a human body pose included in the
그러나 상기 픽셀이 제1 영역(310)과 제2 영역(330)이 겹치지 않는 영역(315, 335)에 위치할 경우, 계산할 픽셀을 비교할 픽셀이 존재하지 않기 때문에, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산할 픽셀의 좌표 값을 상기 겹치는 영역(320) 방향으로 이동시킴으로써 이동한 픽셀의 깊이 값과 이에 대응하는 픽셀의 깊이 값을 매칭시키고 이들의 차이 값을 계산하여 상기 동작 모델의 제2 결과 포즈를 생성할 수 있다.However, when the pixel is located in the
포즈 생성부(140)는 이와 같은 과정을 통하여 생성한 제2 결과 포즈가 상기 입력 깊이 영상(110)의 포즈와 일치될 때까지 반복하여 수행함으로써 동작 추정 장치(100)의 성능을 높일 수 있다.The
한편, 도 1에는 도시되지 않았지만, 동작 추정 장치(100)는 포즈 결정부를 더 포함하고, 상기 포즈 결정부를 이용하여 제2 결과 포즈와 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우, 제2 결과 포즈를 상기 입력 영상에 해당하는 결과 포즈(150)로 결정할 수 있다. 이때 상기 포즈 결정부는 동작 추정 장치(100)에 별도의 구성으로 구현되는 것이 아니라 포즈 생성부(140)에 포함됨으로써, 포즈 생성부(140)가 제2 결과 포즈와 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우 상기 제2 결과 포즈를 상기 입력 영상에 해당하는 결과 포즈(150)로 결정하도록 할 수도 있다.Although not shown in FIG. 1, the
이와 같이 동작 추정 장치(100)는 입력되는 각각의 입력 깊이 영상(110)에 대한 결과 포즈(150)를 생성하므로 인체 등의 동작을 신속하고 정확하게 추정할 수 있다.As described above, the
한편, 상기 포즈 생성부(140)는 제2 결과 포즈 생성 시 입력 깊이 영상뿐만 아니라 입력 칼라 영상, 실루엣, 엣지 및 상기 동작 모델의 물리적인 제약 등을 추가적으로 이용하여 상기 제2 결과 포즈를 생성함으로써, 동작 추정의 정확도를 보다 향상시킬 수 있다.The
이하 도 4를 참조하여 본 발명의 일실시예에 따른 동작 추정 장치(100)가 동작을 추정하는 과정을 설명하기로 한다.Hereinafter, a process of estimating an operation of the
3차원 공간 좌표(x, y, z)에서 계산하고자 하는 픽셀이 제1 위치(420)에서 제2 위치(430)로 이동한 경우, 2차원 평면 좌표(u, v)의 투영면(projection plane) 예를 들어, 제1 깊이 영상에서 상기 제1 위치(430)에 대응하는 상기 픽셀의 위치는 제3 위치(440)에서 제4 위치(450)로 이동하게 된다.When a pixel to be calculated in the three-dimensional spatial coordinates (x, y, z) moves from the
상기 픽셀은 제1 위치(420)에서 제2 위치(430)로 이동함에 따라 깊이 카메라(410)로부터의 거리가 멀어지므로, 상기 픽셀은 깊이 값의 변화(D)가 발생한다.As the pixel moves from the
이 때, 상기 픽셀의 움직임(p)이 충분히 작다고 가정할 때, 다음과 같은 수학식이 성립한다.At this time, the motion of the pixel p is sufficiently small, the following equation is established.
여기서, t는 시간, p는 픽셀의 좌표이다.Here, t is time and p is the coordinates of the pixel.
수학식 1의 우측 변에 테일러 급수 전개(Taylor series expansion) 기법을 적용하면 다음과 같은 수학식이 성립한다.When the Taylor series expansion method is applied to the right side of Equation (1), the following equation is established.
여기서 수학식 2의 우측 변은 입력 깊이 영상(110)의 픽셀과 제1 깊이 영상의 픽셀 간의 깊이 값 차로 계산할 수 있다.Here, the right side of Equation (2) can be calculated by a difference in depth value between the pixel of the
상기 수학식 2를 인체 등의 포즈 생성에 이용하기 위해서 3차원 공간 상에서 상기 픽셀의 이동(p)은 키네마틱스 함수(kinematics function)를 이용하여 수학식 3과 같이 표현할 수 있다.In order to use Equation (2) to generate a pose of a human body or the like, p) can be expressed as Equation (3) using a kinematics function.
여기서 h는 전방 키네마틱스 함수(forward kinematics function)이고, p0는 각 구성 인덱스(bone index)의 좌표 값이고, k는 각 구성 인덱스 번호이다.Here, h is a forward kinematics function, p0 is a coordinate value of each constituent index, and k is a constituent index number.
연쇄 법칙(chain rules)을 이용해 수학식 2와 수학식 3을 통합하면 다음의 수학식이 성립한다.By integrating equations (2) and (3) using chain rules, the following equations are established.
따라서 포즈 생성부(140)는 수학식 4를 이용하여 제1 깊이 영상 및 입력 깊이 영상의 픽셀 간의 깊이 값 차를 계산함으로써 제2 깊이 영상의 생성이 가능하다.Accordingly, the
도 5는 본 발명의 일실시예에 있어서, 동작 추정 방법을 나타내는 흐름도이다.5 is a flowchart illustrating an operation estimation method in an embodiment of the present invention.
동작 추정 장치(100)가 입력 깊이 영상을 수신(S510)하면, 포즈 파라미터 결정부(120)는 입력 깊이 영상(110)에 포함된 포즈에 대응하는 초기 파라미터를 결정(S520)한다.When the
포즈 생성부(140)는 상기 포즈 파라미터 결정부(120)에서 수신한 초기 파라미터를 동작 모델에 적용하여 입력 깊이 영상(110)과 유사한 제1 결과 포즈를 생성(S530)한다.The
이후, 포즈 생성부(140)는 상기 제1 결과 포즈가 반영된 동작 모델을 랜더링하여 제1 깊이 영상 생성(S540)하고, 상기 제1 깊이 영상과 입력 깊이 영상의 깊이 값의 차이를 기초로 상기 입력 깊이 영상(110)에 부합하는 제2 결과 포즈 생성(S550)할 수 있다.Thereafter, the
그리고, 포즈 생성부(140) 또는 포즈 결정부는 제2 결과 포즈와 입력 깊이 영상의 일치 여부를 판단한다(S560). 여기서, 생성한 제2 결과 포즈와 입력 깊이 영상(110)의 차이가 기 설정된 임계치 이하일 경우(S560), 상기 2 결과 포즈는 입력 깊이 영상과 일치하는 것으로 판단하여 상기 제2 결과 포즈를 결과 포즈로서 결정한다. 그러나, 상기 제2 결과 포즈와 입력 깊이 영상(110)의 차이가 상기 임계치 이상일 경우, 다시 상기 제2 결과 포즈와 입력 깊이 영상의 깊이 차를 비교하여 상기 입력 깊이 영상(100)과 보다 일치도가 높은 결과 포즈를 생성하는 과정을 반복함으로써 동작을 추정한다.The
본 발명의 일실시예에 따른 동작 추정 장치는 상술한 바와 같은 과정을 통하여 입력된 각각의 깊이 영상에 대한 결과 포즈를 생성하여 동작을 추정할 수 있다.The motion estimation apparatus according to an embodiment of the present invention can estimate a motion by generating a result pose for each depth image input through the process described above.
본 발명의 일실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment of the present invention can be implemented in the form of a program command which can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.
100: 동작 추정 장치
110: 입력 깊이 영상
120: 포즈 파라미터 결정부
130: 데이터베이스
140: 포즈 생성부
150: 결과 포즈100: motion estimation device
110: input depth image
120: pose parameter determination unit
130: Database
140:
150: Results pose
Claims (19)
동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 포즈 생성부
를 포함하고,
상기 포즈 생성부는, 상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.A pose parameter determination unit that determines an initial pose parameter corresponding to an input depth image; And
Generating a first result pose of the motion model by applying the pose parameter to the motion model;
Lt; / RTI >
Wherein the pause generator generates a second result pose of the motion model based on a difference between the first result pose and the input depth image.
상기 포즈 파라미터 결정부는,
LSH(Locality Sensitive Hash) 기반 포즈 검출 기법을 이용하여, 데이터베이스에 저장된 복수 개의 포즈 파라미터 중 상기 입력 깊이 영상에 부합하는 제1 포즈 파라미터를 검출하여, 상기 제1 포즈 파라미터를 상기 초기 포즈 파라미터로 결정하는, 동작 추정 장치.The method according to claim 1,
Wherein the pose parameter determination unit determines,
A first pose parameter matching the input depth image is detected among a plurality of pose parameters stored in a database by using a Locality Sensitive Hash (LSH) based pose detection technique, and the first pose parameter is determined as the initial pose parameter , Motion estimation device.
상기 포즈 파라미터 결정부는,
상기 동작 모델을 상기 입력 깊이 영상에 매칭시키는 제2 포즈 파라미터를 계산하여, 상기 제2 포즈 파라미터를 상기 초기 포즈 파라미터로 결정하는, 동작 추정 장치.The method according to claim 1,
Wherein the pose parameter determination unit determines,
Calculates a second pose parameter that matches the motion model to the input depth image, and determines the second pose parameter as the initial pose parameter.
상기 포즈 생성부는,
상기 동작 모델의 상기 제1 결과 포즈를 이용하여 제1 깊이 영상을 생성하고, 상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.The method according to claim 1,
Wherein the pause generating unit comprises:
Generate a first depth image using the first result pose of the motion model and generate a second result pose of the motion model based on a difference between the first depth image and the input depth image, .
상기 포즈 생성부는,
상기 제1 깊이 영상의 각 픽셀에 대해 상기 픽셀에 대응하는 깊이 값, 상기 동작 모델의 구성 인덱스 및 좌표 값을 계산하고, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.5. The method of claim 4,
Wherein the pause generating unit comprises:
Calculating a depth value corresponding to the pixel, a composition index of the operation model, and a coordinate value for each pixel of the first depth image, calculating a depth value of the calculated pixel and a pixel value of the pixel in the input depth image corresponding thereto And calculates a difference in depth value to generate a second result pose of the motion model.
상기 포즈 생성부는,
데이터베이스에 대한 주성분 분석을 통하여 분석된 결과에 따라 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.6. The method of claim 5,
Wherein the pause generating unit comprises:
And generates a second result pose of the motion model according to the analyzed result through principal component analysis on the database.
상기 포즈 생성부는,
상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치는 영역에 위치할 경우, 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하고,
상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치지 않는 영역에 위치할 경우, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값을 매칭시켜 상기 동작 모델의 제2 결과 포즈를 생성하는, 동작 추정 장치.6. The method of claim 5,
Wherein the pause generating unit comprises:
Calculating a difference between a depth value of the calculated pixel and a depth value of a pixel in the input depth image corresponding to the depth value of the calculated pixel when the pixel is located in an overlapping area of the input depth image and the first depth image, To produce a second result pose of < RTI ID = 0.0 >
When the pixel is located in a non-overlapping area between the input depth image and the first depth image, a depth value of the calculated pixel is calculated using an IPC (Iterative Closest Point) To generate a second result pose of the motion model.
상기 제2 결과 포즈와 상기 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우, 상기 제2 결과 포즈를 상기 입력 깊이 영상에 해당하는 결과 포즈로 결정하는 포즈 결정부를 더 포함하는, 동작 추정 장치.The method according to claim 1,
And a pose determining unit that determines the second result pose as a result pose corresponding to the input depth image, when the difference between the second result pose and the input depth image is less than or equal to a preset threshold value.
상기 포즈 생성부는,
상기 제2 결과 포즈 생성 시 입력 칼라 영상, 실루엣, 엣지 및 상기 동작 모델의 물리적인 제약 중 적어도 하나를 더 이용하여 상기 제2 결과 포즈를 생성하는, 동작 추정 장치.The method according to claim 1,
Wherein the pause generating unit comprises:
And generating the second result pose using at least one of an input color image, a silhouette, an edge, and a physical constraint of the motion model at the time of generating the second result pose.
상기 입력 깊이 영상에 대응하는 초기 포즈 파라미터를 결정하는 포즈 파라미터 결정 단계;
동작 모델에 상기 포즈 파라미터를 적용하여 상기 동작 모델의 제1 결과 포즈를 생성하는 제1 결과 포즈 생성 단계; 및
상기 제1 결과 포즈와 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는 제2 결과 포즈 생성 단계
를 포함하는, 동작 추정 방법.A method for estimating an operation using an input depth image received by an operation estimating apparatus,
A pose parameter determining step of determining an initial pose parameter corresponding to the input depth image;
Applying a pose parameter to the action model to generate a first result pose of the action model; And
A second result pose generation step of generating a second result pose of the motion model based on a difference between the first result pose and the input depth image
/ RTI >
상기 포즈 파라미터 결정 단계는,
LSH(Locality Sensitive Hash) 기반 포즈 검출 기법을 이용하여, 데이터베이스에 저장된 복수 개의 포즈 파라미터 중 상기 입력 깊이 영상에 부합하는 제1 포즈 파라미터를 검출하는 단계; 및
상기 제1 포즈 파라미터를 상기 초기 포즈 파라미터로 결정하는 단계
를 포함하는, 동작 추정 방법.11. The method of claim 10,
Wherein the pose parameter determination step comprises:
Detecting a first pose parameter corresponding to the input depth image among a plurality of pose parameters stored in a database using a locality sensitive hash (LSH) based pose detection technique; And
Determining the first pose parameter as the initial pose parameter
/ RTI >
상기 포즈 파라미터 결정 단계는,
상기 동작 모델을 상기 입력 깊이 영상에 매칭시키는 제2 포즈 파라미터를 계산하는 단계; 및
상기 제2 포즈 파라미터를 상기 초기 포즈 파라미터로 결정하는 단계
를 포함하는, 동작 추정 방법.11. The method of claim 10,
Wherein the pose parameter determination step comprises:
Calculating a second pose parameter that matches the motion model to the input depth image; And
Determining the second pose parameter as the initial pose parameter
/ RTI >
상기 제2 결과 포즈 생성 단계는,
상기 동작 모델의 상기 제1 결과 포즈를 이용하여 제1 깊이 영상을 생성하는 단계; 및
상기 제1 깊이 영상과 상기 입력 깊이 영상의 차이에 기초하여 상기 동작 모델의 제2 결과 포즈를 생성하는 단계
를 포함하는, 동작 추정 방법.11. The method of claim 10,
Wherein the second result pose generation step comprises:
Generating a first depth image using the first result pose of the motion model; And
Generating a second result pose of the motion model based on a difference between the first depth image and the input depth image
/ RTI >
상기 동작 모델의 제2 결과 포즈를 생성하는 단계는,
상기 제1 깊이 영상의 각 픽셀에 대해 상기 픽셀에 대응하는 깊이 값, 동작 모델의 구성 인덱스 및 좌표 값을 계산하는 단계; 및
상기 계산된 픽셀의 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하는 단계
를 포함하는, 동작 추정 방법.14. The method of claim 13,
Wherein generating a second result pose of the action model comprises:
Calculating a depth value corresponding to the pixel, a configuration index of the operation model, and a coordinate value for each pixel of the first depth image; And
Calculating a difference between a depth value of the computed pixel and a depth value of a pixel in the input depth image corresponding thereto to generate a second result pose of the operation model
/ RTI >
상기 동작 모델의 제2 결과 포즈를 생성하는 단계는,
데이터베이스에 대한 주성분 분석을 통하여 분석된 결과에 따라 상기 동작 모델의 제2 결과 포즈를 생성하는 단계인, 동작 추정 방법.15. The method of claim 14,
Wherein generating a second result pose of the action model comprises:
And generating a second result pose of the motion model according to a result analyzed through principal component analysis on the database.
상기 동작 모델의 제2 결과 포즈를 생성하는 단계는,
상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치는 영역에 위치할 경우, 상기 계산된 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값의 차이를 계산하여 상기 동작 모델의 제2 결과 포즈를 생성하는 단계이고,
상기 픽셀이 상기 입력 깊이 영상과 상기 제1 깊이 영상의 겹치지 않는 영역에 위치할 경우, IPC(Iterative Closest Point) 기법을 이용하여 상기 계산된 깊이 값과 이에 대응하는 상기 입력 깊이 영상에서의 픽셀의 깊이 값을 매칭시켜 상기 동작 모델의 제2 결과 포즈를 생성하는 단계인, 동작 추정 방법.15. The method of claim 14,
Wherein generating a second result pose of the action model comprises:
Calculating a difference between the calculated depth value and a depth value of a pixel in the input depth image corresponding to the input depth image if the pixel is located in an overlapping area of the input depth image and the first depth image, 2 result pose,
When the pixel is located in a non-overlapping area between the input depth image and the first depth image, the calculated depth value and the depth of the pixel in the input depth image corresponding to the calculated depth value using the IPC (Iterative Closest Point) Value to generate a second result pose of the motion model.
상기 제2 결과 포즈 생성 단계 이후에,
상기 제2 결과 포즈와 상기 입력 깊이 영상의 차이가 기 설정된 임계치 이하인 경우, 상기 제2 결과 포즈를 상기 입력 깊이 영상에 해당하는 결과 포즈로 결정하는 단계를 더 포함하는, 동작 추정 방법.11. The method of claim 10,
After the second result pose generation step,
Further comprising determining the second result pose as a result pose corresponding to the input depth image if the difference between the second result pose and the input depth image is less than or equal to a predetermined threshold.
상기 제2 결과 포즈 생성 단계는,
상기 제2 결과 포즈 생성 시 입력 칼라 영상, 실루엣, 엣지 및 상기 동작 모델의 물리적인 제약 중 적어도 하나를 더 이용하여 상기 제2 결과 포즈를 생성하는 단계인, 동작 추정 방법.11. The method of claim 10,
Wherein the second result pose generation step comprises:
And generating the second result pose using at least one of an input color image, a silhouette, an edge, and a physical constraint of the motion model at the time of generating the second result pose.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161473289P | 2011-04-08 | 2011-04-08 | |
US61/473,289 | 2011-04-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120115063A KR20120115063A (en) | 2012-10-17 |
KR101845253B1 true KR101845253B1 (en) | 2018-04-04 |
Family
ID=47284076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110077389A KR101845253B1 (en) | 2011-04-08 | 2011-08-03 | Apparatus and method for estimating motion using depth image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101845253B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050265583A1 (en) | 1999-03-08 | 2005-12-01 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
-
2011
- 2011-08-03 KR KR1020110077389A patent/KR101845253B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050265583A1 (en) | 1999-03-08 | 2005-12-01 | Vulcan Patents Llc | Three dimensional object pose estimation which employs dense depth information |
Also Published As
Publication number | Publication date |
---|---|
KR20120115063A (en) | 2012-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210190497A1 (en) | Simultaneous location and mapping (slam) using dual event cameras | |
JP4912388B2 (en) | Visual tracking method for real world objects using 2D appearance and multi-cue depth estimation | |
TWI536318B (en) | Depth measurement quality enhancement | |
EP3016071B1 (en) | Estimating device and estimation method | |
JP6503906B2 (en) | Image processing apparatus, image processing method and image processing program | |
KR101410273B1 (en) | Method and apparatus for environment modeling for ar | |
KR102455632B1 (en) | Mehtod and apparatus for stereo matching | |
CN115509352A (en) | Optimized object scanning using sensor fusion | |
EP2671384A2 (en) | Mobile camera localization using depth maps | |
KR101715780B1 (en) | Voxel Map generator And Method Thereof | |
JP2008176504A (en) | Object detector and method therefor | |
KR102110459B1 (en) | Method and apparatus for generating three dimension image | |
US20150139505A1 (en) | Method and apparatus for predicting human motion in virtual environment | |
Yamazoe et al. | Easy depth sensor calibration | |
KR20140134090A (en) | Apparatus and method of processing a depth image using a relative angle between an image sensor and a target object | |
JP7103354B2 (en) | Information processing equipment, information processing methods, and programs | |
US9025022B2 (en) | Method and apparatus for gesture recognition using a two dimensional imaging device | |
JP2016152586A (en) | Projection mapping device, and device, method and program for video projection control | |
JP2016148649A (en) | Information processing apparatus, control method therefor, and program | |
KR101656618B1 (en) | Method and Device for Providing Augmented Reality to Physical Object | |
KR20100006736A (en) | System and apparatus for implementing augmented reality, and method of implementing augmented reality using the said system or the said apparatus | |
KR101896183B1 (en) | 3-d straight lines detection method for camera motion estimation | |
JP2009301242A (en) | Head candidate extraction method, head candidate extraction device, head candidate extraction program and recording medium recording the program | |
KR102093455B1 (en) | Apparatus and method for displaying hologram using pupil track based on hybrid camera | |
KR101845253B1 (en) | Apparatus and method for estimating motion using depth image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |