KR20100025048A - Image analysis apparatus and method for motion capture - Google Patents

Image analysis apparatus and method for motion capture Download PDF

Info

Publication number
KR20100025048A
KR20100025048A KR1020080083653A KR20080083653A KR20100025048A KR 20100025048 A KR20100025048 A KR 20100025048A KR 1020080083653 A KR1020080083653 A KR 1020080083653A KR 20080083653 A KR20080083653 A KR 20080083653A KR 20100025048 A KR20100025048 A KR 20100025048A
Authority
KR
South Korea
Prior art keywords
human body
image
region
human
tracking
Prior art date
Application number
KR1020080083653A
Other languages
Korean (ko)
Inventor
서융호
박유신
두경수
최종수
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020080083653A priority Critical patent/KR20100025048A/en
Publication of KR20100025048A publication Critical patent/KR20100025048A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Abstract

PURPOSE: An image analysis apparatus for motion capture and a method thereof are provided to easily and accurately track a human body area by a smaller amount of calculation. CONSTITUTION: A human body area detector(210) differentiates a background area of an image. The human body area detector extracts a skin color. The human body area detector detects a plurality of human body areas. A coordinate correcting unit(220) corrects the coordinate of the detected human body area using an image correction parameter. A human body area tracking unit(240) applies the Kalman filter to the coordinate of the corrected human body area. The human body area tracking unit tracks motion of the human body area.

Description

모션 캡쳐를 위한 영상 분석 방법 및 장치{Image analysis apparatus and method for motion capture}Image analysis apparatus and method for motion capture

본 발명은 영상 분석 방법 및 장치에 관한 것으로, 보다 상세하게는 영상을 기반으로 모션 캡쳐를 수행하는 영상 분석 방법에 있어서 보다 적은 계산량으로도 용이하고 정확하게 각각의 인체 영역을 추적할 수 있도록 함으로써 실시간으로 모션을 캡쳐할 수 있는 모션 캡쳐를 위한 영상 분석 방법 및 장치에 관한 것이다.The present invention relates to an image analysis method and apparatus, and more particularly, to an image analysis method that performs motion capture based on an image, so that each human region can be easily and accurately tracked with a small amount of calculation in real time. The present invention relates to an image analysis method and apparatus for motion capture capable of capturing motion.

오늘날 컴퓨터 비젼 및 컴퓨터 그래픽스 기술이 발전함에 따라 모션 캡쳐(motion capture) 기술을 통하여 사람의 자연스러운 움직임 및 사실적인 얼굴 표정의 변화가 3차원 가상 캐릭터에 그대로 재현되고 있다. 이러한 모션 캡쳐 기술은 영화의 특수효과, HCI(Human Communication Interface) 시스템 구축을 통한 게임의 인터페이스, 정형외과 환자의 자동진단 시스템, 운동선수의 성취도 향상을 위한 시스템 및 공공장소에서의 군중들의 행동 본석을 위한 감시 시스템 등 다양한 분야에서 활용 및 연구되고 있다.With the development of computer vision and computer graphics technology today, the natural motion and realistic facial expressions of humans are reproduced in 3D virtual characters through motion capture technology. This motion capture technology can be used to examine the special effects of movies, the interface of games through HCI (Human Communication Interface) system, the automatic diagnosis system of orthopedic patients, the system for improving athletes' achievements, and the behavior of crowds in public places. It is being utilized and researched in various fields such as surveillance system.

이와 같이 사람의 움직임을 3차원 디지털 데이터로 복원하는 종래의 모션 캡쳐 기술에는 인체의 각 관절 부위에 기계장치를 부착하는 기계식 방법, 자기장을 발생하는 센서를 부착하고 그 변화를 측정하는 자기식 방법, 인체의 특정 부위에 마커(marker)를 부착하여 취득된 다중 영상으로부터 3차원 좌표를 추정하는 광학식 방법 등이 있다. 그러나 이와 같은 기계장치, 센서, 마커 등을 이용하는 방법은 고가의 하드웨어 장비, 사용자 움직임의 제약 및 사용자의 복잡도 등의 여러 가지 단점들을 가지고 있다. 따라서 하드웨어 장치로부터 독립적이고, 자유로운 사용자의 모션 캡쳐를 위해 기계장치, 센서, 마커 등을 사용하지 않는 영상 기반 모션 캡쳐에 대한 연구가 진행되고 있는 추세이다.As such, the conventional motion capture technology for restoring human motion to three-dimensional digital data includes a mechanical method of attaching a mechanical device to each joint of the human body, a magnetic method of attaching a sensor to generate a magnetic field, and measuring the change thereof. There is an optical method for estimating three-dimensional coordinates from multiple images obtained by attaching a marker to a specific part of the human body. However, such a method using a mechanism, a sensor, a marker, and the like have various disadvantages such as expensive hardware equipment, a limitation of user's movement, and a user's complexity. Therefore, research on image-based motion capture that is independent from hardware devices and does not use machinery, sensors, and markers for free motion capture of users is being conducted.

영상 기반 모션 캡쳐에는 하나의 카메라 등의 영상 입력 장치로부터 영상을 취득하여 훈련된 데이터(training data)를 이용, 동영상 시퀀스에서 시간적 및 공간적 제약을 통하여 특징 공간을 제한, 3차원 인체 모델을 영상에 투영, 인체의 각 부위를 검출하는 매커니즘 등 여러 가지 방법이 있는데 실시간으로 사람의 자세를 추정하기에는 불가능하거나 계산량이 많았다. 또한, 동작자의 움직임 제약조건으로 인해 다양한 동작에 대해서 자세를 추정하기 어려운 문제점이 존재했다.For image-based motion capture, images are acquired from an image input device such as one camera, and the training data are used to limit the feature space through temporal and spatial constraints in the video sequence, and to project the 3D human model onto the image. There are many methods such as the mechanism of detecting each part of the human body, and it is impossible or impossible to estimate human posture in real time. In addition, there is a problem that it is difficult to estimate the posture for various movements due to the movement constraints of the operator.

한편, 복수개의 영상 입력 장치를 사용하여 다각도에서 취득한 영상으로부터 동작자의 자세를 추정하는 방법은 일반적으로 정확한 실루엣 또는 외곽선을 취득하기 어려우며 잡음에 민감한 특성을 가진다. 또한, 복수개의 영상 입력 장치를 사용함에 따라 각각의 영상 입력 장치로부터의 영상에 대해 각각 움직임을 추적해야 하므로 많은 하드웨어가 필요하며 각각의 영상을 동기화 해야만 하는 문제점이 있다.On the other hand, a method of estimating the posture of an operator from an image acquired from multiple angles using a plurality of image input apparatuses generally has difficulty in acquiring an accurate silhouette or outline and is sensitive to noise. In addition, as a plurality of image input devices are used, a lot of hardware is required and motions must be synchronized for each image from each image input device.

이와 같은 영상 기반 모션 캡쳐 시스템은 객체의 실루엣 또는 외곽선, 픽셀 기반의 특징점, 인체의 얼굴, 손 및 발을 검출하는 등의 특징들을 추출한다. 그러나 영상으로부터 객체의 정확한 실루엣 또는 외곽선을 추출하기 위해서는 환경적인 제약 및 최적화를 위한 연산 수행 시간이 많이 소요된다. 또한 픽셀 기반의 많은 특징점을 사용하는 경우, 대응점 정합이 어렵고 정확한 대응점을 찾기 위해서는 많은 계산량이 필요함에 따라 실시간으로 모션 캡쳐를 수행할 수 없다는 문제점이 있었다.Such an image-based motion capture system extracts features such as detecting an object's silhouette or outline, pixel-based feature points, a human face, hands, and feet. However, in order to extract an accurate silhouette or outline of an object from an image, it takes a lot of time to perform calculations for environmental constraints and optimization. In addition, when many pixel-based feature points are used, it is difficult to match the corresponding points and motion capture cannot be performed in real time as a large amount of computation is required in order to find an accurate matching point.

본 발명의 목적은 영상을 기반으로 모션 캡쳐를 수행하는 방법에 있어서 보다 적은 계산량으로도 용이하고 정확하게 각각의 인체 영역을 추적할 수 있는 모션 캡쳐를 위한 영상 분석 방법 및 장치를 제공하는 것이다.An object of the present invention is to provide an image analysis method and apparatus for motion capture that can easily and accurately track each human region in a method of performing motion capture based on an image.

본 발명의 다른 목적은 보다 적은 계산량으로 각각의 인체 영역을 추적함으로써 실시간으로 모션 캡쳐를 수행할 수 있는 영상 분석 방법 및 장치를 제공하는 것이다.It is another object of the present invention to provide an image analysis method and apparatus capable of performing motion capture in real time by tracking each human region with a smaller amount of calculation.

본 발명에 따른 영상 분석 방법은 적어도 하나의 영상 입력 장치로부터 수신한 영상을 이용하여 인체의 움직임을 추적하는 영상 분석 방법에 있어서, 상기 영상의 배경 영역을 차분하고 피부색을 추출하여 복수개의 인체 영역을 검출하는 단계; 검출된 인체 영역의 좌표를 영상 보정 파라미터를 이용하여 각각 보정하는 단계; 및 보정된 인체 영역의 좌표를 이용하여 상기 인체 영역의 움직임을 추적하는 단계를 포함한다.The image analysis method according to the present invention is an image analysis method for tracking a human body movement using an image received from at least one image input device, and detects a plurality of human regions by extracting a skin color and subtracting a background region of the image. Making; Correcting the coordinates of the detected human body area using image correction parameters; And tracking the movement of the human body region using the corrected coordinates of the human body region.

상기 인체 영역은 인체의 양손, 양발 및 얼굴에 해당하는 5개의 영역일 수 있다.The human body region may be five regions corresponding to both hands, feet, and face of the human body.

상기 검출하는 단계는 2개의 상기 영상 입력 장치로부터 입력된 2개의 상기 영상에서 각각 상기 인체 영역을 검출하는 단계일 수 있다.The detecting may include detecting the human body region from each of the two images input from the two image input apparatuses.

그리고 상기 검출하는 단계는 상기 입력 영상을 다운 샘플링(down sampling)하는 과정; 및 다운 샘플링된 입력 영상에서 HSI(Hue Saturation Intensity) 및 RGB(Red Green Blue) 색 공간 중 적어도 하나를 이용하여 배경 영역을 차분하고 피부색을 추출하는 과정을 포함할 수 있다.The detecting may include down sampling the input image; And subtracting a background area and extracting skin color using at least one of a Hue Saturation Intensity (HSI) and a Red Green Blue (RGB) color space in the down-sampled input image.

상기 보정하는 단계 이후에 각각의 상기 영상으로부터의 상기 인체 영역을 기 설정된 초기 자세에 기초하여 정합함으로써 상기 인체 영역에 포함된 잡음을 제거하는 단계를 더 포함할 수 있다.After the correcting, the method may further include removing noise included in the human body region by matching the human body region from each of the images based on a preset initial posture.

상기 추적하는 단계는 보정된 인체 영역의 좌표에 대하여 각각 칼만 필터(Kalman filter)를 적용함으로써 상기 인체 영역의 움직임을 추적하는 단계일 수 있다.The tracking may be a step of tracking the movement of the human body region by applying a Kalman filter to the corrected coordinates of the human body region.

한편 본 발명에 따른 영상 분석 장치는 적어도 하나의 영상 입력 장치로부터 수신한 영상을 이용하여 인체의 움직임을 추적하는 영상 분석 장치에 있어서, 상기 영상의 배경 영역을 차분하고 피부색을 추출하여 복수개의 인체 영역을 검출하는 인체 영역 검출부; 검출된 인체 영역의 좌표를 영상 보정 파라미터를 이용하여 각각 보정하는 좌표 보정부; 및 보정된 인체 영역의 좌표에 대하여 각각 칼만 필 터(Kalman filter)를 적용함으로써 상기 인체 영역의 움직임을 추적하는 인체 영역 추적부를 포함한다.Meanwhile, the image analyzing apparatus according to the present invention is an image analyzing apparatus for tracking a human body movement using an image received from at least one image input apparatus. A human body detector for detecting; A coordinate corrector configured to correct detected coordinates of the human body region using image correction parameters; And a human body tracking unit that tracks the movement of the human body region by applying a Kalman filter to the corrected coordinates of the human body region.

상기 인체 영역 검출부는 인체의 양손, 양발 및 얼굴에 해당하는 5개의 인체 영역을 검출할 수 있다.The human body area detector detects five human body areas corresponding to both hands, feet, and face of the human body.

그리고 상기 인체 영역 검출부는 2개의 상기 영상 입력 장치로부터 입력된 2개의 상기 영상에서 각각 상기 인체 영역을 검출할 수 있다.The human body detection unit may detect the human body region from each of the two images input from the two image input apparatuses.

그리고 상기 인체 영역 검출부는 상기 입력 영상을 다운 샘플링(down sampling)하고, 다운 샘플링된 입력 영상에서 HSI(Hue Saturation Intensity) 및 RGB(Red Green Blue) 색 공간 중 적어도 하나를 이용하여 배경 영역을 차분하고 피부색을 검출하여 인체 영역을 추출할 수 있다.The human body detection unit down-samples the input image, subtracts a background area from the down-sampled input image by using at least one of a hues saturation intensity (HSI) and a red green blue (RGB) color space, and colors the skin. The human body region may be extracted by detecting the.

본 발명에 따르면, 영상 분석 방법 및 장치는 입력된 영상에서 인체의 피부색을 이용하여 머리, 양손, 양발에 해당하는 인체 영역을 검출하고, 각각의 인체 영역의 움직임을 동일한 방법으로 추적하여 보다 적은 계산량으로도 모션 캡쳐를 수행할 수 있는 효과가 있다.According to the present invention, the image analysis method and apparatus detects a human body area corresponding to the head, both hands and feet by using the skin color of the human body from the input image, and tracks the movement of each human body area in the same way, thereby reducing the amount of computation. In addition, there is an effect that can perform motion capture.

또한, 본 발명에 따르면 영상 분석 방법 및 장치는 상기 인체 영역의 움직임으로 보다 적은 계산량으로 추적할 수 있음에 따라 실시간으로 모션 캡쳐를 수행할 수 있는 효과가 있다.In addition, according to the present invention, the image analysis method and apparatus can perform motion capture in real time as it can be tracked with a smaller amount of calculation by the movement of the human body region.

이하에서는 첨부 도면 및 바람직한 실시예를 참조하여 본 발명을 상세히 설 명한다. 참고로, 하기 설명에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략하였다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings and preferred embodiments. For reference, in the following description, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention are omitted.

도 1은 본 발명에 따른 영상 분석 장치를 나타내는 블록도이다.1 is a block diagram illustrating an image analyzing apparatus according to the present invention.

도면을 참조하면 본 발명에 따른 영상 분석 장치(200)는 인체 영역 검출부(210), 좌표 보정부(220), 인체 영역 정합부(230) 및 인체 영역 추적부(240)를 포함한다.Referring to the drawings, the image analyzing apparatus 200 according to the present invention includes a human body detector 210, a coordinate corrector 220, a human body matcher 230, and a human body tracker 240.

인체 영역 검출부(210)는 영상 입력 장치로부터 입력 영상을 수신하여 인체 영역을 검출하는 것으로서, 바람직하게는 2개의 영상 입력 장치(100_1, 100_2)로부터 제1 영상 및 제2 영상을 수신할 수 있다.The human body detector 210 detects the human body region by receiving an input image from the image input apparatus, and preferably receives the first image and the second image from the two image input apparatuses 100_1 and 100_2.

상기 인체 영역 검출부(210)는 각각의 영상에서 배경 영역을 차분하고 피부색을 추출한다. 보다 구체적으로, 상기 인체 영역 검출부(210)는 실시간으로 제1 영상 입력 장치(100_1) 및 제2 영상 입력 장치(100_2)로부터 입력되는 제1 영상 및 제2 영상에서부터 인체 영역을 추출하기 위하여 먼저 각각의 영상을 1/2 사이즈로 다운 샘플링(down sampling)함으로써 상기 영상을 축소할 수 있다. 이후, 상기 인체 영역 검출부(210)는 다운 샘플링된 입력 영상에서 HSI(Hue Saturation Intensity) 및/또는 RGB(Red Green Blue) 색 공간을 이용하여 배경 영역을 차분(subtraction)하고 피부색을 검출하여 인체 후보 영역을 추출한다. 이때, 상기 인체 영역 검출부(210)는 정확한 인체 영역을 추출하기 위하여 상기 HSI 색 공간과 RGB 색 공간을 조합하거나 적응적 알고리즘 등을 이용할 수 있는데, 바람직하게는 조명 변화에 둔감하고 빠른 수행 속도를 위하여 정규화된 RGB 색 공간을 사용할 수 있다.The human body detector 210 subtracts the background region from each image and extracts skin color. More specifically, the human body detector 210 first extracts the human body region from the first image and the second image input from the first image input apparatus 100_1 and the second image input apparatus 100_2 in real time. The image can be reduced by down sampling the image of the image to 1/2 size. Subsequently, the human body detection unit 210 subtracts the background area from the down-sampled input image by using a Hue Saturation Intensity (HSI) and / or a red green blue (RGB) color space and detects a skin color by detecting a skin color. Extract the area. In this case, the human body detection unit 210 may combine the HSI color space and the RGB color space or use an adaptive algorithm to extract an accurate human area. Preferably, the human body detection unit 210 is insensitive to a change in illumination and performs fast. You can use the normalized RGB color space.

따라서 본 발명의 바람직한 실시예에 따른 인체 영역 검출부(210)는 인체의 공통된 특징인 피부색을 추출하여 인체 후보 영역을 검출하기 때문에, 얼굴, 양손, 양발 등 각각의 특징을 이용하여 인체 영역을 검출하는 종래의 영산 분석 장치에 비하여 보다 적은 계산량을 가지므로 인체 영역 검출에 필요한 시간이 적다는 장점이 있다.Therefore, the human body detection unit 210 according to the preferred embodiment of the present invention detects the human body candidate area by extracting the skin color, which is a common feature of the human body, and thus detects the human body area using respective features such as the face, hands, and feet. Compared with the conventional Youngsan analysis device, since it has a smaller amount of calculation, the time required for detecting a human body region is advantageous.

좌표 보정부(220)는 제1 영상 및 제2 영상에서 검출된 인체 후보 영역의 좌표를 영상 보정 파라미터를 이용하여 각각 보정한다.The coordinate corrector 220 corrects the coordinates of the human candidate region detected in the first image and the second image by using image correction parameters.

상기 영상 보정 파라미터는 카메라의 포커스 등과 같은 내부 파라미터 및 카메라의 위치, 이동 등과 같은 외부 파라미터를 포함할 수 있는데, 상기 파라미터는 2차원 평면 패턴을 이용한 Z.Zhang의 강건한 카메라 보정 방법을 통하여 제1 영상 입력 장치 및 제2 영상 입력 장치(100_1,100_2)의 투영행렬(P)을 추적함으로써 산출할 수 있다. 이를 상술하면 다음과 같다.The image correction parameter may include an internal parameter such as a focus of a camera and an external parameter such as a position and a movement of a camera. The parameter may include a first image through Z. Zhang's robust camera correction method using a two-dimensional plane pattern. It can be calculated by tracking the projection matrix P of the input device and the second image input device 100_1, 100_2. This will be described below.

투영행렬(P)는 3차원 공간 상의 한 점이 2차원 영상 평면에 투영되는 관계를 표현하는데, 이를 나타내면 다음의 수학식 1과 같다.The projection matrix P expresses a relationship in which one point in the three-dimensional space is projected onto the two-dimensional image plane, which is represented by Equation 1 below.

Figure 112008060927398-PAT00001
Figure 112008060927398-PAT00001

여기서, K는 내부 파라미터, R 및 T는 내부 파라미터이다.Where K is an internal parameter and R and T are internal parameters.

실세계의 2차원 평면(Z)를 Z=0으로 가정하고, 영상 내의 좌표와 2차원 평면 좌표 사이의 호모그래피(H)는 다음의 수학식 2를 통하여 산출할 수 있다.Assuming that the two-dimensional plane Z of the real world is Z = 0, the homography H between the coordinates in the image and the two-dimensional plane coordinates may be calculated through Equation 2 below.

Figure 112008060927398-PAT00002
Figure 112008060927398-PAT00002

여기서, (x, y)는 2차원 평면 좌표이고, (X, Y)는 영상 내의 좌표이다.Here, (x, y) is a two-dimensional plane coordinate, and (X, Y) is a coordinate in the image.

호모그래피(H)의 성분 중 회전행렬(R)의 성질과 내부 파라미터(K)의 특성을 이용하여 유일한 파라미터를 추정한다.Among the components of the homography (H), the unique parameter is estimated using the properties of the rotation matrix (R) and the properties of the internal parameter (K).

한편 영상 입력 장치(100_1, 100_2)로부터 수신한 영상은 외곽으로 갈수록 방사왜곡(radial distortion)이 심해지기 때문에 영상이 주점(principal point)으로부터 멀어질수록, 직선이 곡선의 형태로 보이게 된다. 따라서 수학식 3을 이용하여 영상의 좌표계를 수정함으로써 방사왜곡을 교정한다.On the other hand, since the image received from the image input apparatuses 100_1 and 100_2 increases in the radial direction, the straight line appears in the form of a curve as the image moves away from the principal point. Therefore, the radial distortion is corrected by modifying the coordinate system of the image using Equation 3.

Figure 112008060927398-PAT00003
Figure 112008060927398-PAT00003

여기서, (u, y)는 왜곡이 없는 이상적인 영상의 좌표, (x, y)는 왜곡이 없는 정규화된 영상의 좌표, k1, k2는 왜곡 계수이다.Here, (u, y) is the coordinate of the ideal image without distortion, (x, y) is the coordinate of the normalized image without distortion, k 1 , k 2 is the distortion coefficient.

그리고 수학식 3을 통하여 방사왜곡을 교정하더라도 렌즈 표면의 곡률의 중심이 항상 동일 평면에 있는 것은 아니기 때문에 접선왜곡(tangential distortion)이 발생하는데, 이와 같은 접선왜곡을 수학식 4를 이용하여 교정한다.In addition, even if the radial distortion is corrected through Equation 3, since the center of curvature of the lens surface is not always coplanar, tangential distortion occurs. The tangential distortion is corrected using Equation 4.

Figure 112008060927398-PAT00004
Figure 112008060927398-PAT00004

여기서, p1, p2는 접선 왜곡 계수이다.Here, p 1 and p 2 are tangential distortion coefficients.

좌표 보정부(220)는 상기 방사왜곡 및 접선왜곡을 교정한 후 수학식 5를 통하여 영상의 좌표를 산출한다.The coordinate corrector 220 calculates the coordinates of the image through Equation 5 after correcting the radial and tangential distortions.

Figure 112008060927398-PAT00005
Figure 112008060927398-PAT00005

여기서,

Figure 112008060927398-PAT00006
는 취득된 영상의 좌표이다.here,
Figure 112008060927398-PAT00006
Is the coordinate of the acquired image.

이와 같은 과정을 통하여 취득된 영상의 좌표는 영상 입력 장치(100_1, 100_2)에 포함된 렌즈의 방사왜곡으로 인하여 왜곡 되어 있기 때문에, 추정된 내부 및 외부파라미터 또한 교정이 필요하다. 따라서, 좌표 보정부(220)는 최대우도 추정법을 이용하여, 내부 및 외부 파라미터, 방사왜곡 계수, 영상의 교정된 좌표들을 최적화하는 것이 바람직하다. 상기 좌표 보정부(220)는 영상에서 추출한 패턴의 각 좌표와 공간상의 패턴을 영상에 투영한 좌표 사이의 차이를 수학식 6을 통하여 최소화함으로써, 최적의 파라미터 및 좌표들을 추정할 수 있다.Since the coordinates of the image acquired through the above process are distorted due to the radiation distortion of the lenses included in the image input apparatuses 100_1 and 100_2, the estimated internal and external parameters also need correction. Accordingly, the coordinate corrector 220 may optimize internal and external parameters, radiation distortion coefficients, and corrected coordinates of an image by using a maximum likelihood estimation method. The coordinate corrector 220 may estimate the optimal parameter and coordinates by minimizing the difference between the coordinates of the pattern extracted from the image and the coordinates of the spatial pattern projected onto the image through Equation 6.

Figure 112008060927398-PAT00007
Figure 112008060927398-PAT00007

여기서, mij는 i번째 영상에서 j번째 패턴의 좌표, Ri와 ti는 i번째 영상의 외부 파라미터인 회전행렬과 이동행렬, Mj는 j번째 패턴의 3차원 공간 상의 좌표,

Figure 112008060927398-PAT00008
는 패턴의 각 좌표들이 추정된 투영행렬에 의해 영상에 투영되는 좌표이다.Where m ij is the coordinate of the j-th pattern in the i-th image, R i and t i are the rotation and shift matrices that are external parameters of the i-th image, and M j is the coordinate in the three-dimensional space of the j-th pattern,
Figure 112008060927398-PAT00008
Is the coordinate at which the respective coordinates of the pattern are projected onto the image by the estimated projection matrix.

이와 같은 과정을 통하여 산출된 영상 보정 파라미터를 이용하여 상기 좌표 보정부(220)는 인체 영역 검출부(210)로부터 수신한 H, LH, RH, LF, RF에 해당하는 5개의 인체 후보 영역의 좌표를 각각 보정한다.Using the image correction parameter calculated through the above process, the coordinate corrector 220 adjusts coordinates of five human candidate regions corresponding to H, LH, RH, LF, and RF received from the human body detector 210. Correct each.

인체 영역 정합부(230)는 상기 좌표 보정부(220)에서 보정된 인체 후보 영역 을 기 설정된 초기 자세에 기초하여 정합한다.The human body matching unit 230 matches the human candidate region corrected by the coordinate corrector 220 based on a preset initial posture.

도 2a 및 2b는 2개의 영상 입력 장치를 통하여 입력된 각각의 영상을 나타내는 도면이고, 도 3a 및 3b는 본 발명에 따른 영상 분석 장치를 이용하여 도 2a 및 2b의 영상으로부터 검출한 인체 후보 영역을 반전한 도면이다.2A and 2B are diagrams illustrating respective images input through two image input apparatuses, and FIGS. 3A and 3B are diagrams illustrating a human candidate region detected from the images of FIGS. 2A and 2B using an image analyzing apparatus according to the present invention. Inverted drawing.

먼저 도면을 참조하면 인체 영역 검출부(210)는 제1 영상 입력 장치(100_1)로부터 도 2a와 같은 제1 영상을 수신하고, 도 2b와 같은 제2 영상을 수신할 수 있다. 이와 같은 경우 상기 인체 영역 검출부(210)는 제1 영상 및 제2 영상에서 RGB 색 공간을 이용하여 배경 영역을 차분하고 피부색을 검출하여 도 3a 및 도 3b와 같이 얼굴(H: Head), 왼손(LH: Left Hand), 오른손(RH: Right Hand), 왼발(LF: Left Foot) 및 오른발(RF: Right Foot)에 해당하는 인체 후보 영역을 추출한다. 그리고, 좌표 보정부(220)는 추출된 인체 후보 영역의 좌표를 수학식1 내지 수학식 6을 통하여 보정한다.First, referring to the drawing, the human body detector 210 may receive a first image as shown in FIG. 2A and a second image as shown in FIG. 2B from the first image input apparatus 100_1. In this case, the human body detection unit 210 subtracts the background area using the RGB color space from the first image and the second image, and detects the skin color. As shown in FIGS. 3A and 3B, the head (H) and the left hand (LH) are detected. : Human candidate regions corresponding to Left Hand, Right Hand (RH), Left Foot (LF: Left Foot) and Right Foot (RF) are extracted. The coordinate correcting unit 220 corrects the extracted coordinates of the human candidate region through Equations 1 to 6.

그러나, 이와 같이 추출된 인체 후보 영역에는 조명, 그림자 영역 등으로 인하여 도면부호 310, 320, 330과 같은 잡음이 포함될 수 있기 때문에 기 설정된 동작자의 초기 자세(예를 들어, T형태의 자세)를 기초로 제1 영상으로부터 추출된 인체 후보 영역(도 3a) 및 제2 영상으로부터 추출된 인체 후보 영역(도 3b)를 정합함으로써 잡음(310, 320, 330)을 제거한다.However, since the extracted human candidate regions may include noises such as 310, 320, and 330 due to lighting and shadow regions, the human candidate region thus extracted is based on an initial posture (eg, a T-shaped posture) of a predetermined operator. The noises 310, 320, and 330 are removed by matching the human candidate region extracted from the first image (FIG. 3A) and the human candidate region extracted from the second image (FIG. 3B).

이하 도 4를 참조하여 본 발명에 따른 영상 분석 장치에서 인체 영역의 좌표를 정합하는 과정을 보다 상세히 설명한다.Hereinafter, a process of matching coordinates of a human body region in the image analyzing apparatus according to the present invention will be described in detail with reference to FIG. 4.

두 개의 영상 입력 장치(100_1, 100_2) 사이의 에피폴라 기하학은 각 영상 입력 장치의 중심을 잇는 베이스라인(baseline)이 포함된 복수개의 평면들과 각 영상 평면이 교차하게 된다는 것을 의미한다.The epipolar geometry between two image input devices 100_1 and 100_2 means that each image plane intersects with a plurality of planes including a baseline connecting the center of each image input device.

도 4는 에피폴라 기하학 구조를 보여주고 있으며, O, O'은 각 영상 입력 장치의 중심이고, X는 공간 상의 한 점을 나타내며, x, x'은 공간 상의 점 X가 각 영상에 투영된 점이며, e, e'은 베이스라인이 각 영상 평면과 교차하는 점이다.Fig. 4 shows the epipolar geometry, where O and O 'are the centers of the respective image input devices, X represents a point in space, and x and x' are the points in space where X is projected onto each image. E and e 'are points at which the baseline intersects each image plane.

각 영상에서 에피폴(e, e': epipole)과 영상의 특징점(x, x')을 잇는 직선을 에피폴라선(epipolar line)이라고 하는데 정확한 대응점이 추출되었다면 각각의 대응점은 각각의 에피폴라선 위에 존재하게 된다. 즉, 제1 영상의 한 점 x에 대응점은 제2 영상에 대응되는 에피폴라선(l') 위에 존재하게 된다. 이러한 관계를 나타내는 기본행렬(F: fundamental matrix)은 수학식 7과 같다.In each image, a line connecting the epipole (e, e ': epipole) and the feature points (x, x') of the image is called an epipolar line. If the exact correspondence is extracted, each correspondence point is the epipolar line. Will be above. That is, the corresponding point corresponding to a point x of the first image is present on the epipolar line 1 'corresponding to the second image. A fundamental matrix (F) representing this relationship is shown in Equation 7.

Figure 112008060927398-PAT00009
Figure 112008060927398-PAT00009

위와 같은 성질에 의해 대응점 정합의 오차는 다음의 수학식 8을 통하여 산출된다. N의 대응점에 대해서, 각 대응점과 대응되는 에피폴라선 사이의 거리의 평균을 평균 에피폴라 거리 오차로 정의한다.By the above properties, the error of matching point matching is calculated through Equation 8 below. For the corresponding points of N, the average of the distance between each corresponding point and the corresponding epipolar line is defined as the average epipolar distance error.

Figure 112008060927398-PAT00010
Figure 112008060927398-PAT00010

인체 영역 정합부(230)는 에피폴라 기하학을 이용하여 상기 대응점 정합 오차를 교정함으로써 보다 정확하게 2개의 영상에서 추출된 인체 후보 영역을 정합하여 각각의 인체 영역을 검출한다.The human body matching unit 230 detects each human region by matching the human candidate regions extracted from two images more accurately by correcting the corresponding point matching error using epipolar geometry.

인체 영역 추적부(240)는 인체 영역 정합부(230)에서 정합되어 산출된 인체 영역의 좌표에 대하여 각각 칼만 필터(Kalman filter)를 적용함으로써 상기 인체 영역의 움직임을 추적한다.The human body tracking unit 240 tracks the movement of the human body region by applying a Kalman filter to the coordinates of the human body region calculated and matched by the human body matching unit 230.

상기 인체 영역 추적부(240)는 인체 영역의 안정적인 추적을 위해, 인체 후보 영역 중에서 이전 프레임에서 찾아진 영역의 면적 및 평균 색상에 대한 정보와 칼만 필터를 이용할 수 있다.The human body tracking unit 240 may use the Kalman filter and information on the area and the average color of the region found in the previous frame among the human candidate regions for stable tracking of the human body region.

보다 구체적으로 상기 인체 영역 추적부(240)는 좌표 보정부(220)에서 보정된 좌표(corrected coordinate)와 영상 보정 파라미터를 이용하여 인체 영역 정합부(230)에서 정합된 각각의 인체 영역의 3차원 공간 상에서 실 좌표를 선형 삼각화 방법을 통하여 산출할 수 있다.More specifically, the body region tracking unit 240 is a three-dimensional image of each body region matched by the body region matching unit 230 by using coordinates corrected by the coordinate corrector 220 and image correction parameters. Real coordinates in space may be calculated through a linear triangulation method.

그리고 상기 인체 영역 추적부(240)는 제1 영상 및 제 2영상에서 취득된 5개의 인체 영역(H, LH, RH, LF, RF)에 대하여 다음의 수학식 9를 이용하여 동작자의 모션 캡쳐를 산출한다.In addition, the human body tracking unit 240 captures the motion capture of the operator using the following Equation 9 for the five human regions H, LH, RH, LF, and RF acquired from the first image and the second image. Calculate.

Figure 112008060927398-PAT00011
Figure 112008060927398-PAT00011

여기서, A는 4X4 행렬, p는 투영행렬, X는 공간 상의 좌표이다.Where A is a 4X4 matrix, p is a projection matrix, and X is a coordinate in space.

표 1은 본 발명에 따른 영상 분석 장치에 대한 실험 결과이다. 수행시간은 1,500프레임을 대상으로, 각각의 단계를 수행한 후, 프레임 당 평균 시간을 측정한 것이다. Table 1 shows the experimental results for the image analysis device according to the present invention. The execution time is an average time per frame after performing each step for 1,500 frames.

알고리즘algorithm 수행시간Execution time 배경 차분Background difference 7.43 ms7.43 ms 피부색 추출Skin color extraction 2.57 ms2.57 ms 레이블링Labeling 1 ms   1 ms 좌표 보정Coordinate correction 0 ms   0 ms 인체 영역 추적Human Area Tracking 5 ms   5 ms 모션 캡쳐Motion capture 0 ms   0 ms

좌표 보정 및 모션 캡쳐는 5개의 대응점에 대해서 선형 방정식을 푸는 문제이므로, 매우 짧은 시간에 처리가 가능하기 때문에 수행시간이 0ms에 가깝게 얻어졌다. 피부색 추출 알고리즘의 수행시간은 YCbCr, 정규화된 RGB, Peer에 의한 방법을 수행한 결과 각각, 3.0ms, 2.57ms, 2.79ms가 소요되며, YCbCr과 정규화된 RGB를 통해 추출한 피부색은 상호 유사한 결과를 나타낸다. Peer는 RGB 색 공간에서 R, G, B 사이의 상관 관계를 이용하여 피부색을 정의한다. 또한 레이블 링 알고리즘의 경우, 런 길이 부호화 방법은 1ms가 소요되지만, GrassFire방법은 1.89ms가 소요된다.Since coordinate correction and motion capture are problems of solving linear equations for five corresponding points, the processing time can be obtained in near 0ms because the processing can be performed in a very short time. The execution time of skin color extraction algorithm is 3.0ms, 2.57ms, and 2.79ms, respectively, as the result of YCbCr, normalized RGB and Peer method, and skin color extracted through YCbCr and normalized RGB shows similar results. . Peer uses the correlation between R, G, and B in the RGB color space to define skin color. In addition, for the labeling algorithm, the run length encoding method takes 1ms, while the GrassFire method takes 1.89ms.

따라서 표 1에서 나타나는 바와 같이 본 발명에 따른 영상 분석 장치는 모션 캡쳐를 수행하는데 걸리는 시간이 적음에 따라 2개의 영상 입력 장치로부터 입력되는 2개의 영상을 동시에 실시간으로 처리할 수 있다.Accordingly, as shown in Table 1, the image analysis apparatus according to the present invention may process two images input from two image input devices simultaneously in real time as the time required to perform motion capture is small.

이하 도 5를 참조하여 본 발명에 따른 영상 분석 방법을 보다 상세히 설명한다.Hereinafter, the image analysis method according to the present invention will be described in detail with reference to FIG. 5.

먼저, 영상 분석 장치의 인체 영역 검출부(210)는 제1 영상 입력 장치(100_1) 및 제 2 영상 입력 장치(100_2)로부터 수신한 제1 영상 및 제2 영상을 각각 다운 샘플링한다(S510). 그리고, 다운 샘플링된 제1 영상 및 제2 영상을 각각 HSI(Hue Saturation Intensity) 및/또는 RGB(Red Green Blue) 색 공간을 이용하여 배경 영역을 차감하고 피부색을 추출하여 머리, 양손, 양발에 해당하는 각각 5개의 제1 인체 후보 영역 및 제2 인체 후보 영역을 추출한다(S520).First, the human body detector 210 of the image analyzing apparatus down-samples the first image and the second image received from the first image input apparatus 100_1 and the second image input apparatus 100_2, respectively (S510). The downsampled first and second images are subtracted from the background area using HSI (Hue Saturation Intensity) and / or Red Green Blue (RGB) color space, respectively, and skin color is extracted to correspond to the head, both hands, and both feet. Each of the five first human candidate regions and the second human candidate regions is extracted (S520).

이후, 좌표 보정부(220)는 추출된 제1 인체 후보 영역 및 제 2인체 후보 영역 각각의 좌표를 수학식 1내지 수학식5를 통하여 산출한 내부 파라미터, 외부 파라미터 등의 영상 보장 파라미터를 이용하여 정확한 좌표로 보정한다(S530).Thereafter, the coordinate corrector 220 uses image guarantee parameters such as internal parameters and external parameters, which calculate the coordinates of the extracted first human candidate region and the second human candidate region through Equations 1 to 5, respectively. Correct with correct coordinates (S530).

인체 영역 정합부(230)는 좌표 보정부(220)에서 보정된 제1 인체 후보 영역 및 제2 인체 후보 영역을 기 설정된 초기 자세를 기초로 정합하여 인체 영역을 검출한다(S540). 그리고, 인체 영역 추적부(240)는 칼만 필터를 이용하여 머리, 양손, 양발에 해당하는 각각의 인체 영역을 추적하여 모션을 캡쳐한다(S550).The human body matching unit 230 detects the human body region by matching the first human candidate region and the second human candidate region corrected by the coordinate corrector 220 based on a preset initial posture (S540). In addition, the human body tracking unit 240 captures motion by tracking each human body area corresponding to the head, both hands, and both feet using the Kalman filter (S550).

따라서, 본 발명에 따른 영상 분석 방법 및 장치는 영상에서 인체의 피부색을 이용하여 인체 영역을 검출하고 머리, 양손, 양발에 대하여 각각 동일한 추적 방법을 사용하기 때문에, 상기 인체 영역을 검출 시 계산량이 적음에 따라 보다 정확하게 모션을 캡쳐할 수 있음은 물론 실시간으로 동작자의 움직임을 추적할 수 있다.Therefore, the image analysis method and apparatus according to the present invention detects the human body region using the skin color of the human body in the image and uses the same tracking method for the head, both hands, and both feet, so that the amount of calculation is small when detecting the human body region. According to this, the motion can be captured more accurately and the movement of the operator can be tracked in real time.

상술한 모든 기능은 상기 기능을 수행하도록 코딩된 소프트웨어나 프로그램 코드 등에 따른 마이크로프로세서, 제어기, 마이크로제어기, ASIC(Application Specific Integrated Circuit) 등과 같은 프로세서에 의해 수행될 수 있다. 상기 코드의 설계, 개발 및 구현은 본 발명의 설명에 기초하여 당업자에게 자명하다고 할 것이다.All of the above functions may be performed by a processor such as a microprocessor, a controller, a microcontroller, an application specific integrated circuit (ASIC), or the like according to software or program code coded to perform the function. The design, development and implementation of the code will be apparent to those skilled in the art based on the description of the present invention.

이상 본 발명에 대하여 실시예를 참조하여 설명하였지만, 해당 기술 분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시켜 실시할 수 있음을 이해할 수 있을 것이다. 따라서 상술한 실시예에 한정되지 않고, 본 발명은 이하의 특허청구범위의 범위 내의 모든 실시예들을 포함한다고 할 것이다.Although the present invention has been described above with reference to the embodiments, it will be apparent to those skilled in the art that the present invention may be modified and changed in various ways without departing from the spirit and scope of the present invention. I can understand. Therefore, the present invention is not limited to the above-described embodiment, and the present invention will include all embodiments within the scope of the following claims.

도 1은 본 발명에 따른 영상 분석 장치를 나타내는 블록도이다.1 is a block diagram illustrating an image analyzing apparatus according to the present invention.

도 2a 및 2b는 2개의 영상 입력 장치를 통하여 입력된 각각의 영상을 나타내는 도면이다.2A and 2B are diagrams illustrating respective images input through two image input apparatuses.

도 3a 및 3b는 본 발명에 따른 영상 분석 장치를 이용하여 도 2a 및 2b의 영상으로부터 검출한 인체 후보 영역을 반전한 도면이다.3A and 3B are views inverting a human candidate region detected from the images of FIGS. 2A and 2B by using an image analyzing apparatus according to the present invention.

도 4는 본 발명에 따른 영상 분석 장치에서 인체 영역의 좌표를 정합하는 과정을 설명하기 위한 도면이다.4 is a view for explaining a process of matching the coordinates of the human area in the image analysis device according to the present invention.

도 5는 본 발명에 따른 영상 분석 방법을 나타내는 흐름도이다.5 is a flowchart illustrating an image analysis method according to the present invention.

* 도면의 주요 부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings

100_1, 100_2: 영상 입력 장치 200: 영상 분석 장치100_1 and 100_2: video input device 200: video analysis device

210: 인체 영역 검출부 220: 좌표 보정부210: human body detection unit 220: coordinate correction unit

230: 인체 영역 정합부 240: 인체 영역 추적부230: human body area matching unit 240: human body area tracking unit

Claims (11)

적어도 하나의 영상 입력 장치로부터 수신한 영상을 이용하여 인체의 움직임을 추적하는 영상 분석 방법에 있어서,An image analysis method for tracking a movement of a human body using an image received from at least one image input device, 상기 영상의 배경 영역을 차분하고 피부색을 추출하여 복수개의 인체 영역을 검출하는 단계;Detecting a plurality of human regions by calming the background region of the image and extracting skin color; 검출된 인체 영역의 좌표를 영상 보정 파라미터를 이용하여 각각 보정하는 단계; 및Correcting the coordinates of the detected human body region using image correction parameters; And 보정된 인체 영역의 좌표를 이용하여 상기 인체 영역의 움직임을 추적하는 단계를 포함하는 영상 분석 방법.And tracking the movement of the human body region using the corrected coordinates of the human body region. 제1항에 있어서, 상기 인체 영역은,The method of claim 1, wherein the human body region, 인체의 양손, 양발 및 얼굴에 해당하는 5개의 영역인 것을 특징으로 하는 영상 분석 방법.Image analysis method characterized in that the five areas corresponding to both hands, feet and face of the human body. 제1항에 있어서, 상기 검출하는 단계는,The method of claim 1, wherein the detecting comprises: 2개의 상기 영상 입력 장치로부터 입력된 2개의 상기 영상에서 각각 상기 인체 영역을 검출하는 단계인 것을 특징으로 하는 영상 분석 방법.And detecting the human body region from the two images inputted from the two image input apparatuses, respectively. 제3항에 있어서, 상기 검출하는 단계는,The method of claim 3, wherein the detecting comprises: 상기 입력 영상을 다운 샘플링(down sampling)하는 과정; 및Down sampling the input image; And 다운 샘플링된 입력 영상에서 HSI(Hue Saturation Intensity) 및 RGB(Red Green Blue) 색 공간 중 적어도 하나를 이용하여 배경 영역을 차분하고 피부색을 추출하는 과정을 포함하는 것을 특징으로 하는 영상 분석 방법.And subtracting a background area and extracting skin color using at least one of a hues saturation intensity (HSI) and a red green blue (RGB) color space in the down-sampled input image. 제4항에 있어서, 상기 보정하는 단계 이후에,The method of claim 4, wherein after the correcting step, 각각의 상기 영상으로부터의 상기 인체 영역을 기 설정된 초기 자세에 기초하여 정합함으로써 상기 인체 영역에 포함된 잡음을 제거하는 단계를 더 포함하는 것을 특징으로 하는 영상 분석 방법.And removing the noise included in the human body area by matching the human body area from each of the images based on a preset initial posture. 제1항에 있어서, 상기 추적하는 단계는,The method of claim 1, wherein the tracking comprises: 보정된 인체 영역의 좌표에 대하여 각각 칼만 필터(Kalman filter)를 적용함으로써 상기 인체 영역의 움직임을 추적하는 단계인 것을 특징으로 하는 영상 분석 방법.And tracking a movement of the human body region by applying a Kalman filter to the corrected coordinates of the human body region. 적어도 하나의 영상 입력 장치로부터 수신한 영상을 이용하여 인체의 움직임을 추적하는 영상 분석 장치에 있어서,An image analysis apparatus for tracking a movement of a human body using an image received from at least one image input apparatus, 상기 영상의 배경 영역을 차분하고 피부색을 추출하여 복수개의 인체 영역을 검출하는 인체 영역 검출부;A human body detector detecting a plurality of human regions by calming the background region of the image and extracting skin color; 검출된 인체 영역의 좌표를 영상 보정 파라미터를 이용하여 각각 보정하는 좌표 보정부; 및A coordinate corrector configured to correct detected coordinates of the human body region using image correction parameters; And 보정된 인체 영역의 좌표에 대하여 각각 칼만 필터(Kalman filter)를 적용함으로써 상기 인체 영역의 움직임을 추적하는 인체 영역 추적부를 포함하는 영상 분석 장치.And a human body tracking unit for tracking movement of the human body region by applying a Kalman filter to the corrected coordinates of the human body region. 제7항에 있어서, 상기 인체 영역 검출부는,The method of claim 7, wherein the human body area detection unit, 인체의 양손, 양발 및 얼굴에 해당하는 5개의 인체 영역을 검출하는 것을 특징으로 하는 영상 분석 장치.5. An image analyzing apparatus comprising detecting five human regions corresponding to both hands, feet, and face of a human body. 제7항에 있어서, 상기 인체 영역 검출부는,The method of claim 7, wherein the human body area detection unit, 2개의 상기 영상 입력 장치로부터 입력된 2개의 상기 영상에서 각각 상기 인체 영역을 검출하는 것을 특징으로 하는 영상 분석 장치.And the human body region is detected from the two images input from the two image input apparatuses. 제9항에 있어서, 상기 인체 영역 검출부는,The method of claim 9, wherein the human body detection unit, 상기 입력 영상을 다운 샘플링(down sampling)하고, 다운 샘플링된 입력 영상에서 HSI(Hue Saturation Intensity) 및 RGB(Red Green Blue) 색 공간 중 적어도 하나를 이용하여 배경 영역을 차분하고 피부색을 추출하여 인체 영역을 검출하는 것을 특징으로 하는 영상 분석 장치.Down sampling the input image and subtracting the background region using at least one of a Hue Saturation Intensity (HSI) and a red green blue (RGB) color space in the down sampled input image to extract the skin color The image analysis device, characterized in that for detecting. 제10항에 있어서,The method of claim 10, 각각의 상기 영상으로부터의 상기 인체 영역을 기 설정된 초기 자세에 기초하여 정합함으로써 상기 인체 영역에 포함된 잡음을 제거하는 인체 영역 정합부를 더 포함하는 것을 특징으로 하는 영상 분석 장치.And a human body matching unit configured to remove noise included in the human body area by matching the human body area from each of the images based on a preset initial posture.
KR1020080083653A 2008-08-27 2008-08-27 Image analysis apparatus and method for motion capture KR20100025048A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080083653A KR20100025048A (en) 2008-08-27 2008-08-27 Image analysis apparatus and method for motion capture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080083653A KR20100025048A (en) 2008-08-27 2008-08-27 Image analysis apparatus and method for motion capture

Publications (1)

Publication Number Publication Date
KR20100025048A true KR20100025048A (en) 2010-03-09

Family

ID=42176649

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080083653A KR20100025048A (en) 2008-08-27 2008-08-27 Image analysis apparatus and method for motion capture

Country Status (1)

Country Link
KR (1) KR20100025048A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102509076A (en) * 2011-10-25 2012-06-20 重庆大学 Principal-component-analysis-based video image background detection method
KR101375708B1 (en) * 2013-12-24 2014-03-19 (주) 알디텍 System and method for motion capture using plural image, and a medium having computer readable program for executing the method
US9196055B2 (en) 2010-12-31 2015-11-24 Nokia Technologies Oy Method and apparatus for providing a mechanism for gesture recognition
US10310622B2 (en) 2014-08-06 2019-06-04 Starship Vending-Machine Corp. Method and device for correcting motion information collected by NUI device
KR102001337B1 (en) 2018-02-01 2019-07-17 (주)위드어스커뮤니케이션즈 Integrated service system for providing customized skin type using big­data and artificial intelligence
KR102185934B1 (en) 2020-06-07 2020-12-02 주식회사 플로이드 Apparatus and method for analyzing of image capable of rotaional symmetry
KR102234580B1 (en) 2020-06-07 2021-03-31 주식회사 플로이드 Apparatus and method for analyzing of image
US11315236B2 (en) 2017-12-18 2022-04-26 Korea University Of Technology And Education Industry-University Cooperation Foundation Method and apparatus for quality assurance of automobile component using marker

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9196055B2 (en) 2010-12-31 2015-11-24 Nokia Technologies Oy Method and apparatus for providing a mechanism for gesture recognition
CN102509076A (en) * 2011-10-25 2012-06-20 重庆大学 Principal-component-analysis-based video image background detection method
KR101375708B1 (en) * 2013-12-24 2014-03-19 (주) 알디텍 System and method for motion capture using plural image, and a medium having computer readable program for executing the method
US10310622B2 (en) 2014-08-06 2019-06-04 Starship Vending-Machine Corp. Method and device for correcting motion information collected by NUI device
US11315236B2 (en) 2017-12-18 2022-04-26 Korea University Of Technology And Education Industry-University Cooperation Foundation Method and apparatus for quality assurance of automobile component using marker
KR102001337B1 (en) 2018-02-01 2019-07-17 (주)위드어스커뮤니케이션즈 Integrated service system for providing customized skin type using big­data and artificial intelligence
KR102185934B1 (en) 2020-06-07 2020-12-02 주식회사 플로이드 Apparatus and method for analyzing of image capable of rotaional symmetry
KR102234580B1 (en) 2020-06-07 2021-03-31 주식회사 플로이드 Apparatus and method for analyzing of image

Similar Documents

Publication Publication Date Title
US9898651B2 (en) Upper-body skeleton extraction from depth maps
US9235753B2 (en) Extraction of skeletons from 3D maps
KR100507780B1 (en) Apparatus and method for high-speed marker-free motion capture
US8249334B2 (en) Modeling of humanoid forms from depth maps
US9330470B2 (en) Method and system for modeling subjects from a depth map
KR20100025048A (en) Image analysis apparatus and method for motion capture
JP6587421B2 (en) Information processing apparatus, information processing method, and program
JP5873442B2 (en) Object detection apparatus and object detection method
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
US8787663B2 (en) Tracking body parts by combined color image and depth processing
Tsalakanidou et al. Real-time acquisition of depth and color images using structured light and its application to 3D face recognition
JP6515039B2 (en) Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image
CN106952312B (en) Non-identification augmented reality registration method based on line feature description
KR20170092533A (en) A face pose rectification method and apparatus
KR20140087485A (en) Method of estimating the location of mobile robot using ray-tracing technique
CN115035546A (en) Three-dimensional human body posture detection method and device and electronic equipment
CN111582036A (en) Cross-view-angle person identification method based on shape and posture under wearable device
JP2000268161A (en) Real time expression detector
CN109410272B (en) Transformer nut recognition and positioning device and method
KR20090070258A (en) Procedure for estimating real-time pointing region using 3d geometric information
KR101158016B1 (en) Apparatus and method for detecting upper body pose and hand shape
US11676357B2 (en) Modification of projected structured light based on identified points within captured image
KR20040080102A (en) Motion Capture Apparatus using Human Body Imaging Sensor
JP2005309992A (en) Image processor and image processing method
KR100885122B1 (en) Method for marker-free motion capture

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application