KR100817298B1 - Method for detecting and tracking both hands - Google Patents
Method for detecting and tracking both hands Download PDFInfo
- Publication number
- KR100817298B1 KR100817298B1 KR1020060070230A KR20060070230A KR100817298B1 KR 100817298 B1 KR100817298 B1 KR 100817298B1 KR 1020060070230 A KR1020060070230 A KR 1020060070230A KR 20060070230 A KR20060070230 A KR 20060070230A KR 100817298 B1 KR100817298 B1 KR 100817298B1
- Authority
- KR
- South Korea
- Prior art keywords
- hands
- overlap
- image
- tracking
- hand
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/507—Depth or shape recovery from shading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
- G06T2207/20041—Distance transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 양손 검출 및 추적 방법에 관한 것으로서, 영상으로부터 사람의 신체구조를 통해 어깨, 팔꿈치 및 손을 포함하는 양측 팔을 모델링하는 과정과, 모델링으로부터 양측 손을 검출하는 과정과, 그리고 영상과 이전 영상을 비교하여 팔꿈치와 손을 잇는 양측 직선의 기울기 및 기울기 변화량과 사람의 팔이 갖는 행동 제한 반경(팔은 바깥으로 굽지 않고, 팔의 길이는 일정 길이 이상 늘어나지 않고, 팔꿈치를 기준으로 팔을 굽힐 수 있는 점)을 이용하여 양측 손의 위치를 추적할 수 있다. 또한, KLT(Kanade-Lucas-Tomasi) 특징 정보를 회귀 분석하여 기울기 값으로 압축하여 표현하여 다량의 특징 정보 추출로 인한 계산 복잡도 증가 없이 겹침이 있는 물체의 움직임을 실시간 추출하여 추적할 수 있으므로 이동 물체 추출 및 추적 기술을 실세계에 적용할 수 있다. The present invention relates to a method for detecting and tracking both hands, comprising the steps of modeling both arms including the shoulders, elbows, and hands from an image through a human body structure, detecting both hands from modeling, Comparison of the images, the amount of inclination and inclination of the two straight lines between the elbow and the hand, and the limiting radius of the human arm (the arm does not bend outward, the length of the arm does not extend over a certain length, Can be used to track the position of both hands. In addition, KLT (Kanade-Lucas-Tomasi) feature information is regressed and compressed and expressed as a slope value to extract and track the movement of overlapping objects in real time without increasing the computational complexity due to the extraction of a large amount of feature information. Extraction and tracking techniques can be applied to the real world.
겹침이 있는 양손 추적, KLT 특징점 Two-Handed Overlap, KLT Feature Points
Description
도 1은 본 발명의 일실시예로서, 카메라로 획득한 영상에서 양손의 움직임을 검출하고 추적하는 과정을 나타낸 흐름도, 1 is a flowchart illustrating a process of detecting and tracking movements of both hands in an image acquired by a camera according to an embodiment of the present invention;
도 2는 본 발명의 일실시예로서, 양손 추출과 추적을 위한 신체와 팔의 모델링 개념도, 2 is an embodiment of the present invention, a conceptual diagram of the modeling of the body and arm for both hand extraction and tracking,
도 3은 도 2의 팔에 대해 모델링한 도면, 3 is a model modeled for the arm of FIG.
도 4는 본 발명에서 사용한 영상 특징과 이 특징의 대표 값인 직선을 도시한 도면이다. 4 is a view showing a video feature used in the present invention and a straight line representative of the feature.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
HEAD : 머리 LSP : 좌측 어깨점 HEAD: Head LSP: Left Shoulder Point
LFA : 좌측 팔뚝 LEP : 좌측 팔꿈치점 LFA: Left Forearm LEP: Left Elbow Point
LA : 좌측 팔 LH : 좌측 손 LA: left arm LH: left hand
RSP : 우측 어깨점 RFA : 우측 팔뚝 RSP: Right Shoulder Point RFA: Right Forearm
REP : 우측 팔꿈치점 RA : 우측 팔 REP: right elbow point RA: right arm
RH : 우측 손 RH: Right hand
본 발명은 이동 물체 추출 및 추적 기술에 관한 것으로, 더욱 상세하게는 유사한 특징 정보를 갖고 있으며 겹침 있는 상황에도 불구하고 카메라 영상에서 움직이는 사람의 양손을 안정적으로 추출하여 추적하는 양손 검출 및 추적 방법에 관한 것이다. The present invention relates to a moving object extraction and tracking technology, and more particularly, to a two-hand detection and tracking method for stably extracting and tracking both hands of a moving person in a camera image despite the overlapping situation. will be.
손의 움직임 검출 및 추적은 컴퓨터 비젼의 응용 분야 및 로봇틱스, 영상감시 기술, 지능형 교통 시스템 등 모션 분석을 이용하는 다양한 산업분야에서 활용되어 왔다. 최근 컴퓨터 시각 분야 및 인간과 컴퓨터, 인간과 로봇간의 상호작용에서 이동 물체의 검출 및 추적에 대한 필요성이 증가됨에 따라 이의 응용 기술에 대한 연구가 더욱 활발히 진행되고 있다. Hand motion detection and tracking has been used in a variety of industries that use motion analysis, including computer vision applications and robotics, video surveillance technology, and intelligent transportation systems. Recently, as the necessity of detecting and tracking a moving object increases in the field of computer vision and the interaction between humans and computers, humans and robots, research on its application technology is being actively conducted.
이와 같이, 손 추적과 검출 알고리즘들은 제스쳐 인식과 모션 분석 등 다양한 분야에서 연구되어져 왔다. 현재까지 연구되어 온 손 검출과 추적 기술은 대부분 한 쪽 손에만 국한되어 왔다. 이는 양손을 동시에 추적할 경우, 양손을 구별할 만한 뚜렷한 특징 정보가 부재하기 때문이다. 양손 검출을 위해 고안된 기술들이 최근에 보고되고 있는데, 이들은 양손을 구별하기 위해, 양손이 겹쳐졌을 때의 유형을 분류하거나, 손과 팔꿈치까지의 음영정보를 이용하여 거리 변환 함수(Distance Transform)를 사용한다. 또한, 양손이 겹쳐졌을 때의 유형을 분류하기 위해 겹쳐진 물체의 고유 특징 정보 즉, 색깔, 형태 등을 이용해 물체를 검출하는 방법을 이용하기도 한다. As such, hand tracking and detection algorithms have been studied in various fields such as gesture recognition and motion analysis. Most of the hand detection and tracking techniques studied to date have been limited to one hand. This is because when two hands are simultaneously tracked, there is no distinct feature information for distinguishing both hands. Techniques designed for two-handed detection have recently been reported, which use a distance transform function to classify the types of overlapping hands or use shadowing information to the hands and elbows to distinguish them. do. In addition, a method of detecting an object by using unique feature information of the overlapping object, that is, color and shape, may be used to classify the type when the two hands overlap.
그러나, 손과 같이 색깔과 형태 등 고유 정보들이 매우 유사한 물체들과 겹칠 경우에 이를 분리하여 추적하기 어려울 뿐만 아니라, 양손의 겹쳐짐 형태가 분류한 유형에 속해야만 겹쳐진 양손의 위치를 알 수 있는 단점이 있었다. 한편, 거리 변환 함수를 이용할 경우, 영상에서 손과 팔꿈치까지 양손이 보여야만 한다는 한계가 있었다. 또한, 일반적인 이동 물체의 겹침 문제를 해결하는 경우에도 구별되는 특징 정보가 있으나, 이 특징 정보가 많아 역시 계산상 시간이 오래 걸리는 한계점이 있었다. 즉, 특징 정보가 많아짐에 따라 계산의 복잡도가 증가하여 물체의 실시간 추적이 실제적으로 어려운 단점이 있었다. However, when unique information such as color and shape overlaps with very similar objects such as hands, it is difficult to separate and track them, and the location of overlapping hands can be known only when the overlapping form of both hands belongs to the classified type. There was this. On the other hand, when using the distance conversion function, there was a limitation that both hands should be seen from the image to the hand and the elbow. In addition, even when solving the problem of overlapping a general moving object, there is a distinctive feature information, but this feature information has a lot of limitations that takes a long time in calculation. That is, as the feature information increases, the complexity of calculation increases, which makes it difficult to track an object in real time.
따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 사람의 몸과 팔의 구조를 반영하여 양손을 추적함과 아울러, KLT(Kanade-Lucas-Tomasi) 특징 정보를 회귀 분석하여 기울기 값으로 압축하여 계산 복잡도를 줄임으로써 계산 복잡도의 증가없이 양손의 움직임을 실시간으로 검출하여 추적하는 양손 검출 및 추적 방법을 제공하는데 있다. Accordingly, the present invention has been made to solve the above problems of the prior art, an object of the present invention is to track both hands to reflect the structure of the human body and arm, as well as KLT (Kanade-Lucas-Tomasi) characteristic information It is to provide a two-hand detection and tracking method that detects and tracks the movement of both hands in real time without increasing the computational complexity by reducing the computational complexity by compressing to a slope value by compressing the regression analysis.
상기와 같은 목적을 달성하기 위한 본 발명의 양손 검출 및 추적 방법은, (a) 영상으로부터 사람의 신체구조를 통해 어깨, 팔꿈치 및 손을 포함하는 양측 팔을 모델링하는 단계; (b) 상기 모델링으로부터 양측 손을 검출하는 단계; (c) 사람의 팔의 구조에 따른 움직임 범위 한계를 결정하는 단계; 및 (d) 상기 영상과 이전 영상을 비교하여 팔꿈치와 손을 잇는 양측 직선의 기울기 변화를 통해 양측 손의 위치를 추적하는 단계를 포함하여 이루어진 것을 특징으로 한다. The two-handed detection and tracking method of the present invention for achieving the above object comprises the steps of: (a) modeling both arms, including the shoulders, elbows and hands through the body structure of the person from the image; (b) detecting both hands from the modeling; (c) determining a range of motion limits according to the structure of the human arm; And (d) tracking the position of both hands by changing the inclination of the two straight lines connecting the elbow and the hand by comparing the previous image with the previous image.
이 때, 상기 (a) 단계에서 팔의 모델링은, 얼굴의 위치를 이용하여 어깨점의 위치를 검출하고, KLT(Kanade-Lucas-Tomasi) 특징점의 1차 회귀 분석을 통해 손을 검출하며, 상기 어깨점 위치와 손 위치로부터 팔꿈치를 추정한다. 한편, 상기 (a) 단계 이전에, 피부색 정보를 이용하여 손과 얼굴의 위치를 추출한다. In this case, in the step (a), the modeling of the arm detects the position of the shoulder point using the position of the face, and detects the hand through the first regression analysis of the KLT (Kanade-Lucas-Tomasi) feature point. The elbow is estimated from the shoulder point position and the hand position. Meanwhile, before the step (a), the positions of the hands and the face are extracted using the skin color information.
또한, 상기 (b) 단계에서 양측 손은, 움직임 정보와 피부색 정보를 정합하여 블랍 분석(Blob Analysis)를 이용하여 검출한다.
그리고, 상기 (c) 단계는, 양측 손의 가상 영역을 지정하는 단계로 사람의 팔이 갖는 행동 제한 반경과 2차 자기 회귀 모델에 의해 정해진다. 가상 영역은 팔은 바깥으로 굽지 않고, 팔의 길이는 일정 길이 이상 늘어나지 않으며 팔꿈치를 기준으로 팔을 굽힐 수 있는 세 가지 한계점을 따라 규정된다. In addition, in step (b), both hands match motion information and skin color information and detect the result using blob analysis.
Step (c) is a step of designating a virtual area of both hands, which is determined by a behavior limit radius of the human arm and a second order autoregressive model. The hypothetical region is defined by three limitations: the arms do not bend outward, the length of the arms do not extend beyond a certain length, and the arms can be bent relative to the elbows.
마지막으로, 상기 (d) 단계는, 상기 영상의 이전 영상에 대해 회귀 분석을 수행하여 양측 손의 가상 영역이 겹치는가를 판별하는 단계; 및 상기 가상 영역이 겹치지 않을 경우에는 양측 손의 현재 위치를 확인하여 KLT(Kanade-Lucas-Tomasi) 특징점을 추출하고 회귀 분석하여 팔꿈치와 손을 잇는 양측 직선의 기울기를 산출하고, 상기 가상 영역이 겹칠 경우에는 상기 이전 영상에서 얻은 기울기를 회귀 분석하여 움직일 방향을 예측한 후 양측 손이 겹치는지를 다시 판별하고, 상기 양측 손의 겹칩여부 판별결과, 양측 손이 겹치지 않을 경우에는 상기 가상 영역이 겹치지 않을 경우를 따르고, 양측 손이 겹칠 경우에는 KLT(Kanade-Lucas-Tomasi) 특징점을 추출하여 양측 손의 위치를 확인하는 단계로 이루어진다. 이 때, 상기 가상 영역이 겹치지 않을 경우에 산출된 기울기는 다음 영상의 움직일 방향을 예측하는데 이용되며, 상기 양손이 겹칠 경우에 추출된 KLT 특징점은 상기 가상 영역이 겹치지 않을 경우에 산출하는 기울기의 직선을 이용할 수 있도록 회귀 분석을 수행한다. Finally, step (d) may include regression analysis of a previous image of the image to determine whether virtual regions of both hands overlap; And if the virtual regions do not overlap, check current positions of both hands to extract KLT (Kanade-Lucas-Tomasi) feature points, and regression analysis to calculate slopes of both straight lines connecting the elbows and hands, and overlap the virtual regions. In this case, regression analysis of the slope obtained from the previous image predicts the direction to move, and then re-determining whether the two hands overlap, and as a result of judging whether the two hands overlap, if the two hands do not overlap, the virtual region does not overlap. Follow and, if both hands overlap, the step consists of extracting the KLT (Kanade-Lucas-Tomasi) feature points to determine the position of both hands. In this case, the slope calculated when the virtual regions do not overlap is used to predict a moving direction of the next image, and the KLT feature points extracted when the two hands overlap, the straight line of the slope calculated when the virtual regions do not overlap. Perform a regression analysis to use.
이하, 본 발명의 양손 검출 및 추적 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. Hereinafter, a method for detecting and tracking both hands of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예로서, 카메라로 획득한 영상에서 양손의 움직임을 검출하고 추적하는 과정을 나타낸 흐름도이다. 1 is a flowchart illustrating a process of detecting and tracking movements of both hands in an image acquired by a camera as an embodiment of the present invention.
도 1에 도시된 바와 같이, 먼저 카메라로부터 영상을 획득한다(S1). As shown in FIG. 1, first, an image is acquired from a camera (S1).
획득된 영상은 이전 영상과 비교하여 움직임 정보만을 추출한다. 또한 획득된 영상에서 이동물체의 특징정보를 얻는다. 본 실시예에서는 손의 특징 정보를 추출하므로 피부색 정보를 이용하여 손과 얼굴의 위치를 추출한다(S2). The obtained image is extracted with only motion information compared with the previous image. Also, feature information of the moving object is obtained from the acquired image. In this embodiment, since the feature information of the hand is extracted, the positions of the hand and the face are extracted using the skin color information (S2).
이제 움직임 정보와 피부색 정보를 정합하여 블랍 분석(Blob Analysis)를 이용하여 양손을 추출한다(S3). Now, motion information and skin color information are matched to extract both hands using blob analysis (S3).
양손이 추출된 이후에는 팔의 행동 반경과 2차 자기 회귀 분석 모델을 이용하여 양손의 움직일 수 있는 가상 영역을 정하게 되는데, 본 발명에서는 양손 추적 모듈을 통해 양손이 겹쳐지는 경우와 그렇지 않을 경우로 분리한다. 그리고, 양손의 겹침 여부는 양손에 대한 각각의 예측된 가상 영역이 서로 겹침 여부로 알 수 있으므로, 먼저 가상 영역이 겹치는지를 판단하게 된다(S4). After the two hands are extracted, the motion radius of the arm and the second autoregressive analysis model are used to determine the virtual area in which the two hands can be moved. In the present invention, the two hands are separated through the two-hand tracking module and separated if not. do. Since the two hands overlap each other, it is determined whether the predicted virtual areas of the two hands overlap each other, and first, it is determined whether the virtual areas overlap (S4).
가상 영역에 겹침이 없을 경우에는 예측된 가상 영역과 블랍이 일치하는 위치가 손이 새로 움직인 위치가 된다. 이 때, 팔꿈치의 위치는 머리의 위치를 이용하여 어깨 점의 위치를 예측하고 다시 이를 이용하여 알아낼 수 있다. 팔꿈치와 손을 잇는 직선의 기울기는 겹침이 있을 경우에 사용될 이동 방향 정보를 위해(점선→S9) 저장된다(S5∼S8). If there is no overlap in the virtual region, the position where the blob coincides with the predicted virtual region becomes the position where the hand moves. At this time, the position of the elbow can be found by using the position of the head to predict the position of the shoulder point again. The inclination of the straight line connecting the elbow and the hand is stored for the moving direction information to be used in case of overlap (dotted line → S9) (S5 to S8).
여기서, 자기 회귀 분석이란 어떤 변수의 시계열에서 그 현재값이 과거의 값에 의존하여 결정되는 상태를 의미한다. 일반적으로 에 관한 시계열이 기본적으로 한 시점 전의 변수값에 의존해서 결정되는 자기 회귀 과정이 있을 때, 그 관계를 수식으로 표현하면 Here, autoregressive analysis refers to a state in which a current value of a variable is determined depending on a past value. Generally When there is a self-regression process in which the time series of is basically determined based on the value of a variable before a point in time,
--- 수학식 1 --- Equation 1
이라고 쓸 수 있다. 여기서 와 은 변수 의 한 시점 사이의 상호 관련을 구체적으로 나타내는 계수이며 는 한 시점 전의 값만에 의해서는 계통적으로 설명할 수 없는 불규칙적인 변동부분을 나타내는 확률변수이다. 이는 자기 회귀 과정 중에서 가장 간단한 것으로 1단계 자기 회귀 과정이라고 한다. 본 발명에서 사용한 자기 회귀는 2단계 방법으로 아래의 식으로 표현된다. Can be written. here Wow Is a variable A coefficient that specifically describes the correlation between a point in time Is a random variable that represents an irregular variation that cannot be systematically explained only by the value before one point in time. This is the simplest of the autoregressive processes and is called a one-step autoregressive process. Self-regression used in the present invention is represented by the following equation in a two-step method.
--- 수학식 2 --- Equation 2
한편, 가상 영역에 겹침이 있을 경우에는 이전 영상에서 얻은 기울기 값을 2차 자기 회귀 모델에 적용시켜 왼손과 오른손이 움직일 방향을 예측하게 된다(S9). 이에 예측된 양손의 겹침여부를 판별하여(S10), 만일 예측된 방향을 통해 양손이 겹치지 않을 경우에는 양손이 가까이 있지만 겹쳐지지 않은 경우이므로 상기한 단계 S5 내지 단계 S8 과정을 수행하게 되고, 예측된 방향을 통해 양손이 겹치는 경우에는 현재 움직임과 피부색을 정합시킨 영상에서 Kanade-Lucas-Tomasi(KLT) 특징 정보를 추출한다(S11). 이 추출된 특징 정보들은 기울기로 얻은 직선을 이용할 수 있도록 필요한 중요 정보만이 남게 된다(점선→S7). 즉, 직선과의 거리를 측정하여 직선과의 거리가 충분히 가까운 특징 정보들만을 이용한다. 이 특징 정보들로 겹쳐진 양손의 위치를 나타낸다(S12). 이에 현재 영상이 생성됨과 아울러, 이전 영상으로부터 2차 회귀 분석 모델을 이용하여 양손의 가상 영역을 지정하게 된다(S13∼S15). KLT 특징 정보를 로 나타내고 왼손과 오른손 각각에서 구한 직선을 라고 하면 거리 식은 수학식 3과 같이 표현된다. On the other hand, if there is overlap in the virtual region, the gradient value obtained from the previous image is applied to the second order autoregressive model to predict the direction in which the left and right hands move (S9). In step S10, if the two hands are not overlapped through the predicted direction, the two hands are close but not overlapped. When both hands overlap in each direction, Kanade-Lucas-Tomasi (KLT) feature information is extracted from an image in which current motion and skin color are matched (S11). The extracted feature information leaves only the important information necessary to use the straight line obtained from the slope (dotted line → S7). That is, the distance from the straight line is measured to use only feature information that is sufficiently close to the straight line. The position of both hands superimposed with this feature information is shown (S12). In addition, the current image is generated, and a virtual region of both hands is designated using the second regression analysis model from the previous image (S13 to S15). KLT characteristic information And a straight line from each of the left and right hand In this case, the distance expression is expressed as in Equation 3.
--- 수학식 3 --- Equation 3
각각 왼손과 오른손에 해당하는 KLT 값들은 수학식 4에서 얻을 수 있다. The KLT values corresponding to the left hand and the right hand, respectively, can be obtained from Equation 4.
--- 수학식 4 --- Equation 4
이 때, 값은 각 영상의 실험 조건에 따라 조절할 수 있다. At this time, The value can be adjusted according to the experimental conditions of each image.
여기서, KLT 특징값은 이미지상에서 추적을 목적으로 이미지의 명암의 변화정보를 이용하여 이미지에 나타난 질감 패턴에 따른 특징값으로 정의된다. 질감의 x와 y 양쪽 방향에서 명암 변화가 높은 곳을 찾게 된다. 즉, 명암을 라 하 면, 국소 명암 변화 행렬은Here, the KLT feature value is defined as a feature value according to the texture pattern shown in the image using change information of the contrast of the image for tracking purposes on the image. You will find high contrast in both the x and y direction of the texture. In other words, the contrast If we say, the local contrast change matrix is
---- 수학식 5 ---- Equation 5
로 표현 될 수 있다. 이 때, 의 고유값(eigen values)이 미리 정의된 임계치 를 넘게 되는 곳은 이미지 상에서 KLT 특징값으로 선택된다. Can be expressed as At this time, Threshold with predefined eigen values The area beyond the is selected as the KLT feature value on the image.
도 2는 본 발명의 일실시예로서, 양손 추출과 추적을 위한 신체와 팔의 모델링 개념도이다. 2 is a conceptual diagram of a body and an arm for both hands extraction and tracking as an embodiment of the present invention.
도 2를 참조하면, 머리(HEAD), 좌우측 어깨점(LSP, RSP), 좌우측 팔뚝(LFA, RFA), 좌우측 팔꿈치점(LEP, REP), 좌우측 팔(LA, RA), 좌우측 손(LH, RH)에 대해 모델링한다. 이와 같이, 양손의 각각에 대하여 어깨점과 팔꿈치점, 손의 위치를 이용한 양손 추출과 추적을 위한 신체와 팔을 모델링한다. Referring to Figure 2, the head (HEAD), left and right shoulder points (LSP, RSP), left and right forearms (LFA, RFA), left and right elbow points (LEP, REP), left and right arms (LA, RA), left and right hands (LH, Model for RH). As such, the body and arm are modeled for the extraction and tracking of both hands using the shoulder point, elbow point, and hand position for each hand.
한편, 촬영된 영상에서 신체의 각 영역을 구분하기 위해 영상 특징값에 서로 다른 색을 부여하거나, 특정 기호(+)를 이용하여 표시한다. 손에 + 표시로 영상 특징값을 표시하고 있음을 알 수 있다. 또한, 이러한 영상 특징값을 대표하는 특징값을 또 다른 색을 부여하여 라인으로 표시한다. Meanwhile, in order to distinguish each area of the body from the captured image, different colors are assigned to the image feature values or displayed using a specific symbol (+). It can be seen that the image feature value is indicated by a + mark on the hand. In addition, a feature value representing the image feature value is given another color and displayed as a line.
도 3은 도 2의 팔에 대해 모델링한 도면이다. 3 is a diagram modeling the arm of FIG. 2.
도 3을 참조하면, 신체와 팔을 모델링한 것을 구체화한 것이다. Referring to FIG. 3, the body and arm are modeled.
도 4는 본 발명에서 사용한 영상 특징과 이 특징의 대표 값인 직선을 도시한 도면이다. 4 is a view showing a video feature used in the present invention and a straight line representative of the feature.
도 4에서 새로운 영상에서 획득한 x 형태의 KLT 특징값은 팔이 움직이게 될 영역에 산재해 있게 된다. 이 때, 2차 자기 회귀 방법으로 예측한 와 값을 이용하여 얻게 되는 실선으로 표시된 직선을 갖게 된다. 이에 새로이 획득한 KLT 특징값 과의 거리 D를 구하게 된다. 도 4로부터 수학식 1에서의 직선 가 자기 회귀 분석을 이용한 예측된 값과 KLT 특징값의 회귀선으로 검증된 직선은 팔꿈치와 손과의 직선을 나타냄을 확인할 수 있다. In FIG. 4, the K-type feature values of the x-type acquired from the new image are scattered in the region where the arm is to move. At this time, predicted by the second order autoregressive method Wow You will have a straight line marked with a solid line that you get using the value. Newly acquired KLT feature value The distance D with is obtained. Straight line in Equation 1 from FIG. It can be seen that the straight line verified by the regression line of the predicted value and the KLT feature value using the autoregressive analysis represents the straight line between the elbow and the hand.
이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다. Although the present invention has been described in more detail with reference to some embodiments, the present invention is not necessarily limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention.
상술한 바와 같이, 본 발명에 의한 양손 검출 및 추적 방법은, 로봇과 같이 실 환경에서 사용이 필요한 시스템에 적용 가능하도록 실시간으로 추출 및 추적할 수 있고, 또한 유사한 성질을 지닌 이동 물체를 겹침이 있는 상황에서 각각 추적이 가능한 장점을 가지고 있다. As described above, the two-hand detection and tracking method according to the present invention can be extracted and tracked in real time to be applicable to a system that requires use in a real environment such as a robot, and also has overlapping moving objects having similar properties. Each has the advantage of being tracked in situations.
Claims (7)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020050119707 | 2005-12-08 | ||
KR20050119707 | 2005-12-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20070061231A KR20070061231A (en) | 2007-06-13 |
KR100817298B1 true KR100817298B1 (en) | 2008-03-27 |
Family
ID=38357168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060070230A KR100817298B1 (en) | 2005-12-08 | 2006-07-26 | Method for detecting and tracking both hands |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100817298B1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101581954B1 (en) | 2009-06-25 | 2015-12-31 | 삼성전자주식회사 | Apparatus and method for a real-time extraction of target's multiple hands information |
US8564534B2 (en) | 2009-10-07 | 2013-10-22 | Microsoft Corporation | Human tracking system |
US7961910B2 (en) | 2009-10-07 | 2011-06-14 | Microsoft Corporation | Systems and methods for tracking a model |
US8963829B2 (en) | 2009-10-07 | 2015-02-24 | Microsoft Corporation | Methods and systems for determining and tracking extremities of a target |
US8867820B2 (en) | 2009-10-07 | 2014-10-21 | Microsoft Corporation | Systems and methods for removing a background of an image |
KR101364571B1 (en) | 2010-10-06 | 2014-02-26 | 한국전자통신연구원 | Apparatus for hand detecting based on image and method thereof |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH103544A (en) | 1996-06-14 | 1998-01-06 | Imeeji Joho Kagaku Kenkyusho | Device for recognizing gesture |
KR19990027482A (en) * | 1997-09-30 | 1999-04-15 | 전주범 | How to set the relation of object structure straight lines in image in pattern recognition system |
JPH11191158A (en) | 1997-12-26 | 1999-07-13 | Hitachi Denshi Ltd | Motion recognizing method |
JP2000172163A (en) | 1998-09-28 | 2000-06-23 | Matsushita Electric Ind Co Ltd | Manual operation segmenting method/device |
KR20030073879A (en) * | 2002-03-13 | 2003-09-19 | 주식회사 엘지이아이 | Realtime face detection and moving tracing method |
-
2006
- 2006-07-26 KR KR1020060070230A patent/KR100817298B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH103544A (en) | 1996-06-14 | 1998-01-06 | Imeeji Joho Kagaku Kenkyusho | Device for recognizing gesture |
KR19990027482A (en) * | 1997-09-30 | 1999-04-15 | 전주범 | How to set the relation of object structure straight lines in image in pattern recognition system |
JPH11191158A (en) | 1997-12-26 | 1999-07-13 | Hitachi Denshi Ltd | Motion recognizing method |
JP2000172163A (en) | 1998-09-28 | 2000-06-23 | Matsushita Electric Ind Co Ltd | Manual operation segmenting method/device |
KR20030073879A (en) * | 2002-03-13 | 2003-09-19 | 주식회사 엘지이아이 | Realtime face detection and moving tracing method |
Also Published As
Publication number | Publication date |
---|---|
KR20070061231A (en) | 2007-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhou et al. | A novel finger and hand pose estimation technique for real-time hand gesture recognition | |
CN108446585B (en) | Target tracking method and device, computer equipment and storage medium | |
Koide et al. | Identification of a specific person using color, height, and gait features for a person following robot | |
Ibraheem et al. | Survey on various gesture recognition technologies and techniques | |
KR100817298B1 (en) | Method for detecting and tracking both hands | |
Kim et al. | Simultaneous gesture segmentation and recognition based on forward spotting accumulative HMMs | |
CN103389799B (en) | A kind of opponent's fingertip motions track carries out the method for following the tracks of | |
Zhang et al. | Block covariance based L1 tracker with a subtle template dictionary | |
JP5598751B2 (en) | Motion recognition device | |
Raheja et al. | 3D gesture based real-time object selection and recognition | |
CN104969261A (en) | Method and system for detecting moving objects | |
JP3657463B2 (en) | Motion recognition system and recording medium on which motion recognition program is recorded | |
Wang et al. | A new hand gesture recognition algorithm based on joint color-depth superpixel earth mover's distance | |
EP2366502B1 (en) | Robot with hand-object movement correlations for online temporal segmentation of movement tasks | |
CN105261038A (en) | Bidirectional optical flow and perceptual hash based fingertip tracking method | |
Araki et al. | Real-time both hands tracking using camshift with motion mask and probability reduction by motion prediction | |
Takai | Detection of suspicious activity and estimate of risk from human behavior shot by surveillance camera | |
Mi et al. | A system for an anticipative front human following robot | |
Bhuyan et al. | Key Video Object Plane Selection by MPEG-7 Visual Shape Descriptor for Summarization and Recognition of Hand Gestures. | |
Hannuksela et al. | Face tracking for spatially aware mobile user interfaces | |
Kim et al. | Integrated in-vehicle monitoring system using 3D human pose estimation and seat belt segmentation | |
US20230264367A1 (en) | Visuotactile operators for proximity sensing and contact control | |
Kim et al. | AR-KLT based hand tracking | |
JP6877072B1 (en) | Area extraction device, area extraction method, and area extraction program | |
Chaudhary et al. | Bent Fingers’ Angles Calculation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130304 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20130730 Year of fee payment: 19 |