KR100817298B1 - Method for detecting and tracking both hands - Google Patents

Method for detecting and tracking both hands Download PDF

Info

Publication number
KR100817298B1
KR100817298B1 KR1020060070230A KR20060070230A KR100817298B1 KR 100817298 B1 KR100817298 B1 KR 100817298B1 KR 1020060070230 A KR1020060070230 A KR 1020060070230A KR 20060070230 A KR20060070230 A KR 20060070230A KR 100817298 B1 KR100817298 B1 KR 100817298B1
Authority
KR
South Korea
Prior art keywords
hands
overlap
image
tracking
hand
Prior art date
Application number
KR1020060070230A
Other languages
Korean (ko)
Other versions
KR20070061231A (en
Inventor
김혜진
김도형
김계경
이재연
지수영
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Publication of KR20070061231A publication Critical patent/KR20070061231A/en
Application granted granted Critical
Publication of KR100817298B1 publication Critical patent/KR100817298B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/20Drawing from basic elements, e.g. lines or circles
    • G06T11/203Drawing of straight lines or curves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20041Distance transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 양손 검출 및 추적 방법에 관한 것으로서, 영상으로부터 사람의 신체구조를 통해 어깨, 팔꿈치 및 손을 포함하는 양측 팔을 모델링하는 과정과, 모델링으로부터 양측 손을 검출하는 과정과, 그리고 영상과 이전 영상을 비교하여 팔꿈치와 손을 잇는 양측 직선의 기울기 및 기울기 변화량과 사람의 팔이 갖는 행동 제한 반경(팔은 바깥으로 굽지 않고, 팔의 길이는 일정 길이 이상 늘어나지 않고, 팔꿈치를 기준으로 팔을 굽힐 수 있는 점)을 이용하여 양측 손의 위치를 추적할 수 있다. 또한, KLT(Kanade-Lucas-Tomasi) 특징 정보를 회귀 분석하여 기울기 값으로 압축하여 표현하여 다량의 특징 정보 추출로 인한 계산 복잡도 증가 없이 겹침이 있는 물체의 움직임을 실시간 추출하여 추적할 수 있으므로 이동 물체 추출 및 추적 기술을 실세계에 적용할 수 있다. The present invention relates to a method for detecting and tracking both hands, comprising the steps of modeling both arms including the shoulders, elbows, and hands from an image through a human body structure, detecting both hands from modeling, Comparison of the images, the amount of inclination and inclination of the two straight lines between the elbow and the hand, and the limiting radius of the human arm (the arm does not bend outward, the length of the arm does not extend over a certain length, Can be used to track the position of both hands. In addition, KLT (Kanade-Lucas-Tomasi) feature information is regressed and compressed and expressed as a slope value to extract and track the movement of overlapping objects in real time without increasing the computational complexity due to the extraction of a large amount of feature information. Extraction and tracking techniques can be applied to the real world.

겹침이 있는 양손 추적, KLT 특징점 Two-Handed Overlap, KLT Feature Points

Description

양손 검출 및 추적 방법{METHOD FOR DETECTING AND TRACKING BOTH HANDS} METHOD FOR DETECTING AND TRACKING BOTH HANDS}

도 1은 본 발명의 일실시예로서, 카메라로 획득한 영상에서 양손의 움직임을 검출하고 추적하는 과정을 나타낸 흐름도, 1 is a flowchart illustrating a process of detecting and tracking movements of both hands in an image acquired by a camera according to an embodiment of the present invention;

도 2는 본 발명의 일실시예로서, 양손 추출과 추적을 위한 신체와 팔의 모델링 개념도, 2 is an embodiment of the present invention, a conceptual diagram of the modeling of the body and arm for both hand extraction and tracking,

도 3은 도 2의 팔에 대해 모델링한 도면, 3 is a model modeled for the arm of FIG.

도 4는 본 발명에서 사용한 영상 특징과 이 특징의 대표 값인 직선을 도시한 도면이다. 4 is a view showing a video feature used in the present invention and a straight line representative of the feature.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

HEAD : 머리 LSP : 좌측 어깨점 HEAD: Head LSP: Left Shoulder Point

LFA : 좌측 팔뚝 LEP : 좌측 팔꿈치점 LFA: Left Forearm LEP: Left Elbow Point

LA : 좌측 팔 LH : 좌측 손 LA: left arm LH: left hand

RSP : 우측 어깨점 RFA : 우측 팔뚝 RSP: Right Shoulder Point RFA: Right Forearm

REP : 우측 팔꿈치점 RA : 우측 팔 REP: right elbow point RA: right arm

RH : 우측 손 RH: Right hand

본 발명은 이동 물체 추출 및 추적 기술에 관한 것으로, 더욱 상세하게는 유사한 특징 정보를 갖고 있으며 겹침 있는 상황에도 불구하고 카메라 영상에서 움직이는 사람의 양손을 안정적으로 추출하여 추적하는 양손 검출 및 추적 방법에 관한 것이다. The present invention relates to a moving object extraction and tracking technology, and more particularly, to a two-hand detection and tracking method for stably extracting and tracking both hands of a moving person in a camera image despite the overlapping situation. will be.

손의 움직임 검출 및 추적은 컴퓨터 비젼의 응용 분야 및 로봇틱스, 영상감시 기술, 지능형 교통 시스템 등 모션 분석을 이용하는 다양한 산업분야에서 활용되어 왔다. 최근 컴퓨터 시각 분야 및 인간과 컴퓨터, 인간과 로봇간의 상호작용에서 이동 물체의 검출 및 추적에 대한 필요성이 증가됨에 따라 이의 응용 기술에 대한 연구가 더욱 활발히 진행되고 있다. Hand motion detection and tracking has been used in a variety of industries that use motion analysis, including computer vision applications and robotics, video surveillance technology, and intelligent transportation systems. Recently, as the necessity of detecting and tracking a moving object increases in the field of computer vision and the interaction between humans and computers, humans and robots, research on its application technology is being actively conducted.

이와 같이, 손 추적과 검출 알고리즘들은 제스쳐 인식과 모션 분석 등 다양한 분야에서 연구되어져 왔다. 현재까지 연구되어 온 손 검출과 추적 기술은 대부분 한 쪽 손에만 국한되어 왔다. 이는 양손을 동시에 추적할 경우, 양손을 구별할 만한 뚜렷한 특징 정보가 부재하기 때문이다. 양손 검출을 위해 고안된 기술들이 최근에 보고되고 있는데, 이들은 양손을 구별하기 위해, 양손이 겹쳐졌을 때의 유형을 분류하거나, 손과 팔꿈치까지의 음영정보를 이용하여 거리 변환 함수(Distance Transform)를 사용한다. 또한, 양손이 겹쳐졌을 때의 유형을 분류하기 위해 겹쳐진 물체의 고유 특징 정보 즉, 색깔, 형태 등을 이용해 물체를 검출하는 방법을 이용하기도 한다. As such, hand tracking and detection algorithms have been studied in various fields such as gesture recognition and motion analysis. Most of the hand detection and tracking techniques studied to date have been limited to one hand. This is because when two hands are simultaneously tracked, there is no distinct feature information for distinguishing both hands. Techniques designed for two-handed detection have recently been reported, which use a distance transform function to classify the types of overlapping hands or use shadowing information to the hands and elbows to distinguish them. do. In addition, a method of detecting an object by using unique feature information of the overlapping object, that is, color and shape, may be used to classify the type when the two hands overlap.

그러나, 손과 같이 색깔과 형태 등 고유 정보들이 매우 유사한 물체들과 겹칠 경우에 이를 분리하여 추적하기 어려울 뿐만 아니라, 양손의 겹쳐짐 형태가 분류한 유형에 속해야만 겹쳐진 양손의 위치를 알 수 있는 단점이 있었다. 한편, 거리 변환 함수를 이용할 경우, 영상에서 손과 팔꿈치까지 양손이 보여야만 한다는 한계가 있었다. 또한, 일반적인 이동 물체의 겹침 문제를 해결하는 경우에도 구별되는 특징 정보가 있으나, 이 특징 정보가 많아 역시 계산상 시간이 오래 걸리는 한계점이 있었다. 즉, 특징 정보가 많아짐에 따라 계산의 복잡도가 증가하여 물체의 실시간 추적이 실제적으로 어려운 단점이 있었다. However, when unique information such as color and shape overlaps with very similar objects such as hands, it is difficult to separate and track them, and the location of overlapping hands can be known only when the overlapping form of both hands belongs to the classified type. There was this. On the other hand, when using the distance conversion function, there was a limitation that both hands should be seen from the image to the hand and the elbow. In addition, even when solving the problem of overlapping a general moving object, there is a distinctive feature information, but this feature information has a lot of limitations that takes a long time in calculation. That is, as the feature information increases, the complexity of calculation increases, which makes it difficult to track an object in real time.

따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 사람의 몸과 팔의 구조를 반영하여 양손을 추적함과 아울러, KLT(Kanade-Lucas-Tomasi) 특징 정보를 회귀 분석하여 기울기 값으로 압축하여 계산 복잡도를 줄임으로써 계산 복잡도의 증가없이 양손의 움직임을 실시간으로 검출하여 추적하는 양손 검출 및 추적 방법을 제공하는데 있다. Accordingly, the present invention has been made to solve the above problems of the prior art, an object of the present invention is to track both hands to reflect the structure of the human body and arm, as well as KLT (Kanade-Lucas-Tomasi) characteristic information It is to provide a two-hand detection and tracking method that detects and tracks the movement of both hands in real time without increasing the computational complexity by reducing the computational complexity by compressing to a slope value by compressing the regression analysis.

상기와 같은 목적을 달성하기 위한 본 발명의 양손 검출 및 추적 방법은, (a) 영상으로부터 사람의 신체구조를 통해 어깨, 팔꿈치 및 손을 포함하는 양측 팔을 모델링하는 단계; (b) 상기 모델링으로부터 양측 손을 검출하는 단계; (c) 사람의 팔의 구조에 따른 움직임 범위 한계를 결정하는 단계; 및 (d) 상기 영상과 이전 영상을 비교하여 팔꿈치와 손을 잇는 양측 직선의 기울기 변화를 통해 양측 손의 위치를 추적하는 단계를 포함하여 이루어진 것을 특징으로 한다. The two-handed detection and tracking method of the present invention for achieving the above object comprises the steps of: (a) modeling both arms, including the shoulders, elbows and hands through the body structure of the person from the image; (b) detecting both hands from the modeling; (c) determining a range of motion limits according to the structure of the human arm; And (d) tracking the position of both hands by changing the inclination of the two straight lines connecting the elbow and the hand by comparing the previous image with the previous image.

이 때, 상기 (a) 단계에서 팔의 모델링은, 얼굴의 위치를 이용하여 어깨점의 위치를 검출하고, KLT(Kanade-Lucas-Tomasi) 특징점의 1차 회귀 분석을 통해 손을 검출하며, 상기 어깨점 위치와 손 위치로부터 팔꿈치를 추정한다. 한편, 상기 (a) 단계 이전에, 피부색 정보를 이용하여 손과 얼굴의 위치를 추출한다. In this case, in the step (a), the modeling of the arm detects the position of the shoulder point using the position of the face, and detects the hand through the first regression analysis of the KLT (Kanade-Lucas-Tomasi) feature point. The elbow is estimated from the shoulder point position and the hand position. Meanwhile, before the step (a), the positions of the hands and the face are extracted using the skin color information.

또한, 상기 (b) 단계에서 양측 손은, 움직임 정보와 피부색 정보를 정합하여 블랍 분석(Blob Analysis)를 이용하여 검출한다.
그리고, 상기 (c) 단계는, 양측 손의 가상 영역을 지정하는 단계로 사람의 팔이 갖는 행동 제한 반경과 2차 자기 회귀 모델에 의해 정해진다. 가상 영역은 팔은 바깥으로 굽지 않고, 팔의 길이는 일정 길이 이상 늘어나지 않으며 팔꿈치를 기준으로 팔을 굽힐 수 있는 세 가지 한계점을 따라 규정된다.
In addition, in step (b), both hands match motion information and skin color information and detect the result using blob analysis.
Step (c) is a step of designating a virtual area of both hands, which is determined by a behavior limit radius of the human arm and a second order autoregressive model. The hypothetical region is defined by three limitations: the arms do not bend outward, the length of the arms do not extend beyond a certain length, and the arms can be bent relative to the elbows.

마지막으로, 상기 (d) 단계는, 상기 영상의 이전 영상에 대해 회귀 분석을 수행하여 양측 손의 가상 영역이 겹치는가를 판별하는 단계; 및 상기 가상 영역이 겹치지 않을 경우에는 양측 손의 현재 위치를 확인하여 KLT(Kanade-Lucas-Tomasi) 특징점을 추출하고 회귀 분석하여 팔꿈치와 손을 잇는 양측 직선의 기울기를 산출하고, 상기 가상 영역이 겹칠 경우에는 상기 이전 영상에서 얻은 기울기를 회귀 분석하여 움직일 방향을 예측한 후 양측 손이 겹치는지를 다시 판별하고, 상기 양측 손의 겹칩여부 판별결과, 양측 손이 겹치지 않을 경우에는 상기 가상 영역이 겹치지 않을 경우를 따르고, 양측 손이 겹칠 경우에는 KLT(Kanade-Lucas-Tomasi) 특징점을 추출하여 양측 손의 위치를 확인하는 단계로 이루어진다. 이 때, 상기 가상 영역이 겹치지 않을 경우에 산출된 기울기는 다음 영상의 움직일 방향을 예측하는데 이용되며, 상기 양손이 겹칠 경우에 추출된 KLT 특징점은 상기 가상 영역이 겹치지 않을 경우에 산출하는 기울기의 직선을 이용할 수 있도록 회귀 분석을 수행한다. Finally, step (d) may include regression analysis of a previous image of the image to determine whether virtual regions of both hands overlap; And if the virtual regions do not overlap, check current positions of both hands to extract KLT (Kanade-Lucas-Tomasi) feature points, and regression analysis to calculate slopes of both straight lines connecting the elbows and hands, and overlap the virtual regions. In this case, regression analysis of the slope obtained from the previous image predicts the direction to move, and then re-determining whether the two hands overlap, and as a result of judging whether the two hands overlap, if the two hands do not overlap, the virtual region does not overlap. Follow and, if both hands overlap, the step consists of extracting the KLT (Kanade-Lucas-Tomasi) feature points to determine the position of both hands. In this case, the slope calculated when the virtual regions do not overlap is used to predict a moving direction of the next image, and the KLT feature points extracted when the two hands overlap, the straight line of the slope calculated when the virtual regions do not overlap. Perform a regression analysis to use.

이하, 본 발명의 양손 검출 및 추적 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. Hereinafter, a method for detecting and tracking both hands of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예로서, 카메라로 획득한 영상에서 양손의 움직임을 검출하고 추적하는 과정을 나타낸 흐름도이다. 1 is a flowchart illustrating a process of detecting and tracking movements of both hands in an image acquired by a camera as an embodiment of the present invention.

도 1에 도시된 바와 같이, 먼저 카메라로부터 영상을 획득한다(S1). As shown in FIG. 1, first, an image is acquired from a camera (S1).

획득된 영상은 이전 영상과 비교하여 움직임 정보만을 추출한다. 또한 획득된 영상에서 이동물체의 특징정보를 얻는다. 본 실시예에서는 손의 특징 정보를 추출하므로 피부색 정보를 이용하여 손과 얼굴의 위치를 추출한다(S2). The obtained image is extracted with only motion information compared with the previous image. Also, feature information of the moving object is obtained from the acquired image. In this embodiment, since the feature information of the hand is extracted, the positions of the hand and the face are extracted using the skin color information (S2).

이제 움직임 정보와 피부색 정보를 정합하여 블랍 분석(Blob Analysis)를 이용하여 양손을 추출한다(S3). Now, motion information and skin color information are matched to extract both hands using blob analysis (S3).

양손이 추출된 이후에는 팔의 행동 반경과 2차 자기 회귀 분석 모델을 이용하여 양손의 움직일 수 있는 가상 영역을 정하게 되는데, 본 발명에서는 양손 추적 모듈을 통해 양손이 겹쳐지는 경우와 그렇지 않을 경우로 분리한다. 그리고, 양손의 겹침 여부는 양손에 대한 각각의 예측된 가상 영역이 서로 겹침 여부로 알 수 있으므로, 먼저 가상 영역이 겹치는지를 판단하게 된다(S4). After the two hands are extracted, the motion radius of the arm and the second autoregressive analysis model are used to determine the virtual area in which the two hands can be moved. In the present invention, the two hands are separated through the two-hand tracking module and separated if not. do. Since the two hands overlap each other, it is determined whether the predicted virtual areas of the two hands overlap each other, and first, it is determined whether the virtual areas overlap (S4).

가상 영역에 겹침이 없을 경우에는 예측된 가상 영역과 블랍이 일치하는 위치가 손이 새로 움직인 위치가 된다. 이 때, 팔꿈치의 위치는 머리의 위치를 이용하여 어깨 점의 위치를 예측하고 다시 이를 이용하여 알아낼 수 있다. 팔꿈치와 손을 잇는 직선의 기울기는 겹침이 있을 경우에 사용될 이동 방향 정보를 위해(점선→S9) 저장된다(S5∼S8). If there is no overlap in the virtual region, the position where the blob coincides with the predicted virtual region becomes the position where the hand moves. At this time, the position of the elbow can be found by using the position of the head to predict the position of the shoulder point again. The inclination of the straight line connecting the elbow and the hand is stored for the moving direction information to be used in case of overlap (dotted line → S9) (S5 to S8).

여기서, 자기 회귀 분석이란 어떤 변수의 시계열에서 그 현재값이 과거의 값에 의존하여 결정되는 상태를 의미한다. 일반적으로

Figure 112006053725776-pat00001
에 관한 시계열이 기본적으로 한 시점 전의 변수값에 의존해서 결정되는 자기 회귀 과정이 있을 때, 그 관계를 수식으로 표현하면 Here, autoregressive analysis refers to a state in which a current value of a variable is determined depending on a past value. Generally
Figure 112006053725776-pat00001
When there is a self-regression process in which the time series of is basically determined based on the value of a variable before a point in time,

Figure 112006053725776-pat00002
--- 수학식 1
Figure 112006053725776-pat00002
--- Equation 1

이라고 쓸 수 있다. 여기서

Figure 112006053725776-pat00003
Figure 112006053725776-pat00004
은 변수
Figure 112006053725776-pat00005
의 한 시점 사이의 상호 관련을 구체적으로 나타내는 계수이며
Figure 112006053725776-pat00006
는 한 시점 전의 값만에 의해서는 계통적으로 설명할 수 없는 불규칙적인 변동부분을 나타내는 확률변수이다. 이는 자기 회귀 과정 중에서 가장 간단한 것으로 1단계 자기 회귀 과정이라고 한다. 본 발명에서 사용한 자기 회귀는 2단계 방법으로 아래의 식으로 표현된다. Can be written. here
Figure 112006053725776-pat00003
Wow
Figure 112006053725776-pat00004
Is a variable
Figure 112006053725776-pat00005
A coefficient that specifically describes the correlation between a point in time
Figure 112006053725776-pat00006
Is a random variable that represents an irregular variation that cannot be systematically explained only by the value before one point in time. This is the simplest of the autoregressive processes and is called a one-step autoregressive process. Self-regression used in the present invention is represented by the following equation in a two-step method.

Figure 112006053725776-pat00007
--- 수학식 2
Figure 112006053725776-pat00007
--- Equation 2

한편, 가상 영역에 겹침이 있을 경우에는 이전 영상에서 얻은 기울기 값을 2차 자기 회귀 모델에 적용시켜 왼손과 오른손이 움직일 방향을 예측하게 된다(S9). 이에 예측된 양손의 겹침여부를 판별하여(S10), 만일 예측된 방향을 통해 양손이 겹치지 않을 경우에는 양손이 가까이 있지만 겹쳐지지 않은 경우이므로 상기한 단계 S5 내지 단계 S8 과정을 수행하게 되고, 예측된 방향을 통해 양손이 겹치는 경우에는 현재 움직임과 피부색을 정합시킨 영상에서 Kanade-Lucas-Tomasi(KLT) 특징 정보를 추출한다(S11). 이 추출된 특징 정보들은 기울기로 얻은 직선을 이용할 수 있도록 필요한 중요 정보만이 남게 된다(점선→S7). 즉, 직선과의 거리를 측정하여 직선과의 거리가 충분히 가까운 특징 정보들만을 이용한다. 이 특징 정보들로 겹쳐진 양손의 위치를 나타낸다(S12). 이에 현재 영상이 생성됨과 아울러, 이전 영상으로부터 2차 회귀 분석 모델을 이용하여 양손의 가상 영역을 지정하게 된다(S13∼S15). KLT 특징 정보를

Figure 112006053725776-pat00008
로 나타내고 왼손과 오른손 각각에서 구한 직선을
Figure 112006053725776-pat00009
라고 하면 거리 식은 수학식 3과 같이 표현된다. On the other hand, if there is overlap in the virtual region, the gradient value obtained from the previous image is applied to the second order autoregressive model to predict the direction in which the left and right hands move (S9). In step S10, if the two hands are not overlapped through the predicted direction, the two hands are close but not overlapped. When both hands overlap in each direction, Kanade-Lucas-Tomasi (KLT) feature information is extracted from an image in which current motion and skin color are matched (S11). The extracted feature information leaves only the important information necessary to use the straight line obtained from the slope (dotted line → S7). That is, the distance from the straight line is measured to use only feature information that is sufficiently close to the straight line. The position of both hands superimposed with this feature information is shown (S12). In addition, the current image is generated, and a virtual region of both hands is designated using the second regression analysis model from the previous image (S13 to S15). KLT characteristic information
Figure 112006053725776-pat00008
And a straight line from each of the left and right hand
Figure 112006053725776-pat00009
In this case, the distance expression is expressed as in Equation 3.

Figure 112006053725776-pat00010
--- 수학식 3
Figure 112006053725776-pat00010
--- Equation 3

각각 왼손과 오른손에 해당하는 KLT 값들은 수학식 4에서 얻을 수 있다. The KLT values corresponding to the left hand and the right hand, respectively, can be obtained from Equation 4.

Figure 112006053725776-pat00011
--- 수학식 4
Figure 112006053725776-pat00011
--- Equation 4

이 때,

Figure 112006053725776-pat00012
값은 각 영상의 실험 조건에 따라 조절할 수 있다. At this time,
Figure 112006053725776-pat00012
The value can be adjusted according to the experimental conditions of each image.

여기서, KLT 특징값은 이미지상에서 추적을 목적으로 이미지의 명암의 변화정보를 이용하여 이미지에 나타난 질감 패턴에 따른 특징값으로 정의된다. 질감의 x와 y 양쪽 방향에서 명암 변화가 높은 곳을 찾게 된다. 즉, 명암을

Figure 112006053725776-pat00013
라 하 면, 국소 명암 변화 행렬은Here, the KLT feature value is defined as a feature value according to the texture pattern shown in the image using change information of the contrast of the image for tracking purposes on the image. You will find high contrast in both the x and y direction of the texture. In other words, the contrast
Figure 112006053725776-pat00013
If we say, the local contrast change matrix is

Figure 112006053725776-pat00014
---- 수학식 5
Figure 112006053725776-pat00014
---- Equation 5

로 표현 될 수 있다. 이 때,

Figure 112006053725776-pat00015
의 고유값(eigen values)이 미리 정의된 임계치
Figure 112006053725776-pat00016
를 넘게 되는 곳은 이미지 상에서 KLT 특징값으로 선택된다. Can be expressed as At this time,
Figure 112006053725776-pat00015
Threshold with predefined eigen values
Figure 112006053725776-pat00016
The area beyond the is selected as the KLT feature value on the image.

도 2는 본 발명의 일실시예로서, 양손 추출과 추적을 위한 신체와 팔의 모델링 개념도이다. 2 is a conceptual diagram of a body and an arm for both hands extraction and tracking as an embodiment of the present invention.

도 2를 참조하면, 머리(HEAD), 좌우측 어깨점(LSP, RSP), 좌우측 팔뚝(LFA, RFA), 좌우측 팔꿈치점(LEP, REP), 좌우측 팔(LA, RA), 좌우측 손(LH, RH)에 대해 모델링한다. 이와 같이, 양손의 각각에 대하여 어깨점과 팔꿈치점, 손의 위치를 이용한 양손 추출과 추적을 위한 신체와 팔을 모델링한다. Referring to Figure 2, the head (HEAD), left and right shoulder points (LSP, RSP), left and right forearms (LFA, RFA), left and right elbow points (LEP, REP), left and right arms (LA, RA), left and right hands (LH, Model for RH). As such, the body and arm are modeled for the extraction and tracking of both hands using the shoulder point, elbow point, and hand position for each hand.

한편, 촬영된 영상에서 신체의 각 영역을 구분하기 위해 영상 특징값에 서로 다른 색을 부여하거나, 특정 기호(+)를 이용하여 표시한다. 손에 + 표시로 영상 특징값을 표시하고 있음을 알 수 있다. 또한, 이러한 영상 특징값을 대표하는 특징값을 또 다른 색을 부여하여 라인으로 표시한다. Meanwhile, in order to distinguish each area of the body from the captured image, different colors are assigned to the image feature values or displayed using a specific symbol (+). It can be seen that the image feature value is indicated by a + mark on the hand. In addition, a feature value representing the image feature value is given another color and displayed as a line.

도 3은 도 2의 팔에 대해 모델링한 도면이다. 3 is a diagram modeling the arm of FIG. 2.

도 3을 참조하면, 신체와 팔을 모델링한 것을 구체화한 것이다. Referring to FIG. 3, the body and arm are modeled.

도 4는 본 발명에서 사용한 영상 특징과 이 특징의 대표 값인 직선을 도시한 도면이다. 4 is a view showing a video feature used in the present invention and a straight line representative of the feature.

도 4에서 새로운 영상에서 획득한 x 형태의 KLT 특징값은 팔이 움직이게 될 영역에 산재해 있게 된다. 이 때, 2차 자기 회귀 방법으로 예측한

Figure 112006053725776-pat00017
Figure 112006053725776-pat00018
값을 이용하여 얻게 되는 실선으로 표시된 직선을 갖게 된다. 이에 새로이 획득한 KLT 특징값
Figure 112006053725776-pat00019
과의 거리 D를 구하게 된다. 도 4로부터 수학식 1에서의 직선
Figure 112006053725776-pat00020
가 자기 회귀 분석을 이용한 예측된 값과 KLT 특징값의 회귀선으로 검증된 직선은 팔꿈치와 손과의 직선을 나타냄을 확인할 수 있다. In FIG. 4, the K-type feature values of the x-type acquired from the new image are scattered in the region where the arm is to move. At this time, predicted by the second order autoregressive method
Figure 112006053725776-pat00017
Wow
Figure 112006053725776-pat00018
You will have a straight line marked with a solid line that you get using the value. Newly acquired KLT feature value
Figure 112006053725776-pat00019
The distance D with is obtained. Straight line in Equation 1 from FIG.
Figure 112006053725776-pat00020
It can be seen that the straight line verified by the regression line of the predicted value and the KLT feature value using the autoregressive analysis represents the straight line between the elbow and the hand.

이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다. Although the present invention has been described in more detail with reference to some embodiments, the present invention is not necessarily limited to these embodiments, and various modifications can be made without departing from the spirit of the present invention.

상술한 바와 같이, 본 발명에 의한 양손 검출 및 추적 방법은, 로봇과 같이 실 환경에서 사용이 필요한 시스템에 적용 가능하도록 실시간으로 추출 및 추적할 수 있고, 또한 유사한 성질을 지닌 이동 물체를 겹침이 있는 상황에서 각각 추적이 가능한 장점을 가지고 있다. As described above, the two-hand detection and tracking method according to the present invention can be extracted and tracked in real time to be applicable to a system that requires use in a real environment such as a robot, and also has overlapping moving objects having similar properties. Each has the advantage of being tracked in situations.

Claims (7)

(a) 얼굴의 위치를 이용하여 어깨점의 위치를 검출하고, 영상의 명암이 미리 설정된 임계값 이상일 경우에 특징점으로 선택되는 KLT(Kanade-Lucas-Tomasi) 특징점에 대해 시계열에서 임의 변수의 현재값이 과거값에 의존하여 결정되어 지는 회귀 분석을 통해 손을 검출하며, 상기 어깨점 위치와 손 위치로부터 팔꿈치를 추정하여 양측 팔을 모델링하는 단계; (a) The position of the shoulder point is detected using the position of the face, and the current value of an arbitrary variable in time series for the KLT (Kanade-Lucas-Tomasi) feature point selected as the feature point when the contrast of the image is greater than or equal to a preset threshold. Detecting a hand through a regression analysis determined based on the past value, and modeling both arms by estimating an elbow from the shoulder point position and the hand position; (b) 상기 모델링으로부터 양측 손을 검출하는 단계; 및 (b) detecting both hands from the modeling; And (c) 사람의 팔의 구조에 따른 움직임 범위 한계를 이용하여 가상 영역을 결정하는 단계; 및 (c) determining a virtual region using a range of motion limits according to the structure of a human arm; And (d) 상기 영상과 이전 영상을 비교하여 팔꿈치와 손을 잇는 양측 직선의 기울기 변화를 통해 양측 손의 위치를 추적하는 단계(d) comparing the previous image with the previous image to track the position of both hands by changing the inclination of the two straight lines connecting the elbow and the hand; 를 포함하는 것을 특징으로 하는 양손 검출 및 추적 방법. Two-handed detection and tracking method comprising a. 삭제delete 제1항에 있어서, 상기 (a) 단계 이전에, The method of claim 1, wherein before step (a), 피부색 정보를 이용하여 손과 얼굴의 위치를 추출하는 것을 특징으로 하는 양손 검출 및 추적 방법. A method for detecting and tracking two hands, comprising extracting the positions of hands and faces using skin color information. 제1항에 있어서, 상기 (b) 단계에서 양측 손은, The method of claim 1, wherein in step (b), both hands are: 움직임 정보와 피부색 정보를 정합하여 블랍 분석(Blob Analysis)를 이용하여 검출하는 것을 특징으로 하는 양손 검출 및 추적 방법. A method for detecting and tracking two hands characterized in that the motion information and skin color information are matched and detected using blob analysis. 제1항에 있어서, 상기 (d) 단계는, The method of claim 1, wherein step (d) 상기 영상의 이전 영상에 대해 시계열에서 임의 변수의 현재값이 과거값에 의존하여 결정되어 지는 회귀 분석을 수행하여 양측 손의 가상 영역이 겹치는가를 판별하는 단계; 및 Determining whether virtual regions of both hands overlap by performing a regression analysis in which a current value of an arbitrary variable in a time series is determined based on a past value of a previous image of the image; And 상기 가상 영역이 겹치지 않을 경우에는 양측 손의 현재 위치를 확인하여 영상의 명암이 미리 설정된 임계값 이상일 경우에 특징점으로 선택되는 KLT(Kanade-Lucas-Tomasi) 특징점을 추출하고 회귀 분석하여 팔꿈치와 손을 잇는 양측 직선의 기울기를 산출하고, 상기 가상 영역이 겹칠 경우에는 상기 이전 영상에서 얻은 기울기를 회귀 분석하여 움직일 방향을 예측한 후 양측 손이 겹치는지를 다시 판별하고, 상기 양측 손의 겹칩여부 판별결과, 양측 손이 겹치지 않을 경우에는 상기 가상 영역이 겹치지 않을 경우를 따르고, 양측 손이 겹칠 경우에는 KLT(Kanade-Lucas-Tomasi) 특징점을 추출하여 양측 손의 위치를 확인하는 단계When the virtual regions do not overlap, the current position of both hands is checked to extract the KLT (Kanade-Lucas-Tomasi) feature point selected as a feature point when the contrast of the image is greater than or equal to a preset threshold, and the regression analysis is performed to extract the elbow and the hand. Calculates the slopes of both straight lines and recursively analyzes the slopes obtained from the previous image when the virtual regions overlap, and again determines whether the two hands overlap, and determines whether the two hands overlap. If the two hands do not overlap, the virtual region does not overlap, and if both hands overlap, extracting the KLT (Kanade-Lucas-Tomasi) feature points to check the position of both hands. 로 이루어진 것을 특징으로 하는 양손 검출 및 추적 방법. Two-handed detection and tracking method comprising the. 제5항에 있어서, 상기 가상 영역이 겹치지 않을 경우에 산출된 기울기는 다음 영상의 움직일 방향을 예측하는데 이용되는 것을 특징으로 하는 양손 검출 및 추적 방법. The method of claim 5, wherein the slope calculated when the virtual regions do not overlap is used to predict a moving direction of a next image. 제5항 또는 제6항에 있어서, 상기 양손이 겹칠 경우에 추출된 KLT 특징점은 상기 가상 영역이 겹치지 않을 경우에 산출하는 기울기의 직선을 이용할 수 있도록 회귀 분석을 수행하는 것을 특징으로 하는 양손 검출 및 추적 방법. The method of claim 5 or 6, wherein the extracted KLT feature points when the two hands overlap the two-hand detection, characterized in that to perform a regression analysis to use a straight line of the slope calculated when the virtual region does not overlap Tracking method.
KR1020060070230A 2005-12-08 2006-07-26 Method for detecting and tracking both hands KR100817298B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020050119707 2005-12-08
KR20050119707 2005-12-08

Publications (2)

Publication Number Publication Date
KR20070061231A KR20070061231A (en) 2007-06-13
KR100817298B1 true KR100817298B1 (en) 2008-03-27

Family

ID=38357168

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060070230A KR100817298B1 (en) 2005-12-08 2006-07-26 Method for detecting and tracking both hands

Country Status (1)

Country Link
KR (1) KR100817298B1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101581954B1 (en) 2009-06-25 2015-12-31 삼성전자주식회사 Apparatus and method for a real-time extraction of target's multiple hands information
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
KR101364571B1 (en) 2010-10-06 2014-02-26 한국전자통신연구원 Apparatus for hand detecting based on image and method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103544A (en) 1996-06-14 1998-01-06 Imeeji Joho Kagaku Kenkyusho Device for recognizing gesture
KR19990027482A (en) * 1997-09-30 1999-04-15 전주범 How to set the relation of object structure straight lines in image in pattern recognition system
JPH11191158A (en) 1997-12-26 1999-07-13 Hitachi Denshi Ltd Motion recognizing method
JP2000172163A (en) 1998-09-28 2000-06-23 Matsushita Electric Ind Co Ltd Manual operation segmenting method/device
KR20030073879A (en) * 2002-03-13 2003-09-19 주식회사 엘지이아이 Realtime face detection and moving tracing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH103544A (en) 1996-06-14 1998-01-06 Imeeji Joho Kagaku Kenkyusho Device for recognizing gesture
KR19990027482A (en) * 1997-09-30 1999-04-15 전주범 How to set the relation of object structure straight lines in image in pattern recognition system
JPH11191158A (en) 1997-12-26 1999-07-13 Hitachi Denshi Ltd Motion recognizing method
JP2000172163A (en) 1998-09-28 2000-06-23 Matsushita Electric Ind Co Ltd Manual operation segmenting method/device
KR20030073879A (en) * 2002-03-13 2003-09-19 주식회사 엘지이아이 Realtime face detection and moving tracing method

Also Published As

Publication number Publication date
KR20070061231A (en) 2007-06-13

Similar Documents

Publication Publication Date Title
Zhou et al. A novel finger and hand pose estimation technique for real-time hand gesture recognition
CN108446585B (en) Target tracking method and device, computer equipment and storage medium
Koide et al. Identification of a specific person using color, height, and gait features for a person following robot
Ibraheem et al. Survey on various gesture recognition technologies and techniques
KR100817298B1 (en) Method for detecting and tracking both hands
Kim et al. Simultaneous gesture segmentation and recognition based on forward spotting accumulative HMMs
CN103389799B (en) A kind of opponent&#39;s fingertip motions track carries out the method for following the tracks of
Zhang et al. Block covariance based L1 tracker with a subtle template dictionary
JP5598751B2 (en) Motion recognition device
Raheja et al. 3D gesture based real-time object selection and recognition
CN104969261A (en) Method and system for detecting moving objects
JP3657463B2 (en) Motion recognition system and recording medium on which motion recognition program is recorded
Wang et al. A new hand gesture recognition algorithm based on joint color-depth superpixel earth mover's distance
EP2366502B1 (en) Robot with hand-object movement correlations for online temporal segmentation of movement tasks
CN105261038A (en) Bidirectional optical flow and perceptual hash based fingertip tracking method
Araki et al. Real-time both hands tracking using camshift with motion mask and probability reduction by motion prediction
Takai Detection of suspicious activity and estimate of risk from human behavior shot by surveillance camera
Mi et al. A system for an anticipative front human following robot
Bhuyan et al. Key Video Object Plane Selection by MPEG-7 Visual Shape Descriptor for Summarization and Recognition of Hand Gestures.
Hannuksela et al. Face tracking for spatially aware mobile user interfaces
Kim et al. Integrated in-vehicle monitoring system using 3D human pose estimation and seat belt segmentation
US20230264367A1 (en) Visuotactile operators for proximity sensing and contact control
Kim et al. AR-KLT based hand tracking
JP6877072B1 (en) Area extraction device, area extraction method, and area extraction program
Chaudhary et al. Bent Fingers’ Angles Calculation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130304

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130730

Year of fee payment: 19