KR20160097513A - Paired-edge based hand tracking method using depth image - Google Patents

Paired-edge based hand tracking method using depth image Download PDF

Info

Publication number
KR20160097513A
KR20160097513A KR1020150019259A KR20150019259A KR20160097513A KR 20160097513 A KR20160097513 A KR 20160097513A KR 1020150019259 A KR1020150019259 A KR 1020150019259A KR 20150019259 A KR20150019259 A KR 20150019259A KR 20160097513 A KR20160097513 A KR 20160097513A
Authority
KR
South Korea
Prior art keywords
hand
peg
finger
detected
depth
Prior art date
Application number
KR1020150019259A
Other languages
Korean (ko)
Other versions
KR101683194B1 (en
Inventor
김진성
Original Assignee
선문대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 선문대학교 산학협력단 filed Critical 선문대학교 산학협력단
Priority to KR1020150019259A priority Critical patent/KR101683194B1/en
Publication of KR20160097513A publication Critical patent/KR20160097513A/en
Application granted granted Critical
Publication of KR101683194B1 publication Critical patent/KR101683194B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Abstract

The present invention relates to a paired-edge based hand tracking method, the method comprising the following steps: an initial hand detection step of using paired-edge group information of a shape in a depth image to detect a candidate finger and checking connection relation of the paired-edge group information to detect an initial hand; and a hand tracking step of tracking a shape including coordinates, which have a small depth change among stored coordinates, over a specific ratio in the next frame of a depth image to determine the tracked shape as a hand. According to the present invention, a main operation for initial hand detection and hand tracking is the same as an operation to detect paired-edge groups in an area of interest, so the initial hand detection and hand tracking are performed at the same time while keeping a fast speed. Further, since tracking is performed by using a simple method comparing a depth value of the current and the previous frame with respect to stored coordinates, an advantageous effect of requiring a less amount of operation is provided.

Description

깊이 영상에서 가장자리 쌍 기반의 손 추적 방법{Paired-edge based hand tracking method using depth image} {Pair-edge based hand tracking method using depth image}

본 발명은 깊이 영상에서 가장자리 쌍 기반의 손 추적 방법에 관한 것으로서, 초기 손(initial hand)을 검출하고 다음 프레임에서 깊이 변화가 작은 형체를 추적하는 손 추적 방법에 관한 것이다.The present invention relates to an edge pair-based hand tracking method in a depth image, and relates to a hand tracking method for detecting an initial hand and tracking a shape having a small depth change in a next frame.

모바일 단말기, 노트북 및 태블릿 등 카메라를 장착한 디바이스와 차량용 영상 녹화 장치와 CCTV 등 카메라의 급격한 보급으로 많은 영상이 만들어지고 있다. 한편으로는 스마트TV, 지능형 자동차, 가상 현실(AR: augmented reality), 착용형 장치(wearable device) 및 사물인터넷(IOT: internet of things) 등의 분야에서는 기존의 인간-컴퓨터 인터페이스(HCI: human-computer interface) 방식을 대신하여 좀 더 자연스러운 인터페이스 방식을 요구하고 있으며, NUI(natural user interface)/NUX(natural user experience)에 대한 연구가 활발히 진행되고 있다.Many images have been made by the rapid deployment of cameras, such as mobile handsets, laptops and tablets, cameras, video recorders for vehicles and CCTVs. On the other hand, in the field of smart TV, intelligent automobile, augmented reality (AR), wearable device and Internet of things (IOT), existing human-computer interface (HCI) computer interface (NIC), and natural user interface (NUI) / natural user experience (NUX).

이러한 흐름에 따라 영상 인식을 기반으로 한 HCI에 대한 연구는 얼굴, 눈, 팔, 다리 및 손 등에 대한 영상 인식이 필요하며, 이에 대한 많은 연구 결과가 발표되었다. 이러한 연구 결과는 게임 산업에 적용이 되어 상용화에 성공하였는데, 얼굴, 팔, 다리 및 손의 움직임을 인식하여 사용자의 조정이 가능한 게임이 개발되어 널리 보급되었다. Based on this trend, research on HCI based on image recognition requires image recognition for face, eyes, arms, legs and hands, and many research results have been published. The results of this research have been applied to the game industry and have been successfully commercialized. Games that can be adjusted by the user by recognizing the movements of the face, arms, legs and hands have been developed and widely used.

정밀한 제어를 위한 HCI를 위해서는 손에 대한 형상 및 움직임을 정확히 인식할 수 있는 기술이 필요하며 이에 대한 연구가 진행되고 있다. 일반적인 손 인식 연구는 초기 손 검출(initial hand detection), 형상 인식(shape recognition) 및 손 추적(hand tracking)으로 나눌 수 있다.In order to precisely control the HCI, a technique capable of accurately recognizing the shape and movement of the hand is needed and studies are underway. General hand recognition studies can be divided into initial hand detection, shape recognition, and hand tracking.

색 영상을 기반으로 초기 손을 찾는 방법은 조명의 영향을 크게 받으며, 불필요한 배경(cluttered background)인 경우 손을 정확히 세분화(segmentation)하기 어렵다. 조명의 영향을 줄이기 위해 세분화에 HSV 색 변환을 사용한 연구가 진행되었다. 그러나 여전히 조명에 의한 영향을 받고, 수립된 모델과 다른 색의 손인 경우 손을 인식하지 못하는 문제가 있다.The method of finding the initial hand based on the color image is largely influenced by the illumination, and it is difficult to segment the hand in the case of a cluttered background. To reduce the effect of lighting, studies using HSV color transformations have been conducted on the subdivision. However, there is still a problem that the hand is not recognized when it is influenced by the illumination and the hand of a color different from the established model.

세분화를 위해 배경을 찾은 후 전경과 배경을 분리하는 접근이 있다. 이전 프레임들에서 배경을 저장한 후, 현재 프레임과의 차이 계산으로 전경과 배경을 분리하는 방법이 제시되었으나, 카메라가 이동하여 배경이 계속 변화하거나, 전경의 물체가 장시간 고정된 경우에는 전경과 배경 분리가 어려워지는 문제가 있다.  There is an approach to separate the foreground and background after finding the background for subdivision. After storing the background in the previous frames, a method of dividing the foreground and the background by calculation of the difference from the current frame has been proposed. However, if the background moves continuously or the foreground objects are fixed for a long time, There is a problem that separation becomes difficult.

또는 움직임이 있는 부분만을 검출하고, 검출된 영역 중에서 피부 색 범위에 해당하는 부분을 손으로 인식하는 연구 결과가 있으나, 이 경우 역시 손이 아닌 객체의 색이 피부색의 범위에 포함된다면 손으로 분류되는 문제가 있다. There is a research result in which only the part with motion is detected and the part corresponding to the skin color range is recognized by hand among the detected areas. In this case, however, if the color of the object other than the hand is included in the skin color range, there is a problem.

Haar-like feature와 Adaboost를 이용하는 방법도 제안되었는데, 이러한 방법은 초기 손을 찾거나 또는 손 형상을 인식한다. 이 방법은 얼굴 검출에 매우 성공적으로 적용되었으나, 손의 경우 객체 사이에 존재하는 배경이 결과에 영향을 주며, 손 모양이 매우 다양하기 때문에 높은 인식률을 얻기 어렵다. 또한 회전을 고려하는 경우 연산량이 증가할 수 있다. A method using Haar-like features and Adaboost has also been proposed, which finds the initial hand or recognizes the shape of the hand. This method is applied to face detection very successfully, but it is difficult to obtain a high recognition rate because the background between objects in the hand affects the result and the hand shape is very diverse. Also, when considering rotation, the amount of computation can be increased.

깊이 영상(depth image)에서는 반사된 배경과 객체의 분리가 쉽고 조명이나 색상 변화의 영향을 받지 않기 때문에 색 영상에서보다 세분화가 비교적 쉽게 수행될 수 있다. 깊이 영상은 스테레오 카메라와 TOF(time-of-flight) 방식이 있었으며, MS Kinect가 보급되면서 깊이 영상이 널리 활용되고 있다. 그러나 깊이를 이용하여 세분화가 쉽게 수행되더라도 초기 손을 찾는 방법은 쉽지 않다. In the depth image, it is easy to separate the reflected background and object, and the subdivision can be performed relatively easily in color image because it is not affected by illumination or color change. Depth images are stereo cameras and time-of-flight (TOF) methods. Depth images are widely used with the spread of MS Kinect. However, even if subdivision is easily performed using depth, it is not easy to find an initial hand.

깊이 영상에서도 배경과 전경을 분리하기 위해, 배경을 저장하거나 움직임이 있는 부분만을 검출하는 방법이 이용되었다. HCI로 활용이 될 때 손이 다른 객체들 보다 카메라로부터 가장 가까운 물체라는 가정을 가지고, 깊이 영상에서 가장 가까운 객체를 찾아 초기 손으로 판단하는 방법이 많이 활용되었다. To separate the background from the foreground in depth image, a method of storing the background or detecting only the part with motion was used. When HCI is used, the method of judging the nearest object in the depth image by early hand is widely used with the assumption that the hand is the closest object from the camera to other objects.

이러한 방법들에서 정확성을 향상시키기 위해 피부색을 이용하거나, 몸을 찾고 몸과 손의 공간적 상관관계를 활용하는 방법이 제안되었다. 깊이의 범위를 지정하고 이 범위에 있는 객체를 손으로 가정한다. 손보다 비교적 검출이 쉬운 얼굴 혹은 몸을 먼저 찾은 후 이 정보를 이용하여 손을 찾는 방법도 제안되었다. 손은 모양이 복잡하고 변화가 크기 때문에 검출이 어렵다. 또한, 회전, 스케일 및 전환을 고려할 때 손 검출은 많은 연산을 요구한다. 현재까지 연구된 손 검출 방법들은 대체로 제약 조건이 있거나 많은 연산량을 요구한다.To improve accuracy in these methods, a method has been proposed that uses skin color, finds the body, and utilizes the spatial correlation of the body and the hand. Specify a range of depths and assume the objects in this range by hand. A method of finding a hand using this information after a face or body, which is relatively easy to detect than a hand, was proposed. The hand is complex in shape and difficult to detect because of large changes. In addition, when considering rotation, scale, and conversion, hand detection requires many operations. So far, the hand detection methods that have been studied are generally limited or require a large amount of computation.

손 형상 인식을 하기 위해 형상 기반의 방법(shape-based method)들이 제안되었다. Convex hull을 이용하여 펼쳐진 손가락과 손가락의 방향을 인식하거나, 손가락을 인식한 결과가 발표되었다. 포인트와 손의 외곽선에 위치한 픽셀들과의 거리를 측정한 후 손의 형상을 분석하거나, 이 거리를 이용하여 손가락 끝을 정의하는 방법이 시도되었다. 이러한 방법에서는 거리뿐만 아니라 외곽선의 곡률, 검출된 요소들 사이의 거리, 각도 등의 관계가 활용된 연구도 있다. 그 외에 원과 바(bar)의 형태를 찾고 이들의 연결 관계를 분석하여 손과 손가락을 인식하는 방법도 제안되었다. Shape-based methods have been proposed for hand shape recognition. Convex hull was used to recognize the direction of the fingers and fingers laid out, or to recognize the fingers. After measuring the distance between the point and the pixels on the outline of the hand, a method of analyzing the shape of the hand or defining the fingertip using this distance has been tried. In this method, not only the distance but also the curvature of the outline, the distance between the detected elements, and the angle are utilized. In addition, a method of recognizing hands and fingers was proposed by looking at the shapes of circles and bars and analyzing their connections.

학습 기반의 방법(learning-based method)에서는 Viola and Jones 방법을 사용하는 방법이 가장 널리 사용되었다. 그 외에 새로운 특징을 제시하고 Adaboost를 사용한 방법도 제시되었다. 피부색을 이용하여 후보 영역을 찾고 Viola and Jones 방법을 이용하여 찾은 얼굴을 제거하였다. 또한, 탬플릿 매칭으로 손이 아닌 영역을 제거한 후 SIFT를 사용한 SVM으로 형상을 인식하였다. 손 추적을 위해 이전 프레임에서 찾은 손과 현재 프레임에서 찾은 손 사이의 거리를 이용하여 추적하였다. 손 추적에 Kalman filter, CAMSHIFT 및 optical flow와 같은 다양한 방법들이 사용될 수 있다.In the learning-based method, the Viola and Jones method is the most widely used method. In addition, new features and methods of using Adaboost are also presented. Using the skin color, candidate regions were found, and the faces were removed using the Viola and Jones method. In addition, the shape was recognized by SVM using SIFT after removing non-hand regions by template matching. For hand tracking, we used the distance between the hand found in the previous frame and the hand found in the current frame. Various methods such as Kalman filter, CAMSHIFT and optical flow can be used for hand tracking.

기존에 제안된 초기 손을 찾는 방법에서는 깊이 거리에 대한 가정을 제거할 필요가 있다. 또한, 얼굴이나 몸과 같은 다른 객체를 찾은 후에 손을 찾는 방법은 손 이외의 다른 객체를 찾는 연산이 추가되어야 하며, 영상에서 손만 존재하는 경우에 대해서는 적용할 수 없다. 손과 배경을 분리하는 방법이 제안되었으나, 배경과 카메라가 고정되어 있어야 하고, 일정 시간 이내에 손의 움직임이 있어야 한다는 제약 조건이 있다. It is necessary to remove the assumption of the depth distance in the conventional method of finding the initial hand. In addition, a method for finding a hand after finding another object such as a face or a body must be an operation for finding an object other than a hand, and can not be applied to a case where only a hand exists in an image. A method of separating the hand and the background has been proposed. However, there is a restriction that the background and the camera should be fixed and the movement of the hand must be within a certain time.

손 형상 인식 방법에서, 형상 기반의 방법의 경우 초기 손을 찾는 방법과 형상 인식을 위한 방법이 상이한 경우가 많다. 따라서, 초기 손 검출과 검출된 손 형상 분석 모듈이 별도로 구성이 되며, 지속적으로 새로운 손이 발생할 가능성이 있는 경우 이 두 가지 방법이 동시에 계속 수행되어야 하는 부담이 있다. In the hand shape recognition method, in the case of the shape-based method, the method of finding the initial hand and the method of recognizing the shape are often different. Therefore, if the initial hand detection and the detected hand shape analysis module are configured separately, and there is a possibility that a new hand may be continuously generated, there is a burden that these two methods must be continuously performed simultaneously.

또한, 손가락 및 손에 대한 기하학적 정보 분석이 제시된 발명들이 있으나, 비교적 복잡한 연산을 수행한다. 따라서 초기 손을 찾는 방법과 형상 분석 방법이 유사하도록 하여 시스템의 효율을 높일 필요가 있다. 학습 기반의 방법의 경우 초기 손 검출에 대한 문제는 비교적 적으나, 손 모양의 다양성과 손가락 사이의 배경에 의한 영향으로 그 성능이 제한되는 문제가 있다.In addition, there are inventions in which geometric information analysis of the fingers and hands is presented, but perform relatively complicated calculations. Therefore, it is necessary to increase the efficiency of the system by making the method of finding the initial hand and the shape analysis method similar. In the learning - based method, the problem of the initial hand detection is relatively small, but the performance is limited by the influence of the diversity of the hand shape and the background between the fingers.

특허문헌 1은 손가락 패턴을 이용한 손 모양 인식 장치 및 방법에 관한 것으로서, 손가락 패턴을 미리 설정하고, 손가락 특징데이터를 검출하여 후보패턴을 검출한 후 후보패턴과 일치하는 손가락 패턴을 손 모양으로 인식하기 때문에, 다양한 손 모양과 변화하는 손 모양을 추적하는 데는 한계가 있다.Patent Literature 1 relates to a hand shape recognition apparatus and method using a finger pattern, in which a finger pattern is previously set, finger feature data is detected to detect a candidate pattern, and a finger pattern matching the candidate pattern is recognized as a hand Therefore, there are limitations in tracking various hand shapes and changing hand shapes.

따라서 잡음의 영향을 적게 받고 안정적이며 적은 연산량으로 초기 손을 검출하고, 검출된 손을 추적하는 기술이 필요하다.Therefore, there is a need for a technique for detecting initial hand and detecting detected hand with little influence of noise, stable and low calculation amount.

1. 한국 공개특허 제10-2013-0109817호1. Korean Patent Publication No. 10-2013-0109817

본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 초기 손(initial hand)을 검출하고 다음 프레임에서 깊이 변화가 작은 형체를 추적하는 손 추적 방법을 제공하고자 한다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and it is an object of the present invention to provide a hand tracking method for detecting an initial hand and tracking a shape having a small depth change in a next frame.

상기의 해결하고자 하는 과제를 위한 본 발명에 따른 객체 검출 방법은, 깊이 영상(depth image)에서 객체의 가장자리 쌍 그룹(PEG: paired-edge group)의 정보를 이용하여 손가락 후보(FC: finger candidate)를 검출하고 이들 사이의 연결 관계를 파악하여 초기 손(initial hand)을 검출하는 초기 손 검출 단계 및 상기 깊이 영상의 다음 프레임에서 저장된 좌표들 중 이전 프레임보다 깊이 변화가 작은 좌표를 일정 비율 이상 포함한 형체를 추적하여 손으로 판단하는 손 추적 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of detecting an object using a finger candidate (FC) using a PEG (paired-edge group) information in a depth image, Detecting an initial hand by detecting a connection relationship between the first frame and the second frame, and detecting an initial hand by detecting an association between the first frame and the second frame, And a hand tracking step of judging by hand the hand tracking.

본 발명의 바람직한 실시예로서, 상기 초기 손 검출 단계는, 검출된 상기 FC 중에서 깊이의 차이가 일정 범위 이내에 있는 FC들을 그룹으로 설정하는 손가락 후보 그룹화(FC grouping) 단계, 상기 FC 그룹 내에서 PEG를 재생성하여 FC와 겹치는 PEG을 확인하여 연결된 가장자리 쌍 그룹(connected-PEGs)을 생성하는 연결된 가장자리 쌍 그룹(connected-PEGs) 생성 단계, 생성된 상기 연결된 가장자리 쌍 그룹에 연결된 FC의 수가 5개인 경우 손으로 판단하는 손 판단 단계 및 손가락 및 손바닥의 연결 위치 정보를 이용하여 손바닥 영역을 검출하는 손바닥 영역 검출 단계를 포함하는 것을 특징으로 한다. In the preferred embodiment of the present invention, the initial hand detection step may include a finger candidate grouping (FC grouping) step of setting FCs having a depth difference within a certain range among the detected FCs as a group, (Connected-PEGs) generating the connected PEGs by confirming the PEG overlapping with the FC to generate connected PEGs, and if the number of FCs connected to the generated connected edge pair group is 5, And a palm area detecting step of detecting a palm area using the hand determining step of judging and the connecting position information of the finger and the palm.

본 발명의 바람직한 실시예로서, 상기 연결된 가장자리 쌍 그룹 생성 단계는, 입력된 상기 깊이 영상에 대하여 단일 방향으로 라인 스캔하여 각 가장자리 쌍의 시작과 끝점을 잇는 라인과 상기 손가락 후보가 겹치는 경우, 상기 손가락 후보와 각 가장자리 쌍 그룹이 연결되어 있는 것으로 판단하는 것을 특징으로 한다.In a preferred embodiment of the present invention, the connected edge pair group generation step includes a step of line-scanning the inputted depth image in a single direction and, when the finger candidate overlaps with a line connecting the start and end points of each edge pair, And judges that the candidate and each edge pair group are connected to each other.

본 발명의 바람직한 실시예로서, 상기 손바닥 영역 검출 단계는, 검출된 상기 초기 손의 손바닥 영역의 크기를 계산하고 저장하는 단계, 저장된 상기 손바닥 영역의 크기를 이용하여 깊이에 따른 손바닥 영역의 크기를 환산하여 저장하는 단계 및손에 포함된 FC가 저장하고 있는 PEG 생성이 종료되는 끝 가장자리 쌍 좌표의 시작-끝을 연결한 J-line을 이용하여 손바닥 영역의 위치를 결정하는 단계를 포함하는 것을 특징으로 한다. In a preferred embodiment of the present invention, the palm area detecting step may include calculating and storing the detected palm area of the initial hand, calculating a size of the palm area according to the depth using the stored palm area size, And determining the position of the palm area by using the J-line connecting the start and end of the end edge pair coordinate at which the PEG generation stored in the hand is terminated .

본 발명의 바람직한 실시예로서, 상기 손 추적 단계는, 검출된 손을 구성하는 connected-PEGs의 최대 및 최소 좌표값을 이용하여 사각형의 관심영역(ROI)의 범위를 저장하는 단계 및 상기 관심영역 내에서 각 connected-PEGs에 포함된 손 추적 점(HTP: hand tracking point)의 (x, y, z) 좌표를 저장하는 단계를 더 포함한다.In a preferred embodiment of the present invention, the step of tracking the hand comprises the steps of storing a range of ROIs of a rectangle using the maximum and minimum coordinate values of the connected PEGs constituting the detected hand, (X, y, z) coordinates of a hand tracking point (HTP) included in each connected-PEGs in the at least one connected PEG.

본 발명의 바람직한 실시예로서, 상기 손 추적 단계는, 상기 깊이 영상의 다음 프레임에서 FC를 검출하는 FC 검출 단계, 검출된 상기 FC 중에서 깊이의 차이가 일정 범위 이내에 있는 상기 FC들을 그룹으로 설정하는 손가락 후보 그룹화 단계, 상기 관심영역 내에서 PEG을 재생성하여 FC와 겹치는 PEG을 확인하여 connected-PEGs를 생성하는 연결된 가장자리 쌍 그룹 생성 단계, 상기 connected-PEGs에 포함된 상기 HTP를 이용하여 connected-PEGs를 추적된 손으로 판단하는 손 판단 단계, 상기 손 판단 단계에서 손으로 판단이 되면 다음 프레임을 위한 관심영역 설정, HTP 생성 및 손바닥 영역을 검출하는 것을 특징으로 한다. In the preferred embodiment of the present invention, the hand tracking step may include an FC detection step of detecting FC in the next frame of the depth image, a step of detecting the FCs in which the difference in depth is within a certain range among the detected FCs, Candidate PEGs in the region of interest, regenerating PEG within the region of interest to identify PEGs that overlap with FC to generate connected-PEGs, tracing connected PEGs using the HTPs contained in the connected PEGs, The HTP generation and the palm area are detected when the hand is determined by the hand determination step.

본 발명의 바람직한 실시예로서, 상기 손 판단 단계는, 시작과 끝 PE를 잇는 라인에 상기 HTP가 위치하고, 저장된 HTP의 깊이 값이 시작 가장자리 쌍과 끝 가장자리 쌍의 z 좌표의 일정 범위 내에 있는 경우 HTP가 가장자리 쌍(PE)에 포함된 것으로 판단하는 것을 특징으로 한다.In a preferred embodiment of the present invention, the hand determining step determines that the HTP is located on a line connecting the start and end PEs, and when the depth value of the stored HTP is within a certain range of the z coordinates of the start edge pair and the end edge pair, Is included in the edge pair (PE).

본 발명의 바람직한 실시예로서, 상기 손 판단 단계는, 상기 연결된 PEG에 포함된 상기 HTP의 개수를 세어 각 연결된 PEG 중에서 전체 HTP의 25% 이상을 포함하는 동시에 상기 관심영역 내에서 HTP를 가장 많이 포함한 connected-PEGs를 추적된 손으로 판단하고, 상기 connected-PEGs 중에서 전체 HTP의 25% 이상을 포함하는 connected-PEGs가 없는 경우 손이 사라진 것으로 판단한다.In a preferred embodiment of the present invention, the hand judgment step may include counting the number of HTPs included in the connected PEG to include at least 25% of the total HTPs in each connected PEG, and at the same time, connected-PEGs are judged by the traced hand, and it is judged that the hand is disappeared when there is no connected-PEGs including 25% or more of the total HTP among the connected-PEGs.

본 발명은 깊이 영상의 객체 세분화가 비교적 쉽고, 초기 객체 검출은 배경에 의한 영향을 적게 받는다. 따라서 배경이 복잡하거나, 배경이 변하더라도 초기 객체 검출에 큰 영향을 받지 않는다. 또한, 깊이 범위에 대한 제약 조건이 없어 깊이 영상의 해상도가 충분하여 어떤 깊이 위치에서도 초기 객체를 찾을 수 있다.In the present invention, object segmentation of depth images is relatively easy, and initial object detection is less affected by the background. Therefore, even if the background is complicated or the background is changed, it is not greatly affected by the initial object detection. Also, since there is no constraint on the depth range, the resolution of the depth image is sufficient and the initial object can be found at any depth position.

또한, 본 발명은 외곽선의 잡음 영향을 적게 받기 때문에 잡음을 제거하기 위한 median이나 dilation 등의 전처리가 필요하지 않으며, 가장자리 픽셀들의 연결이 아닌 객체를 구성하는 라인의 연결 관계를 분석하기 때문에 기존의 가장자리 점들의 정렬을 이용하는 방법보다 연산량이 적으면서 잡음에 의한 영향이 적다.In addition, the present invention does not require pre-processing such as median or dilation for eliminating noises because it is affected less by the noise of the outline, and analyzes the connection relationship of the lines constituting the object, not the edge pixels, The computation amount is less than the method using the alignment of the points and the influence by the noise is small.

본 발명의 손 추적은 손의 모양을 분석하지 않기 때문에 다양한 모양의 손을 추적할 수 있다Since the hand tracking of the present invention does not analyze the shape of the hand, it can track various shapes of hands

또한, 본 발명의 손 추적은 저장된 좌표들에 대해서 현재 프레임과 이전 프레임의 깊이값을 비교하는 단순한 방법을 사용하기 때문에 연산량이 많지 않다. In addition, the hand tracking of the present invention uses a simple method of comparing the depth value of the current frame with the depth value of the previous frame with respect to stored coordinates, so that the amount of computation is not so large.

또한, 본 발명의 손 추적은 손 추적 점(HTP)를 이용하여 이전 손과 현재의 손의 connected-PEGs 사이에 공통으로 존재하는 HTP의 수를 계산하는 간단한 방법이므로, 손 모양이 복잡하더라도 지속적으로 추적할 수 있다.In addition, the hand tracking of the present invention is a simple method of calculating the number of HTPs commonly present between connected-PEGs of a previous hand and a current hand using a hand tracking point (HTP) You can trace.

도 1은 본 발명에 따른 가장자리 쌍(PE) 및 가장자리 쌍 그룹(PEG)를 나타낸 도면.
도 2는 본 발명에 따른 PEG 생성을 나타낸 영상.
도 3은 본 발명에 따른 PEG의 각도 계산을 나타낸 도면.
도 4는 본 발명에 따른 PEG의 두께 및 길이 계산을 나타낸 도면.
도 5는 본 발명에 따른 손가락 PEG를 나타낸 영상.
도 6은 본 발명에 따른 손가락 후보 생성에서 스캔 라인과 손가락 방향의 각도에 대한 영향을 나타낸 영상.
도 7은 본 발명에 따른 4가지 회전 방향으로부터 얻어진 손가락 후보를 통합한 손가락 후보를 나타낸 영상.
도 8은 본 발명에 따른 손가락 후보로 검출된 손가락의 외곽선을 나타낸 영상.
도 9는 본 발명에 따른 손가락 후보 및 손가락 후보 그룹을 나타낸 영상.
도 10은 본 발명에 따른 손가락 후보 그룹의 관심영역(ROI)과 손으로 판단된 연결된 가장자리 쌍 그룹(connected-PEGs)에 포함된 가장자리 쌍 그룹을 나타낸 영상.
도 11은 본 발명에 따른 J-line을 나타낸 영상.
도 12는 본 발명에 따른 검출한 손바닥 영역을 나타낸 영상.
도 13은 본 발명에 따른 손바닥 영역의 확장을 나타낸 영상.
도 14는 본 발명에 따른 손 추적을 위한 손 추적 점(HTP) 생성을 나타낸 영상.
도 15는 본 발명에 따른 손 검출 및 손 추적 방법의 동작 순서를 나타낸 순서도.
도 16은 본 발명에 따른 손 검출 및 손 추적 방법의 흐름을 나타낸 순서도.
도 17은 본 발명에 따른 가림(occlusion)에 따른 손 추적을 나타낸 영상.
도 18은 본 발명에 따른 초기 손 검출 테스트 영상.
도 19는 왜곡이 발생한 초기 손 검출의 나타낸 영상.
도 20은 본 발명에 따른 검출된 손가락 및 손바닥의 추적 결과를 나타낸 영상.
도 21은 본 발명에 따른 4가지 깊이의 경우에 대해 추적된 손가락 팁 좌표 및 실측 정보를 나타낸 도면.
도 22는 본 발명에 따른 손 검출 결과를 나타낸 영상.
Figure 1 shows an edge pair (PE) and an edge pair group (PEG) according to the present invention.
Figure 2 is an image showing PEG production according to the present invention.
Figure 3 shows the angular calculation of PEG according to the invention.
4 illustrates calculation of thickness and length of a PEG according to the present invention.
5 is a view showing a finger PEG according to the present invention.
FIG. 6 is a graph illustrating the influence of angles of scan lines and finger directions in finger candidate generation according to the present invention. FIG.
7 is an image showing finger candidates incorporating finger candidates obtained from four directions of rotation according to the present invention.
8 is a view showing an outline of a finger detected by a finger candidate according to the present invention.
9 is a view showing a finger candidate and a finger candidate group according to the present invention.
FIG. 10 is a view showing an edge pair group included in connected-PEGs determined by hand and ROI of a finger candidate group according to the present invention.
11 is a view showing a J-line according to the present invention.
12 is an image showing the detected palm area according to the present invention.
13 is an image showing an extension of the palm area according to the present invention.
FIG. 14 is an image showing generation of a hand trace point (HTP) for hand tracking according to the present invention; FIG.
15 is a flowchart showing an operation procedure of a hand detection and hand tracking method according to the present invention.
16 is a flowchart showing a flow of a hand detection and hand tracking method according to the present invention.
17 is a view showing a hand trace according to the occlusion according to the present invention.
18 is an initial hand detection test image according to the present invention.
19 is a view showing an image of initial hand detection in which distortion occurs.
20 is an image showing the result of tracking the detected finger and palm according to the present invention.
Figure 21 shows tracked finger tip coordinates and measurement information for four depth cases according to the present invention;
22 is a view showing a hand detection result according to the present invention.

이하 본 발명의 실시를 위한 구체적인 실시예를 도면을 참고하여 설명한다. 예시된 도면은 발명의 명확성을 위하여 핵심적인 내용만 확대 도시하고 부수적인 것은 생략하였으므로 도면에 한정하여 해석하여서는 아니 된다.Hereinafter, embodiments of the present invention will be described with reference to the drawings. The drawings illustrate only the essential features for the sake of clarity of the invention and are not to be construed as limiting the drawings.

본 발명에 따른 가장자리 쌍 기반의 손 추적 방법은 초기 손 검출 단계 및 손 추적 단계를 포함한다.The edge pair-based hand tracking method according to the present invention includes an initial hand detection step and a hand tracking step.

상기 초기 손 검출 단계는 깊이 영상(depth image)에서 형체의 가장자리 쌍 그룹(PEG: paired-edge group)의 기하학적 정보를 이용하여 손가락 후보(FC: finger candidate)를 검출하고, 검출된 상기 손가락 후보들 사이의 연결 관계를 파악하여 초기 손(initial hand)을 검출하는 단계이다.In the initial hand detection step, a finger candidate (FC) is detected using geometric information of a paired-edge group (PEG) in a depth image, And detecting an initial hand (initial hand).

깊이 영상에서 객체의 왼쪽과 오른쪽의 가장자리인 가장자리 쌍(PE: paired-edge)을 이용하여 손가락이 될 수 있는 PEG를 검출하고, 이를 이용하여 손을 검출하는 방법을 제시한다. 수직방향으로 연결된 가장자리 쌍들의 집합인 PEG으로 객체를 표현하며, 이 PEG들 중 손가락이 될 수 있는 형상을 가진 손가락 후보를 검출한다. In the depth image, a PEG that can be a finger is detected using the edge pair (PE: paired-edge) on the left and right sides of the object, and a method of detecting the hand using the PEG is presented. The object is represented by PEG, which is a set of vertically connected edge pairs, and a finger candidate having a shape that can be a finger among the PEGs is detected.

PEG들 중 서로 연결된 가장자리 쌍 그룹(PEG)들의 집합으로 하나의 형체를 표현할 수 있는데, 이렇게 연결된 가장자리 쌍 그룹(PEG)들 중에서 손을 검출한다.A set of linked pairs of edge pairs (PEG) of PEGs can represent a single shape, which detects hand among the connected edge pair groups (PEGs).

상기 손 추적 단계는 깊이 영상의 다음 프레임에서 저장된 좌표들 중 깊이 변화가 작은 좌표를 일정 비율 이상 포함한 형체를 추적하여 손으로 판단하는 단계이다. 현재 프레임에서 검출된 손의 다음 프레임에서의 위치와 형상 정보를 계산한다. 연산량이 적은 간단한 방법을 적용하여 추적과 형상 분석을 할 수 있다. 초기 손 검출에서는 5개의 손가락을 모두 편 경우의 손을 검출한다. 그러나 손 추적에서는 임의의 형상을 가진 손에 대하여 추적하고, 손가락 검출 및 형상 분석을 수행한다.The hand tracking step is a step of manually determining a shape that includes a coordinate having a small depth variation among a plurality of coordinates stored in the next frame of the depth image. The position and shape information in the next frame of the hand detected in the current frame is calculated. Tracking and shape analysis can be done by applying a simple method with a small amount of computation. In the initial hand detection, all five fingers detect the hand of the hand. However, in the hand tracking, a finger having an arbitrary shape is traced, and finger detection and shape analysis are performed.

손가락 후보 검출 단계는 가장자리 쌍 검출 단계, PEG 생성 단계, PEG 기하학적 정보 계산 단계, 손가락 후보 판단 및 정보 저장 단계를 포함한다.The finger candidate detection step includes an edge pair detection step, a PEG generation step, a PEG geometric information calculation step, a finger candidate determination step, and an information storage step.

상기 가장자리 쌍 생성 단계는 깊이 영상을 라스터 스캔 순서(raster scan order)로 객체의 가장자리를 판독하여 왼쪽과 오른쪽에 위치한 가장자리 쌍을 검출하는 단계이다. The edge pair generation step is a step of detecting an edge pair positioned on the left and right by reading the edge of the object in a raster scan order on the depth image.

객체의 외곽선을 표시하는 일반적인 방법에서는 객체의 가장자리를 검출한 후 공간적인 연결 순서로 정렬한 후 정렬된 가장자리 좌표나 혹은 체인 코드(chain code)를 저장한다. 본 발명에 따른 객체 검출 방법에서는 객체의 외곽선을 분석하기 위해 입력 영상에 대하여 수평 방향의 가장자리를 검출하고, 객체의 좌측과 우측의 가장자리를 쌍으로 묶는 가장자리 쌍 방법을 사용한다.A common method for displaying the outline of an object is to detect the edges of the object and then sort them in a spatially linked order and store the aligned edge coordinates or chain code. In the object detection method according to the present invention, in order to analyze an outline of an object, edge detection is performed with respect to the input image, and an edge pair method in which the left and right edges of the object are paired is used.

도 1은 본 발명에 따른 PE 및 PEG를 나타낸 도면으로서, 수평의 실선을 따라서 객체의 가장자리를 검출한다. ST 점은 객체의 좌측 가장자리를 나타내며, 가장자리 쌍의 시작 가장자리라 한다. ED 점은 우측 가장자리를 나타내며 가장자리 쌍의 끝 가장자리라 한다. BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a diagram showing PE and PEG according to the present invention, which detects the edge of an object along a horizontal solid line. Fig. The ST point represents the left edge of the object and is called the start edge of the edge pair. The ED point represents the right edge and is called the edge of the edge pair.

가장자리를 검출하는 스캔 라인 방향으로 인접한 픽셀 사이의 깊이 차이가 임계값(threshold) 이상인 경우 가장자리로 판단한다. 깊이의 차이가 8 이상인 경우 가장자리로 판단할 수 있다. If the depth difference between adjacent pixels in the direction of the scan line for detecting the edge is equal to or greater than the threshold value, the edge is determined. If the depth difference is 8 or more, it can be judged as an edge.

한 스캔 라인에 대하여 가장자리 쌍 검출이 끝나면 그 다음 라인에 대하여 가장자리 쌍들을 검출한다. 이러한 가장자리 쌍 검출 방법은 라스터 스캔 순서(raster scan order)로 진행된다.When edge pair detection is completed for one scan line, edge pairs are detected for the next line. This edge pair detection method proceeds in a raster scan order.

상기 PEG 생성 단계는 가장자리 쌍 중 수직방향으로 연결된 가장자리 쌍을 모아서 PEG를 생성하는 단계이다.The PEG generation step is a step of collecting edge pairs connected in the vertical direction among edge pairs to generate PEG.

가장자리 쌍을 이용하여 객체를 표현하기 위해서, 가장자리 쌍들의 수직방향 연결 관계를 분석하여, 수직 방향으로 연결된 가장자리 쌍들을 하나의 그룹에 포함시켜 이러한 그룹을 PEG라고 한다. In order to represent an object using edge pairs, the vertically connected pairs of edge pairs are analyzed, and the vertically connected edge pairs are included in one group, and these groups are called PEG.

수직 방향의 연결은 가장자리 점들의 연결이 아닌 객체의 연결을 이용하여 판단한다. i번째 라인의 n번째로 검출된 가장자리 쌍을 PE(i, n)으로 나타내고, PE(i, n)의 시작과 끝 가장자리의 x좌표를 ST(i, n)과 ED(i, n)으로 나타내고, i와 i+1번째 라인의 두 가장자리 쌍의 수직방향 연결 관계는 아래의 condition I로 판단한다.
Vertical connections are determined using the connection of objects rather than the connection of edge points. (i, n) and the x-coordinates of the start and end edges of PE (i, n) are denoted by ST (i, n) and ED , And the vertical connection relation between the two edge pairs of the i and the (i + 1) th line is determined by the following condition I.

Condition I: Connectivity check between PE(i, n) and PE(i+1, m)Condition I: Connectivity check between PE (i, n) and PE (i + 1, m)

If (ST(i, n) <= ED(i+1, m) & ED(i, n) >= ST(i+1, m)),If (ST (i, n) < = ED (i + 1, m)

PE(i, n) and PE(i+1, m) are connected.
PE (i, n) and PE (i + 1, m) are connected.

Condition I에 의해 수직방향으로 연결된 것으로 판단된 PE(i, n)과 PE(i+1, m)은 하나의 PEG에 속하게 된다. 만약 i+2 번째 라인에서 검출된 PE(i+2, p)가 PE(i+1, m)과 수직으로 연결되어 있다면, PE(i+1, m)이 속한 PEG에 PE(i+2, p)가 추가된다. 깊이 영상에 대하여 모든 라인에 대하여 가장자리 쌍들을 찾고, 가장자리 쌍들의 수직방향 연결 관계를 분석하여 서로 연결된 가장자리 쌍들을 하나의 PEG에 포함되도록 한다.PE (i, n) and PE (i + 1, m) judged to be vertically connected by Condition I belong to one PEG. If PE (i + 2, p) detected in the (i + 2) th line is vertically connected to PE (i + 1, m) , p) are added. Edge pairs for all lines are searched for the depth image, and edge pairs connected to each other are analyzed by analyzing the vertical connection relationship of the edge pairs so that the pairs of edges connected to each other are included in one PEG.

도 1에서 n 번째 라인의 객체의 가장자리 쌍을 PEn으로 나타내고, PEn의 시작 가장자리와 끝 가장자리를 각각 STn과 EDn으로 나타낸다. Condition I을 이용하여 PEG를 생성하면, 이 객체의 외곽선을 구성하는 ST1 ~ ST7과ED1 ~ ED7은 하나의 PEG에 속하게 된다. 이렇게 구성된 PEG는 하나의 객체의 외곽선을 포함한다. 가장자리 픽셀들의 연결이 아닌 객체를 구성하는 라인의 연결 관계를 분석하기 때문에, ST3과 ST4와 같이 가장자리 픽셀이 서로 인접하지 않더라도 하나의 객체를 구성하는 것으로 판단한다. PEG의 생성 방법은 외곽선의 잡음의 영향을 적게 받고, 라스터 스캔 순서 과정이 가능하여 라인 단위로 객체의 구성을 판단할 수 있으며, 기존의 가장자리 점들의 정렬을 이용하는 방법보다 간단하다.In FIG. 1, an edge pair of an object of the n-th line is denoted by PEn, and a start edge and an end edge of PEn are denoted by STn and EDn, respectively. When Condition I is used to generate a PEG, ST1 to ST7 and ED1 to ED7 constituting the outline of this object belong to one PEG. The PEG thus constructed contains the outline of one object. It is determined that one object is composed even if the edge pixels are not adjacent to each other as in ST3 and ST4 because the connection relationship between the lines constituting the object is analyzed. The generation method of PEG is less affected by the noise of the outline, and it is possible to judge the composition of the object in a line unit by performing the raster scanning procedure, and it is simpler than the method of using the alignment of the existing edge points.

상기 PEG 생성 단계는 상기 객체의 현재 스캔 라인의 가장자리 쌍과 이전 스캔 라인의 가장자리 쌍의 관계를 확인하여 PEG를 생성할 수 있다.The PEG generation step may generate the PEG by checking the relationship between the edge pair of the current scan line and the edge pair of the previous scan line of the object.

일반적인 입력 영상의 경우는 도 1과 같이 단순한 객체 이외의 복잡한 형태를 가진 객체들이 존재한다. 복잡한 객체들에 대한 PEG 생성과정을 다섯 가지의 경우로 정의하였다. 아래에는 이 다섯 가지 경우를 판단하는 조건과 각 경우에서 수행되어야 할 것을 제시한다. 현재 스캔 라인과 이전 스캔 라인에 존재하는 가장자리 쌍을 각각 Cur_PE와 Prev_PE로 나타낸다.In the case of a general input image, there exist objects having complex shapes other than a simple object as shown in FIG. We defined the PEG generation process for complex objects as five cases. Below are the conditions for judging these five cases and what should be done in each case. The edge pairs present in the current scan line and the previous scan line are denoted by Cur_PE and Prev_PE, respectively.

Case I (Start): Cur_PE와 연결된 Prev_PE가 없다. 이것은 Cur_PE가 객체의 시작점인 것을 의미한다. 새로운 객체의 시작이므로 새로운 PEG를 생성하고 Cur_PE를 객체의 팁으로 설정한다.Case I ( Start ): There is no Prev_PE associated with Cur_PE. This means that Cur_PE is the starting point of the object. Since this is the start of a new object, create a new PEG and set Cur_PE to the tip of the object.

Case II (End): Prev_PE와 연결된 Cur_PE가 없다. 이것은 Prev_PE가 객체의 끝점인 것을 의미한다. 객체의 끝을 의미하므로 PEG에는 더 이상 가장자리 쌍이 추가되지 않으며, Prev_PE는 객체의 팁이 될 수 있다.Case II ( End ): There is no Cur_PE associated with Prev_PE. This means that Prev_PE is the end point of the object. Since it means the end of the object, the edge pair is no longer added to the PEG, and Prev_PE can be the tip of the object.

Case III (Continue): Cur_PE와 Prev_PE가 서로 연결되어 있고 다른 가장자리 쌍과는 연결되어 있지 않다. 이것은 객체가 수직 방향으로 이어져 있는 것을 의미한다. 따라서 Cur_PE를 Prev_PE가 속한 PEG에 추가한다.Case III ( Continue ): Cur_PE and Prev_PE are connected to each other and are not connected to other edge pairs. This means that the object extends vertically. So we add Cur_PE to the PEG to which Prev_PE belongs.

Case IV (Merge): 한 Cur_PE에 다수의 Prev_PE들이 연결되어 있다. 이것은 여러 개의 객체가 Cur_PE에서 모이는 것을 의미한다. Prev_PE들이 속한 PEG들에 가장자리 쌍을 더 이상 추가하지 않고, Cur_PE를 시작점으로 하는 PEG를 생성한다. 또한, 새로 생성된 PEG와 Prev_PE가 속한 PEG들의 연결 관계를 저장한다.Case IV ( Merge ): A number of Prev_PEs are connected to one Cur_PE. This means that multiple objects are gathered in Cur_PE. Creates a PEG with Cur_PE as the starting point, without adding edge pairs to the PEGs to which Prev_PEs belong. In addition, the connection relationship between the newly generated PEG and the PEGs to which Prev_PE belongs is stored.

Case V (Branch): 한 Prev_PE에 다수의 Cur_PE들이 연결되어 있다. 이것은 Prev_PE로부터 다수의 객체로 갈라지는 것을 의미한다. Prev_PE가 속한 PEG에 가장자리 쌍을 더 이상 추가하지 않고, Cur_PE들로 시작되는 PEG들을 생성한다. 또한 새로 생성된 PEG들과 Prev_PE가 속한 PEG의 연결 관계를 저장한다.Case V ( Branch ): A number of Cur_PEs are connected to a Prev_PE. This means that Prev_PE is split into multiple objects. Creates PEGs starting with Cur_PEs, without adding edge pairs to the PEG to which Prev_PE belongs. It also stores the connection relationship between the newly created PEGs and the PEG to which Prev_PE belongs.

도 2는 본 발명에 따른 PEG 생성을 나타낸 영상으로서, 가장자리 쌍들은 위에서 아래 방향으로 스캔 라인이 진행되면서 검출하였고, 수평 직선은 PEG의 경계를 의미한다. 좌측 그림에서 손가락의 시작점은 Case I에 해당하기 때문에 팁(tip)으로 설정되며, 팁을 포함하는 새로운 PEG가 생성된다. 각 손가락은 스캔 라인이 아래로 내려가면서 Case III에 해당하여 PEG에 가장자리 쌍들을 추가한다. 두 개의 손가락이 만나는 위치에서는 Case IV에 해당하는 merge case인데, 이때에는 손가락의 PEG의 확장을 중단하고 새로운 PEG를 생성한다. FIG. 2 is an image showing PEG generation according to the present invention. Edge pairs are detected while the scan line is progressing from top to bottom, and a horizontal straight line means a boundary of PEG. In the left figure, the starting point of the finger corresponds to Case I, so the tip is set as tip and a new PEG is generated containing the tip. Each finger adds edge pairs to the PEG corresponding to Case III as the scan line goes down. At the point where two fingers meet, a case of merge corresponding to Case IV, in which the expansion of the PEG of the finger is stopped and a new PEG is generated.

우측 그림은 손가락이 아래쪽으로 향한 경우인데, 손가락의 끝 부분은 Case II에 해당하며, 이 경우에는 더 이상 PEG에 가장자리 쌍이 추가되지 않는다. 손가락이 갈라지는 위치는 Case V의 branch case에 해당하며, 갈라진 PEG의 수만큼 새로운 PEG를 생성한다.The right picture shows the case where the finger is pointing downward. The end of the finger corresponds to Case II, in which case the edge pair is no longer added to the PEG. The location of the fingers corresponds to the branch case of Case V and generates new PEG as many as the number of cracked PEGs.

상기 PEG 기하학적 정보 계산 단계는 상기 객체는 연결된 PEG의 집합으로 표현하고, PEG의 생성 과정에서 PEG의 길이, 두께, 면적 및 각도 정보를 라인 단위로 계산하는 단계이다.In the PEG geometric information calculation step, the object is represented by a set of connected PEGs, and the length, thickness, area, and angle information of the PEG are calculated in a line unit in the process of generating the PEG.

또한, 상기 PEG 기하학적 정보 계산 단계는 상기 생성된 PEG 중에 팁의 중점을 각도 측정의 시작점으로 저장하는 단계, 상기 손가락 끝의 중점과 일정거리 이상 떨어진 가장자리 쌍의 중점 사이의 각도를 계산하는 단계, 상기 각도를 계산한 구간의 PEG에 대하여 길이와 두께를 계산하는 단계, 상기 PEG에 가장자리 쌍이 추가되는 경우, PEG의 각도, 길이, 두께를 갱신하는 단계 및 상기 추가된 가장자리 쌍의 시작과 끝점 사이의 픽셀 수를 누적하여 PEG의 면적을 계산하는 단계를 포함할 수 있다.The PEG geometric information calculation step may include storing the midpoint of the tip of the generated PEG as a starting point of the angle measurement, calculating an angle between the midpoint of the fingertip and the midpoint of a pair of edges spaced by a predetermined distance or more, Calculating the length and thickness for the PEG of the interval calculated angle, updating the angle, length and thickness of the PEG when the edge pair is added to the PEG, and updating the angle between the start point and the end point of the added edge pair And calculating the area of the PEG by accumulating the numbers.

PEG에 가장자리 쌍이 추가될 때마다 PEG의 각도, 길이, 두께 및 면적에 대한 정보를 갱신한다. PEG의 각도를 얻기 위해 이 PEG에 속한 가장자리 쌍들의 중선의 각도를 측정하는데, 작은 범위에서 각도를 측정하는 경우에는 PEG의 외곽선의 왜곡에 의한 영향을 크게 받으며, 작은 영역에서의 각도 변화를 다수 계산하기 때문에 PEG 전체의 각도로 변환하는 계산이 필요하다. Each time an edge pair is added to the PEG, information about the angle, length, thickness, and area of the PEG is updated. In order to obtain the angle of the PEG, the angle of the midline of the edge pairs belonging to the PEG is measured. When the angle is measured in a small range, the influence of the distortion of the outline of the PEG is largely affected. So it is necessary to calculate the angle of the whole PEG.

도 3은 본 발명에 따른 PEG의 각도 계산을 나타낸 도면으로서, 도 3(a)는 이러한 예를 보인다. 굵은 선은 PEG의 외곽선을 나타내며, 원은 가로 방향으로 스캔을 하여 얻은 가장자리 쌍의 중점을 의미한다. 모든 라인에 대하여 각도를 측정하는 경우에는 도 3(a)에서 수직 방향으로 인접한 모든 원들 사이의 각도를 계산하고 PEG의 각도로 다시 환산해야 한다. Fig. 3 is a diagram showing the angle calculation of PEG according to the present invention, and Fig. 3 (a) shows this example. The bold line represents the outline of the PEG, and the circle represents the center of the edge pair obtained by scanning in the horizontal direction. When measuring an angle with respect to all the lines, the angle between all the vertically adjacent circles in Fig. 3 (a) must be calculated and converted back to the angle of the PEG.

본 발명에서는 하나의 가장자리 쌍 중점과 8픽셀 거리에 떨어진 가장자리 쌍의 중점 사이의 각도를 측정하는데, 이 방법을 적용하면 외곽선의 왜곡의 영향을 줄일 수 있다. 도 3(b)는 본 발명에 따른 예를 나타낸 도면이다.In the present invention, the angle between the center point of one edge pair and the midpoint of a pair of edges spaced apart by 8 pixels is measured. By applying this method, the influence of the distortion of the outline can be reduced. 3 (b) is a diagram showing an example according to the present invention.

팁이 발견되면 팁의 중점을 각도 측정의 시작점으로 저장한다. 도 3(b)의 원은 이 시작점을 의미한다. 이 원을 중심으로 도 3(b)와 같이 사각형의 모양으로 64개의 박스를 생성한다. 이어지는 스캔 라인 분석에서 얻어지는 가장자리 쌍의 중점이 이 박스들 중 하나와 만나면 이 위치와 각도 측정의 시작점 사이의 각도를 측정한다.Once the tip is found, the tip's midpoint is stored as the starting point for the angle measurement. The circle in Fig. 3 (b) means this starting point. As shown in FIG. 3 (b), 64 boxes are formed in the shape of a rectangle around the circle. If the midpoint of the edge pair obtained from the subsequent scanline analysis meets one of these boxes, measure the angle between this position and the starting point of the angle measurement.

도 3(b)에서는 라인 9의 짙은 색의 박스와 중점이 만났으며, 이때의 각도는 박스 내의 숫자와 같다. 가장자리 쌍 중점과 박스의 교점으로 각도를 계산하면, 이 교점을 새로운 각도 측정의 시작점으로 설정하고 동일한 방법으로 각도를 측정한다. 도 3(c)은 이 방법의 예를 나타낸 도면이다.In FIG. 3 (b), the heavy point of line 9 is centered and the angle is the same as the number in the box. When calculating the angle at the intersection of the edge pair center and the box, set this intersection as the starting point of the new angle measurement and measure the angle in the same way. Fig. 3 (c) is a diagram showing an example of this method.

PEG의 길이와 두께는 스캔 라인과 PEG가 이루는 각도의 영향을 받는다. 도 4는 본 발명에 따른 PEG의 두께 및 길이 계산을 나타낸 도면으로서, 도 3(b)와 3(c)에서 PEG에 대한 2개의 각도를 얻은 결과를 보인다. 도 4에서 짙은 색의 박스는 각도 측정의 시작점을 나타낸다. 스캔 라인과 PEG가 이루는 각도를 θSC_PEG라고 하고, 각도 측정의 시작점과 측정 위치 사이의 y좌표의 거리를 PEG_height라 하고, 각도 측정 위치 즉 가장자리 쌍의 중점과 도 3의 박스가 만난 위치에서의 가장자리 쌍 사이의 거리를 PEG_width라 한다. 그러나 이 값들은 라인 1에서 라인 9에 해당하는 객체의 길이와 두께를 나타내지 못한다. 왜냐하면 객체가 θSC-PEG_1만큼 기울어져 있기 때문이다. 각도를 계산한 구간의 PEG에 대하여 길이와 두께를 계산한다. 각도를 고려한 길이와 두께는 다음의 수학식 1 및 수학식 2와 같이 계산된다.The length and thickness of the PEG are affected by the angle between the scan line and the PEG. FIG. 4 shows the calculation of the thickness and length of PEG according to the present invention, showing the results of obtaining two angles for PEG in FIGS. 3 (b) and 3 (c). In Fig. 4, the dark box indicates the starting point of the angle measurement. The angle formed by the scan line and the PEG is referred to as? SC_PEG , the distance of the y coordinate between the start point of the angle measurement and the measurement position is referred to as PEG_height, the edge at the angle measurement position, The distance between the pair is called PEG_width. However, these values do not represent the length and thickness of the object corresponding to line 1 through line 9. This is because the object is skewed by θ SC-PEG_1 . Calculate the length and thickness for the PEG of the section where the angle is calculated. The length and thickness in consideration of the angles are calculated by the following equations (1) and (2).

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

이러한 길이와 두께는 도 4에서 보인 것과 같이 각도를 측정하는 단위마다 계산한다. PEG의 면적은 가장자리 쌍이 추가될 때마다 추가된 가장자리 쌍의 시작과 끝 가장자리 사이의 픽셀 수를 누적하여 계산한다. 스캔 라인 단위로 PEG를 생성하면서 이 PEG의 형상에 대한 정보를 계산하여 갱신하기 때문에 PEG에 대한 분석과 판단을 빠르게 할 수 있다.This length and thickness are calculated for each unit of measurement of angle as shown in FIG. The area of the PEG is calculated by accumulating the number of pixels between the start and end edges of the added pair of edges whenever the pair of edges is added. Since the PEG is generated in units of scan lines and the information about the shape of the PEG is calculated and updated, the analysis and judgment of the PEG can be speeded up.

상기 손가락 후보 판단 및 정보 저장 단계는 상기 정보를 이용하여 손가락이 될 수 있는 PEG를 찾고 정보를 저장하는 단계이다. 상기 깊이 영상에 대하여 상기 생성된 PEG 중에 팁을 포함하고 있으며, 두께, 길이 및 면적이 손가락으로 판단할 수 있는 범위 내에 있는 PEG를 손가락 후보로 판단하는 단계, 상기 PEG가 손가락 후보로 판단되면 PEG의 각도, 길이, 두께, 면적, 손가락 끝의 가장자리 쌍 좌표 및 손바닥과 연결되는 가장자리 쌍의 좌표를 저장하는 단계 및 상기 PEG가 손가락 후보가 불가능한 것으로 판단되면 형상 분석을 종료하는 단계를 포함할 수 있다.The finger candidate determination and information storing step is a step of finding a PEG which can be a finger using the information and storing information. Determining a PEG having a thickness, a length, and an area within a range that can be judged by a finger as a finger candidate, the PEG including a tip among the PEGs generated for the depth image; if the PEG is determined as a finger candidate, Storing coordinates of an angle pair, a length, a thickness, an area, an edge pair coordinate of the fingertip and an edge pair connected to the palm, and terminating the shape analysis if the PEG judges that the finger candidate is impossible.

PEG의 길이, 두께 및 면적과 같은 형상 정보를 이용하여 손가락이 될 수 있는 PEG를 검출하는데 이러한 PEG를 손가락 후보로 표시한다. 하나의 PEG의 형상을 분석하여 손가락 후보가 될 수 있는지를 판단하기 때문에, 하나의 손가락은 하나의 PEG으로 생성되어야 한다. The shape information such as the length, thickness, and area of the PEG is used to detect the PEG which can be a finger, and this PEG is indicated as a finger candidate. One finger must be generated as one PEG because it is determined whether it can become a finger candidate by analyzing the shape of one PEG.

도 2의 좌측 영상에서 보는 것과 같이 하나의 손가락은 팁에서 시작하여 인접한 다른 손가락과 만나는 부분에서 Case IV에 해당하여 PEG의 영역 확장을 끝낸다. 혹은 도 2의 우측 영상과 같이 Case V에 의해 PEG가 생성되고 Case II의 end에 의해 PEG 확장을 멈춘다. 이와 같이 손가락이 손바닥과 만나는 위치에서 PEG의 경계가 발생하기 때문에 손가락은 하나의 PEG으로 표현될 가능성이 매우 높다. 1개의 손가락만이 open된 경우에는 Case IV와 Case V에 의해 손가락 PEG가 손바닥과 분리되지 않는다. 이러한 문제를 해결하기 위해, PEG의 두께가 급격하게 변하는 경우 이전 PEG의 확장을 종료하고, 새로운 PEG를 생성하며 두 PEG 사이의 연결 관계를 저장한다. As shown in the left image of FIG. 2, one finger starts from the tip and corresponds to Case IV at the portion where the other finger meets the adjacent finger, thus ending the expansion of the PEG. Or PEG is generated by Case V as shown in the right image of FIG. 2, and PEG expansion is stopped by the end of Case II. Thus, since the boundary of the PEG occurs at the position where the finger meets the palm, the finger is highly likely to be represented by a single PEG. When only one finger is open, the finger PEG can not be separated from the palm by Case IV and Case V. To solve this problem, when the thickness of the PEG changes abruptly, the expansion of the previous PEG is terminated, a new PEG is generated, and the connection between the two PEGs is stored.

도 5는 본 발명에 따른 손가락 PEG를 나타낸 영상으로서, 손가락이 하나의 PEG으로 분리되는 것을 보인다. 도 5에서 원은 PEG의 팁을 의미하고, 수평 라인은 PEG의 마지막 가장자리 쌍의 시작 가장자리와 끝 가장자리를 연결한 선이다. 도 5(a)는 Case IV에 의해 분리된 손가락 PEG를 보이며, 도 5(c)는 두께 변화에 의한 손가락 PEG 분리 예를 보인다. 두 경우 모두 PEG가 손가락의 영역과 유사한 것을 알 수 있다.FIG. 5 shows an image of the finger PEG according to the present invention, showing that the finger is separated into one PEG. In FIG. 5, the circle means the tip of the PEG, and the horizontal line is the line connecting the start edge and the end edge of the last edge pair of the PEG. FIG. 5 (a) shows a finger PEG separated by Case IV, and FIG. 5 (c) shows an example of finger PEG separation by a thickness change. In both cases, it can be seen that PEG is similar to the area of the finger.

손가락 후보가 되기 위해서는 PEG는 Case I이나 Case II에 의해 생성된 팁을 가져야 하고, 두께, 길이 및 면적이 손가락으로 판단할 수 있는 범위 내에 있어야 한다. 각 PEG의 기하학적 정보는 스캔 라인 단위로 계속 갱신된다.To be a finger candidate, the PEG should have a tip created by Case I or Case II, and should be within the range of thickness, length, and area judged by the fingers. The geometric information of each PEG is continuously updated on a scan line basis.

PEG가 Cases II, IV and V에 의해 생성 과정이 종료되면 손가락 후보가 될 수 있는지를 판단한다. 또한, 라인 단위로 형상을 분석하며 손가락 후보가 될 수 없다고 판단되면 더 이상 형상 분석을 하지 않는다. 손가락 후보로 판단이 되면 각도, 길이, 두께, 면적, 팁 가장자리 쌍의 좌표 및 손바닥과 연결되는 PE의 좌표를 저장한다. 만약 손가락 후보가 될 수 없다고 판단되면 이 PEG에 대해서는 형상 분석을 멈추고 그 다음 스캔 라인부터는 연결 관계만 판단한다. PEG의 형상은 라인 단위로 갱신되기 때문에 PEG에 속한 모든 가장자리 쌍을 저장할 필요는 없다. 이와 같은 방법으로 영상 전체에 대하여 손가락 후보들을 검출한다.When PEG is terminated by Cases II, IV and V, it is judged whether it can become a finger candidate. In addition, when the shape is analyzed on a line-by-line basis and it is judged that it can not be a finger candidate, the shape analysis is no longer performed. When it is judged as a finger candidate, it stores the coordinates of the angle, length, thickness, area, tip edge pair and PE connected to the palm. If it is judged that it can not be a finger candidate, the shape analysis for this PEG is stopped and only the connection relation is judged from the next scan line. Since the shape of the PEG is updated on a line-by-line basis, it is not necessary to store all pairs of edges belonging to the PEG. In this way, finger candidates are detected for the entire image.

또한, 상기 손가락 후보 검출 단계는 상기 깊이 영상에 대하여 손가락 후보의 검출 완료 후 상기 깊이 영상을 90°, 180°및 270°회전한 영상에 대하여 손가락 후보를 검출하여 추가하는 단계, 회전한 영상을 0°로 회전하여 거리가 가까운 손가락 후보는 통합하는 단계 및 중복된 손가락 후보 중에서 기하학적 정보가 정확한 것을 선택하는 단계를 더 포함할 수 있다.The finger candidate detection step may include detecting and adding a finger candidate to an image obtained by rotating the depth image by 90 °, 180 °, and 270 ° after completion of detection of a finger candidate with respect to the depth image, Deg.] To integrate the finger candidates having a distance close to each other, and selecting the correct geometric information among the overlapped finger candidates.

스캔 입력방향과 손가락의 방향이 일치하는 경우에는 손가락 영역이 하나의 PEG으로 분류되지 않기 때문에, 이러한 손가락은 손가락 후보로 검출되지 않는다. 도 6은 본 발명에 따른 손가락 후보 생성에서 스캔 라인과 손가락 방향의 각도에 대한 영향을 나타낸 영상으로서, 3개의 손가락 후보만 검출되고 나머지 손가락은 검출되지 않았다. PEG는 팁을 가지고 있지만 길이가 매우 짧고 두께가 두껍기 때문에 손가락이 될 수 없다고 판단하여 제외된다. 엄지 손가락의 경우도 이러한 이유로 손가락 후보로 검출되지 못한다.When the scan input direction and the direction of the finger coincide with each other, the finger region is not classified as one PEG, and therefore, such a finger is not detected as a finger candidate. FIG. 6 is an image showing the influence on the angle of the scan line and the finger direction in the finger candidate generation according to the present invention, in which only three finger candidates are detected and the remaining finger is not detected. PEG has a tip, but it is judged that it can not be a finger because it is very short in length and thick in thickness. The thumb is also not detected as a finger candidate for this reason.

이를 해결하기 위해 입력 영상과 함께 90°, 180°, 270°로 회전된 영상들에 대해서 손가락 후보를 검출한다. 이 방법을 적용하면 도 6의 경우 90°회전을 하게 되고, 인덱스와 엄지 손가락 손가락의 방향이 스캔 라인과 수직에 가깝기 때문에 손가락 후보를 비교적 정확하게 검출할 수 있다. 도 6의 문제를 해결하기 위해서는 90°로 회전한 영상에 대한 검출만 추가하면 된다. 구현의 단순화를 위하여 4개 방향에 대하여 손가락 후보를 검출한다. PEG가 손가락 후보가 되기 위해서는 팁을 포함해야 하는데, 팁은 Case I과 Case II에 의해서 생성이 된다.To solve this problem, a finger candidate is detected for images rotated 90 °, 180 ° and 270 ° together with the input image. When this method is applied, the finger candidates can be detected relatively accurately since the direction of the index and the thumb fingers is perpendicular to the scan line, as shown in Fig. In order to solve the problem of FIG. 6, only detection for an image rotated by 90 degrees is added. In order to simplify the implementation, finger candidates are detected in four directions. In order for PEG to be a finger candidate, it must include a tip, which is generated by Case I and Case II.

Case II에 의해 생성된 팁은 라인 스캔의 순서를 고려할 때 PEG의 가장 마지막에서 검출이 되기 때문에, 모든 PEG는 마지막에 팁을 포함할 수 있으므로, 손가락 후보의 판단 여부는 PEG 생성이 완료된 시점에 가능하다. 따라서 생성되는 모든 PEG에 대하여 형상 정보를 계산하고 저장해야 하는 문제가 있다. 만약 Case I에 의해서 생성된 팁만을 포함시키도록 한다면, Case I으로 생성되지 않은 PEG들에 대해서는 형상 정보를 분석할 필요가 없으므로 불필요한 연산과 메모리가 필요하지 않게 된다. 한 영상과 180° 회전시킨 영상 각각에 대하여 Case I에 의해 생성된 PEG에서만 손가락 후보를 검색하면, 한 영상에서 Case I과 II를 모두 고려하여 손가락 후보를 검색한 것과 동일한 결과를 얻을 수 있다. 원본 영상과 90°회전시킨 두 개의 영상에 대하여 y좌표가 증가하는 방향으로 스캔을 수행한다. 이 두 영상에 대하여 y좌표가 감소하는 방향으로 스캔을 수행하면 180°와 270° 회전시킨 영상에 대하여 손가락 후보를 검출한 결과를 얻을 수 있다.Since the tip generated by Case II is detected at the end of the PEG considering the order of the line scan, all PEGs may include the tip at the end. Do. Therefore, there is a problem that shape information is calculated and stored for all PEGs generated. If we include only the tips generated by Case I, it is not necessary to analyze shape information for PEGs not created in Case I, so that unnecessary operations and memory are not needed. If a finger candidate is searched only in the PEG generated by Case I for one image and rotated 180 °, the same results as those obtained by searching for a finger candidate considering both Case I and II in one image can be obtained. The scan is performed in the direction in which the y coordinate increases with respect to the two images rotated by 90 ° with the original image. If the scan is performed in the direction in which the y coordinate decreases with respect to the two images, the result of detecting the finger candidate for the image rotated by 180 ° and 270 ° can be obtained.

4개의 스캔 방향으로 얻어진 손가락 후보들은 중복되는 경우가 있다. 예를 들어 도 6의 B로 표시된 손가락은 원본 영상에서 손가락 후보로 검출되었고, 90°로 회전한 영상에서도 손가락 후보로 검출된다. 이러한 중복을 없애기 위해 각 방향에서 얻어진 손가락 후보들을 0°로 회전한 후 거리가 가까운 손가락 후보들은 하나로 통합한다. 이때 중복된 손가락 후보들 중에서 기하학적 정보가 정확한 것을 선택해야 한다. 도 6에서 A와 표시된 손가락 후보는 PEG가 손가락 영역을 잘 나타내지면, B로 표시된 손가락 후보는 손가락 영역의 많은 부분이 PEG에 포함되어 있지 않다. 즉, 스캔 라인과 손가락 사이의 각도 θ가 90°에 가까울수록 PEG와 손가락 영역이 잘 부합되는 것을 의미한다. 동일한 손가락에 대해서 θ가 90°에 가까울수록 가장자리 쌍의 시작과 끝 가장자리 사이의 거리가 짧아지는 경향이 있다. 손가락 후보를 구성하는 가장자리 쌍들의 시작과 끝의 가장자리 사이 거리의 최대값을 저장하고, 중복된 손가락 후보를 통합할 때 이 거리가 짧은 손가락 후보의 기하학적 정보를 저장하여 데이터의 정확성을 향상시켰다. The finger candidates obtained in the four scanning directions may be overlapped. For example, a finger indicated by B in FIG. 6 is detected as a finger candidate in the original image, and is detected as a finger candidate even in an image rotated by 90 degrees. To eliminate this redundancy, the finger candidates obtained in each direction are rotated by 0 °, and the finger candidates having a short distance are integrated into one. At this time, it is necessary to select the correct geometric information among the duplicated finger candidates. In Fig. 6, the finger candidate indicated by A indicates that if the PEG indicates the finger region well, the finger candidate indicated by B does not contain much of the finger region in the PEG. That is, the closer the angle &amp;thetas; between the scan line and the finger is to 90 DEG, the better the PEG and the finger area match. For the same finger, the closer to 90 the angle tends to be, the shorter the distance between the start and end edges of the edge pairs. The maximum value of the distance between the start and end edges of the edge pairs constituting the finger candidate is stored and the accuracy of the data is improved by storing the geometric information of the short finger candidate when integrating the overlapping finger candidates.

도 7은 본 발명에 따른 4가지 스캔 입력방향으로부터 얻어진 손가락 후보를 통합한 손가락 후보를 나타낸 영상으로서, 원은 손가락 후보의 팁을 나타내며, 직선은 손가락 후보 PEG의 마지막 가장자리 쌍의 라인을 보인다.FIG. 7 is an image showing finger candidates incorporating finger candidates obtained from the four scan input directions according to the present invention, in which the circle represents the tip of the finger candidate, and the straight line represents the line of the last edge pair of the finger candidate PEG.

엄지 손가락의 손가락 후보는 270°회전한 영상에서 검출되었고, 새끼 손가락 후보는 원본 영상에서 검출되었으며, 나머지 손가락들은 90°회전한 영상에서 검출되었다. 이 결과는 손가락의 방향과 무관하게 손가락 후보 PEG를 생성할 수 있음을 보인다. 이러한 4 방향 스캔을 통한 손가락 후보 검출은 동작 속도에서 가장 큰 비중을 차지하는데, 회전된 손을 검출하는 데에 매우 중요한 역할을 한다.The thumb finger candidate was detected in 270 ° rotated image, the small finger candidate was detected in the original image, and the remaining fingers were detected in 90 ° rotated image. This result shows that finger candidate PEG can be generated irrespective of the direction of the finger. Finger candidate detection through the 4 - way scan occupies the largest portion in the operation speed, and plays a very important role in detecting the rotated hand.

본 발명에 따른 손 검출 방법은 깊이 영상의 외곽선 잡음에 의한 영향을 덜 받기 때문에 잡음을 제거하기 위한 전처리 과정이 필요하지 않다. 가장자리 라인의 연결 관계가 아닌, 가장자리 쌍의 시작과 끝 가장자리를 이은 직선들의 수직방향 연결 관계를 판단하기 때문에, 연산량이 적으면서 잡음에 의한 영향이 적다. 또한, 수직 잡음에 의한 영향을 줄이기 위해 가장자리 쌍의 시작과 끝 가장자리를 이은 직선의 길이가 5 픽셀 이하인 경우에는 가장자리 쌍으로 판단하지 않는다. Since the hand detection method according to the present invention is less influenced by the outline noise of the depth image, a preprocessing process for eliminating noise is not required. Since the vertical connection relation of the straight lines connecting the start and end edges of edge pairs is determined instead of the edge line connection relationship, the influence of noise is small with a small amount of computation. In order to reduce the influence of vertical noise, if the length of the straight line connecting the start and end edges of the edge pairs is 5 pixels or less, it is not determined as an edge pair.

도 8은 본 발명에 따른 손가락 후보로 검출된 손가락의 외곽선을 나타낸 영상으로서, 도 8(a)에서‘A’로 표시된 부분은 수평 방향으로 잡음이 매우 심한 것을 볼 수 있다. 이러한 수평 방향 잡음은 가장자리 쌍의 시작과 끝 가장자리를 이은 직선들의 수직방향 연결에 영향을 주지 않는다. 도 8(b)에서‘B’로 표시된 부분은 수직 방향으로 발생한 잡음을 보인다. 만약 수직 방향의 잡음 영역이 새로운 팁으로 인식되어 새로운 PEG를 생성한다면, 손가락 팁을 포함한 PEG와 잡음에 의한 팁을 포함한 PEG가 만나는 스캔 라인에서 Case IV에 해당하게 되어 PEG 생성이 종료된다. 따라서 진짜 팁을 포함한 PEG는 팁은 길이가 짧아 제외되고, 그 이후에 Case IV에 의해 새로 생성된 PEG는 팁을 가지고 있지 않기 때문에 제외된다. FIG. 8 is a view showing an outline of a finger detected with a finger candidate according to the present invention. In FIG. 8 (a), a portion denoted by 'A' has a very strong noise in the horizontal direction. This horizontal noise does not affect the vertical connections of the straight lines connecting the start and end edges of the edge pairs. In FIG. 8 (b), the portion denoted by 'B' shows noise generated in the vertical direction. If the vertical noise region is recognized as a new tip and a new PEG is generated, the PEG containing the finger tip and the PEG containing the noise tip will correspond to Case IV in the scan line where the PEG meets. Therefore, the PEG containing the real tip is excluded because the tip is short in length, and the PEG newly created by Case IV thereafter is excluded because it does not have a tip.

가장자리 쌍의 시작과 끝 가장자리를 이은 직선의 길이가 5 픽셀 이하인 경우에는 가장자리 쌍으로 판단하지 않기 때문에 잡음에 의해 팁을 포함한 PEG가 생성되지 않는다. 따라서, 깊이 영상에 대하여 median이나 dilation 등의 전처리 과정을 수행하지 않아도 깊이 영상의 외곽선 잡음의 영향을 적게 받고 안정적인 PEG생성이 가능하다.If the length of the straight line connecting the start and end edges of the edge pair is 5 pixels or less, the PEG including the tip is not generated due to noise because it is not determined as an edge pair. Therefore, it is possible to generate stable PEG without receiving the influence of the background noise of the depth image without performing a preprocessing process such as median or dilation for the depth image.

상기 손 검출 단계는 손가락 후보 그룹화(FC grouping) 단계, 연결된 PEG(connected-PEGs) 생성 단계, 손 판단 단계 및 손바닥 영역을 검출하는 단계를 포함한다.The hand detection step includes a finger grouping (FC grouping) step, a connected PEG (PEG) generation step, a hand judgment step and a palm area detection step.

손 검출 단계는 찾아진 손가락 후보들의 연결 관계를 분석하여 5개의 손가락이 모두 펼쳐진 손의 모양을 검출하여 손으로 판단할 수 있다. 영상 인식을 기반으로 한 HCI 시스템에서 5개의 손가락을 펼친 손 모양을 사용자 입력의 시작으로 인식하는 경우를 가정한다.In the hand detection step, the connection relationship of the detected finger candidates is analyzed, and the shape of the hand of all the five fingers can be detected and judged by hand. In the HCI system based on image recognition, it is assumed that a hand shape in which five fingers are extended is recognized as the start of user input.

상기 손가락 후보 그룹화 단계는 검출된 상기 손가락 후보 중에서 깊이의 차이가 일정 범위 이내에 있는 상기 손가락 후보들을 그룹으로 설정하는 단계이다.The finger candidate grouping step is a step of setting the finger candidates having a depth difference within a predetermined range among the detected finger candidates as a group.

거짓인식(false positive)을 줄이기 위해 깊이에 따른 손의 크기의 범위를 활용하였다. 깊이에 따른 손의 크기는 정사각형으로 나타내었는데, 실험을 통하여 정사각형의 너비를 다음의 수학식 3과 같은 piecewise-linear equation을 얻었다.In order to reduce false positives, we used a range of hand sizes according to depth. The size of the hand along the depth is represented by a square. Through the experiment, the width of the square is obtained as a piecewise-linear equation as shown in Equation 3 below.

Figure pat00003
Figure pat00003

한 손가락 후보에 대해서 손가락 후보의 깊이를 수학식 3에 대입하여 손의 크기를 결정하고, 이 손가락 후보를 중심으로 손 크기의 범위 내에 존재하는 손가락 후보들 중에서 현재 손가락 후보와 깊이의 차이가 일정 범위 이내에 있는 손가락 후보들을 하나의 그룹으로 설정한다. 한 그룹에 포함된 손가락 후보들은 하나의 손을 구성하는 손가락이 될 수 있다. The size of the hand is determined by substituting the depth of the finger candidate for one finger candidate into the equation 3 and the difference between the current finger candidate and the depth of the finger candidates existing within the range of the hand size around the finger candidate is within a certain range And sets the finger candidates with one group. Finger candidates included in a group can be fingers constituting one hand.

도 9는 본 발명에 따른 손가락 후보 및 손가락 후보 그룹을 나타낸 영상으로서, 도 9(a)는 깊이 영상에서 검출된 손가락 후보를 보인다. 손가락과 유사한 형태를 가진 PEG들이 손가락 후보로 검출되었다. 도 9(b)에서는 입력 영상에서 얻은 손가락 후보 그룹들 중에서 손가락 후보를 5개 가진 그룹에 속한 손가락 후보를 표시하였다. 다섯 개의 손가락이 하나의 그룹에 포함되었고, 다른 손가락 후보들은 포함되지 않은 것을 보인다.FIG. 9 is a view showing a finger candidate and a finger candidate group according to the present invention, and FIG. 9 (a) shows a finger candidate detected from a depth image. Finger - like PEGs were detected as finger candidates. In FIG. 9 (b), finger candidates belonging to a group having five finger candidates among the finger candidate groups obtained from the input image are displayed. It appears that five fingers were included in one group and no other finger candidates were included.

상기 연결된 가장자리 쌍 그룹(connected-PEGs) 생성 단계는 상기 손가락 후보 그룹 내에서 PEG를 재생성하여 손가락 후보와 겹치는 PEG를 확인하여 연결된 PEG를 생성하는 단계이다. 입력된 상기 깊이 영상에 대하여 단일 방향으로 라인 스캔하여 각 가장자리 쌍의 시작과 끝점을 잇는 라인과 상기 손가락 후보가 겹치는 경우, 상기 손가락 후보와 각 PEG가 연결되어 있는 것으로 판단할 수 있다.The connected-PEGs generation step regenerates the PEG in the finger candidate group to identify the PEG overlapping the finger candidate to generate the connected PEG. It is possible to determine that the finger candidate and each PEG are connected when the input depth image is line scanned in a single direction and the finger candidate is overlapped with a line connecting the start and end points of each edge pair.

손가락 후보 사이의 거리만으로 판단한 것이기 때문에 손가락 후보 그룹에 5개의 손가락 후보가 존재하더라도 서로 연결되어 있지 않을 수 있다. 따라서 이 손가락 후보 그룹 내의 손가락 후보들이 서로 연결되어 있는지를 확인한다. 수학식 3을 이용하여 손가락 후보 그룹의 평균 깊이에 대한 손 크기를 예측하여 관심영역(ROI)을 설정하고, 이 관심영역 내에서 손가락 후보들의 연결 관계를 파악한다. 이를 위해 관심영역 내에서 입력 영상에 대해 라인 스캔을 하여 PEG를 다시 생성한다. 이 경우에는 손가락 후보를 검출하는 것이 아니고 손가락 후보들의 연결 관계 파악이 주된 목적이므로 한 방향으로만 스캔을 수행한다. It is judged only by the distance between the finger candidates, so that even if five finger candidates exist in the finger candidate group, they may not be connected to each other. Therefore, it is confirmed whether the finger candidates in the finger candidate group are connected to each other. (ROI) is predicted by predicting the hand size with respect to the average depth of the finger candidate group using Equation (3), and the connection relation of the finger candidates in the ROI is grasped. To do this, line scan is performed on the input image in the region of interest to regenerate the PEG. In this case, scanning is performed in only one direction since it is not the detection of the finger candidate but the main purpose of grasping the connection relation of the finger candidates.

PEG를 검출하는 과정에서 해당 PEG를 구성하는 각 가장자리 쌍의 시작과 끝 가장자리를 잇는 라인과 손가락 후보가 겹치는 경우 이 손가락 후보와 이 PEG가 연결되어 있는 것으로 판단하고, 각 PEG에 연결된 손가락 후보를 저장한다. 또한, PEG를 생성하면서 PEG들 사이의 연결 관계 역시 저장한다. In the process of detecting the PEG, when the finger candidate overlaps the line connecting the start edge and the end edge of each edge pair constituting the PEG, it is judged that the finger candidate is connected to the PEG, and the finger candidate connected to each PEG is stored do. It also preserves the linkage between PEGs while generating PEG.

관심영역에 대한 PEG 생성이 완료되면 각 PEG에 속한 손가락 후보와 PEG들 사이의 연결 관계에 대한 정보를 얻을 수 있다. 서로 연결된 PEG들을 연결된 PEG라고 한다. 연결된 PEG는 영상 내에서 하나의 객체를 의미한다. Once the PEG generation for the region of interest is completed, information about the connection between the finger candidates belonging to each PEG and the PEGs can be obtained. PEGs connected to each other are referred to as connected PEGs. The connected PEG means one object in the image.

상기 손 판단 단계는 생성된 상기 연결된 PEG에 연결된 손가락 후보의 수가 5개인 경우 손으로 판단하는 손 판단 단계이다. 관심영역(ROI) 내에 두 개 이상의 연결된 PEG가 존재할 수 있는데, 각 연결된 PEG에 대해서 연결된 손가락 후보의 수를 검사한다. 연결된 손가락 후보의 수가 5개인 연결된 PEG를 손으로 판단한다. The hand judgment step is a hand judgment step of judging by hand if the number of finger candidates connected to the generated connected PEG is five. There may be more than one linked PEG in the region of interest (ROI), checking the number of linked finger candidates for each linked PEG. The connected PEG with 5 connected finger candidates is judged by hand.

도 10은 본 발명에 따른 손가락 후보 그룹의 관심영역과 손으로 판단된 연결된 PEG에 포함된 PEG를 나타낸 영상으로서, 검출된 손 내부의 수평 라인은 PEG들의 경계를 나타내며, 검출된 손가락의 팁의 위치는 원으로 표시되었다. 손으로 검출된 영역의 외곽선도 표시하였다.FIG. 10 is an image showing the PEG included in the connected PEG judged by the hand and the region of interest of the finger candidate group according to the present invention. The horizontal line inside the detected hand indicates the boundary of the PEGs, Were marked in circles. The outline of the area detected by hand was also displayed.

상기 손바닥 영역을 검출하는 단계는 손가락 및 손바닥의 연결 위치 정보를 이용하여 손바닥 영역을 검출하는 단계로서, 검출된 상기 손의 손바닥 영역의 크기를 계산하고 저장하는 단계, 저장된 상기 손바닥 영역의 크기를 이용하여 깊이에 따른 손바닥 영역의 크기를 환산하여 저장하는 단계 및 손에 포함된 손가락 후보가 저장하고 있는 PEG 생성이 종료되는 끝 가장자리 쌍의 좌표의 시작-끝 가장자리를 연결한 J-line을 이용하여 손바닥 영역의 위치를 결정하는 단계를 포함할 수 있다.The step of detecting the palm area comprises the steps of detecting the palm area using the connection position information of the finger and the palm, calculating and storing the size of the palm area of the palm detected, using the size of the palm area And the size of the palm area according to the depth is stored and stored in the palm area of the palm area, and the J-line connecting the start and end edges of the coordinates of the end edge pair, And determining the location of the region.

손이 검출되면 정사각형인 손바닥 영역의 크기와 위치를 정한다. 검출된 손의 손바닥 크기를 계산하고 저장한 후, 추적 단계에서는 저장된 손바닥 영역의 크기를 이용하여 깊이에 따른 손바닥 영역의 크기를 계산한다.When a hand is detected, determine the size and position of the square palm area. After calculating and storing the palm size of the detected hand, the tracking step calculates the size of the palm area according to the depth using the size of the stored palm area.

손바닥 영역의 크기는 손의 손가락 후보에 저장된 손가락들의 평균 두께의 5배를 손바닥 영역의 너비로 정한다. 입력 영상에서 손바닥 영역의 크기는 깊이에 따라 변하기 때문에, 측정된 손바닥 영역의 크기를 기준 깊이에서의 크기로 환산하여 저장한다. 이를 위해 실험적으로 얻은 깊이에 따른 너비의 변화 비율을 측정하고, 이를 수학식 4와 같이 나타내었다. 깊이가 30일 때 1이고, 깊이가 90보다 큰 경우에는 깊이가 90일 때의 너비를 사용한다.The size of the palm area is determined as the width of the palm area by five times the average thickness of the fingers stored in the finger candidate of the hand. Since the size of the palm area in the input image changes with depth, the size of the palm area measured is converted into the size at the reference depth and stored. To do this, the rate of change in width according to the experimentally obtained depth was measured and expressed as Equation (4). If the depth is 30, the width is 1, and if the depth is greater than 90, the width when the depth is 90 is used.

Figure pat00004
Figure pat00004

계산된 평균 손바닥 크기를 깊이 30인 경우로 환산하여 저장하는데 이를 Palm_sizeINIT라고 하고, 검출된 손의 평균 깊이를 dINIT로 나타내고, 손가락의 평균 두께를 ThickAVG로 나타낸다. Palm_sizeINIT는 수학식 5으로 주어진다.The calculated average palm size is stored in terms of depth 30, which is called Palm_size INIT , the average depth of the detected hand is d INIT , and the average thickness of the finger is indicated by Thick AVG . Palm_size INIT is given by equation (5).

Figure pat00005
Figure pat00005

다음 프레임에서의 손의 깊이에 의해 변경된 손바닥 영역 크기를 다음 식을 이용하여 계산한다. 다음 프레임의 손 추적에서 손이 검출되는 경우에서는, 이 손의 깊이를 dHAND라고 하면 손바닥 영역의 너비는 수학식 6으로 주어진다.The size of the palm area changed by the depth of the hand in the next frame is calculated using the following equation. In the case where a hand is detected in the hand trace of the next frame, if the depth of the hand is d HAND , the width of the palm area is given by Equation (6).

Figure pat00006
Figure pat00006

손바닥 영역의 크기가 결정된 후 손바닥 영역의 위치를 결정한다. 손바닥 영역는 손가락과 손목을 최대한 제외하고 손바닥을 포함하도록 위치를 결정한다. 손에 포함된 손가락 후보는 PEG가 시작되는 팁 가장자리 쌍과 PEG 생성이 종료되는 끝 가장자리 쌍의 좌표를 저장하고 있다. 이 중 끝 가장자리 쌍의 시작과 끝 가장자리를 연결한 직선을 J-line(junction line)이라고 나타낸다.After the size of the palm area is determined, the position of the palm area is determined. The palm area is determined to include the palm of the palm except for the fingers and the wrist as much as possible. The finger candidate contained in the hand stores the coordinates of the tip edge pair where the PEG starts and the end edge pair where the PEG generation ends. A straight line connecting the start edge and the end edge of the end edge pair is referred to as a J-line (junction line).

J-line은 손가락과 손바닥이 만나는 라인을 의미하기 때문에, J-line을 손바닥의 경계로 가정한다. 이러한 가정은 손바닥의 경계를 찾는 것에 있어서 비교적 정확한 정보를 제공한다. J-line을 이용한 손바닥 위치 설정을 위해 다음과 같이 4개로 분류할 수 있다. Since the J-line refers to the line where the finger and the palm meet, it is assumed that the J-line is the boundary of the palm. This assumption provides relatively accurate information on finding the boundary of the palm. In order to set the palm position using J-line, it can be classified into 4 types as follows.

Horizontal up line(HU-line): J-line이 수평이고 팁이 J-line보다 위에 있는 경우Horizontal up line (HU-line): If the J-line is horizontal and the tip is above the J-line

Horizontal down line(HD-line): J-line이 수평이고 팁이 J-line보다 아래에 있는 경우Horizontal down line (HD-line): If the J-line is horizontal and the tip is below the J-line

Vertical left line(VL-line): J-line이 수직이고, 팁이 J-line의 좌측에 있는 경우Vertical left line (VL-line): If the J-line is vertical and the tip is on the left side of the J-line

Vertical right line(VR-line): J-line이 수직이고, 팁이 J-line의 우측에 있는 경우Vertical right line (VR-line): If the J-line is vertical and the tip is on the right side of the J-line

도 11은 본 발명에 따른 J-line을 나타낸 영상으로서, HU, HD, VL 및 VR-line들의 예를 보인다.11 shows an example of HU, HD, VL and VR-lines, showing a J-line according to the present invention.

이러한 J-line은 손가락과 손바닥이 만나는 위치를 의미하므로, 손바닥의 위치를 정하는 데에 중요한 역할을 한다. 초기 손인 경우에는 5개의 J-line이 존재하며, 추적으로 검출된 손에는 0 ~ 5개의 J-line이 존재할 수 있다. 영상 입력에 따라 J-line은 한 종류만 존재할 수도 있고, 혹은 4가지 종류가 모두 존재할 수도 있기 때문에, J-line의 개수와 종류에 대한 경우의 수는 매우 많다. 이를 단순화하기 위해 손바닥 영역의 x좌표와 y좌표 위치를 분리하여 판단한다.This J-line means the position where the finger and the palm meet, and plays an important role in determining the position of the palm. There are 5 J-lines in the initial hand, and 0 ~ 5 J-lines in the hands detected by tracking. Since there may be only one type of J-line depending on the image input, or there may exist all four types, there are many cases of the number and types of J-lines. To simplify this, the x-coordinate and the y-coordinate position of the palm area are separated and judged.

1. 손바닥 영역의 Y 위치:1. Y position of palm area:

(1) HU-line 혹은 HD-line이 존재하는 경우: HU-line이 1개 존재하는 경우에는 HU-line의 y좌표를 HU_ymin으로 나타낸다. HU-line이 여러 개 존재하는 경우에는 HU-line들의 y좌표 중 최소값을 HU_ymin으로 나타낸다. HU_ymin은 HU-line들 중에서 가장 위쪽에 위치한 J-line이다. HD_line이 1개인 경우에는 HD_line의 y좌표를 HD_ymax로 나타낸다. HD_line이 여러 개인 경우에는 이들의 최대 y좌표를 HD_ymax로 나타낸다.(1) When HU-line or HD-line exists: If there is one HU-line, the y-coordinate of HU-line is indicated as HU_ymin. If there are several HU-lines, the minimum value of y coordinates of HU-lines is indicated as HU_ymin. HU_ymin is the highest J-line among the HU-lines. If the HD_line is 1, the y-coordinate of the HD_line is denoted by HD_ymax. If there are multiple HD lines, their maximum y-coordinate is denoted by HD_ymax.

HU_ymin과 HD_ymax가 모두 존재하는 경우에는 HU_ymin과 HD_ymax의 중점을 손바닥 영역의 중점의 y좌표로 설정한다. HU_ymin만 존재하는 경우에는 손바닥 영역의 상측 라인의 y좌표를 HU_ymin으로 한다. HD_ymax만 존재하는 경우에는 손바닥 영역의 하측 라인의 y좌표를 HD_ymax로 한다.If both HU_ymin and HD_ymax are present, the midpoint between HU_ymin and HD_ymax is set to the y coordinate of the center of the palm area. If only HU_ymin is present, the y coordinate of the upper line of the palm area is HU_ymin. If only HD_ymax exists, the y coordinate of the lower line of the palm area is HD_ymax.

(2) HU-line과 HD-line이 없고 Connected-PEGs의 y좌표의 최대, 최소가 있는 경우: 손을 나타내는 객체를 구성하는 가장자리 쌍들의 y좌표 중에서 최소값을 HU_ymin으로 설정하고, 최대값을 HD_ymax로 설정한다. 이러한 최대, 최소값의 픽셀 좌표 중에서 관심영역의 경계에 위치하는 경우는 실제 객체의 끝이 아니고 관심영역에 의한 객체가 잘려진 위치이기 때문에, 이에 해당하는 최대 혹은 최소값이 없다고 판단한다. 이렇게 얻은 HU_ymin and HD_ymax가 2개 존재하는 경우에는, 각 최대, 최소 좌표가 이전 프레임의 손바닥 영역과 가까운 것을 선택한다. 하나씩만 존재하는 경우에는 앞에서 제시한 방법과 동일하게 손바닥 영역의 y좌표를 설정한다. (2) When there is no HU-line and HD-line and maximum and minimum of y coordinates of Connected-PEGs: Set the minimum value among the y coordinates of the edge pairs constituting the hand object to HU_ymin and set the maximum value to HD_ymax . When the pixel coordinates of the maximum and minimum values are located at the boundary of the ROI, it is determined that there is no corresponding maximum or minimum value because the ROI is not the end of the actual ROI but the ROI. If there are two HU_ymin and HD_ymax thus obtained, the one with the maximum and minimum coordinates closest to the palm region of the previous frame is selected. If only one exists, the y-coordinate of the palm area is set in the same manner as the above-mentioned method.

(3) (1)과 (2)에 해당되지 않는 경우: 만약 VL-line 혹은 VR-line이 존재하는 경우에는 이 라인들의 y좌표의 최대, 최소를 이용하여 손바닥 영역의 y좌표 범위를 설정한다. 그렇지 않으면 손바닥 영역을 검출하지 못한 것으로 판단한다.(3) Case not applicable to (1) and (2): If there is a VL-line or VR-line, set the y-coordinate range of the palm area using the maximum and minimum of the y- . Otherwise, it is judged that the palm area is not detected.

2. 손바닥 영역의 x 위치:2. x position of the palm area:

손바닥 영역의 x좌표를 구하기 위해, VL-line의 최소값을 VL_xmin으로 설정하고 VR-line의 최대값을 VR_xmax로 설정한다. VL_xmin과 VR_xmax가 모두 존재하는 경우는 이 값의 평균을 손바닥 영역의 중심의 x좌표로 한다. VL_xmin만 존재하는 경우에는 손바닥 영역의 좌측 라인의 x좌표를 VL_xmin으로 하고, VR_xmax만 존재하는 경우는 손바닥 영역의 우측 라인의 x좌표를 VR_xmax로 한다. VL_xmin과 VR_xmax가 모두 존재하지 않는 경우에는 y좌표를 정하는 경우와 같은 방법으로 객체의 x방향의 최대, 최소값을 이용하거나, HU-line과 HD-line의 x좌표를 이용하여 손바닥 영역의 x좌표를 설정한다.To obtain the x-coordinate of the palm area, set the minimum value of the VL-line to VL_xmin and the maximum value of the VR-line to VR_xmax. If both VL_xmin and VR_xmax are present, the average of these values is taken as the x coordinate of the center of the palm area. When only VL_xmin exists, the x-coordinate of the left line of the palm area is VL_xmin, and when only VR_xmax exists, the x-coordinate of the right line of the palm area is VR_xmax. If both VL_xmin and VR_xmax are not present, use the maximum and minimum values in the x direction of the object, or use the x-coordinates of the HU-line and HD-line, Setting.

도 12는 본 발명에 따른 검출한 손바닥 영역을 나타낸 영상으로서, 굵은 라인은 J-line을 나타내며 사각형은 검출된 손바닥 영역을 나타낸다. 도 12(a)는 HU-line들 중 최소 y좌표를 선택하고, VL-line에서 x좌표를 선택하여 손바닥 영역의 위치를 정한다. 도 12(b)는 HU-line과 VR-line을 이용하여 손바닥 영역의 위치를 정한다. 도 12(c)는 HU-line으로 y좌표를 정하고, x좌표를 정할 J-line이 없으므로 x좌표의 최대, 최소 좌표를 이용하여 손바닥 영역의 위치를 정한다. 도 12(d)는 J-line이 없는 경우이며, x와 y좌표의 최대값과 최소값을 이용하여 손바닥 영역의 위치를 정한다.12 is an image showing the detected palm area according to the present invention, wherein the bold line represents the J-line and the rectangle represents the detected palm area. 12 (a), the minimum y-coordinate among the HU-lines is selected, and the x-coordinate is selected from the VL-line to determine the position of the palm area. 12 (b) positions the palm area using the HU-line and the VR-line. 12 (c), the y-coordinate is determined by the HU-line. Since there is no J-line for determining the x-coordinate, the position of the palm area is determined by using the maximum and minimum coordinates of the x-coordinate. 12 (d) shows a case where there is no J-line, and the position of the palm area is determined by using the maximum value and the minimum value of the x and y coordinates.

깊이 영상의 초기 손 검출이 완료되면 다음 프레임에서 저장된 좌표들 중 깊이 변화가 작은 좌표를 일정 비율 이상 포함한 객체를 추적하여 손으로 판단하는 손 추적 단계를 더 포함할 수 있다.And a hand tracking step of tracking an object including a coordinate having a small depth change among the coordinates stored in the next frame when the initial hand detection of the depth image is completed and then judging the object by hand.

손 추적 단계는 검출된 손을 구성하는 연결된 PEG의 최대 및 최소 좌표값을 이용하여 사각형의 관심영역의 범위를 저장하는 단계 및 상기 관심영역 내에서 각 연결된 PEG에 포함된 손 추적 점(HTP: hand tracking point)의 (x, y, z) 좌표를 저장하는 단계를 포함할 수 있다.Wherein the step of tracking a hand comprises the steps of storing a range of a region of interest of the rectangle using the maximum and minimum coordinate values of the connected PEGs constituting the detected hand and determining a hand tracking point (HTP) (x, y, z) coordinates of a tracking point.

현재 프레임에서 검출된 손의 다음 프레임에서의 위치와 형상 정보를 계산한다. 본 발명에서는 연산량이 적은 간단한 방법을 적용하여 추적과 형상 분석을 할 수 있는 방법을 제안한다. 초기 손 검출에서는 5개의 손가락을 모두 편 경우의 손을 검출한다. 그러나 추적에서는 임의의 형상을 가진 손에 대하여 추적하고, 손가락 검출 및 형상 분석을 수행한다.The position and shape information in the next frame of the hand detected in the current frame is calculated. In the present invention, a simple method with a small computation amount is applied to track and shape analysis. In the initial hand detection, all five fingers detect the hand of the hand. However, tracking is performed on a hand having an arbitrary shape, and finger detection and shape analysis are performed.

다음 프레임에서 손을 검출할 때 사각형의 형상으로 정의된 관심영역의 범위에서 손을 검출 할 수 있다. 관심영역을 정의하기 위해서 PEG 생성 단계에서 저장한 각 PEG의 x와 y좌표의 최대값과 최소값을 이용한다. 검출된 손을 구성하는 연결된 PEG에 대하여 x와 y좌표의 최소값을 XMIN_HAND과 YMIN_HAND로 나타내고, x와 y좌표의 최대값을 XMAX_HAND와 YMAX_HAND로 나타낸다. 상측 왼쪽 꼭짓점과 하측 오른쪽 꼭짓점이 각각 (XMIN_HAND, YMIN_HAND)와 (XMAX_HAND, YMAX_HAND)인 사각형은 검출된 손의 범위이다. 이 관심영역은 현재 프레임에서 검출된 손을 포함하는 최소 크기의 사각형이기 때문에, 손 움직임이 있는 경우 다음 프레임의 손은 이 관심영역을 벗어나게 된다. 따라서 관심영역의 영역을 확장하는데, 상측 왼쪽 꼭짓점과 하측 오른쪽 꼭짓점은 각각 (XMIN_HAND ―α, YMIN_HAND α)와 (XMAX_HAND + α, YMAX_HAND + α)로 정한다. α를 40 픽셀로 정할 수 있다. 이 경우 관심영역의 너비가 모든 프레임마다 계속 증가하는 문제가 있다. When detecting a hand in the next frame, the hand can be detected in the range of the region of interest defined by the shape of the rectangle. To define the region of interest, the maximum and minimum values of the x and y coordinates of each PEG stored in the PEG generation step are used. The minimum values of the x and y coordinates for the connected PEG constituting the detected hand are represented by X MIN_HAND and Y MIN_HAND , and the maximum values of the x and y coordinates are represented by X MAX_HAND and Y MAX_HAND . A rectangle with upper left corner and lower right corner (X MIN_HAND , Y MIN_HAND ) and (X MAX_HAND , Y MAX_HAND ) is the range of detected hands. Since this region of interest is the minimum size rectangle containing the hand detected in the current frame, the hand of the next frame will deviate from this region of interest if there is hand motion. Therefore, the upper left corner and the lower right corner are defined as (X MIN_HAND - α, Y MIN_HAND - α) and (X MAX_HAND + α, Y MAX_HAND + α), respectively. alpha can be set to 40 pixels. In this case, there is a problem that the width of the region of interest continuously increases in every frame.

도 13은 본 발명에 따른 손바닥 영역의 확장을 나타낸 영상으로서, 사각형은 관심영역을 나타내며, xmin, xmax, ymin, ymax는 관심영역 내에서 손으로 검출된 연결된 PEG의 x와 y좌표의 최대값과 최소값을 나타낸다. 도 13(a)에서 입력된 관심영역 내에서 xmin, xmax, ymin, ymax를 검출하였고, 도 13(b)에서는 관심영역의 너비를 4개의 방향으로 α만큼 확장한다. 도 13(c)는 이렇게 생성된 관심영역을 다음 프레임에 적용하는 경우를 보인다. 검출된 객체가 ymax 방향으로 관심영역 범위 밖에도 존재하는 경우, 입력 영상의 변화가 없더라도 ymax가 α만큼 증가한다. 도 13(d)는 관심영역이 y 방향으로 증가한 것을 보인다. 이와 같은 동작이 반복되면 손과 연결된 객체 전체로 관심영역이 확장될 수 있다. 이러한 확장을 막기 위해 관심영역 사각형의 상측 왼쪽 꼭짓점과 하측 오른쪽 꼭짓점의 위치가 손바닥 영역 사각형의 상측 왼쪽 꼭짓점과 하측 오른쪽 꼭짓점의 위치에서 얻은 너비의 1.5배 이내에 위치하도록 관심영역의 범위를 제한한다.FIG. 13 is an image showing an extension of the palm area according to the present invention, wherein a rectangle represents a region of interest, and xmin, xmax, ymin, and ymax are maximum values of x and y coordinates of a hand- It represents the minimum value. Xmin, xmax, ymin, and ymax are detected in the region of interest input in FIG. 13 (a). In FIG. 13 (b), the width of the region of interest is extended by? In four directions. 13 (c) shows a case where the generated region of interest is applied to the next frame. If the detected object exists outside the region of interest in the ymax direction, ymax increases by α even if there is no change in the input image. 13 (d) shows that the region of interest is increased in the y-direction. Repeated actions can expand the region of interest to the entire object connected to the hand. In order to prevent such an extension, the range of the interest region is limited so that the positions of the upper left corner and the lower right corner of the rectangular area of interest are located within 1.5 times the width obtained from the upper left corner and the lower right corner of the palm area square.

손은 유연한 객체이고 이동 및 회전이 많기 때문에 깊이 영상에서 그 형태가 매우 다양하다. 따라서 이전 프레임의 손 형상을 기준으로 현재 프레임에서 대응되는 손을 찾는 것은 어렵다. 검출된 손 객체의 내부에 몇 개의 점을 정하고, 이 점들의 (x, y, z) 좌표를 저장한다. 이 점을 손 추적 점이라고 나타낸다. 다음 프레임의 추적을 위한 관심영역 내에서 생성된 각 연결된 PEG에 포함된 손 추적 점의 수를 이용하여 손을 추적한다. 손 추적 점을 생성할 때 손 추적 점의 수는 검출된 손의 크기에 비례하여 생성한다. 검출된 손을 구성하는 PEG들의 픽셀 수를 저장하고 있는데, 손의 전체 픽셀 수를 512로 나눈 값을 손 추적 점의 개수로 정한다. 이렇게 얻은 손 추적 점은 다시 손을 구성하는 각 PEG의 면적에 비례하여 PEG에 할당된다. 이전 프레임에서 설정된 손 추적 점을 가장 많이 포함한 연결된 PEG를 이전 프레임의 손과 같은 것으로 판단한다. 손의 움직임이 있어도 다음 프레임에서 동일한 손에 손 추적 점이 존재하기 위해서는 손 추적 점이 손의 중앙에 위치하는 것이 유리하다. 따라서 각 PEG에 할당된 손 추적 점은 PEG의 중앙 부분에 고르게 분포하도록 하였다.Because hands are flexible objects and have many movements and rotations, their shapes are very diverse in depth images. Therefore, it is difficult to find the corresponding hand in the current frame based on the hand shape of the previous frame. Several points are defined inside the detected hand object, and the (x, y, z) coordinates of these points are stored. This point is referred to as a hand track point. The hand is traced using the number of hand tracking points included in each connected PEG generated within the region of interest for tracking of the next frame. When generating hand tracking points, the number of hand tracking points is proportional to the size of the detected hands. The number of pixels of the PEGs constituting the detected hand is stored. The number of hand tracking points is determined by dividing the total number of pixels of the hand by 512. The hand tracking point thus obtained is again assigned to the PEG in proportion to the area of each PEG constituting the hand. It is judged that the connected PEG including most of the hand tracking points set in the previous frame is the same as the hand of the previous frame. It is advantageous for the hand tracking point to be located at the center of the hand in order for the hand tracking point to exist in the same hand in the next frame even if there is movement of the hand. Thus, the hand tracking points assigned to each PEG were uniformly distributed in the central part of the PEG.

도 14는 본 발명에 따른 손 추적을 위한 손 추적 점 생성을 나타낸 영상으로서, 사각형은 관심영역을 나타내며, 손 내부의 점들은 손 추적 점이다. 도 14(a)는 19개의 손 추적 점이 생성되었으며, 검출된 연결된 PEG의 중앙에 손 추적 점이 고르게 분포한 것을 볼 수 있다. 도 14(b)는 도 14(a)보다 큰 손이며 38개의 손 추적 점이 생성되었다.FIG. 14 is an image showing generation of a hand tracking point for hand tracking according to the present invention, wherein a quadrangle represents an area of interest and the points inside the hand are hand tracking points. In Figure 14 (a), 19 hand track points were generated, and hand track points were uniformly distributed in the center of the detected PEG. Figure 14 (b) is a larger hand than Figure 14 (a) and 38 hand tracking points were created.

상기 손 추적 단계는 손가락 후보 검출 단계, 손가락 후보 그룹화 단계, 연결된 PEG 생성 단계, 손 판단 단계, 관심영역 설정, 손 추적 점 생성 및 손바닥 영역을 검출하는 단계를 포함한다.The hand tracking step includes a finger candidate detection step, a finger candidate grouping step, a connected PEG generation step, a hand determination step, a ROI setting, a hand tracking point generation, and a palm area detection step.

상기 손가락 후보 검출 단계는 상기 깊이 영상의 다음 프레임에서 손가락 후보를 검출하고, 상기 손가락 후보 그룹화 단계는 검출된 상기 손가락 후보 중에서 깊이의 차이가 일정 범위 이내에 있는 상기 손가락 후보들을 그룹으로 설정하는 단계이다. The finger candidate detection step detects a finger candidate in the next frame of the depth image, and the finger candidate grouping step sets the finger candidates having a depth difference within a predetermined range among the detected finger candidates as a group.

상기 연결된 PEG 생성 단계는 상기 관심영역 내에서 PEG를 재생성하여 손가락 후보와 겹치는 PEG를 확인하여 연결된 PEG를 생성하는 단계이다.The linked PEG generation step regenerates PEG within the region of interest to identify PEG overlapping the finger candidate to generate linked PEG.

한 프레임에서 검출된 손에 대하여 관심영역과 손 추적 점을 정하면 한 프레임에서의 과정을 종료한다. 다음 프레임에 대한 연산이 시작되면 손가락 후보를 검출하고 손가락 후보 그룹을 생성한 후 이전 프레임에서 검출한 손을 추적한다. 이전 프레임에서 검출된 손마다 저장되어 있는 관심영역에 대해서 0°방향 스캔을 수행하여 연결된 PEG를 찾는다.When the region of interest and the hand track point are determined for a hand detected in one frame, the process in one frame is terminated. When the operation for the next frame starts, a finger candidate is detected, a finger candidate group is generated, and the hand detected in the previous frame is tracked. A 0 ° direction scan is performed on the stored region of interest for each hand detected in the previous frame to find a connected PEG.

상기 손 판단 단계는 상기 연결된 PEG에 포함된 상기 손 추적 점을 이용하여 연결된 PEG를 추적된 손으로 판단하는 단계이다. 스캔 과정에서 각 연결된 PEG에 포함된 손가락 후보와 손 추적 점을 찾는다.The hand judgment step is a step of judging the PEG connected by using the hand tracking point included in the connected PEG as a tracked hand. During the scan, find finger candidates and hand tracking points in each connected PEG.

상기 손 판단 단계는 시작과 끝 가장자리 쌍을 잇는 라인에 상기 손 추적 점이 위치하고, 저장된 손 추적 점의 깊이 값이 시작 가장자리 쌍과 끝 가장자리 쌍의 z 좌표의 일정 범위 내에 있는 경우 손 추적 점이 가장자리 쌍에 포함된 것으로 판단할 수 있다.Wherein the hand tracing step comprises the steps of: if the hand tracing point is located on a line connecting a pair of starting and ending edges and the depth value of the stored hand tracing point is within a certain range of the z coordinate of the starting edge pair and the ending edge pair, It can be judged to be included.

연결된 PEG를 이용하여 손을 표현하고, 이와 연결된 손가락 후보들과 손바닥 영역을 판단하는 것은 초기 손을 찾는 방법과 동일하다. 스캔 라인별로 가장자리 쌍을 검출하는 과정에서 시작과 끝 PE를 이은 라인에 손 추적 점이 위치하고, 저장된 손 추적 점의 z좌표 즉, 깊이 값이 시작 가장자리 쌍과 끝 가장자리 쌍의 z 좌표의 일정 범위 내에 있는 경우 손 추적 점이 이 가장자리 쌍에 포함된 것으로 판단한다. Expressing a hand using the connected PEG and judging the finger candidates and the palm area connected thereto is the same as finding the initial hand. In the process of detecting pairs of edges for each scan line, the hand trace point is located on the line after the start and end PE, and the z coordinate of the stored hand trace point, that is, the depth value is within a certain range of the z coordinate of the start edge pair and the end edge pair It is judged that the hand trace point is included in this edge pair.

z좌표의 차이가 8보다 작은 경우, 손 추적 점이 가장자리 쌍에 포함된 것으로 판단한다. 이 가장자리 쌍이 포함된 연결된 PEG는 손 추적 점을 1개 포함한 것으로 판단한다.  If the difference in z coordinates is less than 8, the hand tracking point is judged to be included in the edge pair. The connected PEG with this edge pair is judged to contain one hand trace point.

상기 손 판단 단계는 상기 연결된 PEG에 포함된 상기 손 추적 점의 개수를 세어 각 연결된 PEG 중에서 전체 손 추적 점의 25% 이상을 포함하는 동시에 상기 관심영역 내에서 손 추적 점을 가장 많이 포함한 연결된 PEG를 추적된 손으로 판단하고, 상기 연결된 PEG 중에서 전체 손 추적 점의 25% 이상을 포함하는 연결된 PEG가 없는 경우 손이 사라진 것으로 판단할 수 있다.Wherein the hand determining step includes counting the number of the hand tracking points included in the connected PEG to include at least 25% of the total hand tracking points among the connected PEGs, Judging from the traced hand, it can be judged that the hand has disappeared when there is no connected PEG including 25% or more of the total hand trace points among the connected PEGs.

이와 같이 연결된 PEG를 생성하면서 이에 포함된 손 추적 점의 개수를 센다. 관심영역에 대한 스캔이 모두 끝나면, 각 연결된 PEG 중에서 전체 손 추적 점의 25% 이상을 포함하고, 관심영역 내의 연결된 PEG 중에서 손 추적 점을 가장 많이 포함한 것을 추적된 손으로 판단한다. The number of hand tracking points included in the PEG is counted while generating the connected PEG. Once the scan for the region of interest is complete, the traced hand will include more than 25% of the total hand tracking points among the connected PEGs, and the largest number of hand tracking points among the connected PEGs in the region of interest.

만약 이 조건에 해당하는 연결된 PEG가 없는 경우에는 손이 사라진 것으로 판단한다. If there is no connected PEG corresponding to this condition, it is judged that the hand has disappeared.

상기 손 판단 단계에서 손으로 판단이 되면 다음 프레임을 위한 관심영역 설정, 손 추적 점 생성 및 손바닥 영역을 검출할 수 있다. 영상 전체에 대해서 초기 손을 검출하며, 이전 프레임에서 검출된 손의 수만큼 관심영역을 생성하여 손 추적을 수행한다. 이 과정에서 한 번 손에 포함된 손가락 후보가 다른 손에 중복으로 검출되지 않도록 하기 위해서, 검출된 손에 한 번 포함된 손가락 후보는 손가락 후보 리스트에서 제외시킨다. 본 발명의 손 추적에서 손을 검출하는 방법은 손의 모양을 분석하지 않기 때문에 다양한 모양의 손을 추적할 수 있다. 또한 연결된 PEG에 포함된 손 추적 점의 수를 카운트하는 방식이기 때문에 연산량이 매우 적다.If it is judged by hand in the hand judgment step, it is possible to detect a region of interest, a hand tracking point generation and a palm area for a next frame. The initial hand is detected for the entire image, and the region of interest is generated by the number of hands detected in the previous frame to perform hand tracking. In this process, the finger candidate included once in the detected hand is excluded from the finger candidate list so that the finger candidate contained in the hand is not detected as duplication in the other hand. The method of detecting a hand in the hand tracking of the present invention does not analyze the shape of the hand, so that it is possible to trace a hand of various shapes. Also, since the number of hand tracking points included in the connected PEG is counted, the amount of computation is very small.

본 발명에 따른 가장자리 쌍 기반의 손 검출 시스템은 손가락 후보 검출 모듈 및 손 검출 모듈을 포함한다.The edge pair-based hand detection system according to the present invention includes a finger candidate detection module and a hand detection module.

상기 손가락 후보 검출 모듈은 깊이 영상(depth image)에서 객체의 PEG의 정보를 이용하여 손가락 후보를 검출할 수 있다. 깊이 영상을 라스터 스캔 순서로 판독하여 객체의 왼쪽과 오른쪽에 위치한 가장자리 쌍을 검출하고, 이러한 가장자리 쌍들 중 수직방향으로 연결된 가장자리 쌍들을 모아서 PEG를 형성한다. PEG들 역시 서로 연결되어 있는데, 한 객체는 연결된 PEG의 집합으로 표현할 수 있다. PEG의 생성 과정에서 PEG의 길이, 두께, 면적 및 각도를 라인 단위로 계산할 수 있으며, 이 기하학적 정보들을 이용하여 손가락이 될 수 있는 PEG를 찾는다. The finger candidate detection module can detect a finger candidate using the PEG information of the object in a depth image. Depth images are read in raster scan order to detect edge pairs located on the left and right sides of the object, and edge pairs connected in the vertical direction among these edge pairs are collected to form PEG. PEGs are also interconnected, and an object can be represented as a set of connected PEGs. The length, thickness, area, and angle of PEG can be calculated in the unit of line in the process of PEG generation, and the PEG which can be a finger can be searched using these geometric information.

라인 단위로 처리되는 간단한 연산으로 손가락이 될 수 있는 손가락 후보를 검출하고 형상 정보를 분석하기 때문에 연산량이 비교적 적고 빠른 동작 속도를 얻을 수 있다. Since the finger candidates are detected and the shape information is analyzed by a simple operation which is processed in a line unit, the operation amount is relatively small and a fast operation speed can be obtained.

상기 손 검출 모듈은 검출된 상기 손가락 후보들 사이의 연결 관계를 파악하여 손을 검출할 수 있다. 검출된 손가락 후보들 사이의 연결 관계를 파악하여 초기 손을 찾고, 손가락과 손바닥의 연결 위치를 이용하여 손바닥 영역을 검출한다. 초기 손은 연결된 PEG들의 형상 분석을 기반으로 하기 때문에, 깊이 영역에 대한 조건이나 얼굴이나 몸을 먼저 찾아야 하는 제한 조건이 없다. 제한하는 추적에서는 저장된 좌표들에 대해서 현재 프레임과 이전 프레임의 깊이 값을 비교하는 단순한 방법을 사용하기 때문에 연산이 많지 않다. The hand detection module can detect a hand by grasping a connection relationship between the detected finger candidates. The palm area is detected using the connecting position of the finger and the palm by finding the initial hand by grasping the connection relation between the detected finger candidates. Since the initial hand is based on the analysis of the shape of the connected PEGs, there is no condition for the depth region or restriction on the face or body first. The constrained traces do not have much computation because they use a simple method of comparing the depth values of the current frame and the previous frame for the stored coordinates.

도 15는 본 발명에 따른 손 검출 및 손 추적 방법의 동작 순서를 나타낸 순서도이다. 깊이 영상이 입력되면 손가락 후보를 검출하고 형상 정보를 저장한다. 이전 프레임에서 검출된 손이 있는 경우 이 손에 대한 추적 동작을 수행한다. 손 추적이 완료된 후 입력 영상 전체에 대하여 초기 손을 검출한다. 15 is a flowchart illustrating an operation procedure of a hand detection and hand tracking method according to the present invention. When the depth image is input, the finger candidate is detected and the shape information is stored. If there is a hand detected in the previous frame, a tracking operation is performed on this hand. After hand tracking is completed, the initial hand is detected for the entire input image.

도 16은 본 발명에 따른 손 검출 및 손 추적 방법의 흐름을 나타낸 순서도이다. 손가락 후보 검출 단계에서는 입력 영상에 대하여 PEG를 생성하고 PEG의 형상을 분석하여 손가락이 될 수 있는 손가락 후보를 생성한다. 입력 영상과 이 영상을 90°, 180° 및 270°회전한 영상에 대하여 손가락 후보를 검출한 후, 각 회전 영상에서 얻은 손가락 후보들을 다시 원래의 좌표로 회전시키고 통합한다. 16 is a flowchart illustrating a flow of a hand detection and hand tracking method according to the present invention. In the finger candidate detection step, a PEG is generated for the input image and a shape of the PEG is analyzed to generate a finger candidate that can be a finger. After the finger candidate is detected for the input image and the image rotated by 90 °, 180 °, and 270 °, the finger candidates obtained from each rotation image are rotated and integrated again to the original coordinates.

손 추적 단계에서는 이전에 검출된 손의 관심영역 내에서 연결된 PEG를 생성한다. 이 과정에서 연결된 PEG에 포함된 손가락 후보와 손 추적 점을 검색하며, 연결된 PEG에 포함된 손 추적 점의 수를 이용하여 손을 추적한다. In the hand tracking step, the PEG is generated in the region of interest of the previously detected hand. In this process, the finger candidate and hand tracker included in the linked PEG are searched, and the hand is tracked using the number of hand tracking points included in the connected PEG.

손으로 판단이 되면 손바닥 영역과 손 추적 점을 생성하고, 다음 프레임의 추적을 위하여 관심영역을 갱신한다. 관심영역 내에서 손을 찾지 못하면 손이 사라진 것으로 판단한다. 이러한 동작은 이전 프레임에서 검출된 손의 수만큼 반복된다. 초기 손 검출 과정에서는 5개의 손가락 후보를 포함한 연결된 PEG를 손으로 판단한다. 우선 검출된 손가락 후보들 사이의 거리를 고려하여 손가락 후보 그룹과 각 손가락 후보 그룹의 관심영역을 생성한다.When the hand is judged, the palm area and the hand track point are generated, and the area of interest is updated for tracking of the next frame. If the hand can not be found within the area of interest, it is judged that the hand has disappeared. This operation is repeated for the number of hands detected in the previous frame. Early hand detection In the process, the connected PEG including five finger candidates is judged by hand. First, a finger candidate group and a region of interest of each finger candidate group are generated in consideration of the distance between the detected finger candidates.

관심영역 내에서 연결된 PEG를 생성하면서 연결된 PEG에 포함된 손가락 후보의 수를 계산한다. 손가락 후보의 수가 5이면 손으로 판단하고 새로운 손을 저장한다. 이 손에 대한 손바닥 영역과 손 추적 점을 생성하고 관심영역을 갱신한다. 모든 손가락 후보 그룹에 대한 연산이 끝나면 다음 프레임에 대한 과정을 시작한다.Calculate the number of finger candidates contained in the connected PEG while generating the linked PEG within the region of interest. If the number of finger candidates is 5, judge by hand and store new hand. Create a palm area and hand tracking point for this hand and update the area of interest. When the operation for all the finger candidate groups is finished, the process for the next frame starts.

영상 분석은 라인 단위로 처리된다. 가장자리 쌍 검출과 수직방향 연결 관계 분석, PEG 생성과 형상 분석, 손가락 후보 검색, PEG에 포함된 손가락 후보와 손 추적 점 검색 및 손 영역 정의를 위한 연결된 PEG 생성 등의 대부분의 동작을 라인 단위의 연산을 한다. 필요한 정보를 라인 단위로 계산하고 판단을 하기 때문에, 객체의 외곽선을 모두 저장할 필요가 없고 계산된 정보만을 저장해도 된다. 또한, 동작 중에 판단을 내릴 수 있어 불필요한 연산을 줄일 수 있고, 메모리에서 데이터를 읽어 오는 동작의 효율을 높일 수 있다. 또한, 사용되는 연산이 복잡하지 않아 동작 속도 측면에서 유리하다.Image analysis is processed line by line. Most operations such as edge pair detection and vertical direction connection analysis, PEG generation and shape analysis, finger candidate search, finger candidate and hand trace point detection included in PEG, and connected PEG generation for hand area definition are performed on a line basis . Since necessary information is calculated and judged on a line-by-line basis, it is not necessary to store all the outlines of the object, and only the calculated information can be stored. In addition, it is possible to make a judgment during operation, thereby reducing unnecessary operations and improving the efficiency of the operation of reading data from the memory. In addition, the operation to be used is not complicated, which is advantageous in terms of operation speed.

입력된 깊이 영상에서 손 객체의 외곽선에 작은 잡음들이 많은데, 이러한 잡음에 영향을 적게 받기 때문에 median이나 dilation과 같은 전처리 과정이 필요하지 않다. 따라서 전처리 과정을 생략함에 따라 동작 속도를 향상시킬 수 있다.In the input depth image, there are many small noises in the outline of the hand object. Since it is less influenced by such noise, a preprocessing process such as median or dilation is not necessary. Therefore, the operation speed can be improved by omitting the preprocessing process.

깊이 영상에서는 객체 세분화가 비교적 쉽고, 손가락이 될 수 있는 5개의 PEG의 연결된 형상을 분석하기 때문에 초기 손 검출은 배경에 의한 영향을 적게 받는다. 따라서 배경이 복잡하거나, 배경이 변하더라도 초기 손 검출에 큰 영향을 받지 않는다. 또한, 깊이 범위에 대한 제약 조건이 없어 깊이 영상의 해상도가 충분하여 손가락이 구분이 되는 경우라면 어떤 깊이 위치에서도 초기 손을 찾을 수 있다.In the depth image, object segmentation is relatively easy and the initial hand detection is less affected by the background because it analyzes the connected shape of five PEGs that can be a finger. Therefore, even if the background is complex or the background is changed, it is not greatly affected by the initial hand detection. In addition, if there is no constraint on the depth range and the resolution of the depth image is sufficient and the finger is divided, the initial hand can be found at any depth position.

초기 손 검출과 검출된 손 추적의 순서가 매우 유사하다. 두 과정 사이의 다른 점은 초기 손 검출은 5개의 손가락 후보를 포함한 관심영역 내에서 생성된 연결된 PEG으로 검출하고, 손 추적의 경우에는 관심영역 내에 생성된 연결된 PEG에 포함된 손 추적 점의 비율을 이용하여 손을 추적한다. 그 외에는 이전 단계에서 계산된 손가락 후보를 이용하고 관심영역 내에서 연결된 PEG를 생성하여 분석하는 방법 등이 동일하다. 따라서 초기 손 검출과 손 추적의 과정이 서로 다른 방법에 비하여, 계산된 손가락 후보를 두 경우에 모두 사용하기 때문에 연산 효율성이 높다.The order of initial hand detection and detected hand tracking is very similar. The difference between the two methods is that the initial hand detection is detected by the connected PEG generated in the region of interest including the five finger candidates and in the case of the hand tracking, the ratio of the hand tracking points contained in the connected PEG generated in the region of interest Use your hand to track. Other methods are the same as the method of using finger candidates calculated in the previous step and generating and analyzing PEGs linked in the region of interest. Therefore, the calculation efficiency is high because the calculated hand candidate is used in both cases, compared with the method in which the initial hand detection and the hand tracking process are different from each other.

비교적 간단한 연산으로 손가락 검출 및 형상을 계산하고, 손바닥 영역을 검출한다. 손가락의 각도는 손가락의 PEG에 포함된 가장자리 쌍들의 중점의 방향으로 정의하는데, 간단한 연산으로 8 픽셀 거리에 대한 각도를 계산한다. 계산된 각도를 이용하여 손가락의 두께와 길이를 라인 단위로 갱신하고, 일정 간격으로 길이와 두께의 변화를 저장할 수 있다. 연결된 PEG 생성 과정에서 손바닥과 손가락의 연결을 파악할 수 있으며, 손가락과 손바닥의 연결 위치와 연결된 PEG의 x와 y좌표의 최대값과 최소값을 이용하여 손바닥 영역을 정의한다.The finger detection and shape are calculated by a relatively simple operation, and the palm area is detected. The angle of the finger is defined as the direction of the center of the pair of edges contained in the PEG of the finger. Using the calculated angles, the thickness and length of the finger can be updated in line units, and the change in length and thickness can be stored at regular intervals. The palm area is defined using the maximum and minimum values of the x and y coordinates of the PEG connected to the connecting position of the finger and the palm.

손은 유연한 객체이고 변형과 회전이 비교적 심하기 때문에 손의 형상을 이용하여 추적하는 것은 매우 어렵다. 손 추적 점을 이용하여 이전 손과 현재의 연결된 PEG 사이에 공통으로 존재하는 손 추적 점의 수를 이용하여 추적하는 매우 간단한 방법을 적용하였다. 이러한 방법에서는 손의 모양이 매우 복잡하여 형상 분석이 어렵더라도 추적은 지속적으로 유지할 수 있다. 또한, 현재 프레임에서 손의 일부가 가려지게 되더라도 현재 연결된 가장자리 쌍 그룹(connected-PEGs)에 포함된 손 추적 점의 수가 충분하면 추적이 가능하다.Hand is a flexible object and it is very difficult to trace using hand shape because deformation and rotation are relatively severe. Using a hand tracking point, a very simple method of tracking the number of hand tracking points in common between the previous hand and the current connected PEG was applied. In this method, the shape of the hand is so complex that tracking can be maintained even if shape analysis is difficult. Also, even if a part of the hand is obscured in the current frame, tracing is possible if the number of hand-tracking points included in the currently connected PEGs is sufficient.

도 17은 본 발명에 따른 가림(occlusion)에 따른 손 추적을 나타낸 영상으로서, 도 17(a)는 가림이 없는 경우의 검출된 손을 나타낸다. 손 외곽의 선은 검출된 손의 외곽선을 나타내고, 사각형은 손바닥 영역을 나타내며, 포인트들은 손 추적 점을 나타낸다. 도 17(b)는 엄지 손가락과 손바닥의 일부가 가려진 경우를 보인다. 이 경우에도 가려지지 않은 손가락 팁을 모두 검출하고, 손바닥 영역을 잘 나타내고 있다. 도 17(c)는 4개의 손가락들이 가려진 경우를 보이며, 이 경우에도 가려지지 않은 1개 손가락의 팁을 검출하였고, 손바닥 영역을 잘 나타내고 있다.Fig. 17 is an image showing a hand trace according to the occlusion according to the present invention, and Fig. 17 (a) shows a detected hand when no occlusion occurs. The outline of the hand represents the outline of the detected hand, the rectangle represents the palm area, and the points represent the hand tracking point. Fig. 17 (b) shows a case where a part of the thumb and the palm of the hand is covered. Even in this case, all the finger tips not covered are detected, and the palm area is well shown. Fig. 17 (c) shows a case in which four fingers are obscured. In this case as well, a tip of a single finger not covered is detected, and the palm area is well represented.

검출된 손의 일부가 가려지는 경우, 손 추적 점이 가려지지 않은 연결된 PEG의 중앙에 분포하는 것을 볼 수 있다. If a part of the detected hand is occluded, it can be seen that the hand tracepoint is distributed in the center of the uncovered PEG.

보다 구체적으로 실시예 및 실험예들을 통해 본 발명에 따른 가장자리 쌍 기반의 손 추적 시스템 및 방법을 설명하면 다음과 같다.
More specifically, an edge pair-based hand tracking system and method according to the present invention will be described with reference to the embodiments and experimental examples.

실험예 1: 손 검출 성능과 동작 속도 평가Experimental Example 1: Evaluation of Hand Detection Performance and Operation Speed

실험 영상은 Kinect로부터 얻은 640x480 해상도의 깊이 영상을 사용하였고, Intel i7-4770 @3.4GHz의 CPU를 사용하는 컴퓨터에서 실행되었다. 속도 향상을 위하여 손가락 후보를 검출하는 단계에서는 수평 방향 스캔 라인을 기수 라인에 대해서만 수행하였다. 따라서 손가락 후보를 검출하는 단계에서의 해상도는 320x480과 같다. 초기 손 검출과 손 추적을 위한 관심영역 내에서 연결된 PEG를 생성할 때에는 모두 라인에 대하여 스캔을 수행하였다. 즉, 손가락 후보와 손 추적 점을 정밀하게 검색하기 위해, 최종 검출된 손은 640x480 영상에서 분석하였다.Experimental images were obtained using a depth image of 640x480 resolution obtained from Kinect and executed on a computer using an Intel i7-4770 @ 3.4GHz CPU. In the step of detecting the finger candidates for the speed improvement, the horizontal direction scan line is performed only for the odd line. Therefore, the resolution in the step of detecting the finger candidate is equal to 320x480. All of the lines were scanned when generating PEGs linked in the region of interest for initial hand detection and hand tracking. That is, in order to precisely search finger candidates and hand track points, the final detected hand was analyzed on a 640x480 image.

초기 손 검출(initial hand detection) 성능을 측정하기 위해, 다섯 개의 손가락이 모두 펼쳐진 상태에서 이동과 회전의 연속적인 변화가 있도록 한 비디오 시퀀스를 이용하였다. 이 시퀀스는 비교적 복잡한 2가지 배경을 갖도록 하였고 모두 770개의 프레임으로 구성되었다. In order to measure the initial hand detection performance, we used a video sequence with five fingers in unfolded, with continuous shifts in movement and rotation. This sequence has two relatively complex backgrounds, each consisting of 770 frames.

도 18은 본 발명에 따른 초기 손 검출 테스트 영상으로서, 원은 손가락 팁의 위치를 나타내며, 박스는 손바닥 영역을 의미한다. 손가락과 손바닥이 만나는 영역의 직선은 J-line을 나타내며, 손가락 팁과 J-line의 중점을 이은 직선을 표시하였다. 초기 손 검출 성능만을 측정하기 위해 추적 기능을 제외하고 동작시켰다. 다음의 표 1과 같은 초기 손 검출 성능을 보인다. 18 is an initial hand detection test image according to the present invention, in which a circle indicates a position of a finger tip and a box indicates a palm area. The straight line in the area where the finger and the palm meet represents the J-line, and the straight line connecting the finger tip and the J-line midpoint is displayed. The tracking function was excluded to measure only the initial hand detection performance. The initial hand detection performance is shown in Table 1 below.

Figure pat00007
Figure pat00007

5개의 손가락 팁을 찾고, 검출된 손바닥 영역의 50% 이상이 손바닥을 포함하는 결과를 얻은 프레임인 경우를 초기 손이 정확히 검출된 것으로 판단하였다. 전체 770개 프레임들 중에서 759개 프레임에서 초기 손을 검출하여 98.57%의 검출률을 보였다. 인식 실패의 경우 손가락이 아닌 것을 손가락으로 인식한 거짓인식(false positive)의 경우가 7개 프레임이 있었고, 손 검출이 되지 않은 경우가 2개 프레임이 있었다. 손바닥 영역의 50% 이상이 손바닥이 아닌 경우는 2개 프레임에서 발생하였다.It was judged that the initial hand was correctly detected when 5 finger tips were found and a frame with more than 50% of the detected palm area containing the palm was obtained. Of the 770 frames, the initial hand was detected at 759 frames and the detection rate was 98.57%. In the case of recognition failure, there were 7 frames in the case of a false positive (false positive) and 2 frames in which no finger was detected. The cases where more than 50% of the palm area were not palms occurred in two frames.

도 19는 왜곡이 발생한 초기 손 검출의 나타낸 영상으로서, 도 19(a)는 손목 부분에서 깊이 영상의 왜곡으로 손가락과 유사한 형상이 발생하여 손가락이 아닌 객체를 손가락으로 판단한 것을 보인다. 도 19(b)는 초기 손을 인식하지 못한 경우를 보이는데, 넷째 손가락의 팁 부분의 형상 왜곡에 의해 손가락으로 인식되지 않았기 때문이다. 도 19(c)는 손바닥 영역의 정확성이 떨어진 프레임을 보인다. 초기 손만을 검색한 경우 770 프레임들에 대하여 측정한 한 프레임의 평균 처리 속도는 9.49msec이다.
FIG. 19 shows an image of initial hand detection in which a distortion occurs. FIG. 19 (a) shows a finger-like object generated by distortion of a depth image in the wrist portion. FIG. 19 (b) shows a case where the initial hand is not recognized, because the shape distortion of the tip portion of the fourth finger is not recognized as a finger. Fig. 19 (c) shows a frame whose palm area is less accurate. If only the initial hand is searched, the average processing speed of one frame measured for 770 frames is 9.49 msec.

실험예 2: 손 추적 성능 평가Experimental Example 2: Evaluation of Hand Tracking Performance

추적 성능을 평가하기 위해, 손의 수가 0, 1 및 2개인 경우에 대한 test sequence를 생성하였다. 각 경우에 있어서 손은 지속적으로 회전 및 이동을 수행한다. 손이 0개인 sequence에서는 펼쳐진 손가락의 수는 0부터 4개까지 변하며, 손의 수가 1개와 2개인 경우에는 펼쳐진 손가락의 수가 0부터 5까지 변한다. 손의 수가 0개인 sequence는 339개의 프레임으로 구성되었고, 손이 1과 2개인 경우의 sequence는 각각 1310과 766 프레임으로 구성되었다. To evaluate the tracking performance, a test sequence was generated for cases with 0, 1, and 2 hands. In each case, the hand continues to rotate and move. In a sequence with zero hand, the number of spread fingers varies from 0 to 4, and if the number of hands is one and two, the number of spread fingers varies from 0 to 5. A sequence with zero hand count consists of 339 frames, and a sequence with 1 hand and 2 hands consists of 1310 and 766 frames, respectively.

도 20은 본 발명에 따른 검출된 손가락 및 손바닥의 추적 결과를 나타낸 영상으로서, 도 20(a)와 (b)는 손가 1개와 2개인 경우의 예를 보인다. 이 경우에도 도 18의 실험에서와 같이 검출된 손가락 팁의 수와 손바닥 영역의 정확성을 기준으로 프레임 단위로 검출율을 측정한다. FIG. 20 is a view showing a result of tracking the detected finger and palm according to the present invention, and FIGS. 20 (a) and 20 (b) show an example of a case where there is one hand and two hands. In this case, the detection rate is measured frame by frame based on the number of finger tips detected and the accuracy of the palm area as in the experiment of FIG.

도 20(a)는 추적되는 손의 수가 1개인 경우의 결과를 보인다. 각 도의 좌상단에 표시된 숫자는 각 도의 프레임 번호를 나타낸다. 프레임 10을 제외한 나머지 프레임들은 손 부분을 확대하여 나타내었다. 펼쳐진 손가락의 수가 변하거나, 손의 이동 및 회전이 있어도 손가락 팁과 손바닥 영역을 잘 검출하는 것을 볼 수 있다. 프레임 308, 343 및 382는 펼쳐진 손가락이 없는 경우에도 x, y 및 z축 방향으로 추적이 잘 되고 있음을 보인다. Fig. 20 (a) shows the result when the number of hands to be tracked is one. The numbers on the upper left of each figure represent the frame numbers of the degrees. The frames other than the frame 10 are enlarged in the hand portion. It can be seen that the finger tip and palm area are well detected even when the number of spread fingers changes, or when the hand moves and turns. Frames 308, 343, and 382 show good tracking in the x, y, and z directions even when there is no spread finger.

도 20(b)는 추적되는 손의 수가 2개인 경우를 보인다. 이 도에서는 좌측 하단의 숫자가 각 영상의 프레임 번호를 나타낸다. 프레임 80, 86 과 150을 제외한 영상들은 손 부분을 확대한 영상이다. 80 프레임을 보면 멀리 위치한 손가 먼저 인식되고, 가까이 있는 손은 펼쳐진 손가락의 수가 5가 아니므로 초기 손으로 인식되지 않은 것을 보인다. 86 프레임에서는 가까이 있는 손의 모든 손가락이 펼쳐져 초기 손으로 인식되고, 이후 프레임부터 추적 된다. 다섯 개의 손가락이 모두 펼쳐진 경우를 초기 손로 인식하기 때문에 초기 손 인식에 대하여 깊이의 범위에 대한 제약 조건이 없으며, 따라서 손가 깊이의 어느 범위에 있어도 검출이 가능하다. 150 프레임에서는 검출된 손가 z축 방향으로 이동하여도 잘 추적되고 있음을 보인다. 프레임 from 330 to 450은 손가락의 수가 변해도 잘 찾는 것을 보이며, 프레임 525는 펼쳐진 손가락이 없는 경우에도 2개의 손가 잘 추적되는 것을 보인다. 프레임 from 660 to 760은 회전이 있는 경우에도 손 추적이 잘 동작하는 것을 보인다.Fig. 20 (b) shows a case in which the number of hands to be tracked is two. In this figure, the number in the lower left corner indicates the frame number of each image. Images other than frames 80, 86 and 150 are enlarged images of the hand. In 80 frames, the far hand is recognized first, and the near hand is not recognized as the initial hand because the number of spread fingers is not 5. In the 86 frame, all the fingers of a nearby hand are unfolded and recognized as an initial hand, then tracked from the next frame. Since all five fingers are recognized as an initial hand, there is no restriction on the range of depth for the initial hand recognition, and thus it is possible to detect any range of hand depth. At 150 frames, the detected hand is tracked even if it moves in the z axis direction. Frames from 330 to 450 seem to look good even when the number of fingers changes, and frame 525 shows that two fingers are tracked well even when there are no fingers spread out. Frames from 660 to 760 show that hand tracking works well even with rotation.

손의 수가 0, 1 및 2개인 경우에 대하여 다음의 표2와 같은 인식률과 동작 속도를 보인다.For the cases where the number of hands is 0, 1, and 2, the recognition rate and the operation speed are shown in Table 2 below.

Figure pat00008
Figure pat00008

손이 0인 경우는 초기 손이 없는 경우이므로 손을 인식하지 않아야 하며, 모든 프레임에서 손을 인식하지 않았다. 이 때 한 프레임을 처리하는 평균 속도는 7.88msec이다. 검출된 손의 수가 1개인 경우에는 인식률이 98.24%로 측정되었고, 동작 속도는 9.93msec이다. 손의 수가 2개인 경우에는 인식률이 99.48%이며, 동작 속도는 12.11msec로 측정되었다. 추적하는 손의 수가 증가함에 따라 각 손의 관심영역 내에서 연결된 PEG를 생성해야 하므로 동작 속도가 느려진다.If the hand is 0, the hand is not recognized because it has no initial hand, and the hand is not recognized in every frame. The average speed of processing one frame at this time is 7.88 msec. When the number of detected hands is 1, the recognition rate is 98.24%, and the operation speed is 9.93 msec. When the number of hands is 2, the recognition rate is 99.48% and the operation speed is measured as 12.11msec. As the number of hands to track increases, the connected PEG must be generated within the region of interest of each hand, thus slowing down the operation.

추적 성능을 분석하기 위해 검지 손가락의 끝을 추적하여 (x, y, z) 좌표를 추적하고, 이 좌표를 ground truth와 비교하였다. 추적된 손가락 팁의 좌표를 (xT, yT, zT)라 하고, ground truth의 좌표를 (xG, yG, zG)라 할 때 추적 오차는 두 점 사이의 Euclidean distance로 정의하였다. 이 오차 거리는 아래 식으로 주어진다.To analyze the tracking performance, the trajectory of the index finger was traced to track the (x, y, z) coordinates and this coordinate was compared with the ground truth. The tracking error is defined as the Euclidean distance between two points when the coordinates of the traced finger tip are (xT, yT, zT) and the ground truth coordinates are (xG, yG, zG) This error distance is given by the following equation.

Figure pat00009
Figure pat00009

여기서 z좌표 위치는 Kinect에서 입력된 정수 타입의 깊이를 사용하였는데, 깊이의 범위는 0부터 255까지의 값을 갖는다. Here, the z coordinate position uses the integer type depth input from Kinect, and the depth range has a value from 0 to 255.

도 21은 본 발명에 따른 4가지 깊이의 경우에 대해 추적된 손가락 팁 좌표 및 실측 정보를 나타낸 도면으로서, 평면의 2개 축은 x와 y축을 나타내고, 수직의 축은 깊이를 나타내는 z축을 의미한다. 실선은 추적된 손가락 팁의 좌표들을 나타내고, 점선은 ground truth를 보인다. 각 깊이의 경우에 대해서 두 경우가 대체로 일치하는 것을 볼 수 있다. 다음의 표 3은 평균과 최대 오차 거리를 나타낸다.FIG. 21 is a diagram showing tracked finger tip coordinates and measurement information for four depths according to the present invention, in which the two axes of the plane represent the x and y axes, and the vertical axes represent the z axis representing the depth. The solid line represents the coordinates of the tracked finger tip, and the dotted line represents the ground truth. For each depth case, we can see that the two cases are roughly matched. The following Table 3 shows the mean and maximum error distances.

Figure pat00010
Figure pat00010

표 3의 첫 번째 column은 각 깊이의 경우에 대하여 실험에 사용된 sequence의 프레임 수를 나타내며, 두 번째 column은 각 깊이의 경우의 깊이 범위를 보인다. 세 번째와 네 번째 column은 추적 오차 거리의 평균과 최대값을 보인다. 평균 오차 거리는 가장 가까운 경우 1.957이고 가장 먼 경우 3.291이다. 평균 오차 거리는 거리에 따라 증가하는데, 거리가 멀어지는 경우 깊이 영상의 왜곡이 증가하여 손가락 팁 검출의 위치 정확도가 감소한다. 평균 추적 오차 거리는 2.458이다.The first column of Table 3 shows the number of frames of the sequence used in the experiment for each depth, and the second column shows the depth range for each depth. The third and fourth columns show the mean and maximum values of the tracking error distances. The average error is 1.957 in the nearest case and 3.291 in the farthest case. The average error increases with the distance. When the distance increases, the distortion of the depth image increases and the position accuracy of the finger tip detection decreases. The average tracking error distance is 2.458.

도 22는 본 발명에 따른 손 검출 결과를 나타낸 영상으로서, 입력 영상에서 손의 수가 0부터 5개인 경우에서의 검출 결과를 보인다. 각 경우에 대하여 손을 검출하고 손바닥 영역과 손가락 팁을 모두 검출한 것을 볼 수 있다. 각 손의 수에 따른 평균 수행 시간은 100 프레임 이상에 대하여 측정한다. 다음의 표 4는 각 경우에서 1 프레임을 처리하는 데에 소요되는 시간을 측정한 결과를 보인다.FIG. 22 is a picture showing the hand detection result according to the present invention. FIG. 22 shows detection results in the case where the number of hands is 0 to 5 in the input image. In each case, the hand is detected and both the palm area and the finger tip are detected. The average running time according to the number of hands is measured for more than 100 frames. Table 4 below shows the results of measuring the time required to process one frame in each case.

Figure pat00011
Figure pat00011

손이 1개 있을 때 1 프레임을 처리하는 속도는 12.58msec이고 5개를 처리하는 속도는 22.10msec로 측정되었다. 많은 수의 손을 동시에 처리할 수 있음을 보인다.When one hand is used, the processing speed of one frame is 12.58 msec and the processing speed of five hands is 22.10 msec. It shows that a large number of hands can be processed at the same time.

이상에서는 실시 예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it will be understood by those skilled in the art that various changes and modifications may be made therein without departing from the spirit and scope of the invention as defined in the appended claims. It will be possible.

Claims (5)

깊이 영상(depth image)에서 객체의 가장자리 쌍 그룹(PEG: paired-edge group)의 정보를 이용하여 손가락 후보(FC: finger candidate)를 검출하고 이들 사이의 연결 관계를 파악하여 초기 손(initial hand)을 검출하는 초기 손 검출 단계 및
상기 깊이 영상의 다음 프레임에서 저장된 좌표들 중 이전 프레임보다 깊이 변화가 작은 좌표를 일정 비율 이상 포함한 형체를 추적하여 손으로 판단하는 손 추적 단계를 포함하는 것을 특징으로 하는 가장자리 쌍 기반의 손 추적 방법.
In the depth image, finger candidates (FCs) are detected using the information of paired edge groups (PEGs) of objects, An initial hand detection step of detecting an initial hand
And a hand tracing step of tracing a shape including a coordinate having a depth variation smaller than a previous one of the coordinates stored in the next frame of the depth image by a predetermined ratio or more and judging the shape manually.
제1항에 있어서, 상기 초기 손 검출 단계는,
검출된 상기 FC 중에서 깊이의 차이가 일정 범위 이내에 있는 FC들을 그룹으로 설정하는 손가락 후보 그룹화(FC grouping) 단계;
상기 FC 그룹 내에서 PEG를 재생성하여 FC와 겹치는 PEG을 확인하여 연결된 가장자리 쌍 그룹(connected-PEGs)을 생성하는 연결된 가장자리 쌍 그룹(connected-PEGs) 생성 단계;
생성된 상기 연결된 가장자리 쌍 그룹에 연결된 FC의 수가 5개인 경우 손으로 판단하는 손 판단 단계 및
손가락 및 손바닥의 연결 위치 정보를 이용하여 손바닥 영역을 검출하는 손바닥 영역 검출 단계를 포함하는 것을 특징으로 하는 가장자리 쌍 기반의 손 추적 방법.
2. The method of claim 1,
A finger grouping step (FC grouping) of setting FCs having a difference in depth within a predetermined range among the FCs detected as a group;
Regenerating the PEG within the FC group to identify connected PEGs with the FC to generate connected PEGs;
A hand judgment step of judging by hand if the number of FCs connected to the generated connected edge pair group is 5, and
And a palm area detecting step of detecting a palm area using information on the connection of the finger and the palm.
제1항에 있어서, 상기 손 추적 단계는,
검출된 손을 구성하는 connected-PEGs의 최대 및 최소 좌표값을 이용하여 사각형의 관심영역(ROI)의 범위를 저장하는 단계 및
상기 관심영역 내에서 각 connected-PEGs에 포함된 손 추적 점(HTP: hand tracking point)의 (x, y, z) 좌표를 저장하는 단계를 더 포함하는 것을 특징으로 하는 가장자리 쌍 기반의 손 추적 방법.
2. The method according to claim 1,
Storing the range of the ROI of the rectangle using the maximum and minimum coordinate values of the connected PEGs constituting the detected hand, and
(X, y, z) coordinates of a hand tracking point (HTP) included in each connected-PEGs in the region of interest, characterized by further comprising the step of: .
제3항에 있어서, 상기 손 추적 단계는,
상기 깊이 영상의 다음 프레임에서 FC를 검출하는 FC 검출 단계;
검출된 상기 FC 중에서 깊이의 차이가 일정 범위 이내에 있는 상기 FC들을 그룹으로 설정하는 손가락 후보 그룹화 단계;
상기 관심영역 내에서 PEG을 재생성하여 FC와 겹치는 PEG을 확인하여 connected-PEGs를 생성하는 연결된 가장자리 쌍 그룹 생성 단계;
상기 connected-PEGs에 포함된 상기 HTP를 이용하여 connected-PEGs를 추적된 손으로 판단하는 손 판단 단계;
상기 손 판단 단계에서 손으로 판단이 되면 다음 프레임을 위한 관심영역 설정, HTP 생성 및 손바닥 영역을 검출하는 것을 특징으로 하는 가장자리 쌍 기반의 손 추적 방법.
4. The method according to claim 3,
An FC detection step of detecting FC in the next frame of the depth image;
A finger candidate grouping step of setting the FCs having a depth difference within a certain range among the FCs detected as a group;
Regenerating PEG within said region of interest to identify connected PEGs by identifying PEG overlapping FC;
Determining hands connected PEGs using the HTP included in the connected-PEGs;
Wherein if the hand judgment is made at the hand judgment step, the region of interest setting, the HTP generation and the palm area for the next frame are detected.
제4항에 있어서, 상기 손 판단 단계는,
시작과 끝 PE를 잇는 라인에 상기 HTP가 위치하고, 저장된 HTP의 깊이 값이 시작 가장자리 쌍과 끝 가장자리 쌍의 z 좌표의 일정 범위 내에 있는 경우 HTP가 가장자리 쌍(PE)에 포함된 것으로 판단하는 것을 특징으로 하는 가장자리 쌍 기반의 손 추적 방법.
5. The method according to claim 4,
It is determined that the HTP is included in the edge pair (PE) when the HTP is located on the line connecting the start and end PE and the depth value of the stored HTP is within a certain range of the z coordinate of the start edge pair and the end edge pair. Edge pair based hand tracking method.
KR1020150019259A 2015-02-09 2015-02-09 Paired-edge based hand tracking method using depth image KR101683194B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150019259A KR101683194B1 (en) 2015-02-09 2015-02-09 Paired-edge based hand tracking method using depth image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150019259A KR101683194B1 (en) 2015-02-09 2015-02-09 Paired-edge based hand tracking method using depth image

Publications (2)

Publication Number Publication Date
KR20160097513A true KR20160097513A (en) 2016-08-18
KR101683194B1 KR101683194B1 (en) 2016-12-06

Family

ID=56874044

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150019259A KR101683194B1 (en) 2015-02-09 2015-02-09 Paired-edge based hand tracking method using depth image

Country Status (1)

Country Link
KR (1) KR101683194B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102352942B1 (en) * 2021-01-13 2022-01-19 셀렉트스타 주식회사 Method and device for annotating object boundary information

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102185320B1 (en) 2018-04-20 2020-12-01 알바이오텍 주식회사 Apparatus for generating images for analyzing user's posture

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130169536A1 (en) * 2011-02-17 2013-07-04 Orcam Technologies Ltd. Control of a wearable device
KR20130109817A (en) 2012-03-28 2013-10-08 삼성전자주식회사 Apparatus and method for recognating hand shape using finger pattern
KR20140119038A (en) * 2012-06-25 2014-10-08 소프트키네틱 소프트웨어 Improvements in or relating to three dimensional close interactions

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130169536A1 (en) * 2011-02-17 2013-07-04 Orcam Technologies Ltd. Control of a wearable device
KR20130109817A (en) 2012-03-28 2013-10-08 삼성전자주식회사 Apparatus and method for recognating hand shape using finger pattern
KR20140119038A (en) * 2012-06-25 2014-10-08 소프트키네틱 소프트웨어 Improvements in or relating to three dimensional close interactions

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jonietz, C. et al. "Towards Touchless Palm and Finger Detection for Fingerprint Extraction with Mobile Devices." Biometrics Special Interest Group (BIOSIG), 2015. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102352942B1 (en) * 2021-01-13 2022-01-19 셀렉트스타 주식회사 Method and device for annotating object boundary information

Also Published As

Publication number Publication date
KR101683194B1 (en) 2016-12-06

Similar Documents

Publication Publication Date Title
CN105760826B (en) Face tracking method and device and intelligent terminal
Mukherjee et al. Fingertip detection and tracking for recognition of air-writing in videos
US8970696B2 (en) Hand and indicating-point positioning method and hand gesture determining method used in human-computer interaction system
US7450737B2 (en) Head detecting apparatus, head detecting method, and head detecting program
US9968845B2 (en) Image processing device and image processing method, and program
EP1678659B1 (en) Method and image processing device for analyzing an object contour image, method and image processing device for detecting an object, industrial vision apparatus, smart camera, image display, security system, and computer program product
EP3090382B1 (en) Real-time 3d gesture recognition and tracking system for mobile devices
US9696812B2 (en) Apparatus and method for processing user input using motion of object
CN103984928A (en) Finger gesture recognition method based on field depth image
KR20140045573A (en) Text detection using image regions
US9082000B2 (en) Image processing device and image processing method
JP6487642B2 (en) A method of detecting a finger shape, a program thereof, a storage medium of the program, and a system for detecting a shape of a finger.
CN110717385A (en) Dynamic gesture recognition method
KR101683194B1 (en) Paired-edge based hand tracking method using depth image
CN111460858A (en) Method and device for determining pointed point in image, storage medium and electronic equipment
Lee et al. Fast hand and finger detection algorithm for interaction on smart display
KR101683189B1 (en) Paired-edge based hand detection method using depth image
CN110348363B (en) Vehicle tracking method for eliminating similar vehicle interference based on multi-frame angle information fusion
KR101717222B1 (en) System for detecting gaze and method therefor
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
US20220277595A1 (en) Hand gesture detection method and apparatus, and computer storage medium
Dai et al. An Improved ORB Feature Extraction Algorithm Based on Enhanced Image and Truncated Adaptive Threshold
CN110737364B (en) Control method for touch writing acceleration under android system
Sunyoto et al. Wrist detection based on a minimum bounding box and geometric features
US11080875B2 (en) Shape measuring apparatus, shape measuring method, non-transitory computer readable medium storing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20191001

Year of fee payment: 4