KR101962872B1 - Smart recognition system and method using hand motion tracking - Google Patents

Smart recognition system and method using hand motion tracking Download PDF

Info

Publication number
KR101962872B1
KR101962872B1 KR1020170042097A KR20170042097A KR101962872B1 KR 101962872 B1 KR101962872 B1 KR 101962872B1 KR 1020170042097 A KR1020170042097 A KR 1020170042097A KR 20170042097 A KR20170042097 A KR 20170042097A KR 101962872 B1 KR101962872 B1 KR 101962872B1
Authority
KR
South Korea
Prior art keywords
hand
image
point
unit
line
Prior art date
Application number
KR1020170042097A
Other languages
Korean (ko)
Other versions
KR20180111313A (en
Inventor
최광남
엄제경
이건혁
Original Assignee
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020170042097A priority Critical patent/KR101962872B1/en
Publication of KR20180111313A publication Critical patent/KR20180111313A/en
Application granted granted Critical
Publication of KR101962872B1 publication Critical patent/KR101962872B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • G06K9/00355
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

본 발명은 손동작 추적을 이용한 스마트 인식 시스템 및 방법에 관한 것이다. 더 상세하게는 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하고, 상기 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하고, 상기 손바닥 중심점과 상기 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하고, 상기 손바닥 중심점과 상기 손가락 끝점을 선으로 연결하고, 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력한다. 이를 통해 손동작 추적에 있어서 손 인식을 위하여 입력되는 영상을 이용한 단순한 계산을 통해 보다 높은 검출률을 유지할 수 있다. 이는 손동작 추적을 이용한 다양한 보안 시스템에 적용 가능하며, 나아가 증강현실 기술에 응용하는 등 활용분야가 다양하다.The present invention relates to a smart recognition system and method using hand tracking. More particularly, the present invention relates to a method and apparatus for recognizing a hand using an input image (A) for hand recognition, defining a palm center point in the input image (B) for hand tracking using the hand recognition information, The finger end point in the image B is calculated using the hand recognition information, the palm center point and the finger end point are connected by a line, the length value of the line is compared with the reference distance value of the image A, . Through this, it is possible to maintain a higher detection rate by simple calculation using the input image for hand recognition in the tracking of the hand movement. This can be applied to various security systems using the tracking of the hand gestures, and further applied to augmented reality technology.

Description

손동작 추적을 이용한 스마트 인식 시스템 및 방법{Smart recognition system and method using hand motion tracking}Technical Field [0001] The present invention relates to a smart recognition system and a method using hand motion tracking,

본 발명은 손동작 추적을 이용한 스마트 인식 시스템 및 방법에 관한 것으로 손 인식, 손바닥 중심점 정의, 손가락 끝점 산출을 통해 손동작을 추적하는 기술이다. 특히 본 발명은 손 인식을 위하여 입력되는 영상을 이용하여 연속된 이미지에서의 손동작을 추적하는 특징을 가진다.The present invention relates to a smart recognition system and method using a tracking of a hand gesture, and is a technology for tracking a hand gesture through hand recognition, palm center definition, and finger end point calculation. In particular, the present invention has a feature of tracking a hand motion in a continuous image using an input image for hand recognition.

최근 삼성과 애플사에서는 스마트폰 보안 시스템으로 사람의 신체를 인식하고 판별하는 기술들을 보여 화제가 되었다. 이러한 화제 배경에는 물체를 인식하고 판별하며, 연속된 이미지를 지속적으로 트래킹(Tracking)하는 등 다양한 연구가 진행되어왔다. 다만 이와 같은 다양한 연구 중 색채 기반 손 인식 기술은 피부색 또는 주변 사물 색으로 인하여 검출률이 낮은 문제점을 가지고 있다. 구체적으로는 다양한 인종에 따른 상이한 피부색 및 피부색과 유사한 사물들의 존재로 인한 검출 정확도가 떨어진다는 한계가 있었다. 이에 이러한 한계를 보완하고자 손 인식 기술은 색체 기반뿐만 아니라 사전에 샘플(Sample)을 수집한 후 필터링(Filtering)하거나, 손의 뼈대를 추정하는 등의 기술이 적용되었다. 다만 상기와 같은 기술은 종래의 색체 기반 손 인식 기술 대비 복잡하고, 이에 따라 많은 인식 시간이 소요된다는 문제점을 안고 있다.Recently, Samsung and Apple have been talking about technologies that recognize and identify human body with smartphone security system. Various researches have been conducted on such topic backgrounds, such as recognizing and discriminating objects, and continuously tracking continuous images. However, the color-based hand recognition technology has a low detection rate due to the color of the skin or surrounding objects. Specifically, there is a limitation in that the detection accuracy is deteriorated due to the existence of objects having different skin colors and skin colors according to various races. In order to overcome these limitations, the hand recognition technology has been applied not only to the color base, but also to techniques such as filtering after collecting the samples in advance, or estimating the skeleton of the hand. However, the above-described technique is complicated compared to the conventional color-based hand recognition technology, and thus has a problem in that it takes much recognition time.

미국등록특허공보 제9524028호United States Patent Application Publication No. 9524028 한국등록특허공보 제1541421호Korean Patent Registration No. 1541421

이에 본 발명은 상기와 같은 제반 사항을 고려하여 제안된 것으로, 손동작 추적에 있어서 손 인식을 위하여 입력되는 영상을 이용한 단순한 계산으로 보다 높은 검출률을 유지하는 것을 목적으로 한다.Accordingly, the present invention has been made in view of the above-mentioned matters, and aims to maintain a higher detection rate by simple calculation using an input image for hand recognition in tracking of the hand movement.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해할 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 손동작 추적을 이용한 스마트 인식 시스템은 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하는 손 인식부, 상기 손 인식부의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적부, 상기 중심 추적부에서 정의된 손바닥 중심점과 상기 손 인식부에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출부, 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결부, 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a smart recognition system using hand tracking, which includes a hand recognition unit for recognizing a hand using an input image A for hand recognition, A center tracking unit for defining a center point of the palm in the input image B for tracking the hand using the information, a hand centering point defined by the center tracking unit and hand recognition information recognized by the hand recognition unit, ), A center point and an end point connection line connecting the calculated palm center point and the calculated finger end point with each other, a reference distance value of the image (A) is compared with the length value of the line, And a comparison and output unit for outputting a result.

이 때 상기 손 인식부는 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제1 후보군 검출부, 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제1 윤곽선 추출부, 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 꼭짓점 추출부, 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의하는 제1 중심점 정의부, The hand recognition unit may include a first candidate detection unit for detecting a hand region candidate group by binarizing and labeling the image A, a region having the largest area among the detected hand region candidate group as a hand region, A first contour extracting unit for extracting a contour of a hand from the extracted hand region, a corner extracting unit extracting a corner point of the hand contour from the extracted hand contour by using a Convex Hull, A first center-point defining portion defining a center point of the defined rhombus as a central point of the palm after defining a rhombus,

상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 손가락 영역 및 기준거리 값 정의부, 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 인식부를 포함하는 것을 특징으로 한다.A finger region and a reference distance value defining unit for defining an area of the finger from an angle of a line connecting the vertex of the extracted hand contour and the center point of the defined palm and defining a reference distance value from the length of the line, And a recognition unit recognizing the hand using the defined area of the finger and the reference distance value using the Convexity Defect of the finger.

상기 중심 추적부는 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제2 후보군 검출부, 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제2 윤곽선 추출부, 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 이동 및 크기 조정부, 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 제2 중심점 정의부를 포함하는 것을 특징으로 한다.The center tracking unit may include a second candidate group detection unit for binarizing and labeling the image B to detect a hand region candidate group, a region having a largest area among the detected hand region candidate groups as a hand region, A second contour extracting unit for extracting a contour of a hand from an area of the image B by moving the contour of the image A in at least one of left, right, up, down, and diagonal directions so as to include rhombus of the image A, And a second center-point defining unit for defining a center point of the moved and adjusted rhombus as a palm center point in the image (B).

상기 끝점 산출부는 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 선 연결부, 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 접점 추출부, 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 손가락 끝점 산출부를 포함하는 것을 특징으로 한다. 이 때 상기 산출된 손가락 끝점을 기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경하는 것을 특징으로 한다.The end point calculation unit includes a line connection unit for connecting a center point of the palm within the defined image B with a finger corner point of the image A by a line, a contact extraction unit for extracting a contact point between the connected line and a hand contour line in the image B, (B) a point having a largest distance value between the extracted contact point and the palm center point in the defined image (B) while moving the extracted contact point along the hand contour line in the image (B) And a fingertip point calculating unit for calculating a fingertip end point within the finger. When the calculated finger point is further moved by a predetermined distance to extract a point having a distance value with respect to the central point of the palm within the defined image B that is larger than the calculated finger end point, To a fingertip end point within the finger.

상기 비교 및 출력부는 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하고, 상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하는 것을 특징으로 한다.The comparison and output unit determines that the finger in the image B is folded if the length value of the line is smaller than the reference distance value and if the length value of the line is greater than or equal to the reference distance value, .

상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 손동작 추적을 이용한 스마트 인식 방법은 손 인식부에서 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하는 손 인식 단계, 중심 추적부에서 상기 손 인식 단계의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적 단계, 끝점 산출부에서 상기 중심 추적 단계에서 정의된 손바닥 중심점과 상기 손 인식 단계에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출 단계, 중심점 및 끝점 연결부에서 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결 단계, 비교 및 출력부에서 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, a smart recognition method using a hand movement tracking according to the technical idea of the present invention includes a hand recognition step of recognizing a hand using an input image (A) A center tracking step of defining a center point of the palm in the image (B) input for hand tracking using the hand recognition information of the hand recognition step in the center part, a central tracking step of calculating a palm center point defined in the center tracking step, An end point calculation step of calculating a finger end point in the image B using the hand recognition information recognized in the step of connecting the center point and the end point connection line connecting the defined palm center point and the calculated finger end point in a line at the center point and end point connection, , Comparing the length value of the line and the reference distance value of the image (A) at the comparison and output section, Characterized in that it comprises a step of comparing and the output force.

이 때 상기 손 인식 단계는 제1 후보군 검출부에서 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 단계, 제1 윤곽선 추출부에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 단계, 꼭짓점 추출부에서 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 단계, 제1 중심점 정의부에서 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의하는 단계, 손가락 영역 및 기준거리 값 정의부에서 상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 단계, 인식부에서 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 단계를 포함하는 것을 특징으로 한다.In this case, the hand recognition step may include: detecting a hand region candidate group by binarizing and labeling the image (A) in the first candidate group detection unit, detecting a hand region candidate group by a first contour extracting unit, Extracting a hand outline from the hand region defined above, extracting a vertex of a hand outline from the extracted hand outline using a convex hull in a vertex extracting unit, Defining a largest rhombus in the extracted hand contour in a center point defining part and then defining a center point of the defined rhombus as a center point of the palm; From the angle of the line connecting the center of the palm and the defined center of the palm, A step of defining a quasi-distance value, and a step of recognizing the hand using the defined area of the finger and the reference distance value using a Convexity Defect based on the convex hole in the recognition unit. do.

상기 중심 추적 단계는 제2 후보군 검출부에서 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 단계, 제2 윤곽선 추출부에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 단계, 이동 및 크기 조정부에서 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 단계, 제2 중심점 정의부에서 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 단계를 포함하는 것을 특징으로 한다.The center tracking step may include detecting a hand region candidate group by binarizing and labeling the image B in a second candidate group detection unit, detecting a region having the largest area among the detected hand region candidate groups in the second contour extracting unit, (A) in the image (B) in a moving and scaling unit, the moving and scaling unit may include a step of dividing the rhombus into left and right, upper and lower, and diagonal lines so that the rhombus of the image (A) And defining a center point of the moved and adjusted rhombus as a palm center point in the image B in the second center point defining unit.

상기 끝점 산출 단계는 선 연결부에서 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 단계, 접점 추출부에서 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 단계, 손가락 끝점 산출부에서 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 단계를 포함하는 것을 특징으로 한다. 이 때 상기 산출된 손가락 끝점을 기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경하는 것을 특징으로 한다.The endpoint calculation step may include connecting a center point of the palm within the image B defined by the line connection unit and the finger vertex of the image A with a line, connecting the connected line and the hand outline in the image B, (B), the distance between the extracted contact point and the central point of the palm of the defined image (B) is the largest distance between the extracted contact point and the palm center point of the defined image And calculating a point having a value as a finger end point in the image (B). When the calculated finger point is further moved by a predetermined distance to extract a point having a distance value with respect to the central point of the palm within the defined image B that is larger than the calculated finger end point, To a fingertip end point within the finger.

상기 비교 및 출력 단계는 비교 및 출력부에서 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하고, 상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하는 것을 특징으로 한다.The comparing and outputting step determines that the finger in the image B is collapsed when the length value of the line is smaller than the reference distance value in the comparing and outputting unit and when the length value of the line is greater than or equal to the reference distance value, ) Of the finger is found to be unfolded.

이상에서 설명한 바와 같은 손동작 추적을 이용한 스마트 인식 시스템 및 방법에 따르면,According to the smart recognition system and method using the tracking of the hand movement as described above,

첫째, 손동작 추적에 있어서 손 인식을 위하여 입력되는 영상을 이용한 단순한 계산으로 통해 보다 높은 검출률을 유지할 수 있는 효과를 가진다.First, in the tracking of the hand movement, a higher detection rate can be maintained through a simple calculation using an input image for hand recognition.

둘째, 손동작 추적을 이용한 다양한 보안 시스템에 적용 가능한 효과를 가진다.Second, it can be applied to various security systems using hand tracking.

셋째, 현실세계에 가상의 물체를 겹쳐 보여주는 증강현실 기술에 응용하는 등 활용분야가 넓은 효과를 가진다.Third, it has wide effect such as application to augmented reality technology which shows virtual objects superimposed on the real world.

도 1은 본 발명의 일 실시예에 따른 손동작 추적을 이용한 스마트 인식 시스템을 나타낸 구성도.
도 2a는 도 1에서 손 인식부를 설명하기 위한 구성도.
도 2b는 도 1에서 중심 추적부를 설명하기 위한 구성도.
도 2c는 도 1에서 끝점 산출부를 설명하기 위한 구성도.
도 3은 본 발명의 일 실시예에 따른 손동작 추적을 이용한 스마트 인식 방법을 나타낸 순서도.
도 4a는 도 3에서 손 인식 단계를 설명하기 위한 순서도.
도 4b는 도 3에서 중심 추적 단계를 설명하기 위한 순서도.
도 4c는 도 3에서 끝점 산출 단계를 설명하기 위한 순서도.
도 5는 본 발명의 일 실시예에 따른 손동작 추적 과정을 나타낸 도면.
도 6은 본 발명의 일 실시예에 따른 이진화를 나타낸 도면.
도 7은 본 발명의 일 실시예에 따른 마름모의 이동 및 크기 조정을 나타낸 도면.
도 8은 본 발명의 일 실시예에 따른 손가락 끝점 산출을 위한 과정을 나타낸 도면.
도 9는 본 발명의 일 실시예로서 본 발명을 증강현실에 적용한 결과를 나타낸 도면.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a smart recognition system using tracking of a hand gesture according to an embodiment of the present invention; FIG.
FIG. 2A is a block diagram for explaining a hand recognition unit in FIG. 1; FIG.
FIG. 2B is a view for explaining the center tracking unit in FIG. 1. FIG.
FIG. 2C is a schematic diagram for explaining the end point calculating unit in FIG. 1; FIG.
3 is a flowchart illustrating a smart recognition method using a hand movement tracking according to an embodiment of the present invention.
FIG. 4A is a flowchart for explaining the hand recognition step in FIG. 3; FIG.
FIG. 4B is a flowchart for explaining the center tracking step in FIG. 3; FIG.
4C is a flowchart for explaining an end point calculation step in FIG. 3; FIG.
5 is a view illustrating a hand movement tracking process according to an embodiment of the present invention.
Figure 6 illustrates binarization in accordance with one embodiment of the present invention.
7 illustrates movement and sizing of a diamond in accordance with an embodiment of the present invention.
8 is a diagram illustrating a process for calculating a finger end point according to an embodiment of the present invention.
9 is a diagram showing a result of applying the present invention to an augmented reality as an embodiment of the present invention.

첨부한 도면을 참조하여 본 발명의 실시예들에 의한 손동작 추적을 이용한 스마트 인식 시스템 및 방법에 대하여 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나, 개략적인 구성을 이해하기 위하여 실제보다 축소하여 도시한 것이다. 또한, 제1 및 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 한편, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A smart recognition system and method using a hand movement tracking according to embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It is to be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but on the contrary, is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing. In the accompanying drawings, the dimensions of the structures are enlarged to illustrate the present invention, and are actually shown in a smaller scale than the actual dimensions in order to understand the schematic structure. Also, the terms first and second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. On the other hand, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

도 1은 본 발명의 일 실시예에 따른 손동작 추적을 이용한 스마트 인식 시스템을 나타낸 구성도이다.FIG. 1 is a block diagram of a smart recognition system using tracking of a hand gesture according to an embodiment of the present invention.

도 1에서 도시하고 있는 것과 같이 손동작 추적을 이용한 스마트 인식 시스템은 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하는 손 인식부(100), 상기 손 인식부(100)의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적부(200), 상기 중심 추적부(200)에서 정의된 손바닥 중심점과 상기 손 인식부(100)에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출부(300), 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결부(400), 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력부(500)로 구성된다. 이 때 상기 비교 및 출력부(500)는 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단한다. 반면에 상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단한다.As shown in FIG. 1, a smart recognition system using hand movement tracking includes a hand recognition unit 100 for recognizing a hand using an input image A for hand recognition, a hand recognition unit 100 for recognizing a hand, A central tracking unit 200 for defining a center point of the palm in the input image B for tracking the hand using the information, a center point of the palm defined in the center tracking unit 200, An end point calculation unit 300 for calculating a fingertip point in the image B using the hand recognition information, a center point and an end point connection unit 400 connecting the defined palm center point and the calculated finger end point with a line, And a comparison and output unit 500 that compares the reference distance value of the image A with the reference distance value of the image A and outputs a hand tracking result. At this time, the comparison and output unit 500 determines that the finger in the image B is folded if the length value of the line is smaller than the reference distance value. On the other hand, if the length value of the line is greater than or equal to the reference distance value, it is determined that the finger in the image B is expanded.

도 2a는 도 1에서 손 인식부를 설명하기 위한 구성도이다.FIG. 2A is a block diagram illustrating a hand recognition unit in FIG. 1. FIG.

도 2a에서 도시하고 있는 것과 같이 손 인식부(100)는 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제1 후보군 검출부(110), 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제1 윤곽선 추출부(120), 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 꼭짓점 추출부(130), 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의하는 제1 중심점 정의부(140), 상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 손가락 영역 및 기준거리 값 정의부(150), 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 인식부(160)로 구성된다.2A, the hand recognition unit 100 includes a first candidate group detection unit 110 for detecting a hand region candidate group by binarizing and labeling the image A, a second candidate group detection unit 110 for detecting an area of the hand region candidate group A first contour extracting unit 120 for extracting a hand contour from the defined hand region after defining the largest area as a hand region, a first contour extracting unit 120 for extracting a hand contour from the extracted hand contour using a Convex Hull, A first center point defining unit 140 defining a largest rhombus in the extracted hand contour and then defining a center point of the defined rhombus as a center point of the palm, A finger region defining a region of a finger from an angle of a line connecting a vertex of a contour and a center point of the defined palm and defining a reference distance value from the length of the line, It is constructed using the given distance value defining unit 150, a convex-hole based konbek City defects (Convexity Defect) in the recognition section 160 to recognize a hand through the area and a reference distance value of the defined fingers.

도 2b는 도 1에서 중심 추적부를 설명하기 위한 구성도이다.FIG. 2B is a view for explaining the center tracking unit in FIG.

도 2b에서 도시하고 있는 것과 같이 중심 추적부(200)는 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제2 후보군 검출부(210), 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제2 윤곽선 추출부(220), 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 이동 및 크기 조정부(230), 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 제2 중심점 정의부(240)로 구성된다.As shown in FIG. 2B, the center tracking unit 200 includes a second candidate group detection unit 210 for binarizing and labeling an image B to detect a hand region candidate group, and a second candidate group detection unit 210 for detecting an area of the hand region candidate group A second contour extracting unit 220 for extracting a hand contour from the defined hand region after defining a largest region as a hand region and a second contour extracting unit 220 for extracting a hand contour of the image A from the hand region, A movement and size adjustment unit 230 for adjusting the size of the rhombus while moving the rhombus in the direction of at least one of left, right, up, down, and diagonal lines, a second center point And a definition unit 240.

도 2c는 도 1에서 끝점 산출부(300)를 설명하기 위한 구성도이다.FIG. 2C is a block diagram for illustrating the endpoint calculator 300 in FIG.

도 2c에서 도시하고 있는 것과 같이 끝점 산출부(300)는 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 선 연결부(310), 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 접점 추출부(320), 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 손가락 끝점 산출부(330)로 구성된다. 이 때 상기 산출된 손가락 끝점을 기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경한다.2C, the end point calculation unit 300 includes a line connection unit 310 for connecting the center of the palm of the defined image B with the finger vertex of the image A by a line, (B), a contact point extracting unit (320) for extracting a contact point to be contacted with a hand contour line in the image (B) And a finger end point calculation unit 330 for calculating a point having the largest distance value from the finger B in the image B as a finger end point. When the calculated finger point is further moved by a predetermined distance to extract a point having a distance value with respect to the central point of the palm within the defined image B that is larger than the calculated finger end point, To the fingertip point in the finger.

도 3은 본 발명의 일 실시예에 따른 손동작 추적을 이용한 스마트 인식 방법을 나타낸 순서도이다.FIG. 3 is a flowchart illustrating a smart recognition method using a hand movement tracking according to an embodiment of the present invention.

도 3에서 도시하고 있는 것과 같이 손동작 추적을 이용한 스마트 인식 방법은 손 인식부(100)에서 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식한다(S100). 중심 추적부(200)에서 상기 손 인식 단계(S100)의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의한다(S200). 끝점 산출부(300)에서 상기 중심 추적 단계(S200)에서 정의된 손바닥 중심점과 상기 손 인식 단계(S100)에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출한다(S300). 중심점 및 끝점 연결부(400)에서 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결한다(S400). 비교 및 출력부(500)에서 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교한다(S500). 이 때 비교 및 출력부(500)에서 상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하여 이를 출력한다(S610). 반면에 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하여 이를 출력한다(S630).As shown in FIG. 3, in the smart recognition method using the hand movement tracking, the hand recognition unit 100 recognizes a hand using the input image A for hand recognition (S100). The central tracking unit 200 defines a palm center point in the input image B for hand tracking using the hand recognition information of the hand recognition step S100 at step S200. The end point calculating unit 300 calculates a finger end point in the image B using the palm center point defined in the center tracking step S200 and the hand recognition information recognized in the hand recognition step S100 S300. The calculated center point of the palm and the calculated finger end point are connected by a line at the central point and end point connection unit 400 (S400). The comparison and output unit 500 compares the length value of the line with the reference distance value of the image A (S500). At this time, if the length value of the line is greater than or equal to the reference distance value in the comparison and output unit 500, it is determined that the finger in the image B is expanded and outputted (S610). On the other hand, if the length of the line is smaller than the reference distance value, it is determined that the finger in the image B is folded and outputted (S630).

도 4a는 도 3에서 손 인식 단계를 설명하기 위한 순서도이다.4A is a flowchart for explaining the hand recognition step in FIG.

도 4a에서 도시하고 있는 것과 같이 손 인식 단계(S100)는 제1 후보군 검출부(110)에서 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출한다(S110). 제1 윤곽선 추출부(120)에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출한다(S120). 꼭짓점 추출부(130)에서 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출한다(S130). 제1 중심점 정의부(140)에서 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의한다(S140). 손가락 영역 및 기준거리 값 정의부(150)에서 상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의한다(S150). 인식부(160)에서 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식한다(S160).As shown in FIG. 4A, in the hand recognition step S100, the first candidate group detection unit 110 binarizes and labels the image A to detect a hand region candidate group (S110). In the first contour extracting unit 120, a region having the largest area among the detected hand region candidates is defined as a hand region, and a hand contour is extracted from the defined hand region (S120). The corner extractor 130 extracts a corner point of the hand contour from the extracted hand contour using Convex Hull (S130). After defining the largest rhombus in the extracted hand contour at the first center point defining unit 140, the center point of the defined rhombus is defined as the center point of the palm (S140). The finger region and the reference distance value defining unit 150 define the area of the finger from the angle of the line connecting the vertex of the extracted hand contour and the center point of the defined palm and define the reference distance value from the length of the line S150). The recognition unit 160 recognizes the hand using the defined area of the finger and the reference distance value using the Convexity Defect based on the Convex hole (S160).

도 4b는 도 3에서 중심 추적 단계를 설명하기 위한 순서도이다.FIG. 4B is a flowchart for explaining the center tracking step in FIG.

도 4b에서 도시하고 있는 것과 같이 중심 추적 단계(S200)는 제2 후보군 검출부(210)에서 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출한다(S210). 제2 윤곽선 추출부(220)에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출한다(S220). 이동 및 크기 조정부(230)에서 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정한다(S230). 제2 중심점 정의부(240)에서 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의한다(S240).As shown in FIG. 4B, in the center tracking step S200, the second candidate group detection unit 210 binarizes and labels the image B to detect a hand region candidate group (S210). In the second contour extracting unit 220, a region having the largest area among the detected hand region candidates is defined as a hand region, and then a hand contour is extracted from the defined hand region (S220). The moving and sizing unit 230 adjusts the size of the image by moving the diamond in at least one of left and right, up and down and diagonal directions so as to include the diamond of the image A in the hand contour line in the image B (S230) . The center point of the moved and adjusted rhombus is defined as the palm center point in the image B at the second center point defining unit 240 at step S240.

도 4c는 도 3에서 끝점 산출 단계를 설명하기 위한 순서도이다.4C is a flowchart for explaining the end point calculation step in FIG.

도 4c에서 도시하고 있는 것과 같이 끝점 산출 단계(S300)는 선 연결부(310)에서 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결한다(S310). 접점 추출부(320)에서 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출한다(S320). 손가락 끝점 산출부(330)에서 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출한다(S330).As shown in FIG. 4C, the end point calculation step S300 connects the center point of the palm within the defined image B with the finger's vertex of the image A at the line connection unit 310 at step S310. In step S320, the contact extraction unit 320 extracts a contact point between the connected line and a hand contour line in the image B (step S320). The finger end point calculation unit 330 moves the extracted contact point along the hand contour line in the image B and calculates a point having the largest distance value between the extracted contact point and the palm center point in the defined image B Is calculated as a finger end point in the image B (S330).

도 5는 본 발명의 일 실시예에 따른 손동작 추적 과정을 나타낸 도면이며, 도 6은 본 발명의 일 실시예에 따른 이진화를 나타낸 도면이다.FIG. 5 is a flowchart illustrating a hand movement tracking process according to an embodiment of the present invention. FIG. 6 is a diagram illustrating a binarization process according to an embodiment of the present invention.

도 5 내지 도 6에서 도시하고 있는 것과 같이 본 발명에서는 웹캠을 이용하여 입력받은 영상을 대상으로 진행하였다. 본 발명은 제1 후보군 검출부(110)에서 손 인식을 위하여 입력되는 영상(A)을 YCbCr 색 공간을 기준으로 피부색에 따른 이진화를 수행한 후, 이를 레이블링(Labeling)하여 손 영역 후보군을 검출한다. 이 때 상기 이진화는 손 인식을 위한 전처리 과정으로서, 영상을 YCbCr 공간으로 변환하여 피부색과 다른 주변 배경 및 사물의 이진화를 수행한 과정이다. 상기 레이블링(Labeling)은 인접한 화소에 모두 같은 번호(Label)를 붙이고, 연결되지 않는 다른 성분에는 다른 번호를 붙이는 것이다.(이진화된 영상에서 형체를 알아보기 위해 같은 픽셀 값들까지 그룹화하여 번호를 매기는 것이다.) As shown in FIGS. 5 to 6, in the present invention, an image received using a webcam is processed. In the present invention, the first candidate group detection unit 110 performs binarization according to the skin color based on the YCbCr color space, and labels the image (A) input for hand recognition to detect hand region candidate groups. In this case, the binarization is a preprocessing process for recognizing a hand, which transforms an image into a YCbCr space and performs binarization of surrounding background and objects with different colors. The labeling is performed by attaching the same number to adjacent pixels and assigning different numbers to the other unconnected components. (In order to find out the shape of a binary image, the same pixel values are grouped and numbered will be.)

제1 윤곽선 추출부(120)에서 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 레이블링(Labeling)한 과정으로부터 영상(A)의 손 윤곽선(10)을 추출한다.An area having the largest area among the hand area candidates detected by the first contour extracting unit 120 is defined as a hand area and a hand contour 10 of the image A is extracted from the labeling process.

꼭짓점 추출부(130)에서 상기 영상(A)의 손 윤곽선(10)으로부터 영상(A)의 손 윤곽선의 꼭짓점(13)을 추출한다. 이 때 상기 영상(A)의 손 윤곽선의 꼭짓점(13) 추출은 상기 영상(A)의 손 윤곽선(10)의 최외각 점들을 직선으로 연결하여 모든 점을 포함하는 콘벡스 홀(Convex Hull) 알고리즘을 이용한다.The corner extractor 130 extracts a corner point 13 of the hand contour of the image A from the hand contour 10 of the image A. [ At this time, the extraction of the corner point 13 of the hand contour of the image A is performed by connecting the outermost points of the hand contour 10 of the image A in a straight line and using a Convex Hull algorithm .

제1 중심점 정의부(140)에서 상기 영상(A)의 손 윤곽선(10) 내의 가장 큰 마름모(15)를 정의한다. 이 때 상기 정의된 마름모(15)의 중심점을 영상(A) 내 손바닥 중심점(20)으로 정의한다.The first center point defining unit 140 defines the largest rhombus 15 within the hand contour 10 of the image A. [ At this time, the center point of the lozenge 15 defined above is defined as the palm center point 20 in the image A. [

손가락 영역 및 기준거리 값 정의부(150)는 상기 영상(A)의 손 윤곽선의 꼭짓점(13)과 상기 영상(A) 내 손바닥 중심점(20)을 연결한 제1 연결선(19)의 각도로부터 다섯 손가락의 영역(17)을 정의한다. 그리고 상기 영상(A)의 손 윤곽선의 꼭짓점(13)과 상기 영상(A) 내 손바닥 중심점(20)을 연결한 제1 연결선(19)의 길이로부터 다섯 손가락의 영역(17)별로 기준거리를 정의한다. The finger region and the reference distance value defining section 150 define the finger distance and the reference distance value from the angle of the first connecting line 19 connecting the vertex 13 of the hand contour of the image A and the palm center point 20 of the image A Defines the area 17 of the finger. A reference distance is defined for each of five finger regions 17 from the length of the first connecting line 19 connecting the vertex 13 of the hand contour of the image A and the palm center point 20 of the image A do.

인식부(160)는 상기 정의된 다섯 손가락의 영역(17)과 손가락 사이가 음푹 들어가 있다는 정보를 이용한다. 이 때 사용되는 알고리즘은 콘벡시티 디펙트(Convexity Defect)로서, 이는 손가락 사이가 들어간 부분 중 상기 손바닥의 중심점에서의 거리가 상기 정의된 기준거리보다 짧은 4개의 점을 찾아 손가락 사이 꼭짓점(14)이라 정의하여 손을 인식한다.The recognition unit 160 uses information indicating that the area between the defined five-finger region 17 and the finger is dented. The algorithm used at this time is a Convexity Defect, which finds four points whose distance from the central point of the palm is shorter than the defined reference distance, Define your hand by recognizing it.

이와 같이 손 인식을 위하여 입력되는 영상(A)을 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점과 손가락 끝점을 로컬 서치(Local Search)한다. 이러한 과정은 도 7 내지 도 8에서 도시하고 있는 바와 같다.In this way, a local search is performed on the palm center point and the finger end point in the input image B for hand tracking using the input image A for hand recognition. This process is shown in FIGS. 7 to 8. FIG.

도 7은 본 발명의 일 실시예에 따른 마름모의 이동 및 크기 조정을 나타낸 도면이며, 도 8은 본 발명의 일 실시예에 따른 손가락 끝점 산출을 위한 과정을 나타낸 도면이다.FIG. 7 is a diagram illustrating movement and size adjustment of rhombus according to an embodiment of the present invention, and FIG. 8 is a diagram illustrating a process for calculating a finger end point according to an embodiment of the present invention.

본 발명의 제2 후보군 검출부(210) 및 제2윤곽선 추출부(220)는 상기 기재한 제1 후보군 검출부(110) 및 제1 윤곽선 추출부(120)의 과정과 동일하다. 그리고 도 7에서 도시하고 있는 것과 같이 본 발명은 이동 및 크기 조정부(230)에서 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모(15)가 포함되도록 상기 마름모(15)를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정한다. 도 7에서는 마름모(15) 내부가 손 영역으로 모두 채워져있지 않을 때 상기 채워져있지 않은 영역의 반대 방향으로 마름모(15)를 이동시킨다. 그리고 이동한 마름모(15) 내부가 모두 손 영역으로 채워져있어 마름모(15)가 어느 방향으로든 이동이 가능할 경우 마름모(15)의 크기를 조절한다. 이 때 마름모(15)의 크기는 마름모(15) 내부가 모두 손 영역으로 채워져있는 최대 크기로 조절한다. 이와 같은 방법으로 마름모(15)를 수정해가며 가장 큰 마름모(15)를 찾은 후, 제2 중심점 정의부(240)에서 상기 마름모(15)의 중심점을 영상(B) 내 손바닥 중심점(40)으로 정의한다.The second candidate group detection unit 210 and the second contour extraction unit 220 of the present invention are the same as those of the first candidate group detection unit 110 and the first contour extraction unit 120 described above. As shown in FIG. 7, the present invention is characterized in that the movement and size adjuster 230 adjusts the rhombus 15 so that the rhombus 15 of the image A is contained in the hand contour line of the image B, , And the diagonal line, and adjusts its size. 7, when the inside of the diamond 15 is not completely filled with the hand area, the diamond 15 is moved in the direction opposite to the unfilled area. If the inside of the moved rhombus 15 is filled with the hand region so that the rhombus 15 can move in any direction, the size of the rhombus 15 is adjusted. At this time, the size of the diamond 15 is adjusted to the maximum size in which the inside of the diamond 15 is filled with the hand area. The center point of the rhombus 15 in the second center point defining portion 240 is defined as the palm center point 40 in the image B after finding the largest rhombus 15 by modifying the rhombus 15 in this way define.

도 8에서 도시하고 있는 것과 같이 본 발명은 상기 기재한 손 인식부(100)에서와 같이 콘벡스 홀(Convex Hull)과 콘벡시티 디펙트(Convexity Defect) 알고리즘을 이용하지 않고 상기 영상(A)을 이용하여 손가락의 끝점을 산출한다.As shown in FIG. 8, according to the present invention, the image A can be obtained without using Convex Hull and Convexity Defect algorithms as in the hand recognition unit 100 described above. To calculate the end point of the finger.

선 연결부(310)에서 상기 제2 중심점 정의부(240)에서 정의된 영상(B) 내 손바닥 중심점(40)과 상기 영상(A)의 손 윤곽선의 꼭짓점(13)을 연결하고 이를 제2 연결선(38)이라 한다.The line connecting unit 310 connects the palm center point 40 in the image B defined by the second center point defining unit 240 and the vertex 13 of the hand contour line of the image A, 38).

접점 추출부(320)에서 상기 제2 연결선(38)과 상기 영상(B)의 손 윤곽선(30)과 만나는 접점(31)을 추출한다.The contact point extraction unit 320 extracts a contact point 31 between the second connection line 38 and the hand contour line 30 of the image B. [

손가락 끝점 산출부(330)에서 상기 접점(31)을 상기 영상(B)의 손 윤곽선(30)을 따라 움직이면서 상기 접점(31)과 상기 정의된 영상(B) 내 손바닥 중심점(40)과의 거리 값이 가장 큰 값을 가지는 지점을 영상(B)의 손가락 끝점(33)으로 산출한다. 이 때 상기 산출된 손가락 끝점(33)을 기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점(40)과의 거리 값이 상기 손가락 끝점(33)보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B)의 손가락 끝점(33)으로 변경한다. 도 8에서의 상기 기 설정된 거리는 50픽셀(pixel) 이하(기 설정된 거리

Figure 112017032013809-pat00001
50pixel)로서, 이는 사용자 설정에 따라 용이하게 변경 가능한 것을 특징으로 한다.The distance between the contact point 31 and the palm center point 40 in the defined image B while moving the contact point 31 along the hand contour line 30 of the image B in the finger end point calculation unit 330, And the point having the largest value is calculated as the finger end point 33 of the image B. [ At this time, the calculated finger end point 33 is further moved by a predetermined distance to extract a point having a distance value with respect to the palm center point 40 in the defined image B that is larger than the finger end point 33 And changes it to the fingertip point 33 of the image (B). The predetermined distance in Fig. 8 is 50 pixels or less
Figure 112017032013809-pat00001
50 pixels), which is easily changeable according to user setting.

이와 같이 중심점 및 끝점 연결부(400)에서 상기 영상(B) 내 손바닥 중심점(40)과 상기 손가락 끝점(33)을 연결하고 이를 제3 연결선(39)이라 한다.  The central point 40 and the fingertip point 33 of the palm 40 in the image B are connected to each other at the center point and end point connection unit 400 and are referred to as a third connection line 39.

비교 및 출력부(500)에서 상기 제3 연결선(39) 길이 값과 상기 제1 연결선(19)의 길이 값을 비교하여 손 추적 결과를 출력한다. 이 때 상기 비교는 상기 제3 연결선(39) 길이 값이 상기 제1 연결선(19)의 길이 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단한다. 반면 상기 제3 연결선(39) 길이 값이 상기 제1 연결선(19)의 길이 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단한다.The comparison and output unit 500 compares the length value of the third connection line 39 with the length value of the first connection line 19 and outputs a hand tracking result. If the length of the third connecting line 39 is smaller than the length of the first connecting line 19, it is determined that the finger of the image B is folded. On the other hand, if the length value of the third connecting line 39 is greater than or equal to the length value of the first connecting line 19, it is determined that the finger in the image B is unfolded.

도 9는 본 발명의 일 실시예로서 본 발명을 증강현실에 적용한 결과를 나타낸 도면이다.9 is a diagram showing a result of applying the present invention to an augmented reality according to an embodiment of the present invention.

도 9에서 도시하고 있는 것과 같이 본 발명을 증강현실에 적용하였을 경우, 영상을 겹쳐 보여주는 것뿐만 아니라 현실영상에 특수효과를 적용할 수 있다. 결과적으로 영상(B)은 현실영상 중 손의 중심에 출력되며, 특수효과는 Robust real-time face detection 알고리즘을 이용한 얼굴 검출 기술을 통해 검출된 얼굴 영역에 출력된다. As shown in FIG. 9, when the present invention is applied to an augmented reality, special effects can be applied not only to overlapping images but also to real images. As a result, the image (B) is output to the center of the hand of the real image, and the special effect is output to the face area detected by the face detection technology using the robust real-time face detection algorithm.

사용자가 손동작을 취하면 영상의 매프레임마다 손동작에 따른 특수효과를 얼굴에 적용한다. (도 9에서는 사용자의 얼굴을 모자이크 처리하였다.) 손동작 추적은 멈추지 않고 매프레임마다 손 영역에서는 손 검출을, 얼굴에서는 특수효과를 수행한다.When the user takes a hand gesture, the special effect according to the gesture is applied to the face every frame of the image. (The user's face is mosaiced in Fig. 9). Hand tracking is not stopped, hand detection is performed in each hand frame, and special effects are performed in the face.

상기 특수효과는 이미지 출력, 상하좌우반전, 흑백, 모자이크, 색 반전 등 사용자 설정에 따라 용이하게 변경 가능한 것을 특징으로 한다. The special effect is characterized in that it can be easily changed according to user's setting such as image output, upside-down, left-right reversal, monochrome, mosaic, color reversal and the like.

이상에서 본 발명의 바람직한 실시예를 설명하였으나, 본 발명은 다양한 변화와 변경 및 균등물을 사용할 수 있다. 본 발명은 상기 실시예를 적절히 변형하여 동일하게 응용할 수 있음이 명확하다. 따라서 상기 기재 내용은 하기 특허청구범위의 한계에 의해 정해지는 본 발명의 범위를 한정하는 것이 아니다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It is clear that the present invention can be suitably modified and applied in the same manner. Therefore, the above description does not limit the scope of the present invention, which is defined by the limitations of the following claims.

10 : 손 인식을 위하여 입력되는 영상(A)의 손 윤곽선
13 : 영상(A)의 손 윤곽선의 꼭짓점
14 : 손가락 사이 꼭짓점
15 : 마름모
17 : 다섯손가락의 영역
19 : 제1 연결선(손 윤곽선의 꼭짓점(13)과 손바닥 중심점(20)을 연결한 선)
20 : 영상(A) 내 손바닥 중심점
30 : 손 추적을 위하여 입력되는 영상(B)의 손 윤곽선
31 : 접점
33 : 손가락 끝점
38 : 제2 연결선(손 윤곽선의 꼭짓점(13)과 손바닥 중심점(40)을 연결한 선)
39 : 제3 연결선(접점(31)과 손바닥 중심점(40)을 연결한 선)
40 : 영상(B) 내 손바닥 중심점
100 : 손 인식부 110 : 제1 후보군 검출부
120 : 제1 윤곽선 추출부 130 : 꼭짓점 추출부
140 : 제1 중심점 정의부
150 : 손가락 영역 및 기준거리 값 정의부
160 : 인식부
200 : 중심 추적부 210 : 제2 후보군 검출부
220 : 제2 윤곽선 추출부 230 : 이동 및 크기 조정부
240 : 제2 중심점 정의부 300 : 끝점 산출부
310 : 선 연결부 320 : 접점 추출부
330 : 손가락 끝점 산출부 400 : 중심점 및 끝점 연결부
500 : 비교 및 출력부
10: Hand contour of input image (A) for hand recognition
13: Corner of the hand contour of the image (A)
14: Corner point between fingers
15: Rhombus
17: area of five fingers
19: First connecting line (a line connecting the corner point 20 of the palm with the corner point 13 of the hand contour)
20: palm center point in image (A)
30: Hand contour of image (B) input for hand tracking
31: Contact point
33: Finger end point
38: second connecting line (a line connecting the vertex 13 of the hand contour and the palm center point 40)
39: third connecting line (line connecting the contact point 31 and the palm center point 40)
40: center of palm in image (B)
100: hand recognition unit 110: first candidate group detection unit
120: first contour extracting unit 130:
140: First center point defining section
150: finger region and reference distance value defining unit
160:
200: center tracking unit 210: second candidate detection unit
220: second contour extracting unit 230: moving and sizing unit
240: second center point defining section 300: end point calculating section
310: line connecting part 320: contact extracting part
330: finger end point calculation unit 400: center point and end point connection unit
500: comparison and output unit

Claims (12)

손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하는 손 인식부;
상기 손 인식부의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적부;
상기 중심 추적부에서 정의된 손바닥 중심점과 상기 손 인식부에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출부;
상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결부; 및
상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력부;를 포함하고,
상기 끝점 산출부는,
상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 선 연결부;
상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 접점 추출부; 및
상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 손가락 끝점 산출부;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.
A hand recognition unit for recognizing a hand using an input image (A) for hand recognition;
A center tracking unit for defining a palm center point in the input image B for hand tracking using the hand recognition information of the hand recognition unit;
An end point calculation unit for calculating a finger end point in the image (B) using the palm center point defined by the center tracking unit and the hand recognition information recognized by the hand recognition unit;
A center point and an end point connection unit connecting the defined palm center point and the calculated finger end point by a line; And
And a comparison and output unit for comparing the length value of the line with the reference distance value of the image A to output a hand tracking result,
Wherein the endpoint calculator comprises:
A line connecting portion connecting lines of the center point of the palm within the defined image (B) and the finger vertex of the image (A);
A contact extraction unit for extracting a contact point between the connected line and a hand contour line in the image (B); And
A point having the largest distance value between the extracted contact point and the palm center point in the defined image B while moving the extracted contact point along the hand contour line in the image B is referred to as a finger And a fingertip point calculation unit for calculating a fingertip end point based on the calculated endpoints.
제 1항에 있어서, 상기 비교 및 출력부는,
상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하고,
상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.
2. The apparatus of claim 1,
If the length value of the line is smaller than the reference distance value, it is determined that the finger in the image B is folded,
If the length value of the line is greater than or equal to the reference distance value, it is determined that the finger in the image (B) is unfolded.
제 1항에 있어서, 상기 손 인식부는,
영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제1 후보군 검출부;
상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제1 윤곽선 추출부;
콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 꼭짓점 추출부;
상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 손바닥의 중심점으로 정의하는 제1 중심점 정의부;
상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 손가락 영역 및 기준거리 값 정의부; 및
콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 인식부;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.
The handwriting recognition device according to claim 1,
A first candidate group detection unit for binarizing and labeling the image A to detect a hand region candidate group;
A first contour extractor for extracting a hand contour from the defined hand region after defining a region having the largest area among the detected hand region candidate regions as a hand region;
A vertex extracting unit for extracting a vertex of a hand contour line from the extracted hand contour line using a Convex Hull;
Defining a largest rhombus within the extracted hand contour, and defining a center point of the defined rhombus as a center point of the palm;
A finger region and a reference distance value defining unit defining an area of the finger from an angle of a line connecting the vertex of the extracted hand contour and the center point of the defined palm and defining a reference distance value from the length of the line; And
And a recognition unit for recognizing the hand using the defined area of the finger and the reference distance value using the Convexity Defect based on the Convex hole.
제 1항에 있어서, 상기 중심 추적부는,
영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제2 후보군 검출부;
상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제2 윤곽선 추출부;
상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 이동 및 크기 조정부; 및
상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 제2 중심점 정의부;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.
The apparatus according to claim 1,
A second candidate group detection unit for binarizing and labeling the image B to detect a hand region candidate group;
A second contour extractor for extracting a hand contour from the defined hand region after defining a region having the largest area among the detected hand region candidate regions as a hand region;
A moving and scaling unit for scaling the size of the image by moving the rhombus in at least one of left, right, up and down and diagonal directions so that the image A includes rhombus in the hand contour of the image B; And
And a second center-point defining unit that defines a center point of the moved and adjusted rhombus as a palm center point in the image (B).
삭제delete 제 1항에 있어서, 상기 산출된 손가락 끝점을,
기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.
2. The method according to claim 1, further comprising:
And extracts a point having a value larger than the calculated fingertip point by a predetermined distance so that a distance value between the defined center of the image B and the center of the palm is greater than the calculated fingertip point, A Smart Recognition System Using Tracking of Hand Motion.
손 인식부에서 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하는 손 인식 단계;
중심 추적부에서 상기 손 인식 단계의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적 단계;
끝점 산출부에서 상기 중심 추적 단계에서 정의된 손바닥 중심점과 상기 손 인식 단계에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출 단계;
중심점 및 끝점 연결부에서 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결 단계; 및
비교 및 출력부에서 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력 단계;를 포함하고,
상기 끝점 산출 단계는,
선 연결부에서 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 단계;
접점 추출부에서 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 단계; 및
손가락 끝점 산출부에서 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 단계;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.
A hand recognizing step of recognizing the hand using the input image (A) for recognizing the hand in the hand recognizing part;
A center tracking step of defining a palm center point in the image (B) input for hand tracking using the hand recognition information of the hand recognition step in the center tracking unit;
An end point calculation step of calculating a fingertip point in the image (B) using the palm center point defined in the center tracking step and the hand recognition information recognized in the hand recognition step in the end point calculation unit;
Connecting a center point and an end point connecting the center of the palm defined above and the calculated finger end point by a line at the center point and end point connection portion; And
And comparing and outputting the hand tracking result by comparing the length value of the line and the reference distance value of the image (A) at the comparing and outputting unit,
The endpoint computing step may include:
Connecting a center point of a palm in the image (B) defined by the line connecting part and a finger vertex of the image (A) with a line;
Extracting a contact point between the connected line and a hand contour line in the image (B) at the contact point extracting unit; And
A point having the largest distance value between the extracted contact point and the central point of the palm of the defined image B while moving the extracted contact point along the hand contour line in the image B, Calculating a finger end point in the fingerprint image (B).
제 7항에 있어서, 상기 비교 및 출력 단계는,
비교 및 출력부에서 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하고,
상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.
8. The method of claim 7,
If the length value of the line is smaller than the reference distance value in the comparing and outputting unit, it is determined that the finger in the image B is folded,
And if the length value of the line is greater than or equal to the reference distance value, it is determined that the finger in the image (B) is unfolded.
제 7항에 있어서, 상기 손 인식 단계는,
제1 후보군 검출부에서 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 단계;
제1 윤곽선 추출부에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 단계;
꼭짓점 추출부에서 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 단계;
제1 중심점 정의부에서 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의하는 단계;
손가락 영역 및 기준거리 값 정의부에서 상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 단계; 및
인식부에서 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 단계;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.
8. The method according to claim 7,
Detecting a hand region candidate group by binarizing and labeling the image (A) in the first candidate group detection unit;
Extracting a hand contour from the defined hand region after defining a region having the largest area among the detected hand region candidate group as a hand region in the first contour extracting unit;
Extracting a vertex of a hand contour from the extracted hand contour using a convex hull in a vertex extracting unit;
Defining a largest rhombus in the extracted hand contour at a first center point defining unit and then defining a center point of the defined rhombus as a center point of the palm;
Defining a region of a finger from a line connecting a vertex of the extracted hand contour and a center point of the defined palm in a finger region and a reference distance value defining unit and defining a reference distance value from the line length; And
Recognizing the hand using the defined area of the finger and the reference distance value using the Convexity Defect based on the Convex hole in the recognition unit, Way.
제 7항에 있어서, 상기 중심 추적 단계는,
제2 후보군 검출부에서 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 단계;
제2 윤곽선 추출부에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 단계;
이동 및 크기 조정부에서 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 단계; 및
제2 중심점 정의부에서 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 단계;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.
8. The method according to claim 7,
Detecting a hand region candidate group by binarizing and labeling the image (B) in a second candidate group detection unit;
Extracting a hand contour from the defined hand region after defining a region having the largest area among the detected hand region candidate group as a hand region in the second contour extracting unit;
Adjusting the size of the image by moving the rhombus in at least one of left, right, up, down, and diagonal directions so that the image of the image (A) includes rhombus in the hand contour line in the image (B) And
And defining a center point of the moved and adjusted rhombus as a palm center point in the image (B) in the second center point defining unit.
삭제delete 제 7항에 있어서, 상기 산출된 손가락 끝점을,
기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.
The method according to claim 7, further comprising:
And extracts a point having a value larger than the calculated fingertip point by a predetermined distance so that a distance value between the defined center of the image B and the center of the palm is greater than the calculated fingertip point, A smart recognition method using a tracking of a hand gesture.
KR1020170042097A 2017-03-31 2017-03-31 Smart recognition system and method using hand motion tracking KR101962872B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170042097A KR101962872B1 (en) 2017-03-31 2017-03-31 Smart recognition system and method using hand motion tracking

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170042097A KR101962872B1 (en) 2017-03-31 2017-03-31 Smart recognition system and method using hand motion tracking

Publications (2)

Publication Number Publication Date
KR20180111313A KR20180111313A (en) 2018-10-11
KR101962872B1 true KR101962872B1 (en) 2019-03-27

Family

ID=63864887

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170042097A KR101962872B1 (en) 2017-03-31 2017-03-31 Smart recognition system and method using hand motion tracking

Country Status (1)

Country Link
KR (1) KR101962872B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102052449B1 (en) * 2019-01-14 2019-12-05 전남대학교산학협력단 System for virtual mouse and method therefor
KR20230073869A (en) * 2021-11-19 2023-05-26 삼성전자주식회사 Method of providing user interface supporting interaction and elecronic apparatus performing the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101526426B1 (en) * 2013-12-31 2015-06-05 현대자동차 주식회사 Gesture recognize apparatus and method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101436322B1 (en) * 2008-02-22 2014-10-30 삼성전자주식회사 Image capturing apparatus enabling non-contact shutter-operation and image capturing method
US9524028B2 (en) 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
KR101541421B1 (en) 2013-12-26 2015-08-03 한밭대학교 산학협력단 Method and System for providing user interaction interface using hand posture recognition
KR101635600B1 (en) * 2014-05-30 2016-07-20 주식회사 퓨처리스트 Hand Mouse Functioning Based on Background Subtraction and Finger Gesture Recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101526426B1 (en) * 2013-12-31 2015-06-05 현대자동차 주식회사 Gesture recognize apparatus and method

Also Published As

Publication number Publication date
KR20180111313A (en) 2018-10-11

Similar Documents

Publication Publication Date Title
Namboodiri et al. Document structure and layout analysis
JPH10214346A (en) Hand gesture recognizing system and its method
Dave Segmentation methods for hand written character recognition
Rajam et al. Recognition of Tamil sign language alphabet using image processing to aid deaf-dumb people
CN110751154B (en) Complex environment multi-shape text detection method based on pixel-level segmentation
Chang et al. Analysis of stroke structures of handwritten Chinese characters
Pariwat et al. Thai finger-spelling sign language recognition using global and local features with SVM
Kalsh et al. Sign language recognition system
CN109558855B (en) A kind of space gesture recognition methods combined based on palm contour feature with stencil matching method
Yadav et al. Text extraction in document images: highlight on using corner points
KR101962872B1 (en) Smart recognition system and method using hand motion tracking
KR101967858B1 (en) Apparatus and method for separating objects based on 3D depth image
KR101021134B1 (en) Apparatus and methode for extracting the direction of fingerprint
Lahiani et al. Real Time Static Hand Gesture Recognition System for Mobile Devices.
Işikdoğan et al. Automatic recognition of Turkish fingerspelling
KR101048399B1 (en) Character detection method and apparatus
Dehankar et al. Using AEPI method for hand gesture recognition in varying background and blurred images
Valiente et al. A process for text recognition of generic identification documents over cloud computing
Yasukochi et al. A recognition method of restricted hand shapes in still image and moving image as a man-machine interface
CN110737364A (en) Control method for touch writing acceleration under android systems
Kane et al. Sign Language apprehension using convolution neural networks
Karthick et al. Pre-processing Techniques for Offline Tamil Handwritten Character Recognition
KR101683189B1 (en) Paired-edge based hand detection method using depth image
Setitra et al. A Tracking Approach for Text Line Segmentation in Handwritten Documents.
Sebastian et al. Text detection and recognition from images as an aid to blind persons accessing unfamiliar environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant