KR101962872B1 - Smart recognition system and method using hand motion tracking - Google Patents
Smart recognition system and method using hand motion tracking Download PDFInfo
- Publication number
- KR101962872B1 KR101962872B1 KR1020170042097A KR20170042097A KR101962872B1 KR 101962872 B1 KR101962872 B1 KR 101962872B1 KR 1020170042097 A KR1020170042097 A KR 1020170042097A KR 20170042097 A KR20170042097 A KR 20170042097A KR 101962872 B1 KR101962872 B1 KR 101962872B1
- Authority
- KR
- South Korea
- Prior art keywords
- hand
- image
- point
- unit
- line
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G06K9/00355—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
Abstract
본 발명은 손동작 추적을 이용한 스마트 인식 시스템 및 방법에 관한 것이다. 더 상세하게는 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하고, 상기 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하고, 상기 손바닥 중심점과 상기 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하고, 상기 손바닥 중심점과 상기 손가락 끝점을 선으로 연결하고, 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력한다. 이를 통해 손동작 추적에 있어서 손 인식을 위하여 입력되는 영상을 이용한 단순한 계산을 통해 보다 높은 검출률을 유지할 수 있다. 이는 손동작 추적을 이용한 다양한 보안 시스템에 적용 가능하며, 나아가 증강현실 기술에 응용하는 등 활용분야가 다양하다.The present invention relates to a smart recognition system and method using hand tracking. More particularly, the present invention relates to a method and apparatus for recognizing a hand using an input image (A) for hand recognition, defining a palm center point in the input image (B) for hand tracking using the hand recognition information, The finger end point in the image B is calculated using the hand recognition information, the palm center point and the finger end point are connected by a line, the length value of the line is compared with the reference distance value of the image A, . Through this, it is possible to maintain a higher detection rate by simple calculation using the input image for hand recognition in the tracking of the hand movement. This can be applied to various security systems using the tracking of the hand gestures, and further applied to augmented reality technology.
Description
본 발명은 손동작 추적을 이용한 스마트 인식 시스템 및 방법에 관한 것으로 손 인식, 손바닥 중심점 정의, 손가락 끝점 산출을 통해 손동작을 추적하는 기술이다. 특히 본 발명은 손 인식을 위하여 입력되는 영상을 이용하여 연속된 이미지에서의 손동작을 추적하는 특징을 가진다.The present invention relates to a smart recognition system and method using a tracking of a hand gesture, and is a technology for tracking a hand gesture through hand recognition, palm center definition, and finger end point calculation. In particular, the present invention has a feature of tracking a hand motion in a continuous image using an input image for hand recognition.
최근 삼성과 애플사에서는 스마트폰 보안 시스템으로 사람의 신체를 인식하고 판별하는 기술들을 보여 화제가 되었다. 이러한 화제 배경에는 물체를 인식하고 판별하며, 연속된 이미지를 지속적으로 트래킹(Tracking)하는 등 다양한 연구가 진행되어왔다. 다만 이와 같은 다양한 연구 중 색채 기반 손 인식 기술은 피부색 또는 주변 사물 색으로 인하여 검출률이 낮은 문제점을 가지고 있다. 구체적으로는 다양한 인종에 따른 상이한 피부색 및 피부색과 유사한 사물들의 존재로 인한 검출 정확도가 떨어진다는 한계가 있었다. 이에 이러한 한계를 보완하고자 손 인식 기술은 색체 기반뿐만 아니라 사전에 샘플(Sample)을 수집한 후 필터링(Filtering)하거나, 손의 뼈대를 추정하는 등의 기술이 적용되었다. 다만 상기와 같은 기술은 종래의 색체 기반 손 인식 기술 대비 복잡하고, 이에 따라 많은 인식 시간이 소요된다는 문제점을 안고 있다.Recently, Samsung and Apple have been talking about technologies that recognize and identify human body with smartphone security system. Various researches have been conducted on such topic backgrounds, such as recognizing and discriminating objects, and continuously tracking continuous images. However, the color-based hand recognition technology has a low detection rate due to the color of the skin or surrounding objects. Specifically, there is a limitation in that the detection accuracy is deteriorated due to the existence of objects having different skin colors and skin colors according to various races. In order to overcome these limitations, the hand recognition technology has been applied not only to the color base, but also to techniques such as filtering after collecting the samples in advance, or estimating the skeleton of the hand. However, the above-described technique is complicated compared to the conventional color-based hand recognition technology, and thus has a problem in that it takes much recognition time.
이에 본 발명은 상기와 같은 제반 사항을 고려하여 제안된 것으로, 손동작 추적에 있어서 손 인식을 위하여 입력되는 영상을 이용한 단순한 계산으로 보다 높은 검출률을 유지하는 것을 목적으로 한다.Accordingly, the present invention has been made in view of the above-mentioned matters, and aims to maintain a higher detection rate by simple calculation using an input image for hand recognition in tracking of the hand movement.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해할 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.
상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 손동작 추적을 이용한 스마트 인식 시스템은 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하는 손 인식부, 상기 손 인식부의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적부, 상기 중심 추적부에서 정의된 손바닥 중심점과 상기 손 인식부에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출부, 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결부, 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a smart recognition system using hand tracking, which includes a hand recognition unit for recognizing a hand using an input image A for hand recognition, A center tracking unit for defining a center point of the palm in the input image B for tracking the hand using the information, a hand centering point defined by the center tracking unit and hand recognition information recognized by the hand recognition unit, ), A center point and an end point connection line connecting the calculated palm center point and the calculated finger end point with each other, a reference distance value of the image (A) is compared with the length value of the line, And a comparison and output unit for outputting a result.
이 때 상기 손 인식부는 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제1 후보군 검출부, 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제1 윤곽선 추출부, 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 꼭짓점 추출부, 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의하는 제1 중심점 정의부, The hand recognition unit may include a first candidate detection unit for detecting a hand region candidate group by binarizing and labeling the image A, a region having the largest area among the detected hand region candidate group as a hand region, A first contour extracting unit for extracting a contour of a hand from the extracted hand region, a corner extracting unit extracting a corner point of the hand contour from the extracted hand contour by using a Convex Hull, A first center-point defining portion defining a center point of the defined rhombus as a central point of the palm after defining a rhombus,
상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 손가락 영역 및 기준거리 값 정의부, 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 인식부를 포함하는 것을 특징으로 한다.A finger region and a reference distance value defining unit for defining an area of the finger from an angle of a line connecting the vertex of the extracted hand contour and the center point of the defined palm and defining a reference distance value from the length of the line, And a recognition unit recognizing the hand using the defined area of the finger and the reference distance value using the Convexity Defect of the finger.
상기 중심 추적부는 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제2 후보군 검출부, 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제2 윤곽선 추출부, 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 이동 및 크기 조정부, 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 제2 중심점 정의부를 포함하는 것을 특징으로 한다.The center tracking unit may include a second candidate group detection unit for binarizing and labeling the image B to detect a hand region candidate group, a region having a largest area among the detected hand region candidate groups as a hand region, A second contour extracting unit for extracting a contour of a hand from an area of the image B by moving the contour of the image A in at least one of left, right, up, down, and diagonal directions so as to include rhombus of the image A, And a second center-point defining unit for defining a center point of the moved and adjusted rhombus as a palm center point in the image (B).
상기 끝점 산출부는 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 선 연결부, 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 접점 추출부, 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 손가락 끝점 산출부를 포함하는 것을 특징으로 한다. 이 때 상기 산출된 손가락 끝점을 기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경하는 것을 특징으로 한다.The end point calculation unit includes a line connection unit for connecting a center point of the palm within the defined image B with a finger corner point of the image A by a line, a contact extraction unit for extracting a contact point between the connected line and a hand contour line in the image B, (B) a point having a largest distance value between the extracted contact point and the palm center point in the defined image (B) while moving the extracted contact point along the hand contour line in the image (B) And a fingertip point calculating unit for calculating a fingertip end point within the finger. When the calculated finger point is further moved by a predetermined distance to extract a point having a distance value with respect to the central point of the palm within the defined image B that is larger than the calculated finger end point, To a fingertip end point within the finger.
상기 비교 및 출력부는 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하고, 상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하는 것을 특징으로 한다.The comparison and output unit determines that the finger in the image B is folded if the length value of the line is smaller than the reference distance value and if the length value of the line is greater than or equal to the reference distance value, .
상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 손동작 추적을 이용한 스마트 인식 방법은 손 인식부에서 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하는 손 인식 단계, 중심 추적부에서 상기 손 인식 단계의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적 단계, 끝점 산출부에서 상기 중심 추적 단계에서 정의된 손바닥 중심점과 상기 손 인식 단계에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출 단계, 중심점 및 끝점 연결부에서 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결 단계, 비교 및 출력부에서 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력 단계를 포함하는 것을 특징으로 한다.In order to achieve the above object, a smart recognition method using a hand movement tracking according to the technical idea of the present invention includes a hand recognition step of recognizing a hand using an input image (A) A center tracking step of defining a center point of the palm in the image (B) input for hand tracking using the hand recognition information of the hand recognition step in the center part, a central tracking step of calculating a palm center point defined in the center tracking step, An end point calculation step of calculating a finger end point in the image B using the hand recognition information recognized in the step of connecting the center point and the end point connection line connecting the defined palm center point and the calculated finger end point in a line at the center point and end point connection, , Comparing the length value of the line and the reference distance value of the image (A) at the comparison and output section, Characterized in that it comprises a step of comparing and the output force.
이 때 상기 손 인식 단계는 제1 후보군 검출부에서 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 단계, 제1 윤곽선 추출부에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 단계, 꼭짓점 추출부에서 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 단계, 제1 중심점 정의부에서 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의하는 단계, 손가락 영역 및 기준거리 값 정의부에서 상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 단계, 인식부에서 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 단계를 포함하는 것을 특징으로 한다.In this case, the hand recognition step may include: detecting a hand region candidate group by binarizing and labeling the image (A) in the first candidate group detection unit, detecting a hand region candidate group by a first contour extracting unit, Extracting a hand outline from the hand region defined above, extracting a vertex of a hand outline from the extracted hand outline using a convex hull in a vertex extracting unit, Defining a largest rhombus in the extracted hand contour in a center point defining part and then defining a center point of the defined rhombus as a center point of the palm; From the angle of the line connecting the center of the palm and the defined center of the palm, A step of defining a quasi-distance value, and a step of recognizing the hand using the defined area of the finger and the reference distance value using a Convexity Defect based on the convex hole in the recognition unit. do.
상기 중심 추적 단계는 제2 후보군 검출부에서 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 단계, 제2 윤곽선 추출부에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 단계, 이동 및 크기 조정부에서 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 단계, 제2 중심점 정의부에서 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 단계를 포함하는 것을 특징으로 한다.The center tracking step may include detecting a hand region candidate group by binarizing and labeling the image B in a second candidate group detection unit, detecting a region having the largest area among the detected hand region candidate groups in the second contour extracting unit, (A) in the image (B) in a moving and scaling unit, the moving and scaling unit may include a step of dividing the rhombus into left and right, upper and lower, and diagonal lines so that the rhombus of the image (A) And defining a center point of the moved and adjusted rhombus as a palm center point in the image B in the second center point defining unit.
상기 끝점 산출 단계는 선 연결부에서 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 단계, 접점 추출부에서 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 단계, 손가락 끝점 산출부에서 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 단계를 포함하는 것을 특징으로 한다. 이 때 상기 산출된 손가락 끝점을 기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경하는 것을 특징으로 한다.The endpoint calculation step may include connecting a center point of the palm within the image B defined by the line connection unit and the finger vertex of the image A with a line, connecting the connected line and the hand outline in the image B, (B), the distance between the extracted contact point and the central point of the palm of the defined image (B) is the largest distance between the extracted contact point and the palm center point of the defined image And calculating a point having a value as a finger end point in the image (B). When the calculated finger point is further moved by a predetermined distance to extract a point having a distance value with respect to the central point of the palm within the defined image B that is larger than the calculated finger end point, To a fingertip end point within the finger.
상기 비교 및 출력 단계는 비교 및 출력부에서 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하고, 상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하는 것을 특징으로 한다.The comparing and outputting step determines that the finger in the image B is collapsed when the length value of the line is smaller than the reference distance value in the comparing and outputting unit and when the length value of the line is greater than or equal to the reference distance value, ) Of the finger is found to be unfolded.
이상에서 설명한 바와 같은 손동작 추적을 이용한 스마트 인식 시스템 및 방법에 따르면,According to the smart recognition system and method using the tracking of the hand movement as described above,
첫째, 손동작 추적에 있어서 손 인식을 위하여 입력되는 영상을 이용한 단순한 계산으로 통해 보다 높은 검출률을 유지할 수 있는 효과를 가진다.First, in the tracking of the hand movement, a higher detection rate can be maintained through a simple calculation using an input image for hand recognition.
둘째, 손동작 추적을 이용한 다양한 보안 시스템에 적용 가능한 효과를 가진다.Second, it can be applied to various security systems using hand tracking.
셋째, 현실세계에 가상의 물체를 겹쳐 보여주는 증강현실 기술에 응용하는 등 활용분야가 넓은 효과를 가진다.Third, it has wide effect such as application to augmented reality technology which shows virtual objects superimposed on the real world.
도 1은 본 발명의 일 실시예에 따른 손동작 추적을 이용한 스마트 인식 시스템을 나타낸 구성도.
도 2a는 도 1에서 손 인식부를 설명하기 위한 구성도.
도 2b는 도 1에서 중심 추적부를 설명하기 위한 구성도.
도 2c는 도 1에서 끝점 산출부를 설명하기 위한 구성도.
도 3은 본 발명의 일 실시예에 따른 손동작 추적을 이용한 스마트 인식 방법을 나타낸 순서도.
도 4a는 도 3에서 손 인식 단계를 설명하기 위한 순서도.
도 4b는 도 3에서 중심 추적 단계를 설명하기 위한 순서도.
도 4c는 도 3에서 끝점 산출 단계를 설명하기 위한 순서도.
도 5는 본 발명의 일 실시예에 따른 손동작 추적 과정을 나타낸 도면.
도 6은 본 발명의 일 실시예에 따른 이진화를 나타낸 도면.
도 7은 본 발명의 일 실시예에 따른 마름모의 이동 및 크기 조정을 나타낸 도면.
도 8은 본 발명의 일 실시예에 따른 손가락 끝점 산출을 위한 과정을 나타낸 도면.
도 9는 본 발명의 일 실시예로서 본 발명을 증강현실에 적용한 결과를 나타낸 도면.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram of a smart recognition system using tracking of a hand gesture according to an embodiment of the present invention; FIG.
FIG. 2A is a block diagram for explaining a hand recognition unit in FIG. 1; FIG.
FIG. 2B is a view for explaining the center tracking unit in FIG. 1. FIG.
FIG. 2C is a schematic diagram for explaining the end point calculating unit in FIG. 1; FIG.
3 is a flowchart illustrating a smart recognition method using a hand movement tracking according to an embodiment of the present invention.
FIG. 4A is a flowchart for explaining the hand recognition step in FIG. 3; FIG.
FIG. 4B is a flowchart for explaining the center tracking step in FIG. 3; FIG.
4C is a flowchart for explaining an end point calculation step in FIG. 3; FIG.
5 is a view illustrating a hand movement tracking process according to an embodiment of the present invention.
Figure 6 illustrates binarization in accordance with one embodiment of the present invention.
7 illustrates movement and sizing of a diamond in accordance with an embodiment of the present invention.
8 is a diagram illustrating a process for calculating a finger end point according to an embodiment of the present invention.
9 is a diagram showing a result of applying the present invention to an augmented reality as an embodiment of the present invention.
첨부한 도면을 참조하여 본 발명의 실시예들에 의한 손동작 추적을 이용한 스마트 인식 시스템 및 방법에 대하여 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나, 개략적인 구성을 이해하기 위하여 실제보다 축소하여 도시한 것이다. 또한, 제1 및 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 한편, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A smart recognition system and method using a hand movement tracking according to embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It is to be understood, however, that the invention is not intended to be limited to the particular forms disclosed, but on the contrary, is intended to cover all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing. In the accompanying drawings, the dimensions of the structures are enlarged to illustrate the present invention, and are actually shown in a smaller scale than the actual dimensions in order to understand the schematic structure. Also, the terms first and second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. On the other hand, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.
도 1은 본 발명의 일 실시예에 따른 손동작 추적을 이용한 스마트 인식 시스템을 나타낸 구성도이다.FIG. 1 is a block diagram of a smart recognition system using tracking of a hand gesture according to an embodiment of the present invention.
도 1에서 도시하고 있는 것과 같이 손동작 추적을 이용한 스마트 인식 시스템은 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식하는 손 인식부(100), 상기 손 인식부(100)의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적부(200), 상기 중심 추적부(200)에서 정의된 손바닥 중심점과 상기 손 인식부(100)에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출부(300), 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결부(400), 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력부(500)로 구성된다. 이 때 상기 비교 및 출력부(500)는 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단한다. 반면에 상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단한다.As shown in FIG. 1, a smart recognition system using hand movement tracking includes a
도 2a는 도 1에서 손 인식부를 설명하기 위한 구성도이다.FIG. 2A is a block diagram illustrating a hand recognition unit in FIG. 1. FIG.
도 2a에서 도시하고 있는 것과 같이 손 인식부(100)는 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제1 후보군 검출부(110), 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제1 윤곽선 추출부(120), 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 꼭짓점 추출부(130), 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의하는 제1 중심점 정의부(140), 상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 손가락 영역 및 기준거리 값 정의부(150), 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 인식부(160)로 구성된다.2A, the
도 2b는 도 1에서 중심 추적부를 설명하기 위한 구성도이다.FIG. 2B is a view for explaining the center tracking unit in FIG.
도 2b에서 도시하고 있는 것과 같이 중심 추적부(200)는 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제2 후보군 검출부(210), 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제2 윤곽선 추출부(220), 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 이동 및 크기 조정부(230), 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 제2 중심점 정의부(240)로 구성된다.As shown in FIG. 2B, the
도 2c는 도 1에서 끝점 산출부(300)를 설명하기 위한 구성도이다.FIG. 2C is a block diagram for illustrating the
도 2c에서 도시하고 있는 것과 같이 끝점 산출부(300)는 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 선 연결부(310), 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 접점 추출부(320), 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 손가락 끝점 산출부(330)로 구성된다. 이 때 상기 산출된 손가락 끝점을 기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경한다.2C, the end
도 3은 본 발명의 일 실시예에 따른 손동작 추적을 이용한 스마트 인식 방법을 나타낸 순서도이다.FIG. 3 is a flowchart illustrating a smart recognition method using a hand movement tracking according to an embodiment of the present invention.
도 3에서 도시하고 있는 것과 같이 손동작 추적을 이용한 스마트 인식 방법은 손 인식부(100)에서 손 인식을 위하여 입력되는 영상(A)을 이용하여 손을 인식한다(S100). 중심 추적부(200)에서 상기 손 인식 단계(S100)의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의한다(S200). 끝점 산출부(300)에서 상기 중심 추적 단계(S200)에서 정의된 손바닥 중심점과 상기 손 인식 단계(S100)에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출한다(S300). 중심점 및 끝점 연결부(400)에서 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결한다(S400). 비교 및 출력부(500)에서 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교한다(S500). 이 때 비교 및 출력부(500)에서 상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하여 이를 출력한다(S610). 반면에 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하여 이를 출력한다(S630).As shown in FIG. 3, in the smart recognition method using the hand movement tracking, the
도 4a는 도 3에서 손 인식 단계를 설명하기 위한 순서도이다.4A is a flowchart for explaining the hand recognition step in FIG.
도 4a에서 도시하고 있는 것과 같이 손 인식 단계(S100)는 제1 후보군 검출부(110)에서 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출한다(S110). 제1 윤곽선 추출부(120)에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출한다(S120). 꼭짓점 추출부(130)에서 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출한다(S130). 제1 중심점 정의부(140)에서 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의한다(S140). 손가락 영역 및 기준거리 값 정의부(150)에서 상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의한다(S150). 인식부(160)에서 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식한다(S160).As shown in FIG. 4A, in the hand recognition step S100, the first candidate
도 4b는 도 3에서 중심 추적 단계를 설명하기 위한 순서도이다.FIG. 4B is a flowchart for explaining the center tracking step in FIG.
도 4b에서 도시하고 있는 것과 같이 중심 추적 단계(S200)는 제2 후보군 검출부(210)에서 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출한다(S210). 제2 윤곽선 추출부(220)에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출한다(S220). 이동 및 크기 조정부(230)에서 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정한다(S230). 제2 중심점 정의부(240)에서 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의한다(S240).As shown in FIG. 4B, in the center tracking step S200, the second candidate
도 4c는 도 3에서 끝점 산출 단계를 설명하기 위한 순서도이다.4C is a flowchart for explaining the end point calculation step in FIG.
도 4c에서 도시하고 있는 것과 같이 끝점 산출 단계(S300)는 선 연결부(310)에서 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결한다(S310). 접점 추출부(320)에서 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출한다(S320). 손가락 끝점 산출부(330)에서 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출한다(S330).As shown in FIG. 4C, the end point calculation step S300 connects the center point of the palm within the defined image B with the finger's vertex of the image A at the
도 5는 본 발명의 일 실시예에 따른 손동작 추적 과정을 나타낸 도면이며, 도 6은 본 발명의 일 실시예에 따른 이진화를 나타낸 도면이다.FIG. 5 is a flowchart illustrating a hand movement tracking process according to an embodiment of the present invention. FIG. 6 is a diagram illustrating a binarization process according to an embodiment of the present invention.
도 5 내지 도 6에서 도시하고 있는 것과 같이 본 발명에서는 웹캠을 이용하여 입력받은 영상을 대상으로 진행하였다. 본 발명은 제1 후보군 검출부(110)에서 손 인식을 위하여 입력되는 영상(A)을 YCbCr 색 공간을 기준으로 피부색에 따른 이진화를 수행한 후, 이를 레이블링(Labeling)하여 손 영역 후보군을 검출한다. 이 때 상기 이진화는 손 인식을 위한 전처리 과정으로서, 영상을 YCbCr 공간으로 변환하여 피부색과 다른 주변 배경 및 사물의 이진화를 수행한 과정이다. 상기 레이블링(Labeling)은 인접한 화소에 모두 같은 번호(Label)를 붙이고, 연결되지 않는 다른 성분에는 다른 번호를 붙이는 것이다.(이진화된 영상에서 형체를 알아보기 위해 같은 픽셀 값들까지 그룹화하여 번호를 매기는 것이다.) As shown in FIGS. 5 to 6, in the present invention, an image received using a webcam is processed. In the present invention, the first candidate
제1 윤곽선 추출부(120)에서 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 레이블링(Labeling)한 과정으로부터 영상(A)의 손 윤곽선(10)을 추출한다.An area having the largest area among the hand area candidates detected by the first
꼭짓점 추출부(130)에서 상기 영상(A)의 손 윤곽선(10)으로부터 영상(A)의 손 윤곽선의 꼭짓점(13)을 추출한다. 이 때 상기 영상(A)의 손 윤곽선의 꼭짓점(13) 추출은 상기 영상(A)의 손 윤곽선(10)의 최외각 점들을 직선으로 연결하여 모든 점을 포함하는 콘벡스 홀(Convex Hull) 알고리즘을 이용한다.The
제1 중심점 정의부(140)에서 상기 영상(A)의 손 윤곽선(10) 내의 가장 큰 마름모(15)를 정의한다. 이 때 상기 정의된 마름모(15)의 중심점을 영상(A) 내 손바닥 중심점(20)으로 정의한다.The first center
손가락 영역 및 기준거리 값 정의부(150)는 상기 영상(A)의 손 윤곽선의 꼭짓점(13)과 상기 영상(A) 내 손바닥 중심점(20)을 연결한 제1 연결선(19)의 각도로부터 다섯 손가락의 영역(17)을 정의한다. 그리고 상기 영상(A)의 손 윤곽선의 꼭짓점(13)과 상기 영상(A) 내 손바닥 중심점(20)을 연결한 제1 연결선(19)의 길이로부터 다섯 손가락의 영역(17)별로 기준거리를 정의한다. The finger region and the reference distance
인식부(160)는 상기 정의된 다섯 손가락의 영역(17)과 손가락 사이가 음푹 들어가 있다는 정보를 이용한다. 이 때 사용되는 알고리즘은 콘벡시티 디펙트(Convexity Defect)로서, 이는 손가락 사이가 들어간 부분 중 상기 손바닥의 중심점에서의 거리가 상기 정의된 기준거리보다 짧은 4개의 점을 찾아 손가락 사이 꼭짓점(14)이라 정의하여 손을 인식한다.The
이와 같이 손 인식을 위하여 입력되는 영상(A)을 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점과 손가락 끝점을 로컬 서치(Local Search)한다. 이러한 과정은 도 7 내지 도 8에서 도시하고 있는 바와 같다.In this way, a local search is performed on the palm center point and the finger end point in the input image B for hand tracking using the input image A for hand recognition. This process is shown in FIGS. 7 to 8. FIG.
도 7은 본 발명의 일 실시예에 따른 마름모의 이동 및 크기 조정을 나타낸 도면이며, 도 8은 본 발명의 일 실시예에 따른 손가락 끝점 산출을 위한 과정을 나타낸 도면이다.FIG. 7 is a diagram illustrating movement and size adjustment of rhombus according to an embodiment of the present invention, and FIG. 8 is a diagram illustrating a process for calculating a finger end point according to an embodiment of the present invention.
본 발명의 제2 후보군 검출부(210) 및 제2윤곽선 추출부(220)는 상기 기재한 제1 후보군 검출부(110) 및 제1 윤곽선 추출부(120)의 과정과 동일하다. 그리고 도 7에서 도시하고 있는 것과 같이 본 발명은 이동 및 크기 조정부(230)에서 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모(15)가 포함되도록 상기 마름모(15)를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정한다. 도 7에서는 마름모(15) 내부가 손 영역으로 모두 채워져있지 않을 때 상기 채워져있지 않은 영역의 반대 방향으로 마름모(15)를 이동시킨다. 그리고 이동한 마름모(15) 내부가 모두 손 영역으로 채워져있어 마름모(15)가 어느 방향으로든 이동이 가능할 경우 마름모(15)의 크기를 조절한다. 이 때 마름모(15)의 크기는 마름모(15) 내부가 모두 손 영역으로 채워져있는 최대 크기로 조절한다. 이와 같은 방법으로 마름모(15)를 수정해가며 가장 큰 마름모(15)를 찾은 후, 제2 중심점 정의부(240)에서 상기 마름모(15)의 중심점을 영상(B) 내 손바닥 중심점(40)으로 정의한다.The second candidate
도 8에서 도시하고 있는 것과 같이 본 발명은 상기 기재한 손 인식부(100)에서와 같이 콘벡스 홀(Convex Hull)과 콘벡시티 디펙트(Convexity Defect) 알고리즘을 이용하지 않고 상기 영상(A)을 이용하여 손가락의 끝점을 산출한다.As shown in FIG. 8, according to the present invention, the image A can be obtained without using Convex Hull and Convexity Defect algorithms as in the
선 연결부(310)에서 상기 제2 중심점 정의부(240)에서 정의된 영상(B) 내 손바닥 중심점(40)과 상기 영상(A)의 손 윤곽선의 꼭짓점(13)을 연결하고 이를 제2 연결선(38)이라 한다.The
접점 추출부(320)에서 상기 제2 연결선(38)과 상기 영상(B)의 손 윤곽선(30)과 만나는 접점(31)을 추출한다.The contact
손가락 끝점 산출부(330)에서 상기 접점(31)을 상기 영상(B)의 손 윤곽선(30)을 따라 움직이면서 상기 접점(31)과 상기 정의된 영상(B) 내 손바닥 중심점(40)과의 거리 값이 가장 큰 값을 가지는 지점을 영상(B)의 손가락 끝점(33)으로 산출한다. 이 때 상기 산출된 손가락 끝점(33)을 기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점(40)과의 거리 값이 상기 손가락 끝점(33)보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B)의 손가락 끝점(33)으로 변경한다. 도 8에서의 상기 기 설정된 거리는 50픽셀(pixel) 이하(기 설정된 거리50pixel)로서, 이는 사용자 설정에 따라 용이하게 변경 가능한 것을 특징으로 한다.The distance between the
이와 같이 중심점 및 끝점 연결부(400)에서 상기 영상(B) 내 손바닥 중심점(40)과 상기 손가락 끝점(33)을 연결하고 이를 제3 연결선(39)이라 한다. The
비교 및 출력부(500)에서 상기 제3 연결선(39) 길이 값과 상기 제1 연결선(19)의 길이 값을 비교하여 손 추적 결과를 출력한다. 이 때 상기 비교는 상기 제3 연결선(39) 길이 값이 상기 제1 연결선(19)의 길이 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단한다. 반면 상기 제3 연결선(39) 길이 값이 상기 제1 연결선(19)의 길이 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단한다.The comparison and
도 9는 본 발명의 일 실시예로서 본 발명을 증강현실에 적용한 결과를 나타낸 도면이다.9 is a diagram showing a result of applying the present invention to an augmented reality according to an embodiment of the present invention.
도 9에서 도시하고 있는 것과 같이 본 발명을 증강현실에 적용하였을 경우, 영상을 겹쳐 보여주는 것뿐만 아니라 현실영상에 특수효과를 적용할 수 있다. 결과적으로 영상(B)은 현실영상 중 손의 중심에 출력되며, 특수효과는 Robust real-time face detection 알고리즘을 이용한 얼굴 검출 기술을 통해 검출된 얼굴 영역에 출력된다. As shown in FIG. 9, when the present invention is applied to an augmented reality, special effects can be applied not only to overlapping images but also to real images. As a result, the image (B) is output to the center of the hand of the real image, and the special effect is output to the face area detected by the face detection technology using the robust real-time face detection algorithm.
사용자가 손동작을 취하면 영상의 매프레임마다 손동작에 따른 특수효과를 얼굴에 적용한다. (도 9에서는 사용자의 얼굴을 모자이크 처리하였다.) 손동작 추적은 멈추지 않고 매프레임마다 손 영역에서는 손 검출을, 얼굴에서는 특수효과를 수행한다.When the user takes a hand gesture, the special effect according to the gesture is applied to the face every frame of the image. (The user's face is mosaiced in Fig. 9). Hand tracking is not stopped, hand detection is performed in each hand frame, and special effects are performed in the face.
상기 특수효과는 이미지 출력, 상하좌우반전, 흑백, 모자이크, 색 반전 등 사용자 설정에 따라 용이하게 변경 가능한 것을 특징으로 한다. The special effect is characterized in that it can be easily changed according to user's setting such as image output, upside-down, left-right reversal, monochrome, mosaic, color reversal and the like.
이상에서 본 발명의 바람직한 실시예를 설명하였으나, 본 발명은 다양한 변화와 변경 및 균등물을 사용할 수 있다. 본 발명은 상기 실시예를 적절히 변형하여 동일하게 응용할 수 있음이 명확하다. 따라서 상기 기재 내용은 하기 특허청구범위의 한계에 의해 정해지는 본 발명의 범위를 한정하는 것이 아니다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It is clear that the present invention can be suitably modified and applied in the same manner. Therefore, the above description does not limit the scope of the present invention, which is defined by the limitations of the following claims.
10 : 손 인식을 위하여 입력되는 영상(A)의 손 윤곽선
13 : 영상(A)의 손 윤곽선의 꼭짓점
14 : 손가락 사이 꼭짓점
15 : 마름모
17 : 다섯손가락의 영역
19 : 제1 연결선(손 윤곽선의 꼭짓점(13)과 손바닥 중심점(20)을 연결한 선)
20 : 영상(A) 내 손바닥 중심점
30 : 손 추적을 위하여 입력되는 영상(B)의 손 윤곽선
31 : 접점
33 : 손가락 끝점
38 : 제2 연결선(손 윤곽선의 꼭짓점(13)과 손바닥 중심점(40)을 연결한 선)
39 : 제3 연결선(접점(31)과 손바닥 중심점(40)을 연결한 선)
40 : 영상(B) 내 손바닥 중심점
100 : 손 인식부 110 : 제1 후보군 검출부
120 : 제1 윤곽선 추출부 130 : 꼭짓점 추출부
140 : 제1 중심점 정의부
150 : 손가락 영역 및 기준거리 값 정의부
160 : 인식부
200 : 중심 추적부 210 : 제2 후보군 검출부
220 : 제2 윤곽선 추출부 230 : 이동 및 크기 조정부
240 : 제2 중심점 정의부 300 : 끝점 산출부
310 : 선 연결부 320 : 접점 추출부
330 : 손가락 끝점 산출부 400 : 중심점 및 끝점 연결부
500 : 비교 및 출력부 10: Hand contour of input image (A) for hand recognition
13: Corner of the hand contour of the image (A)
14: Corner point between fingers
15: Rhombus
17: area of five fingers
19: First connecting line (a line connecting the
20: palm center point in image (A)
30: Hand contour of image (B) input for hand tracking
31: Contact point
33: Finger end point
38: second connecting line (a line connecting the
39: third connecting line (line connecting the
40: center of palm in image (B)
100: hand recognition unit 110: first candidate group detection unit
120: first contour extracting unit 130:
140: First center point defining section
150: finger region and reference distance value defining unit
160:
200: center tracking unit 210: second candidate detection unit
220: second contour extracting unit 230: moving and sizing unit
240: second center point defining section 300: end point calculating section
310: line connecting part 320: contact extracting part
330: finger end point calculation unit 400: center point and end point connection unit
500: comparison and output unit
Claims (12)
상기 손 인식부의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적부;
상기 중심 추적부에서 정의된 손바닥 중심점과 상기 손 인식부에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출부;
상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결부; 및
상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력부;를 포함하고,
상기 끝점 산출부는,
상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 선 연결부;
상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 접점 추출부; 및
상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 손가락 끝점 산출부;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.A hand recognition unit for recognizing a hand using an input image (A) for hand recognition;
A center tracking unit for defining a palm center point in the input image B for hand tracking using the hand recognition information of the hand recognition unit;
An end point calculation unit for calculating a finger end point in the image (B) using the palm center point defined by the center tracking unit and the hand recognition information recognized by the hand recognition unit;
A center point and an end point connection unit connecting the defined palm center point and the calculated finger end point by a line; And
And a comparison and output unit for comparing the length value of the line with the reference distance value of the image A to output a hand tracking result,
Wherein the endpoint calculator comprises:
A line connecting portion connecting lines of the center point of the palm within the defined image (B) and the finger vertex of the image (A);
A contact extraction unit for extracting a contact point between the connected line and a hand contour line in the image (B); And
A point having the largest distance value between the extracted contact point and the palm center point in the defined image B while moving the extracted contact point along the hand contour line in the image B is referred to as a finger And a fingertip point calculation unit for calculating a fingertip end point based on the calculated endpoints.
상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하고,
상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.2. The apparatus of claim 1,
If the length value of the line is smaller than the reference distance value, it is determined that the finger in the image B is folded,
If the length value of the line is greater than or equal to the reference distance value, it is determined that the finger in the image (B) is unfolded.
영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제1 후보군 검출부;
상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제1 윤곽선 추출부;
콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 꼭짓점 추출부;
상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 손바닥의 중심점으로 정의하는 제1 중심점 정의부;
상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 손가락 영역 및 기준거리 값 정의부; 및
콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 인식부;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.The handwriting recognition device according to claim 1,
A first candidate group detection unit for binarizing and labeling the image A to detect a hand region candidate group;
A first contour extractor for extracting a hand contour from the defined hand region after defining a region having the largest area among the detected hand region candidate regions as a hand region;
A vertex extracting unit for extracting a vertex of a hand contour line from the extracted hand contour line using a Convex Hull;
Defining a largest rhombus within the extracted hand contour, and defining a center point of the defined rhombus as a center point of the palm;
A finger region and a reference distance value defining unit defining an area of the finger from an angle of a line connecting the vertex of the extracted hand contour and the center point of the defined palm and defining a reference distance value from the length of the line; And
And a recognition unit for recognizing the hand using the defined area of the finger and the reference distance value using the Convexity Defect based on the Convex hole.
영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 제2 후보군 검출부;
상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 제2 윤곽선 추출부;
상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 이동 및 크기 조정부; 및
상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 제2 중심점 정의부;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.The apparatus according to claim 1,
A second candidate group detection unit for binarizing and labeling the image B to detect a hand region candidate group;
A second contour extractor for extracting a hand contour from the defined hand region after defining a region having the largest area among the detected hand region candidate regions as a hand region;
A moving and scaling unit for scaling the size of the image by moving the rhombus in at least one of left, right, up and down and diagonal directions so that the image A includes rhombus in the hand contour of the image B; And
And a second center-point defining unit that defines a center point of the moved and adjusted rhombus as a palm center point in the image (B).
기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 시스템.2. The method according to claim 1, further comprising:
And extracts a point having a value larger than the calculated fingertip point by a predetermined distance so that a distance value between the defined center of the image B and the center of the palm is greater than the calculated fingertip point, A Smart Recognition System Using Tracking of Hand Motion.
중심 추적부에서 상기 손 인식 단계의 손 인식 정보를 이용하여 손 추적을 위하여 입력되는 영상(B) 내의 손바닥 중심점을 정의하는 중심 추적 단계;
끝점 산출부에서 상기 중심 추적 단계에서 정의된 손바닥 중심점과 상기 손 인식 단계에서 인식된 손 인식 정보를 이용하여 영상(B) 내의 손가락 끝점을 산출하는 끝점 산출 단계;
중심점 및 끝점 연결부에서 상기 정의된 손바닥 중심점과 상기 산출된 손가락 끝점을 선으로 연결하는 중심점 및 끝점 연결 단계; 및
비교 및 출력부에서 상기 선의 길이 값과 영상(A)의 기준거리 값을 비교하여 손 추적 결과를 출력하는 비교 및 출력 단계;를 포함하고,
상기 끝점 산출 단계는,
선 연결부에서 상기 정의된 영상(B) 내 손바닥 중심점과 상기 영상(A)의 손가락 꼭짓점을 선으로 연결하는 단계;
접점 추출부에서 상기 연결된 선과 상기 영상(B) 내의 손 윤곽선과 만나는 접점을 추출하는 단계; 및
손가락 끝점 산출부에서 상기 추출된 접점을 상기 영상(B) 내의 손 윤곽선을 따라 움직이면서 상기 추출된 접점과 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 가장 큰 값을 가지는 지점을 상기 영상(B) 내의 손가락 끝점으로 산출하는 단계;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.A hand recognizing step of recognizing the hand using the input image (A) for recognizing the hand in the hand recognizing part;
A center tracking step of defining a palm center point in the image (B) input for hand tracking using the hand recognition information of the hand recognition step in the center tracking unit;
An end point calculation step of calculating a fingertip point in the image (B) using the palm center point defined in the center tracking step and the hand recognition information recognized in the hand recognition step in the end point calculation unit;
Connecting a center point and an end point connecting the center of the palm defined above and the calculated finger end point by a line at the center point and end point connection portion; And
And comparing and outputting the hand tracking result by comparing the length value of the line and the reference distance value of the image (A) at the comparing and outputting unit,
The endpoint computing step may include:
Connecting a center point of a palm in the image (B) defined by the line connecting part and a finger vertex of the image (A) with a line;
Extracting a contact point between the connected line and a hand contour line in the image (B) at the contact point extracting unit; And
A point having the largest distance value between the extracted contact point and the central point of the palm of the defined image B while moving the extracted contact point along the hand contour line in the image B, Calculating a finger end point in the fingerprint image (B).
비교 및 출력부에서 상기 선의 길이 값이 상기 기준거리 값보다 작으면 영상(B) 내의 손가락이 접힌 것으로 판단하고,
상기 선의 길이 값이 기준거리 값보다 크거나 같으면 영상(B) 내의 손가락이 펴진 것으로 판단하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.8. The method of claim 7,
If the length value of the line is smaller than the reference distance value in the comparing and outputting unit, it is determined that the finger in the image B is folded,
And if the length value of the line is greater than or equal to the reference distance value, it is determined that the finger in the image (B) is unfolded.
제1 후보군 검출부에서 영상(A)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 단계;
제1 윤곽선 추출부에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 단계;
꼭짓점 추출부에서 콘벡스 홀(Convex Hull)을 이용하여 상기 추출된 손 윤곽선으로부터 손 윤곽선의 꼭짓점을 추출하는 단계;
제1 중심점 정의부에서 상기 추출된 손 윤곽선 내의 가장 큰 마름모를 정의한 후, 상기 정의된 마름모의 중심점을 상기 손바닥의 중심점으로 정의하는 단계;
손가락 영역 및 기준거리 값 정의부에서 상기 추출된 손 윤곽선의 꼭짓점과 상기 정의된 손바닥의 중심점을 연결한 선의 각도로부터 손가락의 영역을 정의하고, 상기 선의 길이로부터 기준거리 값을 정의하는 단계; 및
인식부에서 콘벡스 홀 기반의 콘벡시티 디펙트(Convexity Defect)를 이용하여 상기 정의된 손가락의 영역과 기준거리 값을 통해 손을 인식하는 단계;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.8. The method according to claim 7,
Detecting a hand region candidate group by binarizing and labeling the image (A) in the first candidate group detection unit;
Extracting a hand contour from the defined hand region after defining a region having the largest area among the detected hand region candidate group as a hand region in the first contour extracting unit;
Extracting a vertex of a hand contour from the extracted hand contour using a convex hull in a vertex extracting unit;
Defining a largest rhombus in the extracted hand contour at a first center point defining unit and then defining a center point of the defined rhombus as a center point of the palm;
Defining a region of a finger from a line connecting a vertex of the extracted hand contour and a center point of the defined palm in a finger region and a reference distance value defining unit and defining a reference distance value from the line length; And
Recognizing the hand using the defined area of the finger and the reference distance value using the Convexity Defect based on the Convex hole in the recognition unit, Way.
제2 후보군 검출부에서 영상(B)을 이진화 및 레이블링(Labeling)하여 손 영역 후보군을 검출하는 단계;
제2 윤곽선 추출부에서 상기 검출된 손 영역 후보군 중 면적이 가장 큰 영역을 손 영역으로 정의한 후, 상기 정의된 손 영역으로부터 손 윤곽선을 추출하는 단계;
이동 및 크기 조정부에서 상기 영상(B) 내의 손 윤곽선 내로 상기 영상(A)의 마름모가 포함되도록 상기 마름모를 좌우, 상하, 대각선 중 어느 하나 이상의 방향으로 이동하면서 크기를 조정하는 단계; 및
제2 중심점 정의부에서 상기 이동 및 조정된 마름모의 중심점을 상기 영상(B) 내 손바닥 중심점으로 정의하는 단계;를 포함하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.8. The method according to claim 7,
Detecting a hand region candidate group by binarizing and labeling the image (B) in a second candidate group detection unit;
Extracting a hand contour from the defined hand region after defining a region having the largest area among the detected hand region candidate group as a hand region in the second contour extracting unit;
Adjusting the size of the image by moving the rhombus in at least one of left, right, up, down, and diagonal directions so that the image of the image (A) includes rhombus in the hand contour line in the image (B) And
And defining a center point of the moved and adjusted rhombus as a palm center point in the image (B) in the second center point defining unit.
기 설정된 거리만큼 더 움직여 상기 정의된 영상(B) 내 손바닥 중심점과의 거리 값이 상기 산출된 손가락 끝점보다 더 큰 값을 가지는 지점을 추출하면 이를 상기 영상(B) 내의 손가락 끝점으로 변경하는 것을 특징으로 하는 손동작 추적을 이용한 스마트 인식 방법.The method according to claim 7, further comprising:
And extracts a point having a value larger than the calculated fingertip point by a predetermined distance so that a distance value between the defined center of the image B and the center of the palm is greater than the calculated fingertip point, A smart recognition method using a tracking of a hand gesture.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170042097A KR101962872B1 (en) | 2017-03-31 | 2017-03-31 | Smart recognition system and method using hand motion tracking |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170042097A KR101962872B1 (en) | 2017-03-31 | 2017-03-31 | Smart recognition system and method using hand motion tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180111313A KR20180111313A (en) | 2018-10-11 |
KR101962872B1 true KR101962872B1 (en) | 2019-03-27 |
Family
ID=63864887
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170042097A KR101962872B1 (en) | 2017-03-31 | 2017-03-31 | Smart recognition system and method using hand motion tracking |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101962872B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102052449B1 (en) * | 2019-01-14 | 2019-12-05 | 전남대학교산학협력단 | System for virtual mouse and method therefor |
KR20230073869A (en) * | 2021-11-19 | 2023-05-26 | 삼성전자주식회사 | Method of providing user interface supporting interaction and elecronic apparatus performing the same |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101526426B1 (en) * | 2013-12-31 | 2015-06-05 | 현대자동차 주식회사 | Gesture recognize apparatus and method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101436322B1 (en) * | 2008-02-22 | 2014-10-30 | 삼성전자주식회사 | Image capturing apparatus enabling non-contact shutter-operation and image capturing method |
US9524028B2 (en) | 2013-03-08 | 2016-12-20 | Fastvdo Llc | Visual language for human computer interfaces |
KR101541421B1 (en) | 2013-12-26 | 2015-08-03 | 한밭대학교 산학협력단 | Method and System for providing user interaction interface using hand posture recognition |
KR101635600B1 (en) * | 2014-05-30 | 2016-07-20 | 주식회사 퓨처리스트 | Hand Mouse Functioning Based on Background Subtraction and Finger Gesture Recognition |
-
2017
- 2017-03-31 KR KR1020170042097A patent/KR101962872B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101526426B1 (en) * | 2013-12-31 | 2015-06-05 | 현대자동차 주식회사 | Gesture recognize apparatus and method |
Also Published As
Publication number | Publication date |
---|---|
KR20180111313A (en) | 2018-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Namboodiri et al. | Document structure and layout analysis | |
JPH10214346A (en) | Hand gesture recognizing system and its method | |
Dave | Segmentation methods for hand written character recognition | |
Rajam et al. | Recognition of Tamil sign language alphabet using image processing to aid deaf-dumb people | |
CN110751154B (en) | Complex environment multi-shape text detection method based on pixel-level segmentation | |
Chang et al. | Analysis of stroke structures of handwritten Chinese characters | |
Pariwat et al. | Thai finger-spelling sign language recognition using global and local features with SVM | |
Kalsh et al. | Sign language recognition system | |
CN109558855B (en) | A kind of space gesture recognition methods combined based on palm contour feature with stencil matching method | |
Yadav et al. | Text extraction in document images: highlight on using corner points | |
KR101962872B1 (en) | Smart recognition system and method using hand motion tracking | |
KR101967858B1 (en) | Apparatus and method for separating objects based on 3D depth image | |
KR101021134B1 (en) | Apparatus and methode for extracting the direction of fingerprint | |
Lahiani et al. | Real Time Static Hand Gesture Recognition System for Mobile Devices. | |
Işikdoğan et al. | Automatic recognition of Turkish fingerspelling | |
KR101048399B1 (en) | Character detection method and apparatus | |
Dehankar et al. | Using AEPI method for hand gesture recognition in varying background and blurred images | |
Valiente et al. | A process for text recognition of generic identification documents over cloud computing | |
Yasukochi et al. | A recognition method of restricted hand shapes in still image and moving image as a man-machine interface | |
CN110737364A (en) | Control method for touch writing acceleration under android systems | |
Kane et al. | Sign Language apprehension using convolution neural networks | |
Karthick et al. | Pre-processing Techniques for Offline Tamil Handwritten Character Recognition | |
KR101683189B1 (en) | Paired-edge based hand detection method using depth image | |
Setitra et al. | A Tracking Approach for Text Line Segmentation in Handwritten Documents. | |
Sebastian et al. | Text detection and recognition from images as an aid to blind persons accessing unfamiliar environments |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |