KR100974538B1 - Method for location estimating of finger tip - Google Patents

Method for location estimating of finger tip Download PDF

Info

Publication number
KR100974538B1
KR100974538B1 KR1020080083888A KR20080083888A KR100974538B1 KR 100974538 B1 KR100974538 B1 KR 100974538B1 KR 1020080083888 A KR1020080083888 A KR 1020080083888A KR 20080083888 A KR20080083888 A KR 20080083888A KR 100974538 B1 KR100974538 B1 KR 100974538B1
Authority
KR
South Korea
Prior art keywords
fingertip
color
finger
present
setting
Prior art date
Application number
KR1020080083888A
Other languages
Korean (ko)
Other versions
KR20100025209A (en
Inventor
이필규
김용훈
Original Assignee
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인하대학교 산학협력단 filed Critical 인하대학교 산학협력단
Priority to KR1020080083888A priority Critical patent/KR100974538B1/en
Publication of KR20100025209A publication Critical patent/KR20100025209A/en
Application granted granted Critical
Publication of KR100974538B1 publication Critical patent/KR100974538B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 핑거팁 위치측정 방법에 관한 것으로서, 핑거팁의 예상범위를 설정하여 핑거팁의 위치를 보정하는 핑거팁 위치측정 방법을 제공함에 그 특징적인 목적이 있다. The present invention relates to a method for measuring a fingertip position, and has a characteristic object of providing a fingertip position measuring method for correcting the position of the fingertip by setting an expected range of the fingertip.

이러한 목적을 달성하기 위한 본 발명은, (a) 정규화된 RGB 컬러모델을 이용하여 피부색 영역을 검출하는 제 1 과정; (b) 블럽함수의 블럽 컬러링 알고리즘을 이용하여 실제 손의 영역을 산출하는 제 2 과정; 및 (c) 손의 영역 중 최상위 점을 추출하는 제 3 과정; 을 포함하는 것을 특징으로 한다.The present invention for achieving this object, (a) a first step of detecting the skin color region using a normalized RGB color model; (b) a second process of calculating an actual hand area using a blob coloring algorithm of the blob function; And (c) a third process of extracting the highest point of the area of the hand; Characterized in that it comprises a.

상기와 같은 본 발명에 따르면, 핑거팁의 예상범위를 설정하여 핑거팁의 위치를 보정함으로써, 벤딩 핑거 상태에서 핑거 트래킹시 보다 정확한 핑거팁의 위치를 측정할 수 있는 효과가 있다. According to the present invention as described above, by setting the expected range of the fingertip to correct the position of the fingertip, there is an effect that can measure the position of the more accurate fingertip when the finger tracking in the bending finger state.

핑거팁, 벤딩핑거, 위치측정 Fingertip, Bending Finger, Position Measurement

Description

핑거팁 위치측정 방법{METHOD FOR LOCATION ESTIMATING OF FINGER TIP}Fingertip Positioning Method {METHOD FOR LOCATION ESTIMATING OF FINGER TIP}

본 발명은 핑거팁 위치측정 방법에 관한 것으로서, 더욱 상세하게는 핑거 트래킹시 잘못된 핑거팁을 측정하는 문제점을 해결하기 위하여, 핑거팁의 예상범위를 설정하여 핑거팁의 위치를 보정하는 핑거팁 위치측정 방법에 관한 것이다. The present invention relates to a method for measuring a finger tip position, and more particularly, in order to solve the problem of measuring an incorrect finger tip during finger tracking, setting a predicted range of the finger tip to correct the position of the finger tip It is about a method.

핑거 트래킹을 이용한 비쥬얼 인터렉션(Visual Interaction)은 손가락을 지속적으로 따라다니며 그 이동 및 제스쳐(Gesture)에 따라서 이벤트(Event)를 발생시켜주는 새로운 UI(User Interface)방식이다.Visual Interaction using finger tracking is a new UI (User Interface) method that generates an event according to the movement and gesture of a user while continuously following a finger.

핑거 트래킹은 핑거팁을 먼저 검출한 후 트래킹을 수행한다. 일반적으로 핑거팁 검출은 피부색 정보를 추출한 뒤 블럽함수의 블럽 컬러링 알고리즘을 통하여 최상위 점을 추출한다. 그러나 이 방법을 적용하여 윤곽선(Contour)의 최상위 점을 핑거팁으로 결정하고 트래킹을 수행하면, 트래킹시에 사용자가 손가락을 구부릴 때 정확한 핑거팁을 검출하지 못하고 피부색 정보의 가장 최상위 점만을 찾게 되므로 오류가 발생한다.Finger tracking first detects a fingertip and then performs tracking. In general, fingertip detection extracts skin color information and then extracts the most significant point through a blob coloring algorithm of the blob function. However, if this method is applied to determine the top point of the contour as a fingertip and tracking, the user does not detect the exact fingertip when the user bends the finger at the time of tracking and finds only the topmost point of the skin color information. Occurs.

본 발명은 상기와 같은 문제점을 감안하여 안출된 것으로, 핑거팁의 예상범위를 설정하여 핑거팁의 위치를 보정하는 핑거팁 위치측정 방법을 제공함에 그 특징적인 목적이 있다. The present invention has been made in view of the above problems, and has a characteristic object of providing a fingertip position measuring method for correcting the position of the fingertip by setting an expected range of the fingertip.

이러한 기술적 과제를 달성하기 위하여, 본 발명은 핑거팁 위치측정 방법에 관한 것으로서, (a) 정규화된 RGB 컬러모델을 이용하여 피부색 영역을 검출하는 제 1 과정; (b) 블럽함수의 블럽 컬러링 알고리즘을 이용하여 실제 손의 영역을 산출하는 제 2 과정; 및 (c) 손의 영역 중 최상위 점을 추출하는 제 3 과정; 을 포함하는 것을 특징으로 한다.In order to achieve the technical problem, the present invention relates to a fingertip position measurement method, (a) a first step of detecting the skin color region using a normalized RGB color model; (b) a second process of calculating an actual hand area using a blob coloring algorithm of the blob function; And (c) a third process of extracting the highest point of the area of the hand; Characterized in that it comprises a.

또한, 상기 (c) 과정은, (c-1) 단일 카메라를 통해 핑거팁의 각도를 측정하는 단계; (c-2) 상기 (c-1) 단계를 통해 측정한 핑거팁의 위치가 0°내지 89°에 존재하는지 여부를 판단하는 단계; 및 (c-3) 상기 (c-2) 단계의 판단결과 0°내지 89°에 존재할 경우, 상기 핑거팁이 45°에 위치한다고 설정하고 최상위 점으로 추출하는 단계; 를 포함하는 것을 특징으로 한다. In addition, the step (c), (c-1) measuring the angle of the fingertip through a single camera; (c-2) determining whether the position of the fingertip measured through the step (c-1) exists at 0 ° to 89 °; And (c-3) setting the fingertip to be located at 45 ° and extracting it as the highest point when the determination result of step (c-2) is present at 0 ° to 89 °; Characterized in that it comprises a.

또한, 상기 (c-2) 단계의 판단결과 0°내지 89°에 존재하지 않을 경우, (c-4) 상기 핑거팁이 90°내지 180°에 존재한다고 판단하고, 상기 핑거팁이 측정각도에 위치한다고 설정하고 최상위 점으로 추출하는 단계; 를 더 포함하는 것을 특징으로 한다.In addition, when the determination result of the step (c-2) is not present in 0 ° to 89 °, (c-4) it is determined that the finger tip is present in the 90 ° to 180 °, the finger tip to the measurement angle Setting to be located and extracting the highest point; It characterized in that it further comprises.

또한, 상기 (a) 과정에서, Red 컬러 값을 30 내지 60, Green 컬러 값을 25 내지 35 로 설정하는 것을 특징으로 한다.Further, in the process (a), the red color value is set to 30 to 60, the green color value is set to 25 to 35.

그리고, 상기 (b) 과정에서, 상기 블럽 컬러링 알고리즘은, 다른 컬러가 같은 영역인 부분으로 발견될 때마다 같은 컬러로 변경해주는 반복 작업을 수행함으로써, 각 영역을 구분하는 것을 특징으로 한다. And, in the step (b), the blob coloring algorithm is characterized by distinguishing each area by performing an iterative operation of changing to the same color whenever different colors are found to be the same area.

상기와 같은 본 발명에 따르면, 핑거팁의 예상범위를 설정하여 핑거팁의 위치를 보정함으로써, 벤딩 핑거 상태에서 핑거 트래킹시 보다 정확한 핑거팁의 위치를 측정할 수 있는 효과가 있다. According to the present invention as described above, by setting the expected range of the fingertip to correct the position of the fingertip, there is an effect that can measure the position of the more accurate fingertip when the finger tracking in the bending finger state.

본 발명의 구체적 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. In the meantime, when it is determined that the detailed description of the known functions and configurations related to the present invention may unnecessarily obscure the subject matter of the present invention, it should be noted that the detailed description is omitted.

이하, 첨부된 도면을 참조하여 본 발명을 상세하게 설명한다. Hereinafter, with reference to the accompanying drawings will be described in detail the present invention.

본 발명에 따른 핑거팁 위치측정 방법에 관하여 도 1 내지 도 5 를 참조하여 설명하면 다음과 같다. The fingertip position measuring method according to the present invention will be described with reference to FIGS. 1 to 5 as follows.

기존의 핑거팁(Finger-Tip)을 구하는 방법으로서, 가장 먼저 피부색 정보(Skin Color)를 이용한 손 영역을 검출한다. 그 다음 블럽(Blob) 함수의 블럽 컬러링(Blob Coloring) 알고리즘을 통하여 피부 윤곽선(Skin Contour)를 구하고, 그 중 가장 최상위 점을 핑거팁으로 정한다. As a method of obtaining an existing finger-tip, a hand region is first detected using skin color information. Next, the skin contour is obtained through the blob coloring algorithm of the blob function, and the topmost point is selected as the finger tip.

구체적으로, 피부색 정보를 추출하는 방법은 RGB 컬러영역, HSV 컬러영역, YCbCr 컬러영역까지 3개의 컬러 공간을 많이 사용하는 것으로 알려져 있다. In detail, a method of extracting skin color information is known to use three color spaces, namely, an RGB color area, an HSV color area, and a YCbCr color area.

RGB 영역은 Red, Green, Blue의 3가지 색상 값을 사용하여 나타내는 컬러 공간으로 일반적으로 정규화된(Normalized) 형태로 변경하여 사용한다.The RGB area is a color space represented by using three color values of red, green, and blue, and is generally changed to a normalized form.

정규화된 RGB형을 만드는 기본 공식은 다음과 같다.The basic formula for creating a normalized RGB form is:

r = R/R+G+Br = R / R + G + B

g = G/R+G+Bg = G / R + G + B

b = B/R+G+Bb = B / R + G + B

여기서, b 컬러는 어떠한 중요한 정보도 가지고 있지 않기 때문에 보통 생략하고 r과 g의 두 가지 컬러를 사용하여 피부색 정보를 추출한다.Here, since b color does not have any important information, it is usually omitted and skin color information is extracted using two colors, r and g.

반면 HSV 영역은, 농도, 채도, 그리고 명도에 대한 생각을 기반으로 하여 직관적인 값을 가진 컬러를 제공한다. 농도(Hue)는 붉은색, 초록색, 자주색 그리고 노란색과 같은 지배색을 정의한다. 채도(Saturation)는 밝기에 비례하여 어떤 영역에 대한 색채의 풍부함의 정도를 나타낸다. 또한 명암(Value)은 컬러 휘도와 관련이 있다.The HSV region, on the other hand, provides color with intuitive values based on the idea of density, saturation, and lightness. Hue defines dominant colors such as red, green, purple and yellow. Saturation refers to the degree of richness of color for a region in proportion to brightness. Contrast is also related to color brightness.

그리고, YCbCr 컬러모델은 색상 신호가 아니라 휘도(luminance) Y와 색차 신호 Cb, Cr에 기반한 색 표현 방식이다. 인간의 눈이 색상보다 밝기에 더 민감하기 때문에 색차 신호를 이용해서 처리하기 위한 모델이다.The YCbCr color model is not a color signal but a color expression method based on luminance Y and color difference signals Cb and Cr. Since the human eye is more sensitive to brightness than color, it is a model for processing using chrominance signals.

본 발명에서는 세가지 컬러 방식 중 광원에 대한 표면방향의 변화에 불변하기 때문에 정규화된 RGB 컬러 방식을 사용하였고, 피부색 영역은 Red 컬러 값을 30~60, Green 컬러 값을 25~35사이로 실험에 의해 설정하였다. 여기서, Red컬러값 30~60, Green컬러값이 25~35사이라는 것은 일반 RGB방식에서의 값이고, 이 값을 가지고 정규화된 RGB형식으로 변경하여 사용한다. 이때 정규화된 RGB형을 만드는 공식은 앞서 기술한 바와 같은 r=R/R+G+B, g=G/R+G+B, b=B/R+G+B이다.In the present invention, the normalized RGB color method was used because the change in the surface direction of the light source among the three color methods was used, and the skin color region was set by experiments with a red color value of 30 to 60 and a green color value of 25 to 35. It was. Here, the red color values 30-60 and the green color values 25-35 are the values in the general RGB method, and this value is used to change to the normalized RGB format. The formula for creating a normalized RGB form is r = R / R + G + B, g = G / R + G + B, b = B / R + G + B as described above.

블럽 컬러링 알고리즘은 정규화된 RGB 컬러모델을 이용하여 피부색 영역을 추출하고, 추출된 영역을 이진화한 후 픽셀의 총합을 계산한다.The blob coloring algorithm extracts the skin color region using the normalized RGB color model, binarizes the extracted region and calculates the sum of the pixels.

블럽 컬러링을 이용한 CT영상에서 간 영역 자동 추출 연구에 따르면 블럽 컬러링 알고리즘은 다음과 같다.According to the study of automatic extraction of liver region from CT image using blob coloring, the blob coloring algorithm is as follows.

Given binary ImageGiven binary image

Let the initial Color[k] = 0Let the initial Color [k] = 0

Scan the original image from left to right and top to bottom(raster Scan)Scan the original image from left to right and top to bottom (raster Scan)

For k = ImageSize For k = ImageSize

If Image[C] = 255 thenIf Image [C] = 255 then

If Image[U] = 255 and Image[L] = 0 thenIf Image [U] = 255 and Image [L] = 0 then

Color[C] = Color[U]    Color [C] = Color [U]

If Image[U] = 0 and Image[L] = 255 thenIf Image [U] = 0 and Image [L] = 255 then

Color[C] = Color[L]    Color [C] = Color [L]

If Image[U] = 0 and Image[L] = 0 thenIf Image [U] = 0 and Image [L] = 0 then

Color[C] = K++, new Color    Color [C] = K ++, new Color

If Image[U] = 255 and Image[L] = 255 thenIf Image [U] = 255 and Image [L] = 255 then

If Color[U] is not equal Color[L] thenIf Color [U] is not equal Color [L] then

Color[C] = Color[L]    Color [C] = Color [L]

RepeatRepeat

블럽 컬러링 알고리즘은 다른 컬러가 같은 영역인 부분으로 발견될 때마다 같은 컬러로 변경해주는 반복적인 작업을 하여 각 영역을 나누어 주는 역할을 한다. 즉, 어떤 한 픽셀이 인접한 주변의 색과 다를 때, 그 주변색 중 어느쪽과 가장 가까운 색인지를 알아내는데, 예를 들면, 분홍색 픽셀이라면 빨간색과 검은색 중 빨간색과 더 가깝다는 것은 픽셀 값으로 알 수 있게 된다. 이때, 그 픽셀 값을 인접한 색과 같도록 변경하는 작업을 계속적으로 하다보면 주변과 객체간의 분리가 확실해지는 효과가 있다.The blob coloring algorithm divides each area by iteratively changing the same color whenever different colors are found in the same area. That is, when a pixel differs from the color of its neighbors, it finds which index is the closest to that color. For example, if it's a pink pixel, the pixel value indicates that it's closer to red among black and red. Will be. At this time, if the operation of changing the pixel value to be the same as the adjacent color continuously, there is an effect that the separation between the surrounding and the object becomes certain.

핑거팁은 손가락의 끝을 나타내는 것이다. 정규화된 RGB 컬러 방식을 통하여 피부색 정보를 측정한 뒤, 블럽함수를 통하여 실제 손의 영역을 산출할 수 있음을 보았다.The fingertip is the tip of the finger. After measuring the skin color information through the normalized RGB color method, we saw that the actual hand area can be calculated through the blob function.

핑거팁은 일반적으로 블럽함수를 통해 얻은 영역 중 최상위에 있는 점으로 결정된다. 그러나, 이 방법은 핑거팁을 정하는데 있어서 벤딩 핑거시에는 문제가 된다. 사용자들의 성향을 보면 웹캠의 위치와 깊이 정보가 없는 2D영상을 사용한다는 두 가지의 조건으로 인하여 핑거팁을 쉽게 정하지 못한다.The fingertip is usually determined by the point at the top of the area obtained through the blob function. However, this method is problematic for bending fingers in determining fingertips. According to the users' tendency, the fingertips are not easily determined due to the two conditions of using 2D image without the position and depth information of the webcam.

첫 번째로, 일반 PC사용자들이 쓰는 웹캠의 위치는 모니터의 위다. 그걸 바라보는 일반적인 사람들은 모니터를 높은 위치에서 내려다 보지는 않는다. 그러므로 웹캠은 당연히 사용자를 정면으로 향하거나 약간 아래로 내려다보게 된다. 사용자가 그 위치에서 웹캠에 보이게 손을 들어올릴 때, 손은 당연히 위를 향하고, 손가락 또한 위를 향하게 되므로 최상위에 있는 손가락을 핑거팁으로 하는 것이 적합 하다고 볼 수 있다.First, the webcam used by ordinary PC users is on the monitor. The average person looking at it does not look down at the monitor from a high position. Therefore, the webcam naturally faces the user or looks down slightly. When the user raises his hand to be visible on the webcam at that position, the hand is naturally facing up, and the finger is also facing up, so it is appropriate to use the fingertip at the top finger.

두 번째로, 웹캠은 깊이 정보가 없는 2D 영상을 사용한다. 블럽함수를 통해 나온 최상위 점을 핑거팁으로 하지 않고 최상위 점 외의 다른 점을 핑거팁으로 결정하면, 그 점이 실제 어떤 손가락의 끝인지 아닌지 확실히 알 수 없다. 블럽함수는 손가락 끝만을 잡는 함수가 아니라, 정규화된 RGB를 통하여 구해진 피부색 정보를 블럽 컬러링 알고리즘을 통하여 피부로 인식되는 영역을 전반적으로 찾아내는 함수이기 때문이다. 즉, 블럽함수는 한 영역 안에 픽셀이 인접한 주변 색과 다를 때, 그 인접한 픽셀 Data를 비교하여 인접한 이진 영상값과 같도록 변경하도록 하여 주변과 객체간의 분리하는 이진화를 수행하도록 하는 함수이다.Secondly, the webcam uses 2D video without depth information. If you do not fingertip the top point through the blob function, but determine the fingertip of a point other than the topmost point, you may not be sure whether the point is actually the tip of the finger. This is because the blob function is not a function of catching only the fingertips, but a function of finding the skin color information obtained through normalized RGB through the blob coloring algorithm. In other words, when a pixel in a region is different from an adjacent surrounding color, the blob function compares the adjacent pixel data and changes it to be equal to an adjacent binary image value to perform binarization between the object and the object.

도 1 은 벤딩 핑거시 잘못된 핑거팁을 측정하는 모습을 보여준다. 도시된 바와 같이 실제 핑거팁을 잡지 못하고 손가락 위쪽 마디를 추출하고 있다.Figure 1 shows the appearance of measuring the wrong finger tip when bending. As shown in the drawing, the upper fingertip is extracted without the actual fingertip.

도 1 에서 보듯이 핑거팁에 따른 문제점은 사실상 2D 영상을 이용하는 웹캠으로 해결하기에는 많은 무리가 따른다. 그에 따른 문제를 해결하기에 일반적으로 2대 이상의 웹캠을 사용하는 방법이 가장 많이 제시되고 있다. 그러나 두 대 이상의 카메라를 사용한다는 것은 비용적인 측면에 있어서의 부담을 줄 수 있을 뿐만 아니라 카메라의 위치를 어디에 둘 것인가 하는 문제에 있어서도 쉽지 정할 수 없기 때문에 여러 대의 카메라를 사용하는 것이 그러한 문제의 완전한 해결책이라고 할 수 없다.As shown in FIG. 1, the problem caused by the fingertip is in fact difficult to solve with a webcam using a 2D image. The most common way to solve this problem is to use two or more webcams. However, using two or more cameras can not only be costly in terms of cost, but also difficult to determine where to position the cameras. I can not say.

본 발명에서는 이러한 문제점에 대해 단 한대의 카메라를 사용하여 사용자들의 경향을 통해 그 문제점을 일정 부분 보정하는 방법을 제안한다.The present invention proposes a method of partially correcting the problem through the tendency of users by using only one camera.

실제로 일반 사용자들은 핑거 트래킹 사용시에 손가락을 펴서 사용하거나 구부린다 하여도 일정각도 이상을 구부리진 않는다. 그 범위는 손가락을 구부리는 각 도는 완전히 폈을 때를 180°완전히 구부렸을 때를 0°라고 했을 때 0~180°까지이다.In fact, general users do not bend more than a certain angle even when they are extended or bent their fingers when using the finger tracking. The range of angles at which the fingers are bent ranges from 0 ° to 180 °, with 0 ° when fully bent and 180 ° when fully bent.

그 중 90°부터 180°까지는 실제로 2D 영상만을 처리하는 카메라가 핑거팁을 잡을 수 있지만, 0~89°까지는 인식할 수 없으므로 해결해야 할 영역은 0~89°까지의 손가락을 구부렸을 때이다. 이 부분을 해결할 수 있다면 핑거팁 문제를 일정부분 해결했다고 볼 수 있다.Among them, the camera that processes only 2D image can grab the fingertip from 90 ° to 180 °, but it cannot recognize from 0 ~ 89 °, so the area to be solved is when the finger bends 0 ~ 89 °. If you can solve this problem, you can solve the fingertip problem.

본 발명에서는 이를 해결하기 위하여 0~89°사이에 손가락이 들어온다면 그 부분을 그 영역의 중심인 45°에 있다고 설정한다. 0~89°까지 핑거팁의 이동범위는 매우 작으므로 그것을 약 45°에 위치한다고 예상범위를 설정하여도 오차범위가 매우 적다. In the present invention, in order to solve this problem, if a finger enters between 0 and 89 °, the part is set at 45 ° which is the center of the area. Since the movement range of the fingertip is very small from 0 to 89 °, the error range is very small even if the expected range is set to be located at about 45 °.

declaredeclare

FT : Finger-tipFT: Finger-tip

FL : Length of Most High FingerFL: Length of Most High Finger

beginbegin

Function BlobColoring()Function BlobColoring ()

If Blob->MaxHeight > FL/2If Blob-> MaxHeight> FL / 2

FT = Blob->MaxHeightFT = Blob-> MaxHeight

Else Else

FT = FL/4FT = FL / 4

end.end.

위의 알고리즘은 벤딩 핑거 상태에서 핑거팁 보정 알고리즘을 보여주는 것으로서, 도 2 에서는 보정된 알고리즘을 통해 벤딩 핑거에 따른 문제점이 개선됨을 보여주고 있다. The above algorithm shows a fingertip correction algorithm in a bending finger state, and FIG. 2 shows that the problem caused by the bending finger is improved through the corrected algorithm.

앞서 서술한 바와 같은 핑거팁 위치측정 방법에 관한 전반적인 내용을 바탕으로, 도 3 을 참조하여 본 발명에 따른 핑거팁 위치측정 방법에 관한 전체 흐름을 살피면 다음과 같다. Based on the general contents of the method for measuring the fingertip position as described above, the overall flow of the method for measuring the fingertip position according to the present invention will be described with reference to FIG. 3 as follows.

도 3 에 도시된 바와 같이 본 발명에 따른 핑거팁 위치측정 방법은, 기설정된 Red 컬러 값 및 Green 컬러 값을 이용하여 정규화된 RGB형식으로 변경하여 피부색 영역을 검출하는 제 1 과정(S10), 검출된 피부색 영역 안에 서로 다른 컬러의 픽셀이 발견될 경우, 픽셀의 이진 영상값을 바탕으로 인접한 픽셀들과 비교하여, 인접한 이진 영상값과 같은 컬러로 변경하도록 하여 주변과 객체간의 분리를 하는 이진화를 수행하여 손의 영역을 산출하는 제 2 과정(S20) 및 손 영역 중 최상위 점을 추출하는 제 3 과정(S30)을 포함하여 이루어진다. As shown in FIG. 3, the fingertip position measuring method according to the present invention includes a first process (S10) of detecting a skin color region by changing to a normalized RGB format using a predetermined red color value and a green color value. If pixels of different colors are found in the skin color region, the binary image is separated by comparing the adjacent pixels based on the binary image value of the pixel and changing to the same color as the adjacent binary image value. A second process (S20) of calculating the area of the hand and a third process (S30) of extracting the highest point of the hand area are made.

도 4 를 참조하여 제 3 과정(S30)을 보다 상세히 살피면, 단일 카메라로부터 입력받는 영상데이터를 바탕으로, PC단말기를 통해 핑거팁의 각도를 측정한 후(S32), 제S32 단계를 통해 측정한 핑거팁의 각도가 0°내지 89°인지 또는 90°내지 180°인지를 판단한다(S34).Referring to FIG. 4, the third process (S30) is described in more detail. Based on image data input from a single camera, the angle of the fingertip is measured through a PC terminal (S32), and the measurement is performed in step S32. It is determined whether the angle of the fingertip is 0 ° to 89 ° or 90 ° to 180 ° (S34).

제S34 단계의 판단결과, 핑거팁의 각도가 0°내지 89°인 경우, 상기 핑거팁이 45°에 위치한다고 설정하고 이를 최상위 점으로 추출한다(S36).As a result of the determination in step S34, when the angle of the fingertip is 0 ° to 89 °, the fingertip is set to 45 ° and extracted as the highest point (S36).

한편, 제S34 단계의 판단결과 0°내지 89°가 아닌 경우, 90°내지 180°에 존재하는 것으로 판단하고 상기 핑거팁이 그 측정각도에 위치한다고 설정하고 최상위 점으로 추출한다(S38).On the other hand, if the determination result of step S34 is not 0 ° to 89 °, it is determined that the present exists in 90 ° to 180 °, and set the fingertip is located at the measurement angle and is extracted to the highest point (S38).

본 발명에서 제안하는 알고리즘의 성능을 평가하기 위한 실험은 AMD 64 X2 Dual Core Processor 3800+칩이 장착된 PC에서 수행하였다. 운영체제로는 Windows XP Professional을 사용하였고 컴파일러로는 Visual C++ 6.0을 사용하였다. 실험에 사용한 데이터는 320*240의 해상도를 가지는 웹캠을 통해 입력받았다. 성능 평가를 위해 기존 알고리즘과 벤딩 핑거상태의 보정 알고리즘을 동일한 환경에서 각각 50번을 반복적으로 수행하였다Experiments to evaluate the performance of the proposed algorithm were performed on a PC equipped with an AMD 64 X2 Dual Core Processor 3800+ chip. I used Windows XP Professional as the operating system and Visual C ++ 6.0 as the compiler. The data used in the experiment was input via a webcam with a resolution of 320 * 240. For the performance evaluation, the existing algorithm and the correction algorithm of the bending finger state were repeatedly performed 50 times in the same environment.

도 5 에 도시된 바와 같이 가로축은 각각의 실험횟수를 나타내고 세로축은 실험횟수에 따른 성공횟수를 나타낸다. 실험결과 벤딩 핑거상태의 기존 알고리즘을 사용하였을 시에는 정확한 핑거팁을 측정하지 못하였으나, 보정 알고리즘을 사용하였을 시에는 약 65%정도는 정확한 핑거팁을 측정할 수 있음을 알 수 있었다.As illustrated in FIG. 5, the horizontal axis represents the number of experiments and the vertical axis represents the number of successes according to the number of experiments. Experimental results show that the accurate fingertip could not be measured when the existing algorithm of the bending finger state was used. However, when the correction algorithm was used, about 65% of the fingertip could be measured.

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서, 그러한 모든 적절한 변경 및 수정과 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다. As described above and described with reference to a preferred embodiment for illustrating the technical idea of the present invention, the present invention is not limited to the configuration and operation as shown and described as described above, it is a deviation from the scope of the technical idea It will be understood by those skilled in the art that many modifications and variations can be made to the invention without departing from the scope of the invention. Accordingly, all such suitable changes and modifications and equivalents should be considered to be within the scope of the present invention.

도 1 은 벤딩 핑거시 잘못 측정된 핑거팁을 보여주는 일예시도. 1 is an exemplary view showing a finger tip incorrectly measured when bending a finger.

도 2 는 본 발명에 따른 보정된 핑거팁을 보여주는 일예시도. 2 is an exemplary view showing a corrected fingertip in accordance with the present invention.

도 3 은 본 발명에 따른 핑거팁 위치측정 방법에 관한 전체 흐름도. 3 is an overall flow chart of a fingertip position measuring method according to the present invention.

도 4 는 본 발명에 따른 손 영역 중 최상위 점을 추출하는 제 3 과정에 관한 세부 흐름도.4 is a detailed flowchart of a third process of extracting the highest point of the hand region according to the present invention;

도 5 는 기존 알고리즘을 이용한 핑거팁 측정평가와 본 발명에 따른 알고리즘을 이용한 핑거팁의 측정평가를 보이는 그래프.Figure 5 is a graph showing the measurement evaluation of the fingertip measurement evaluation using the conventional algorithm and the fingertip using the algorithm according to the present invention.

Claims (5)

핑거팁 위치측정 방법에 있어서,In the finger tip position measurement method, (a) 기설정된 Red 컬러 값 및 Green 컬러 값을 이용하여 정규화된 RGB형식으로 변경하여 피부색 영역을 검출하는 제 1 과정;(a) a first step of detecting a skin color region by changing to a normalized RGB format using a preset red color value and a green color value; (b) 상기 검출된 피부색 영역 안에 서로 다른 컬러의 픽셀이 발견될 경우, 픽셀의 이진 영상값을 바탕으로 인접한 픽셀들과 비교하여, 인접한 이진 영상값과 같은 컬러로 변경하도록 하여 주변과 객체간의 분리를 하는 이진화를 수행하여 손의 영역을 산출하는 제 2 과정; 및 (b) When pixels of different colors are found in the detected skin color region, the pixels are separated from neighboring objects by comparing them with adjacent pixels based on the binary image value of the pixel and changing them to the same color as the adjacent binary image value. A second process of calculating a region of the hand by performing binarization; And (c) 상기 손의 영역 중 최상위 점을 추출하는 제 3 과정; 을 포함하며,(c) a third process of extracting the highest point of the area of the hand; Including; 상기 (c) 과정은, Step (c) is, (c-1) 단일 카메라로부터 입력받는 영상데이터를 바탕으로, PC단말기를 통해 핑거팁의 각도를 측정하는 단계; (c-1) measuring the angle of the fingertip through the PC terminal based on the image data received from the single camera; (c-2) 상기 (c-1) 단계를 통해 인식한 핑거팁의 각도가 0°내지 89°인지 여부를 판단하는 단계; 및 (c-2) determining whether the angle of the fingertip recognized through the step (c-1) is 0 ° to 89 °; And (c-3) 상기 (c-2) 단계의 판단결과 0°내지 89°인 경우, 상기 핑거팁이 45°에 위치한다고 설정하고 최상위 점으로 추출하는 단계; 를 포함하는 것을 특징으로 하는 핑거팁 위치측정 방법.(c-3) setting the fingertip to be located at 45 ° and extracting the highest point when the determination result of step (c-2) is 0 ° to 89 °; Fingertip position measurement method comprising a. 삭제delete 제 1 항에 있어서, The method of claim 1, 상기 (c-2) 단계의 판단결과 0°내지 89°가 아닌 경우, If the determination result of step (c-2) is not 0 ° to 89 °, (c-4) 상기 핑거팁이 90°내지 180°에 존재한다고 판단하여 상기 핑거팁이 그 측정각도에 위치한다고 설정하고, 최상위 점으로 추출하는 단계; 를 더 포함하는 것을 특징으로 하는 핑거팁 위치측정 방법.(c-4) determining that the fingertip is present at 90 ° to 180 °, setting the fingertip to be located at the measurement angle, and extracting the most significant point; Fingertip position measurement method characterized in that it further comprises. 제 1 항에 있어서,The method of claim 1, 상기 (a) 과정에서, In the above (a) process, 상기 Red 컬러 값을 30 내지 60, Green 컬러 값을 25 내지 35 로 설정하는 것을 특징으로 하는 핑거팁 위치측정 방법.Fingertip position measurement method, characterized in that for setting the red color value 30 to 60, Green color value to 25 to 35. 삭제delete
KR1020080083888A 2008-08-27 2008-08-27 Method for location estimating of finger tip KR100974538B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080083888A KR100974538B1 (en) 2008-08-27 2008-08-27 Method for location estimating of finger tip

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080083888A KR100974538B1 (en) 2008-08-27 2008-08-27 Method for location estimating of finger tip

Publications (2)

Publication Number Publication Date
KR20100025209A KR20100025209A (en) 2010-03-09
KR100974538B1 true KR100974538B1 (en) 2010-08-11

Family

ID=42176798

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080083888A KR100974538B1 (en) 2008-08-27 2008-08-27 Method for location estimating of finger tip

Country Status (1)

Country Link
KR (1) KR100974538B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR820000508B1 (en) * 1978-10-24 1982-04-10 고지마 마사오 Process for preparation of phenyl ethanolamine derivates

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR820000508B1 (en) * 1978-10-24 1982-04-10 고지마 마사오 Process for preparation of phenyl ethanolamine derivates

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
김장운, 김송국, 장한별, 배기태, 이칠우, 에지 방향성 히스토그램 데이터를 이용한 손 형상 인식, 2006년도 한국정보과학회 가을 학술발표논문집 vol. 33, no. 2(B), pp. 49-53, 2006.
박창준, 김성은, 이인호, 마커프리 모션캡처 시스템, 전자통신동향분석 제20권 제4호, pp. 16-28, 2005.08.
배창현, 김진형, 단일 연속 영상을 이용한 모델 기반의 3 차원 손 인식, 1998년도 한국정보과학회 봄 학술발표논문집, vol. 25, no. 1, pp. 648-650, 1998.

Also Published As

Publication number Publication date
KR20100025209A (en) 2010-03-09

Similar Documents

Publication Publication Date Title
US7912251B2 (en) Eyelid detection apparatus and program therefor
KR101554403B1 (en) Image processing device, image processing method, and recording medium for control program
US20060126941A1 (en) Face region estimating device, face region estimating method, and face region estimating program
US8786729B2 (en) White balance method and apparatus thereof
US20150138225A1 (en) Method for displaying area extraction result and image processing apparatus
US7751610B2 (en) Image recognition method and image recognition apparatus
US20180336397A1 (en) Method for detecting a live face for access to an electronic device
US20160106198A1 (en) Transparency evaluation device, transparency evaluation method and transparency evaluation program
US20120189213A1 (en) Image processing method and apparatus thereof
JP2006350557A5 (en)
US8948452B2 (en) Image processing apparatus and control method thereof
US9197860B2 (en) Color detector for vehicle
TWI446225B (en) Projection system and image processing method thereof
KR101340180B1 (en) Apparatus and method of diagnosing health by separating region of tongue coating from region of tongue substance
JP4625949B2 (en) Object tracking method, object tracking apparatus, and program
CN112507767A (en) Face identification method and related computer system
US9704030B2 (en) Flesh color detection condition determining apparatus, and flesh color detection condition determining method
US20050248664A1 (en) Identifying red eye in digital camera images
KR100974538B1 (en) Method for location estimating of finger tip
KR20070027929A (en) Shadow casting method using symmetric and distance feature of the object region
EP3435281B1 (en) Skin undertone determining method and an electronic device
US8824734B2 (en) Device, method and recording to determine depressed portions of image regions using shortcut line analysis
KR101853276B1 (en) Method for detecting hand area from depth image and apparatus thereof
CN104346599B (en) A kind of detection method and image processing equipment of color boundary
JP4457586B2 (en) Red-eye area correction method, red-eye area correction processing program, recording medium, and image processing apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130527

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140612

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160602

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee