KR20160023417A - Non-contact multi touch recognition method and system using color image analysis - Google Patents

Non-contact multi touch recognition method and system using color image analysis Download PDF

Info

Publication number
KR20160023417A
KR20160023417A KR1020140109807A KR20140109807A KR20160023417A KR 20160023417 A KR20160023417 A KR 20160023417A KR 1020140109807 A KR1020140109807 A KR 1020140109807A KR 20140109807 A KR20140109807 A KR 20140109807A KR 20160023417 A KR20160023417 A KR 20160023417A
Authority
KR
South Korea
Prior art keywords
hand
region
touch
extracting
voronoi
Prior art date
Application number
KR1020140109807A
Other languages
Korean (ko)
Other versions
KR101614798B1 (en
Inventor
주영훈
김성관
Original Assignee
군산대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 군산대학교산학협력단 filed Critical 군산대학교산학협력단
Priority to KR1020140109807A priority Critical patent/KR101614798B1/en
Publication of KR20160023417A publication Critical patent/KR20160023417A/en
Application granted granted Critical
Publication of KR101614798B1 publication Critical patent/KR101614798B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements

Abstract

The present invention relates to a method and system for recognizing a non-contact multi-touch by using a color image analysis. The method comprises the following steps: obtaining a color image by photographing a non-contact multi-touch of a user; extracting a skin region and an outer line of the skin region through a color analysis by considering an illuminance change in a color image, extracting a hand region by using complexity of an outer line, and extracting a feature point of the hand region by making an outer line in the extracted hand region to be approximate; generating a hand model with individually modeled fingers by dividing a color image so that each of feature points is included in different regions based on the feature point of the hand region; and recognizing a non-contact multi-touch by using the hand model.

Description

컬러 이미지 분석을 이용한 비접촉 멀티 터치 인식 방법 및 시스템{Non-contact multi touch recognition method and system using color image analysis}[0001] Non-contact multi-touch recognition method and system using color image analysis [

본 발명은 컬러 이미지 분석을 통해 사용자의 비접촉 멀티 터치를 인식하는 방법 및 시스템에 관한 것으로, 구체적으로는 컬러 이미지를 색 분석하여 손영역을 추출하고, 추출된 손영역의 특징점으로부터 보로노이 테셀레이션을 적용하여 손가락을 개별적으로 모델링한 손모델을 생성하고, 손모델을 이용하여 비접촉 멀티 터치를 인식하는 방법, 그 기록매체 및 비접촉 멀티 터치 인식 시스템에 관한 것이다. The present invention relates to a method and system for recognizing non-contact multi-touch of a user through color image analysis. More specifically, the present invention extracts a hand region by color analysis of a color image, and applies Voronoi tessellation And a noncontact multi-touch recognition system using the hand model, a recording medium thereof, and a contactless multi-touch recognition system.

최근 컴퓨터 정보기기(PC, 스마트폰 등)의 급격한 발전과 범용화에 따라, 마우스와 키보드를 대체할 더욱 자연스러운 입력 장치의 도입이 필요해졌다. 일반적으로, 기존의 정보기기의 입력장치는 키보드, 마우스, 터치펜 등이 있다. 이러한 입력 장치는 컴퓨터의 보급이 급격히 확산됨에 따라 상당히 많이 보급되었으며 현재도 가장 일반적으로 쓰이고 있는 컴퓨터 입력 장치이다. 하지만 최근 컴퓨터의 소형화 및 스마트폰의 등장으로 인해 사용 환경이 극히 제한적이고, 휴대가 불편하다는 문제점을 가지고 있다. 이러한 문제점을 해결하기 위해 최근 스마트 TV, 스마트 폰 등의 고성능 컴퓨터 정보기기들은 NUI(Natural User Interface)를 사용하고 있다. NUI는 사용자가 컴퓨터 환경에서 현실과 더 가깝게 다가가기 위해서 나온 개념으로서, 신체의 일부만을 사용하는 기존의 입력 장치를 대체하기 위하여 사람의 손, 얼굴, 음성 등을 사용하는 차세대 입력 장치를 일컫는다. 차세대 입력 장치 중 하나로 사람의 손은 관심이 집중되고 있으며, 손을 인식하여 입력 장치로 사용하는 비접촉 멀티 터치 분야에 대한 다양한 연구가 진행되고 있다. Recently, with the rapid development and generalization of computer information devices (PC, smart phone, etc.), it has become necessary to introduce a more natural input device to replace a mouse and a keyboard. Generally, an input device of a conventional information device includes a keyboard, a mouse, and a touch pen. These input devices have been widely spread as the spread of computer has spread rapidly, and they are the most commonly used computer input devices nowadays. However, recently, due to the miniaturization of the computer and the appearance of the smart phone, the use environment is extremely limited and it is inconvenient to carry. To solve these problems, high performance computer information devices such as smart TV and smart phone are using NUI (Natural User Interface). NUI is a concept for users to get closer to reality in a computer environment. It refers to a next generation input device that uses human hands, face, voice, etc. to replace existing input devices using only a part of the body. As one of the next-generation input devices, human hands are focused on, and various researches are being conducted on the non-contact multi-touch field used as an input device by recognizing hands.

사람의 비접촉 멀티 터치를 인식하는 방법에는 크게 센서를 이용하는 방법과 비젼을 이용하는 방법이 있다. 센서를 이용하는 방법 중 가장 대표적인 장치는 데이터 글로브(data glove)를 사용하는 방식과 동작 인식센서를 사용하는 방식이 있다. 데이터 글로브를 이용하는 방식은 측정이 쉽고 자기센서와 조합하여 사용하면 손의 방향과 대략적인 3차원 위치를 알 수 있으므로 가상현실 시스템과 같은 정보 시스템의 입력 장치로 각광받고 있으며, 동작 인식센서를 이용하는 방식은 손의 움직임을 그대로 이해하여 입력 장치로 사용할 수 있는 방식으로 최근 3차원 동작 인식 분야에서 활발한 연구가 진행되고 있다. 하지만 데이터 글로브를 사용하는 방법과 동작인식 센서를 사용하는 방법은 사용자의 신체나 주변 환경에 센서를 부착해야만 한다는 불편함이 있다. 다음으로 비젼을 이용하는 방법에는 3D 모델링, 스켈레톤 모델링, 확장 신경망 모델링 등이 있다. 3D 모델링 방법은 손의 전체 형상을 3차원으로 모델링하여 손의 모양과 동작을 세부적으로 표현할 수 있으며, 스켈레톤 모델링은 인간의 손 스켈레톤 모델을 구성하여 손동작을 기하학적인 측면에서 분석할 수 있다. 마지막으로 확장 신경망 모델링 방법은 손영역 내부에서 임의의 두 점으로부터 신경망을 확장하여 손영역을 인식한다. A method of recognizing non-contact multi-touch of a person includes a method using a sensor and a method using a vision. One of the most typical methods of using the sensor is a method using a data glove and a method using a motion recognition sensor. The method using the data globe is easy to measure, and when used in combination with the magnetic sensor, the direction of the hand and the approximate three-dimensional position can be known. Therefore, the data glove is attracting attention as an input device of an information system such as a virtual reality system. Has been actively studied in the field of three-dimensional motion recognition in the way that it can be used as an input device by understanding the motion of the hand as it is. However, the method of using the data glove and the method of using the motion recognition sensor have the inconvenience that the sensor should be attached to the user's body or the surrounding environment. Next, methods of using vision include 3D modeling, skeleton modeling, and extended neural network modeling. The 3D modeling method can model the entire shape of the hand in three dimensions to represent the shape and the motion of the hand in detail, and the skeleton modeling can construct the human hand skeleton model and analyze the hand movements from a geometrical perspective. Finally, the extended neural network modeling method recognizes the hand region by extending the neural network from arbitrary two points in the hand region.

하지만 비젼을 이용하는 방법은 손의 모델링을 구체화 시킬수록 연산량이 급격히 늘어나 실시간 처리에 부적합하다는 문제점이 있으며, 반대로 실시간 처리에 적합한 비접촉 멀티 터치를 인식하는 장치는 대체로 인식률이 저하된다는 문제점을 가지고 있다. However, the method of using the vision has a problem that the amount of computation increases sharply as the modeling of the hand becomes more specific and is not suitable for real-time processing. On the other hand, a device for recognizing noncontact multi-touch suitable for real-time processing has a problem that the recognition rate is generally lowered.

B. Loureiro and R. Rodrigues. "Multi-touch as a natural user interface for elders: A survey." Information Systems and Technologies (CISTI), 2011 6th Iberian Conference on. IEEE, pp. 1-6, 2011. B. Loureiro and R. Rodrigues. "Multi-touch as a natural user interface for elders: A survey." Information Systems and Technologies (CISTI), 2011 6th Iberian Conference on. IEEE, pp. 1-6, 2011.

본 발명이 해결하고자 하는 기술적 과제는, 종래의 비젼을 이용하여 비접촉 멀티 터치를 인식하는 방법에서 손 모델링의 구체화에 비례하여 증가하는 연산량의 문제점을 해결하고, 비접촉 멀티 터치를 통해 기기를 실시간 제어하는 목적 달성 측면에서 실시간 처리를 보장하는 동시에 인식률의 정확도를 유지할 수 있는 비접촉 멀티 터치 인식 방법 및 시스템을 제공하는 것이다. SUMMARY OF THE INVENTION An object of the present invention is to solve the problem of an increase in the amount of calculation in proportion to the embodyment of hand modeling in a method for recognizing contactless multi-touch using a conventional vision, A multi-touch non-contact recognition method and system capable of real-time processing and maintaining the accuracy of a recognition rate in terms of achieving a goal.

상기 기술적 과제를 해결하기 위하여, 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법은 사용자의 비접촉 멀티 터치를 촬영한 컬러 이미지를 획득하는 단계; 상기 컬러 이미지에서 조도 변화를 고려한 색 분석을 통해 피부영역 및 상기 피부영역의 외곽선을 추출하고, 상기 외곽선의 복잡도를 이용하여 손영역을 추출하는 단계; 상기 컬러 이미지의 손영역에서 외곽선의 근사화를 통해 손영역의 특징점(hand feature point)을 추출하는 단계; 상기 손영역의 특징점을 기반으로 각각의 특징점들이 서로 다른 영역 내에 포함되도록 상기 컬러 이미지를 분할함으로써 손가락을 개별적으로 모델링한 손모델을 생성하는 단계; 및 상기 손모델을 이용하여 상기 비접촉 멀티 터치를 인식하는 단계;를 포함한다. According to an aspect of the present invention, there is provided a non-contact multi-touch recognition method comprising: acquiring a color image of a non-contact multi-touch of a user; Extracting a skin region and an outline of the skin region through color analysis in consideration of illumination change in the color image, and extracting a hand region using the complexity of the outline; Extracting a hand feature point of the hand region through approximation of an outline in a hand region of the color image; Generating a hand model individually modeling the fingers by dividing the color image so that each feature point is included in different areas based on the feature points of the hand region; And recognizing the non-contact multi-touch using the hand model.

일 실시예에 따른 비접촉 멀티 터치 인식 방법에서, 상기 손영역을 추출하는 단계는 RGB(Red-Green-Blue) 컬러 모델과 HSI(Hue-Saturation-Intensity) 컬러 모델을 이용하여 피부색을 분류함으로써 피부영역을 추출할 수 있다. In the non-contact multi-touch recognition method according to an exemplary embodiment, the extracting of the hand region may include classifying the skin color using a Red-Green-Blue (RGB) color model and a Hue-Saturation- Can be extracted.

일 실시예에 따른 비접촉 멀티 터치 인식 방법에서, 상기 손영역을 추출하는 단계는 캐니 에지 검출기(Canny Edge Detector)를 사용하여 피부영역의 외곽선을 추출할 수 있다. In the non-contact multi-touch recognition method according to an exemplary embodiment, the extracting of the hand region may extract an outline of a skin region using a Canny Edge Detector.

일 실시예에 따른 비접촉 멀티 터치 인식 방법에서, 상기 손영역을 추출하는 단계는 상기 추출된 외곽선에 대하여 공간 주파수 기법을 사용하여 분석된 상기 외곽선의 복잡도에 따라 상기 손영역만을 추출할 수 있다. In the non-contact multi-touch recognition method according to an exemplary embodiment, the extracting of the hand region may extract only the hand region according to the complexity of the outline analyzed using the spatial frequency technique for the extracted outline.

일 실시예에 따른 비접촉 멀티 터치 인식 방법에서, 상기 손영역의 특징점을 추출하는 단계는 더글라스 파커(Douglas Peucker) 알고리즘을 이용하여 손 외곽선에 대하여 미리 설정된 임계치 범위 내에서 근사화하여 상기 손영역의 특징점을 추출할 수 있다. In the non-contact multi-touch recognition method according to an embodiment, the step of extracting feature points of the hand region may be performed by using a Douglas Peucker algorithm to approximate the hand outline within a predetermined threshold range, Can be extracted.

일 실시예에 따른 비접촉 멀티 터치 인식 방법에서, 상기 손모델을 생성하는 단계는 상기 손영역의 특징점들에 대하여 보로노이 테셀레이션(Vornoi tessellation)을 적용하여 상기 컬러 이미지를 분할할 수 있다. In the non-contact multi-touch recognition method according to an exemplary embodiment, the step of generating the hand model may divide the color image by applying Voronoi tessellation to the minutiae points of the hand region.

상기된 실시예에서, 상기 손모델에서 상기 특징점은 보로노이 셀(cell)이 되고, 상기 분할된 영역은 보로노이 다각형이 되는 것을 특징으로 할 수 있다. In the above-described embodiment, in the hand model, the feature point may be a Voronoi cell, and the divided region may be a Voronoi polygon.

상기된 실시예에서, 상기 모든 보로노이 셀들은 서로 간섭하지 않으며, 상기 보로노이 다각형은 상기 보로노이 셀들이 서로 간섭하지 않는 한 최대의 영역을 가지는 것을 특징으로 할 수 있다. In the above-described embodiment, all the Voronoi cells do not interfere with each other, and the Voronoi polygon has a maximum area as long as the Voronoi cells do not interfere with each other.

상기된 실시예에서, 비접촉 멀티 터치를 인식하는 단계는 상기 특징점 중 손가락의 끝점에 해당하는 특징점을 포함한 보로노이 다각형의 내각의 변화를 이용하여 상기 비접촉 멀티 터치를 인식할 수 있다. In the above-described embodiment, the step of recognizing the non-contact multi-touch may recognize the non-contact multi-touch using a change in the internal angle of the Voronoi polygon including the minutiae corresponding to the end points of the finger among the minutiae.

상기 기술적 과제를 해결하기 위하여, 본 발명의 다른 실시예에서에 따른 비접촉 멀티 터치 인식 시스템은 사용자의 비접촉 멀티 터치를 촬영한 컬러 이미지를 입력받는 입력부; 상기 컬러 이미지에서 조도 변화를 고려한 색 분석을 통해 피부영역 및 상기 피부영역의 외곽선을 추출한 후 상기 외곽선의 복잡도를 이용하여 손영역을 추출하여 상기 손영역에서 외곽선의 근사화를 통해 손영역의 특징점(hand feature point)을 추출하는 분석부; 상기 손영역의 특징점을 기반으로 각각의 특징점들이 서로 다른 영역 내에 포함되도록 상기 컬러 이미지를 분할함으로써 손가락을 개별적으로 모델링한 손모델을 생성하는 손모델 생성부; 및 상기 손모델을 이용하여 상기 비접촉 멀티 터치를 인식하는 판단부;를 포함한다. According to another aspect of the present invention, there is provided a contactless multi-touch recognition system including: an input unit receiving a color image of a non-contact multi-touch of a user; Extracting a skin region and an outline of the skin region through color analysis in consideration of illumination change in the color image, extracting a hand region using the complexity of the outline, extracting a feature point of the hand region by approximating the outline in the hand region, a feature point extracting unit for extracting a feature point; A hand model generating unit for generating a hand model in which fingers are individually modeled by dividing the color image so that respective feature points are included in different regions based on the feature points of the hand region; And a determination unit for recognizing the non-contact multi-touch using the hand model.

다른 실시예에 따른 비접촉 멀티 터치 인식 시스템에서 상기 분석부는 RGB(Red-Green-Blue) 컬러 모델과 HSI(Hue-Saturation-Intensity) 컬러 모델을 이용하여 피부색을 분류함으로써 피부영역을 추출하고, 캐니 에지 검출기(Canny Edge Detector)를 사용하여 피부영역의 외곽선을 추출하며 상기 추출된 외곽선에 대하여 공간 주파수 기법을 사용하여 분석된 상기 외곽선의 복잡도에 따라 상기 손영역만을 추출할 수 있다. In the non-contact multi-touch recognition system according to another embodiment, the analyzing unit extracts a skin region by classifying skin color using Red-Green-Blue (RGB) color model and HSI (Hue-Saturation-Intensity) Extracts an outline of a skin region using a detector (Canny Edge Detector), and extracts only the hand region according to the complexity of the outline analyzed using a spatial frequency technique for the extracted outline.

다른 실시예에 따른 비접촉 멀티 터치 인식 시스템에서 상기 분석부는 더글라스 파커(Douglas Peucker) 알고리즘을 이용하여 손 외곽선에 대하여 미리 설정된 임계치 범위 내에서 근사화하여 상기 손영역의 특징점을 추출할 수 있다. In the non-contact multi-touch recognition system according to another embodiment, the analyzing unit can extract feature points of the hand region by approximating the hand outline within a predetermined threshold range using a Douglas Peucker algorithm.

다른 실시예에 따른 비접촉 멀티 터치 인식 시스템에서 상기 손모델 생성부는 상기 손영역의 특징점들에 대하여 보로노이 테셀레이션(Vornoi tessellation)을 적용하여 상기 컬러 이미지를 분할할 수 있다. In the non-contact multi-touch recognition system according to another embodiment, the hand model generation unit may divide the color image by applying Voronoi tessellation to the minutiae points of the hand region.

상기된 실시예에서 상기 특징점은 보로노이 셀(cell)이 되고, 상기 분할된 영역은 보로노이 다각형이 되며, 상기 모든 보로노이 셀들은 서로 간섭하지 않으며, 상기 보로노이 다각형은 상기 보로노이 셀들이 서로 간섭하지 않는 한 최대의 영역을 가지는 것을 특징으로 할 수 있다. In the above-described embodiment, the feature point is a Voronoi cell, the divided region is a Voronoi polygon, all the Voronoi cells do not interfere with each other, and the Voronoi polygon is a Voronoi polygon, And has a maximum area as long as it does not interfere with each other.

상기된 실시예에서 상기 판단부는 상기 특징점 중 손가락의 끝점에 해당하는 특징점을 포함한 보로노이 다각형의 내각의 변화를 이용하여 상기 비접촉 멀티 터치를 인식할 수 있다. In the above-described embodiment, the determination unit may recognize the non-contact multi-touch using a change in the internal angle of the Voronoi polygon including the feature point corresponding to the end point of the finger among the minutiae.

한편, 이하에서는 상기 기재된 비접촉 멀티 터치 인식 방법들을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다. The present invention also provides a computer-readable recording medium storing a program for causing a computer to execute the non-contact multi-touch recognition methods described above.

본 발명의 실시예들에 따르면, 컬러 이미지에 대한 분석을 통해 사용자가 디스플레이 되고 있는 사물과 자연스럽게 상호작용할 수 있도록 사용자의 비접촉 멀티 터치를 인식할 수 있다. 또한, 카메라로부터 얻어진 연속적인 입력 영상에서 RGB/HSI 컬러 모델을 적용하여 조도에 민감한 단점을 해결하고, 공간주파수 기법을 적용함으로써 손영역이 얼굴영역의 크기와 관계없이 분리될 수 있으며, 보로노이 테셀레이션을 적용하여 생성한 손 모델을 이용하여 자연스러운 비접촉 멀티 터치 인식 시스템을 제공할 수 있다. According to embodiments of the present invention, the non-contact multi-touch of the user can be recognized so that the user can naturally interact with the displayed object through the analysis of the color image. In addition, by applying the RGB / HSI color model to continuous input images obtained from the camera, it solves the drawbacks that are sensitive to illumination, and by applying the spatial frequency technique, the hand region can be separated regardless of the size of the face region, Contact non-contact multi-touch recognition system using a hand model generated by applying the non-contact multi-touch recognition system.

도 1은 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법의 흐름도이다.
도 2는 RGB 컬러 모델과 HSI 컬러 모델의 스펙트럼을 도시한 그림이다.
도 3은 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따라 입력받은 컬러 이미지(a)와 추출된 피부영역 이미지(b)이다.
도 4는 도 1에서 S120단계의 세부단계를 나타낸 흐름도이다.
도 5는 도 4의 추출된 피부영역 이미지(b)로부터 추출된 피부영역의 외곽선 이미지(c)이다.
도 6은 본 발명의 일실시예에 따른 비접촉 멀티 터치 인식 방법에서 공간주파수를 이용하여 손영역을 추출하는 과정을 도시한 그림이다.
도 7은 본 발명의 일실시예에 따른 비접촉 멀티 터치 인식 방법에서 손 외곽선에 대하여 더글라스 파커 알고리즘을 이용하여 근사화되는 과정의 예시를 나타낸 그림이다.
도 8은 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따라 추출된 손영역 이미지(a), 외곽선 근사화 이미지(b), 특징점 추출결과(c)를 개념적으로 나타낸 그림이다.
도 9는 입력된 컬러 이미지에 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따라 추출된 특징점을 표시하고, 보로노이 테셀레이션의 각 구성요소를 도시한 그림이다.
도 10은 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따라 인식된 3 종류의 손동작을 나타낸 그림이다.
도 11a는 손이 얼굴보다 큰 컬러 이미지에 대하여 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따른 분석 과정을 나타낸 실험예이다.
도 11b는 손이 얼굴보다 큰 경우에 연속적으로 촬영한 컬러 이미지에 대하여 본 발명의 일 실시예에 따라 비접촉 멀티 터치를 인식한 결과를 프레임 순으로 나타낸 캡쳐 화면이다.
도 12a는 손이 얼굴보다 작은 컬러 이미지에 대하여 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따른 분석 과정을 나타낸 실험예이다.
도 12b는 손이 얼굴보다 작은 경우에 연속적으로 촬영한 컬러 이미지에 대하여 본 발명의 일 실시예에 따라 비접촉 멀티 터치를 인식한 결과를 프레임 순으로 나타낸 캡쳐 화면이다.
도 13은 본 발명의 다른 실시예에 따른 비접촉 멀티 터치 인식 시스템을 나타낸 개념도이다.
1 is a flowchart of a non-contact multi-touch recognition method according to an embodiment of the present invention.
Fig. 2 is a diagram showing the spectra of the RGB color model and the HSI color model.
FIG. 3 is a color image (a) and an extracted skin region image (b) input according to the non-contact multi-touch recognition method according to an embodiment of the present invention.
FIG. 4 is a flowchart illustrating the detailed steps of step S120 in FIG.
Fig. 5 is an outline image (c) of the skin region extracted from the extracted skin region image (b) of Fig.
FIG. 6 is a diagram illustrating a process of extracting a hand region using a spatial frequency in a non-contact multi-touch recognition method according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating an example of a process of approximating the hand outline using the Douglas Parker algorithm in the non-contact multi-touch recognition method according to an embodiment of the present invention.
FIG. 8 is a conceptual illustration of a hand region image (a), an outline approximation image (b), and a feature point extraction result (c) extracted according to the noncontact multi-touch recognition method according to an embodiment of the present invention.
FIG. 9 is a diagram showing the minutiae extracted according to the non-contact multi-touch recognition method according to an embodiment of the present invention in the input color image, and showing the respective components of the Voronoi tessellation.
10 is a diagram illustrating three kinds of hand motions recognized according to the non-contact multi-touch recognition method according to an embodiment of the present invention.
11A is an experimental example showing an analysis process according to a non-contact multi-touch recognition method according to an embodiment of the present invention with respect to a color image in which a hand is larger than a face.
FIG. 11B is a screen view showing a result of recognizing noncontact multi-touch in frame order according to an embodiment of the present invention for a color image continuously photographed when a hand is larger than a face.
12A is an example of an analysis process of a non-contact multi-touch recognition method according to an embodiment of the present invention, with respect to a color image in which a hand is smaller than a face.
FIG. 12B is a screen view showing a result of recognition of the noncontact multi-touch according to an embodiment of the present invention in a frame order with respect to a color image continuously photographed when the hand is smaller than the face.
13 is a conceptual diagram illustrating a contactless multi-touch recognition system according to another embodiment of the present invention.

본 발명에 관한 구체적인 내용의 설명에 앞서 이해의 편의를 위해 본 발명이 해결하고자 하는 과제의 해결 방안의 개요 혹은 기술적 사상의 핵심을 우선 제시한다. Prior to the description of the concrete contents of the present invention, for the sake of understanding, the outline of the solution of the problem to be solved by the present invention or the core of the technical idea is first given.

비접촉 멀티 터치를 이용하여 사람이 기기를 제어할 수 있다. 비접촉 멀티 터치란, 기기를 사람이 직접 접촉하여 작동시키는 것이 아니라 기기를 직접 접촉하지 않고 임의의 공간(예를 들어, 허공 등)에 사용자가 터치하는 듯한 손가락의 움직임만으로 기기를 작동시킬 수 있는 인터페이스를 말한다. 시각적으로 기기를 터치한다는 점에 초점을 두어 이를 비주얼 터치(visual touch)라 정의할 수 있다. 본 발명의 실시예에서는 비접촉 멀티 터치를 비주얼 터치라 설명하기로 한다. A person can control the device by using the contactless multi-touch. The non-contact multi-touch is an interface that enables a device to be operated only by a movement of a finger such as a user's touch on an arbitrary space (for example, air) without touching the device directly, . It can be defined as a visual touch by focusing on touching the device visually. In the embodiment of the present invention, the non-contact multi-touch will be described as a visual touch.

사람의 비접촉 멀티 터치(비주얼 터치)를 인식하는 방법에는 크게 센서를 이용하는 방법과 비젼을 이용하는 방법이 있다. 본 발명과 관련하여 비젼을 이용하는 방법에는 3D 모델링, 스켈레톤 모델링, 확장 신경망 모델링 등이 있는데, 이들 방법은 손의 모델링을 구체화 시킬수록 연산량이 급격히 늘어나 실시간 처리에 부적합하다는 문제점이 있으며, 반대로 실시간 처리에 적합한 비주얼 터치 시스템은 대체로 인식률이 저하된다는 문제점을 가진다. 즉 정확한 인식을 위해서 보다 구체화된 모델링이 필요한데, 모델링을 구체화 시킬수록 연산량이 증가하여 실시간 처리가 불가능해지는 트레이드 오프가 발생하게 된다. There are two methods of recognizing a non-contact multi-touch (visual touch) of a person include a method using a sensor and a method using a vision. There are 3D modeling, skeleton modeling, and extended neural network modeling in connection with the present invention. These methods have a problem in that the amount of computation increases sharply as the modeling of the hand becomes more concrete and is not suitable for real-time processing. On the other hand, A suitable visual touch system generally has a problem that the recognition rate is lowered. In other words, more specific modeling is required for accurate recognition. As the modeling becomes concrete, the amount of computation increases and a trade-off occurs in which real-time processing becomes impossible.

따라서 본 발명은 이러한 문제점을 해결하기 위하여 보로노이 테셀레이션(Voronoi tessellation)을 이용하여 컬러 이미지를 분석함으로써 비접촉 멀티 터치(비주얼 터치)를 인식하는 방법을 제안한다. 본 발명에 따른 비접촉 멀티 터치 인식 방법은 실시간 처리가 가능하면서 기존 방법보다 안정적으로 비접촉 멀티 터치를 인식을 할 수 있다. Accordingly, the present invention proposes a method of recognizing noncontact multi-touch (visual touch) by analyzing a color image using Voronoi tessellation in order to solve such a problem. The non-contact multi-touch recognition method according to the present invention can recognize non-contact multi-touch more stably than existing methods while real-time processing is possible.

도 1은 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법의 흐름도이다. 이하 각 단계별로 상세히 설명한다. 1 is a flowchart of a non-contact multi-touch recognition method according to an embodiment of the present invention. Each step will be described in detail below.

S110 단계에서 사용자의 비접촉 멀티 터치(비주얼 터치)를 촬영한 컬러 이미지를 획득한다. 사용자가 직접 기기를 터치하는 움직임이 아니라, 임의의 공간에서 손을 이용하여 마치 기기를 터치하는 듯한 움직임을 촬영한 컬러 이미지를 말한다. 컬러 이미지를 촬영할 수 있는 다양한 종류의 카메라을 통해 비접촉 멀티 터치를 촬영한 컬러 이미지를 획득할 수 있다. 연속된 컬러 이미지로써 복수 개의 컬러 이미지를 획득하는 경우 본 발명의 실시예들은 실시간으로 각각의 컬러 이미지에 대하여 비접촉 멀티 터치(비주얼 터치)를 인식하게 된다. In step S110, a color image of the non-contact multi-touch (visual touch) of the user is acquired. It is not a movement that a user directly touches a device but a color image that captures a movement of touching a device by using a hand in an arbitrary space. It is possible to obtain a color image obtained by photographing noncontact multi-touch through various kinds of cameras capable of shooting color images. In the case of acquiring a plurality of color images with a continuous color image, embodiments of the present invention recognize non-contact multi-touch (visual touch) for each color image in real time.

S120 단계에서 입력된 컬러 이미지에서 조도 변화를 고려한 색 분석을 통해 피부영역 및 상기 피부영역의 외곽선을 추출하고, 상기 외곽선의 복잡도를 이용하여 손영역을 추출한다. 그 과정을 상세히 설명하면, 먼저 컬러 이미지에 대하여 RGB(Red-Green-Blue) 컬러 모델과 HSI(Hue-Saturation-Intensity) 컬러 모델을 이용하여 피부색을 분류함으로써 피부영역을 추출한다. 입력 영상인 컬러 이미지에서 피부색을 분류하는 방법 중 하나는 어떤 색상 공간에서 피부색 영역의 경계선을 명확히 정의하는 것이다. 본 발명의 실시예에서는 가장 단순하고 빠른 피부색 검출이 가능한 RGB 컬러 모델과 조도의 변화에 대한 강인함을 위하여 HSI 컬러 모델을 사용한다.The skin region and the skin region are extracted through the color analysis in consideration of the illumination change in the color image input in operation S120, and the hand region is extracted using the complexity of the skin line. In detail, the skin region is extracted by classifying the skin color using a Red-Green-Blue (RGB) color model and a Hue-Saturation-Intensity (HSI) color model for a color image. One way to classify skin color in a color image, which is an input image, is to clearly define the border of a skin color region in a color space. In the embodiment of the present invention, the RGB color model capable of detecting the simplest and quickest skin color and the HSI color model are used for robustness against variations in illumination.

RGB 컬러 모델에서 피부영역은 수학식 1과 같이 정의한다.In the RGB color model, the skin region is defined as Equation (1).

Figure pat00001
Figure pat00001

HSI 컬러 모델은 색상(Hue), 채도(Saturation), 명도(Intensity)를 기반으로 한 컬러 모델이다. HSI 컬러 모델은 정규화된 R, G, B값을 이용하여 각 성분 값을 구할 수 있다. 정규화된 RGB컬러 모델에서 색상 성분을 구하는 식은 수학식 2와 같다. The HSI color model is a color model based on hue, saturation, and intensity. The HSI color model can obtain each component value using the normalized R, G, and B values. The equation for obtaining the color component in the normalized RGB color model is shown in Equation (2).

Figure pat00002
Figure pat00002

본 발명의 실시예에서는 HSI 컬러 모델에서 조도에 강인한 색상 성분을 사용한다. 색상 성분의 피부영역과 RGB 컬러 모델의 피부영역을 이용하여 양자의 교집합인 최종 피부영역을 추출한다. 도 2는 본 발명의 실시예에서 사용하는 RGB 컬러 모델(a)과 HSI 컬러 모델(b)의 스펙트럼을 도시한 그림이다. In the embodiment of the present invention, a hue-resistant color component is used in the HSI color model. The skin area of the color component and the skin area of the RGB color model are used to extract the final skin area which is an intersection of the two. FIG. 2 is a diagram showing spectra of the RGB color model (a) and the HSI color model (b) used in the embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따라 입력받은 컬러 이미지(a)와 추출된 피부영역 이미지(b)이다. (a)는 사용자가 다섯 손가락을 펼친 비주얼 터치를 촬영한 컬러 이미지이다. 도 3의 (a)에서 RGB 컬러 모델과 HSI 컬러 모델을 이용하여 피부색을 분류한 결과를 나타낸 것이 도 3의 (b)의 이미지이다. 도 3의 (b)는 피부색으로만 분류한 피부영역 이미지에 해당하기 때문에, 얼굴 부분과 손 부분이 피부영역에 포함되어 있고 컬러 이미지 내의 실제 사용자의 피부가 아닌 영역도 피부영역으로 판단된 결과를 가진다. 비주얼 터치의 객체인 손을 컬러 이미지에서 분리하기 위해서는 추출된 피부영역 내에서 손영역만을 분리해야 한다. FIG. 3 is a color image (a) and an extracted skin region image (b) input according to the non-contact multi-touch recognition method according to an embodiment of the present invention. (a) is a color image in which a user takes a visual touch with five fingers opened. FIG. 3 (a) is an image of FIG. 3 (b) showing the result of classifying the skin color using the RGB color model and the HSI color model. 3 (b) corresponds to an image of skin region classified only by skin color. Therefore, the result of judging that the face region and the hand region are included in the skin region and the region other than the actual user's skin in the color image is also determined as the skin region I have. In order to separate a hand, which is an object of visual touch, from a color image, only the hand region must be separated within the extracted skin region.

본 발명의 실시예에서는 추출된 피부영역에서 손영역을 분리하기 위하여 캐니 에지 검출기(Canny Edge Detector)을 사용하여 피부영역의 외곽선에 해당하는 에지(Edge) 정보를 추출한다. In the embodiment of the present invention, the edge information corresponding to the outline of the skin region is extracted using a Canny Edge Detector in order to separate the hand region from the extracted skin region.

캐니 에지 검출기는 탐지성(good detection), 국부성(good localization), 응답성(clear response)을 만족하는 에지를 찾는 방법을 제시한다. 탐지성이란 실제 모든 에지를 탐지하는 능력, 국부성은 실제 에지와 탐지된 에지의 차이를 최소화하는 능력, 응답성은 각 에지에 대하여 단일한 응답을 가지는 능력을 말한다. 이와 같은 에지(피부영역의 외곽선)을 분리하기 위해서 에지 정보를 추출하는 과정은 도 4와 같다. The canyon edge detector provides a method for finding edges satisfying good detection, good localization, and clear response. Detectability refers to the ability to detect all edges in real time. Localness refers to the ability to minimize the difference between an actual edge and a detected edge. Response is the ability to have a single response to each edge. The process of extracting the edge information for separating the edge (the outline of the skin region) is shown in FIG.

도 4는 도 1의 S120 단계에서 캐니 에지 검출기를 이용하여 외곽선을 분리하는 과정을 세분화하여 흐름도로 나타낸 것이다. FIG. 4 is a flowchart illustrating a process of separating an outline using the canyon edge detector in step S120 of FIG.

피부색으로 분류하여 이진화된 피부영역 영상을 입력받아서(S121), 영상에 대한 잡음의 영향을 최소화하기 위해 가우시안 스무딩 필터링을 수행한다(S122).The binarized skin region image is input (S121), and Gaussian smoothing filtering is performed in order to minimize the influence of noise on the image (S122).

Figure pat00003
Figure pat00003

가우시안 스무딩 필터링은 수학식 3과 같이 연산할 수 있다. 여기서

Figure pat00004
는 가중치
Figure pat00005
를 사용하여
Figure pat00006
위치에 적용되는 가우시안 함수를 의미하며,
Figure pat00007
Figure pat00008
위치의 픽셀 값을 의미하며,
Figure pat00009
는 가우시안필터를 적용한 결과를 의미한다. 가우시안 필터링을 적용한
Figure pat00010
에 1차 미분 연산자를 통한 에지검출은 수학식 4와 같다.Gaussian smoothing filtering can be calculated as shown in Equation (3). here
Figure pat00004
Weight
Figure pat00005
use with
Figure pat00006
The Gaussian function is applied to the position,
Figure pat00007
The
Figure pat00008
Pixel value of the position,
Figure pat00009
Means the result of applying the Gaussian filter. With Gaussian filtering applied
Figure pat00010
The edge detection through the first-order differential operator is expressed by Equation (4).

Figure pat00011
Figure pat00011

여기서

Figure pat00012
는 1차 미분 연산자를 통해 x축 에지를 검출한 결과이며,
Figure pat00013
는 y축 에지를 검출(S123)한 결과이다. 각 화소에 대한 기울기와 크기는 수학식 5와 같이 계산된다(S124).here
Figure pat00012
Is the result of detecting the x-axis edge through the first-order differential operator,
Figure pat00013
Is a result of detecting the y-axis edge (S123). The slope and the magnitude for each pixel are calculated as shown in Equation (5) (S124).

Figure pat00014
Figure pat00014

여기서,

Figure pat00015
는 최종적으로 임계치(S125)를 통하여 피부영역의 에지정보를 추출(S126)할 수 있다. 도 5는 도 4의 추출된 피부영역 이미지(b)와 그로부터 상기 과정에 의해 추출된 피부영역의 외곽선 이미지(c)를 나타낸 것이다. here,
Figure pat00015
The edge information of the skin region can be finally extracted (S126) through the threshold value S125. FIG. 5 shows an extracted skin area image (b) of FIG. 4 and an outline image (c) of the skin area extracted from the extracted skin area image (b) of FIG.

다음으로, 추출된 외곽선에 대하여 공간 주파수 기법을 사용하여 상기 외곽선의 복잡도를 분석하여 피부영역으로부터 손영역만을 분리한다. Next, the complexity of the outline is analyzed using the spatial frequency technique for the extracted outline, and only the hand area is separated from the skin area.

기존의 비접촉 멀티 터치 인식 방법에서는 피부 영역 추출 영상에서 손과 얼굴을 분리하는 방법으로 레이블링 방법(Labelling method)이 주로 사용되었다. 레이블링 방법은 연결성을 가지는 픽셀들을 그룹화하는 방법으로 간편하게 손영역을 추출할 수 있다. 하지만 손과 얼굴을 분리하기 위하여 손영역이 얼굴영역보다 커야만 하는 제한조건이 있다. 이런 제한조건을 해결하기 위해 본 발명의 실시예에서는 공간 주파수 기법을 이용하여 피부 영역 추출 영상에서 손과 얼굴을 분리하는 방법을 제안한다. In the conventional non-contact multi-touch recognition method, the labeling method is mainly used as a method of separating the hand and face from the extracted skin area image. The labeling method can easily extract the hand region by grouping the connected pixels. However, there is a limitation that the hand area must be larger than the face area in order to separate the hand and the face. In order to solve such a constraint, an embodiment of the present invention proposes a method of separating a hand and a face from a skin region extraction image using a spatial frequency technique.

본 발명의 일실시예에 따른 공간주파수 기법은 2차원 공간에서 영상의 변화를 주파수적인 특징으로 표현한 방법으로, 추출된 피부 영역의 에지영상에서 가로방향의 공간주파수와 세로방향의 공간 주파수에서 가장 높은 주파수 영역은 피부 영역의 에지영상에서 에지정보가 가장 복잡한 영역을 의미한다. 제안한 공간주파수 기법은 수학식 6과 같다. A spatial frequency technique according to an embodiment of the present invention is a method of expressing a change of an image in a two-dimensional space with a frequency characteristic. In the edge image of the extracted skin region, the spatial frequency in the horizontal direction and the spatial frequency in the vertical direction are highest The frequency domain refers to the area in which the edge information is the most complex in the edge image of the skin region. The proposed spatial frequency technique is shown in Equation (6).

Figure pat00016
Figure pat00016

여기서,

Figure pat00017
이며,
Figure pat00018
는 가로방향의 공간주파수를 의미하며,
Figure pat00019
는 세로방향의 공간주파수를 의미한다. 일반적으로 사람의 손영역은 얼굴영역보다 더 복잡한 에지 정보를 가지고 있으므로 가로방향과 세로 방향의 공간 주파수가 가장 높은 부분을 손영역으로 정의함으로써 효과적으로 손영역의 위치를 검출할 수 있다. 비접촉 멀티 터치(비주얼 터치)의 종류에 따라서 복잡도의 정도, 복잡도의 범위를 정의한다면, 본 발명의 상기 실시예에서 설명하고 있는 손가락으로 화면의 특정 영역을 터치하는 듯한 움직임을 식별하는 외에도 특징적인 손가락 제스처를 식별할 수 있을 것이다. here,
Figure pat00017
Lt;
Figure pat00018
Means the spatial frequency in the horizontal direction,
Figure pat00019
Means the spatial frequency in the vertical direction. Generally, since the human hand region has more complex edge information than the face region, it is possible to effectively detect the position of the hand region by defining the portion having the highest spatial frequency in the horizontal direction and the vertical direction as the hand region. If a degree of complexity and a range of complexity are defined according to the type of noncontact multi-touch (visual touch), in addition to identifying the movement of touching a specific area of the screen with the finger described in the above embodiment of the present invention, You will be able to identify the gesture.

도 6은 본 발명의 일실시예에 따른 비접촉 멀티 터치 인식 방법에서 공간주파수를 이용하여 손영역을 추출하는 과정을 도시한 그림이다. 도 6을 참조하면, 피부영역 내에서 손영역이 얼굴보다 큰 경우(a)와 손영역이 얼굴보다 작은 경우(b)를 모두 분석하고 있다. 기존의 레이블링 방법에서 손과 얼굴을 분리하기 위하여 손영역이 얼굴영역보다 커야만 하는 제한과 달리, 본 발명의 일실시예에 따른 공간주파수를 이용한 방법은 손영역이 얼굴영역보다 작은 경우에도 손영역을 분리할 수 있음을 확인할 수 있다. FIG. 6 is a diagram illustrating a process of extracting a hand region using a spatial frequency in a non-contact multi-touch recognition method according to an embodiment of the present invention. Referring to FIG. 6, both the case (a) in which the hand region is larger than the face in the skin region and the case (b) in which the hand region is smaller than the face are all analyzed. Unlike the conventional labeling method, in which the hand region must be larger than the face region in order to separate the hand and the face, the method using the spatial frequency according to the embodiment of the present invention, Can be separated.

보다 상세히 도 6의 (a)을 보면, 손영역이 얼굴영역보다 큰 경우로 피부영역 추출 영상에서 종 방향 공간주파수와 횡방향 공간주파수를 적용시킨 히스토그램을 도시하고 있다. 종·횡 방향의 공간주파수가 가장 높은 부분은 얼굴영역보다 복잡한 손영역임을 알 수 있다. 도 6의 (b)는 손영역이 얼굴보다 작은 경우에 공간주파수를 적용시킨 히스토그램 결과를 나타낸 것으로 도 6의 (a)와 마찬가지로 손영역에서 종·횡 방향 공간주파수가 가장 높은 것을 확인할 수 있다. 따라서 본 발명의 실시예의 공간주파수를 이용하여 손영역을 추출하는 단계에 따라 입력영상에서 손영역과 얼굴영역을 간단히 분리할 수 있음을 알 수 있다. 즉, 외곽선의 복잡도를 공간주파수 분석을 통해 복잡도가 높은 영역을 손영역으로 추출하는 것이다. More specifically, FIG. 6A shows a histogram in which a vertical spatial frequency and a horizontal spatial frequency are applied in a skin region extracted image when a hand region is larger than a face region. It can be seen that the portion with the highest spatial frequency in the longitudinal and transverse directions is a more complex hand region than the face region. FIG. 6 (b) shows the result of applying the spatial frequency when the hand region is smaller than the face. As shown in FIG. 6 (a), it can be seen that the vertical and horizontal spatial frequencies are highest in the hand region. Therefore, it can be seen that the hand region and the face region can be easily separated from the input image by extracting the hand region using the spatial frequency of the embodiment of the present invention. In other words, the complexity of the outline is extracted through the spatial frequency analysis as a hand region with high complexity.

S130 단계에서는 추출된 컬러 이미지의 손영역에서 외곽선의 근사화를 통해 손영역의 특징점(hand feature point)을 추출한다. 더글라스 파커(Douglas Peucker) 알고리즘을 이용하여 손 외곽선에 대하여 미리 설정된 임계치 범위 내에서 근사화하여 손영역의 특징점을 추출할 수 있다. 손영역의 특징점은 비접촉 멀티 터치를 인식하기 위하여 손가락을 모델링하는데 의미있는 정점을 말한다. 예를 들어, 추출된 특징점은 손가락 끝점 등이 될 수 있다. In step S130, the hand feature point of the hand region is extracted through the approximation of the outline in the hand region of the extracted color image. The feature points of the hand region can be extracted by approximating the hand outline within a predetermined threshold range using the Douglas Peucker algorithm. The feature point of the hand region is a significant peak in modeling the finger to recognize the contactless multi-touch. For example, the extracted feature point may be a finger end point or the like.

S120 단계에서 추출된 컬러 이미지는 손 외곽선이 곡선으로 이루어져 있기 때문에 특징점을 추출하기 위해 먼저, 더글라스 파커 알고리즘을 적용한다. 더글라스 파커 알고리즘은 복잡한 선형 자료를 설정된 임계치 범위 내에서 근사화를 수행하는 알고리즘이다. 도 7은 본 발명의 일실시예에 따른 비접촉 멀티 터치 인식 방법에서 손 외곽선에 대하여 더글라스 파커 알고리즘을 이용하여 근사화되는 과정의 예시를 나타낸 그림이다. Since the color image extracted in step S120 has a curve of the hand outline, the Douglas Parker algorithm is first applied to extract the feature points. The Douglas Parker algorithm is an algorithm that approximates complex linear data within a set threshold. FIG. 7 is a diagram illustrating an example of a process of approximating the hand outline using the Douglas Parker algorithm in the non-contact multi-touch recognition method according to an embodiment of the present invention.

도 7의 (a)는 최초의 임계치 설정을 의미하며 시작점 pt0에서 소지의 끝점 pt15까지의 단순화 과정을 나타낸다. 임계치를 설정하고 임계치에 속한 pt1-pt14는 제거한다. 도 7의 (b)에서도 앞선 도 7의 (a)와 마찬가지로 pt15-pt22에 임계치를 설정하여 임계치에 속한 pt16-pt21은 제거한다. 이와 같은 과정을 반복하면 최종적으로 손의 특징점을 추출할 수 있다. 도 8은 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따라 추출된 손영역 이미지(a), 외곽선 근사화 이미지(b), 특징점 추출결과(c)를 개념적으로 나타낸 그림이다. FIG. 7A shows the initial threshold setting and shows a simplification process from the start point pt0 to the end point pt15 of the bezel. Set the threshold value and remove pt1-pt14 belonging to the threshold value. In FIG. 7 (b), a threshold value is set to pt15-pt22 as in FIG. 7 (a), and pt16-pt21 belonging to the threshold value is removed. By repeating this process, the minutiae of the hand can finally be extracted. FIG. 8 is a conceptual illustration of a hand region image (a), an outline approximation image (b), and a feature point extraction result (c) extracted according to the noncontact multi-touch recognition method according to an embodiment of the present invention.

도 8의 (c)와 같이 손영역의 특징점을 집합

Figure pat00020
의 원소
Figure pat00021
로 정의한다. 여기서,
Figure pat00022
의 원소 중
Figure pat00023
는 손가락 끝점에 해당하는 특징점으로 비주얼 터치 인식과정에서 중요하게 사용된다. 본 발명에 따른 실시예들은 추출된 손영역 특징점을 입력으로 보로노이-테셀레이션 손모델을 생성하고, 최종적으로 손가락 끝점에 해당하는 손모델의 특징점을 이용하여 손가락 끝점의 터치를 인식함으로서 비접촉 멀티 터치(비주얼 터치)를 인식하게 되기 때문이다. As shown in (c) of FIG. 8,
Figure pat00020
Element of
Figure pat00021
. here,
Figure pat00022
Of the elements
Figure pat00023
Is a feature point corresponding to the finger end point and is used in the visual touch recognition process. Embodiments according to the present invention generate a Voronoi-tessellated hand model by inputting extracted hand region feature points and finally recognize the touch of a finger end point using feature points of a hand model corresponding to a finger end point, Visual touch).

S140 단계에서는 손영역의 특징점을 기반으로 각각의 특징점들이 서로 다른 영역 내에 포함되도록 컬러 이미지를 분할함으로써 손가락을 개별적으로 모델링한 손모델을 생성한다. 추출된 손영역의 특징점들에 대하여 보로노이 테셀레이션(Vornoi tessellation)을 적용하여 컬러 이미지를 분할한다. 보로노이 테셀레이션은 보로노이 셀(Voronoi cell), 보로노이 다각형(Voronoi polygon), 보로노이 공간(Voronoi space) 및 보로노이 정점(Voronoi vertex)을 포함하는데, 생성된 손모델에서 특정점들은 각각 보로노이 셀이 되고, 분할된 영역은 보로노이 다각형이 될 수 있다. In step S140, a hand model is generated by separately modeling the fingers by dividing the color image so that the respective feature points are included in different regions based on the feature points of the hand region. The color image is segmented by applying Voronoi tessellation to the feature points of the extracted hand region. Voronoi tessellation includes a Voronoi cell, a Voronoi polygon, a Voronoi space, and a Voronoi vertex. In the generated hand model, specific points are represented by Voronoi cells, Cell, and the divided region can be a Voronoi polygon.

보로노이 테셀레이션은 이웃들과의 선분을 이등분한 선들로 이루어진 다각형의 집합을 의미한다. 테셀레이션은 집합

Figure pat00024
가 있을 때, 한 부분집합
Figure pat00025
에 속하는 원소는 다른 부분 집합 에 속하지 않고, 집합
Figure pat00027
의 모든 원소는 임의의 한 부분집합
Figure pat00028
에 반드시 속하는 성질을 가지는 부분집합
Figure pat00029
을 말한다.Voronoi tessellation is a set of polygons consisting of lines bisecting a line segment with neighbors. Tessellation is a set
Figure pat00024
When there is a subset
Figure pat00025
The elements belonging to the < RTI ID = 0.0 > , But not set
Figure pat00027
All elements of an arbitrary subset
Figure pat00028
A subset having properties that necessarily belong to
Figure pat00029
.

보로노이 테셀레이션을 정의하면 다음과 같다. 집합

Figure pat00030
의 원소를
Figure pat00031
라 하자. 집합
Figure pat00032
의 원소
Figure pat00033
에 대한 유클리디언 거리함수
Figure pat00034
일 때, 보로노이 부분집합
Figure pat00035
는 수학식 7을 만족하는
Figure pat00036
에 속하는 모든 원소의 집합이다.Voronoi tessellation is defined as follows. set
Figure pat00030
Element of
Figure pat00031
Let's say. set
Figure pat00032
Element of
Figure pat00033
Euclidean distance function for
Figure pat00034
, The Voronoi subset
Figure pat00035
Lt; RTI ID = 0.0 > (7)
Figure pat00036
Is a set of all elements belonging to.

Figure pat00037
Figure pat00037

보로노이 부분집합들의 집합

Figure pat00038
를 의 보로노이 테셀레이션이라 정의한다. 이때,
Figure pat00039
의 집합을 보로노이 테셀레이션의 생성자(Generators) 또는 보로노이 셀이라 한다. 보로노이 부분집합
Figure pat00040
는 보로노이 다각형이라 한다. A set of Voronoi subsets
Figure pat00038
Is defined as Voronoi tessellation. At this time,
Figure pat00039
Are called generators or Voronoi cells of Voronoi tessellation. Voronoi subset
Figure pat00040
Is called a Voronoi polygon.

도 9는 입력된 컬러 이미지에 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따라 추출된 특징점을 표시하고, 보로노이 테셀레이션의 구성요소를 도시한 그림이다. 도 9에서 보로노이 테셀레이션은 보로노이 셀, 보로노이 다각형, 보로노이 공간과 보로노이 정점으로 구성되어 있다. 보로노이 공간은 보로노이 다각형 내의 공간을 의미하며, 보로노이 정점은 임의의 정점을 포함한 영역에서 다른 두 개 이상의 정점이 가지는 영역들과 만나는 점을 의미한다. FIG. 9 is a diagram illustrating components extracted from the input color image according to the non-contact multi-touch recognition method according to an embodiment of the present invention and showing Voronoi tessellation. In Fig. 9, Voronoi tessellation is composed of Voronoi cell, Voronoi polygon, Voronoi space and Voronoi peak. The Voronoi space means a space within the Voronoi polygon, and the Voronoi vertex means a point where an area including an arbitrary vertex meets an area having two or more other vertices.

보로노이 테셀레이션 알고리즘은 임의의 시작점을 중심으로 각 정점이 다른 정점에 영향을 주지 않고 최대로 가질 수 있는 범위를 표현하기에 적합함으로, 본 발명의 실시예에서 비접촉 멀티 터치(비주얼 터치) 인식을 위한 손영역 분할 단계에 적용하게 된 것이다. The Voronoi tessellation algorithm is suitable for expressing a range in which each vertex can have a maximum value without affecting other vertices around an arbitrary starting point. Thus, in the embodiment of the present invention, This is applied to the hand region segmentation step.

도 8의 (c)에서 단순화된 손영역의 특징점 집합

Figure pat00041
를 보로노이 테셀레이션 알고리즘의 입력 데이터로 사용한다. 그리고 입력데이터에 보로노이 테셀레이션을 적용시킨다. 적용된 결과로 컬러 이미지에서 특징점을 기반으로 각각 특징점들이 서로 다른 영역 내에 포함되도록 컬러 이미지를 분할할 수 있다. 분할된 컬러 이미지를 통해 손가락을 개별적으로 모델링한 손모델이 생성되는 것이다. In Fig. 8 (c), the feature point set of the simplified hand region
Figure pat00041
As the input data of the Voronoi tessellation algorithm. Then apply Voronoi tessellation to the input data. As a result of applying the color image, the color image can be divided so that the feature points are included in different areas based on the feature points in the color image. A hand model is created by individually modeling the fingers through a divided color image.

본 발명의 일실시예에 따라 생성된 손 모델은 다음과 같은 특징을 가진다. 먼저 손모델은 손가락 끝점을 포함한 손영역의 특징점들의 집합을 입력 데이터로 사용한다. 다음으로 모든 보로노이 셀들은 서로 간섭하지 않는다. 또한, 보로노이 다각형은 보로노이 셀이 서로 간섭하지 않는 한 최대의 영역을 가진다. 마지막으로 보로노이 다각형의 경계선은 마주한 보로노이 공간의 균형점이다. 이를 보로노이 규칙이라 정의할 수 있다. The hand model generated according to an embodiment of the present invention has the following features. First, the hand model uses the set of feature points of the hand region including the fingertip as input data. Next, all Voronoi cells do not interfere with each other. In addition, the Voronoi polygon has a maximum area as long as the Voronoi cells do not interfere with each other. Finally, the boundary of the Voronoi polygon is the equilibrium point of the facing Voronoi space. This can be defined as the Voronoi rule.

S150 단계에서 손모델을 이용하여 비접촉 멀티 터치(비주얼 터치)를 인식한다. 특징점 중 손가락의 끝점에 해당하는 특징점을 포함한 보로노이 다각형의 내각의 변화를 이용하여 비접촉 멀티 터치를 인식하게 된다. 이는 보로노이 규칙을 이용한 것이다. 보다 자세히 설명하면 보로노이 다각형 내각의 변화에 따른 손가락의 구부림의 각도를 연산함으로써 어떠한 비주얼 터치인지를 판단하게 되는 것이다. In step S150, the non-contact multi-touch (visual touch) is recognized using the hand model. Contact non-contact multi-touch is recognized using the change in the internal angle of the Voronoi polygon including the feature point corresponding to the end point of the finger among the minutiae points. This is based on the Voronoi rule. More specifically, the angle of the finger bending according to the change of the Voronoi polygon cabinet is calculated to determine the visual touch.

즉, 본 발명의 실시예에서는 기기를 직접 접촉하는 것이 아니라 스크린에서 손가락으로 화면을 터치하는 듯한 움직임(비주얼 터치)을 촬영한 컬러 이미지를 분석하여 비주얼 터치를 인식하는데 보로노이 테셀레이션 기반의 손모델을 이용한다. 보로노이 테셀레이션의 특징을 이용하는 방법은 앞서 언급한 보로노이 테셀레이션의 특징 중 보로노이 다각형은 보로노이 셀들이 서로 간섭하지 않는 한 최대의 영역을 가진다는 규칙을 이용하는 것이다. That is, in the embodiment of the present invention, a hand model based on Voronoi tessellation is used to recognize a visual touch by analyzing a color image photographed from a motion (visual touch) . One of the features of the Voronoi tessellation is that the Voronoi polygon, which is one of the features of the Voronoi tessellation mentioned above, utilizes the rule that the Voronoi cells have the largest area unless they interfere with each other.

도 10은 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따라 인식된 3 종류의 손동작 나타낸 그림이다. 도 10의 (a)는 손 모델을 표현한 것으로 다섯 손가락을 펼친 손동작을 나타낸다. 도 10의 (b)는 검지를 구부린 손동작을, 도 10의 (c)는 중지를 구부린 손동작의 경우를 나타낸다. 10 is a view showing three kinds of manually operated operations recognized according to the non-contact multi-touch recognition method according to an embodiment of the present invention. FIG. 10 (a) shows a hand model in which five fingers are extended. Fig. 10 (b) shows a hand gesture in which the index finger is bent, and Fig. 10 (c) shows a finger gesture in which the stop is bent.

도 10의 (b)에서 검지 손가락을 구부릴 때 검지의 끝점

Figure pat00042
을 포함하는 보로노이 다각형은 내각이 좁아지는 특성을 보인다. 이는 손가락의 구부림으로 인해 보로노이 셀
Figure pat00043
Figure pat00044
의 거리가 근접할수록
Figure pat00045
Figure pat00046
와의 거리는 멀어지기 때문이다.
Figure pat00047
Figure pat00048
와의 거리가 멀어질수록 보로노이 다각형의 최대 영역을 확보하기 위해
Figure pat00049
의 내각이 좁아지게 된다. 보로노이 다각형의 내각 변화는 다음 수학식 8과 같이 제 2 코사인법칙을 이용한다. In Fig. 10 (b), when the index finger is bent,
Figure pat00042
And the Voronoi polygon, which contains the Voronoi polygon, show the narrowing of the cabinet. Because of the bending of the finger,
Figure pat00043
and
Figure pat00044
The closer the distance of
Figure pat00045
and
Figure pat00046
And the distance between them becomes far away.
Figure pat00047
and
Figure pat00048
The larger the distance between the Voronoi polygon
Figure pat00049
The cabinet of the present invention becomes narrower. The inner angle change of the Voronoi polygon uses the second cosine law as shown in the following equation (8).

Figure pat00050
Figure pat00050

동일하게 도 10의 (c)에서 중지손가락을 구부릴 때 중지의 끝점

Figure pat00051
를 포함하는 보로노이 다각형도 내각이 좁아지는 특성을 보인다. 손가락 특징점
Figure pat00052
을 포함한 보로노이 다각형 내각의 변화를 계산하여 구부림에 따른 각도
Figure pat00053
를 계산함으로써 화면을 터치하는 듯한 비주얼 터치를 판단한다. 이와 같이 손가락 하나 하나의 움직임을 구분하여 비주얼 터치를 인식하기 때문에 자연스러운 인터페이스로써 역할할 수 있으며, 생성된 손모델에 따라 비주얼 터치를 인식하는 연산이 비교적 기존의 방법에 비하여 간단해 연속적인 컬러 이미지를 입력받아도 실시간 처리가 가능하다. Similarly, in FIG. 10 (c), when the stop finger is bent,
Figure pat00051
And the Voronoi polygon, which includes the polygon, also shows the narrowing of the cabinet. Finger feature point
Figure pat00052
The angle of the bending is calculated by calculating the change of the Voronoi polygon cabinet including
Figure pat00053
To determine a visual touch that seems to touch the screen. In this way, it is possible to play a natural interface by recognizing the visual touch by dividing the movement of each finger, and the operation of recognizing the visual touch according to the generated hand model is relatively simple compared with the conventional method, Real-time processing is possible even if input is received.

이하에서는 본 발명에 대한 보다 상세한 설명을 위해, 본 발명의 일실시예를 적용한 두 가지 실험예를 설명하고자 한다. 실험환경은 i5-3570 3.4GHz CPU, 4GB RAM의 PC에서 수행하였으며, 640x480 픽셀, 초당 12 프레임의 웹 카메라를 사용하였다.Hereinafter, in order to describe the present invention in more detail, two experimental examples to which one embodiment of the present invention is applied will be described. Experimental environment was performed on i5-3570 3.4GHz CPU and 4GB RAM PC, and web camera of 640x480 pixels and 12 frames per second was used.

실험은 손이 얼굴보다 큰 경우(실험1)와 손이 얼굴보다 작은 경우(실험2)로 나누어 진행하였으며, 웹 카메라로부터 RGB 칼라 영상을 입력받아 손영역을 인식하고, 다음으로 인식된 손영역을 이용하여 컴퓨터 환경에서의 자연스러운 비주얼 터치 인터페이스에 적용하는 실험을 하였다. 실험 과정은 보로노이-테셀레이션 손 모델 생성, 그리고 손동작 인식 실험 순으로 구성하였다.Experiments were carried out by dividing the hand into two parts: (1) the hand was larger than the face (Experiment 1) and (2) the hand was smaller than the face (Experiment 2) And applied to a natural visual touch interface in a computer environment. The experimental procedure consisted of Voronoi - tessellation hand model generation and hand motion recognition experiment.

도 11a는 손이 얼굴보다 큰 컬러 이미지에 대하여 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따른 분석 과정을 나타낸 실험예이다. 이는 실험(1)을 통하여 보로노이 테셀레이션을 적용하여 손 모델 생성 과정을 도시한 그림이다. 도 11a를 참조하면, 손이 얼굴보다 큰 경우의 컬러 이미지(①)에 대하여, 피부영역을 추출하고(②), 본 발명의 일실시예에 따른 공간 주파수 기법을 적용하여 손영역만을 추출하며(③), 추출된 손영역에서 더글라스-파커 알고리즘을 적용하여 손 특징점을 추출하고(④), 마지막으로 추출된 특징점을 입력으로 보로노이 손 모델을 생성한 결과(⑤)를 나타낸다.11A is an experimental example showing an analysis process according to a non-contact multi-touch recognition method according to an embodiment of the present invention with respect to a color image in which a hand is larger than a face. This is a diagram showing the hand model generation process by applying Voronoi tessellation through Experiment (1). Referring to FIG. 11A, a skin region is extracted for a color image (1) when a hand is larger than a face (2), and only a hand region is extracted by applying a spatial frequency technique according to an embodiment of the present invention ③), extracting the hand feature points by applying the Douglas-Parker algorithm in the extracted hand region (④), and finally generating the Voronoisel model by inputting the extracted feature points (⑤).

도 11b는 손이 얼굴보다 큰 경우에 연속적으로 촬영한 컬러 이미지에 대하여 본 발명의 일 실시예에 따라 비접촉 멀티 터치를 인식한 결과를 프레임 순으로 나타낸 캡쳐 화면이다. 각 10 프레임, 230 프레임, 350 프레임, 420 프레임, 610 프레임, 705 프레임에 대하여 비주얼 터치를 인식하였고, 그 결과 캡쳐 화면에서 연속 동작에 해당하는 도형을 그리는 비주얼 터치를 추정할 수 있다. FIG. 11B is a screen view showing a result of recognizing noncontact multi-touch in frame order according to an embodiment of the present invention for a color image continuously photographed when a hand is larger than a face. The visual touch is recognized for each of 10 frames, 230 frames, 350 frames, 420 frames, 610 frames, and 705 frames. As a result, a visual touch that draws a figure corresponding to a continuous motion can be estimated.

도 12a는 손이 얼굴보다 작은 컬러 이미지에 대하여 본 발명의 일 실시예에 따른 비접촉 멀티 터치 인식 방법에 따른 분석 과정을 나타낸 실험예로써, 실험(2)의 과정 및 결과를 나타낸다. 도 12a를 참조하면, 손이 얼굴보다 큰 경우의 컬러 이미지(①)에 대하여, 피부영역을 추출하고(②), 본 발명의 일실시예에 따른 공간 주파수 기법을 적용하여 손영역만을 추출하며(③), 추출된 손영역에서 더글라스-파커 알고리즘을 적용하여 손 특징점을 추출하고(④), 마지막으로 추출된 특징점을 입력으로 보로노이 손 모델을 생성한 결과(⑤)를 나타낸다.12A shows an example of an analysis process according to the non-contact multi-touch recognition method according to an embodiment of the present invention with respect to a color image in which a hand is smaller than a face, and shows the process and result of the experiment (2). Referring to FIG. 12A, a skin region is extracted for a color image (1) in which a hand is larger than a face (2), and only a hand region is extracted by applying a spatial frequency technique according to an embodiment of the present invention ③), extracting the hand feature points by applying the Douglas-Parker algorithm in the extracted hand region (④), and finally generating the Voronoisel model by inputting the extracted feature points (⑤).

도 12b는 손이 얼굴보다 작은 경우에 연속적으로 촬영한 컬러 이미지에 대하여 본 발명의 일 실시예에 따라 비접촉 멀티 터치(비주얼 터치)를 인식한 결과를 프레임 순으로 나타낸 캡쳐 화면이다. 각 30 프레임, 270 프레임, 380 프레임, 510 프레임, 660 프레임, 745 프레임에 대하여 비주얼 터치를 인식하였고, 도 11b와 마찬가지로 연속 동작에 해당하는 도형을 그리는 움직임을 추정할 수 있다. FIG. 12B is a view showing a result of recognizing a noncontact multi-touch (visual touch) in a frame order according to an embodiment of the present invention, with respect to a color image continuously photographed when a hand is smaller than a face. The visual touch is recognized for each of 30 frames, 270 frames, 380 frames, 510 frames, 660 frames, and 745 frames, and the motion for drawing a figure corresponding to the continuous motion can be estimated as in FIG. 11B.

도 11a, 도 11b와 도 12a 및 도 12b에서 볼 수 있듯이, 손이 얼굴보다 큰 경우(실험 1)와 손이 얼굴보다 작은 경우(실험 2) 모두에서 검지 손가락의 움직임을 실시간으로 정확하게 인식함으로써 본 발명의 실시예가 자연스러운 터치 동작을 인식하는 방법을 제안하고 있음을 알 수 있다. As can be seen from Figs. 11A, 11B and 12A and 12B, in the case where the hand is larger than the face (Experiment 1) and the case where the hand is smaller than the face (Experiment 2) It can be seen that the embodiment of the present invention proposes a method of recognizing a natural touch operation.

도 13은 본 발명의 다른 실시예에 따른 비접촉 멀티 터치 인식 시스템(1)을 나타낸 개념도이다. 비접촉 멀티 터치 인식 시스템(1)은 컬러 이미지를 입력받아 인식된 비접촉 멀티 터치(비주얼 터치)를 출력하며, 그 구성요소로서 입력부(10), 분석부(20), 손모델 생성부(30) 및 판단부(40)를 포함한다. 비접촉 멀티 터치 인식 시스템(1)의 각 구성은 도 1의 비접촉 멀티 터치 인식 방법의 각 단계와 대응되는바, 구체적인 설명은 중복되어 기재하지 않고 대응관계를 중심으로 이하 설명한다. 13 is a conceptual diagram showing a contactless multi-touch recognition system 1 according to another embodiment of the present invention. The noncontact multi-touch recognition system 1 receives a color image and outputs a recognized noncontact multi-touch (visual touch). The noncontact multi-touch recognition system 1 includes an input unit 10, an analysis unit 20, a hand model generation unit 30, And a determination unit (40). Each configuration of the non-contact multi-touch recognition system 1 corresponds to each step of the non-contact multi-touch recognition method of FIG. 1, and a detailed description thereof will not be repeated.

입력부(10)는 사용자의 비접촉 멀티 터치(비주얼 터치)를 촬영한 컬러 이미지를 획득한다. 다양한 종류의 카메라를 비접촉 멀티 터치 인식 시스템(1)과 유선 또는 무선으로 연결하여 컬러 이미지를 입력받을 수 있다. 이는 도 1의 S110 단계와 대응되는 구성이다. The input unit 10 acquires a color image of a non-contact multi-touch (visual touch) of the user. Various types of cameras can be connected to the noncontact multi-touch recognition system 1 by wire or wireless to receive color images. This corresponds to step S110 of FIG.

분석부(20)는 입력받은 컬러 이미지에서 조도 변화를 고려한 색 분석을 통해 피부영역 및 피부영역의 외곽선을 추출하고, 외곽선의 복잡도를 이용하여 손영역을 추출한다. RGB(Red-Green-Blue) 컬러 모델과 HSI(Hue-Saturation-Intensity) 컬러 모델을 이용하여 피부색을 분류함으로써 피부영역을 추출하고, 캐니 에지 검출기(Canny Edge Detector)를 사용하여 피부영역의 외곽선을 추출하며, 추출된 외곽선에 대하여 공간 주파수 기법을 사용하여 외곽선의 복잡도를 분석하는 것을 특징으로 한다. 이때 기존의 비접촉 멀티 터치 인식 방법에서 레이블링 방법을 사용하는 것과 달리 본 발명의 실시예에서 공간 주파수 기법을 이용하여 다수의 영역을 포함하는 피부영역에서 손영역과 얼굴영역을 정확하게 분리해낼 수 있게 된다. The analysis unit 20 extracts the skin region and the skin region outline through the color analysis in consideration of the illumination change in the input color image, and extracts the hand region using the complexity of the outline. Skin area is extracted by classifying skin color using Red-Green-Blue (RGB) color model and HSI (Hue-Saturation-Intensity) color model and skin area is extracted using Canny Edge Detector. And the complexity of the outline is analyzed using the spatial frequency technique for the extracted outline. At this time, unlike the conventional non-contact multi-touch recognition method using the labeling method, in the embodiment of the present invention, the hand region and the face region can be accurately separated in the skin region including a plurality of regions by using the spatial frequency technique.

컬러 이미지의 손영역에서 외곽선의 근사화를 통해 손영역의 특징점(hand feature point)을 추출한다. 더글라스 파커(Douglas Peucker) 알고리즘을 이용하여 손 외곽선에 대하여 미리 설정된 임계치 범위 내에서 근사화하여 손영역의 특징점을 추출한다. 이는 도 1의 S120 단계 및 S130 단계를 포함하는 구성이다. The hand feature point of the hand region is extracted by approximating the outline in the hand region of the color image. The feature points of the hand region are extracted by approximating the hand outline within a predetermined threshold range using the Douglas Peucker algorithm. This is a configuration including step S120 and step S130 in FIG.

손모델 생성부(30)는 손영역의 특징점을 기반으로 각각의 특징점들이 서로 다른 영역 내에 포함되도록 컬러 이미지를 분할함으로써 손가락을 개별적으로 모델링한 손모델을 생성한다. 구체적으로 손영역의 특징점들에 대하여 보로노이 테셀레이션(Vornoi tessellation)을 적용하여 상기 컬러 이미지를 분할할 수 있다. The hand model generating unit 30 generates a hand model in which fingers are separately modeled by dividing the color image so that the respective feature points are included in different areas based on the feature points of the hand region. Specifically, the color image can be divided by applying Voronoi tessellation to the feature points of the hand region.

생성된 손모델은 보로노이 셀(cell), 보로노이 다각형, 보로노이 공간 및 보로노이 정점을 포함한다. 특징점은 보로노이 셀이 되고, 분할된 영역은 보로노이 다각형이 되며, 이때 모든 보로노이 셀들은 서로 간섭하지 않으며, 보로노이 다각형은 보로노이 셀들이 서로 간섭하지 않는 한 최대의 영역을 가지는 것을 특징으로 할 수 있다. 이는 도 1의 S140 단계와 대응되는 구성이다. The generated hand models include Voronoi cells, Voronoi polygons, Voronoi spaces and Voronoi peaks. The feature point becomes a Voronoi cell, and the divided area becomes a Voronoi polygon. In this case, all the Voronoi cells do not interfere with each other, and the Voronoi polygon has a maximum area as long as the Voronoi cells do not interfere with each other can do. This corresponds to step S140 in FIG.

판단부(40)는 손모델을 이용하여 비접촉 멀티 터치(비주얼 터치)를 인식한다. 특징점 중 손가락의 끝점에 해당하는 특징점을 포함한 보로노이 다각형의 내각의 변화를 이용하여 비주얼 터치를 식별하게 된다. 구체적으로 보로노이 다각형 내각의 변화에 따른 손가락의 구부림의 각도를 연산함으로써 비접촉 멀티 터치가 화면을 터치하는 듯한 움직임에 해당하는 것인지를 판단할 수 있다. 이는 도 1의 S150 단계와 대응되는 구성이다. The determination unit 40 recognizes the non-contact multi-touch (visual touch) using the hand model. The visual touch is identified by using the change of the internal angle of the Voronoi polygon including the feature point corresponding to the end point of the finger among the feature points. Specifically, it is possible to determine whether or not the noncontact multi-touch corresponds to the movement of touching the screen by calculating the angle of the bending of the finger according to the change of the Voronoi polygon cabinet. This corresponds to step S150 in FIG.

본 발명의 실시예들은 컬러 이미지인 영상 정보를 기반으로 사용자가 디스플레이 되고 있는 사물과 자연스럽게 상호작용할 수 있는 NUI를 위한 비접촉 멀티 터치(비주얼 터치)를 인식하는 방법 및 시스템을 제안하였다. 이에 따라 사용자들이 자신의 손가락을 임의의 공간에서 움직이면 해당 동작을 인식하고 이를 해석함으로써, 기존의 컴퓨터의 동작을 지시하는 마우스의 역할을 할 수 있다. 즉 어떠한 접촉기기 없이 원격으로 컴퓨터를 조작할 수 있는 자연스러운 인터페이스를 구현할 수 있을 것이다. Embodiments of the present invention have proposed a method and system for recognizing a noncontact multi-touch (visual touch) for NUI that can naturally interact with a displayed object based on image information as a color image. Accordingly, when users move their fingers in an arbitrary space, they recognize and interpret the corresponding operation, thereby playing a role of a mouse instructing the operation of the existing computer. In other words, it will be possible to implement a natural interface that can remotely operate the computer without any contact device.

또한, 본 발명의 실시예들은 카메라로부터 얻어진 연속적인 입력 영상에서 RGB/HSI 컬러 모델을 적용하여 조도에 민감한 단점을 해결하고, 공간주파수 기법을 제안하여 손이 얼굴보다 커야만 손영역을 추출하던 기존방식의 단점을 개선하였으며, 보로노이 테셀레이션 알고리즘을 통해 생성한 손 모델을 이용하여 자연스러운 비주얼 터치 인식을 구현하였다. In addition, embodiments of the present invention solve the drawback which is sensitive to illumination by applying the RGB / HSI color model to a continuous input image obtained from a camera and propose a spatial frequency technique, And realizes natural visual touch recognition using hand model generated by Voronoi tessellation algorithm.

한편, 본 발명의 실시예들은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. Meanwhile, the embodiments of the present invention can be embodied as computer readable codes on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored.

컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현하는 것을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의하여 용이하게 추론될 수 있다.Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device and the like, and also a carrier wave (for example, transmission via the Internet) . In addition, the computer-readable recording medium may be distributed over network-connected computer systems so that computer readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily deduced by programmers skilled in the art to which the present invention belongs.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

1: 비접촉 멀티 터치 인식 시스템
10: 입력부
20: 분석부
30: 손모델 생성부
40: 판단부
1: Non-contact multi-touch recognition system
10: Input unit
20: Analytical Department
30: hand model generating unit
40:

Claims (16)

사용자의 비접촉 멀티 터치를 촬영한 컬러 이미지를 획득하는 단계;
상기 컬러 이미지에서 조도 변화를 고려한 색 분석을 통해 피부영역 및 상기 피부영역의 외곽선을 추출하고, 상기 외곽선의 복잡도를 이용하여 손영역을 추출하는 단계;
상기 컬러 이미지의 손영역에서 외곽선의 근사화를 통해 손영역의 특징점(hand feature point)을 추출하는 단계;
상기 손영역의 특징점을 기반으로 각각의 특징점들이 서로 다른 영역 내에 포함되도록 상기 컬러 이미지를 분할함으로써 손가락을 개별적으로 모델링한 손모델을 생성하는 단계; 및
상기 손모델을 이용하여 상기 비접촉 멀티 터치를 인식하는 단계;를 포함하는 비접촉 멀티 터치 인식 방법.
Acquiring a color image obtained by photographing a noncontact multi-touch of a user;
Extracting a skin region and an outline of the skin region through color analysis in consideration of illumination change in the color image, and extracting a hand region using the complexity of the outline;
Extracting a hand feature point of the hand region through approximation of an outline in a hand region of the color image;
Generating a hand model individually modeling the fingers by dividing the color image so that each feature point is included in different areas based on the feature points of the hand region; And
And recognizing the non-contact multi-touch using the hand model.
제 1 항에 있어서,
상기 손영역을 추출하는 단계는
RGB(Red-Green-Blue) 컬러 모델과 HSI(Hue-Saturation-Intensity) 컬러 모델을 이용하여 피부색을 분류함으로써 피부영역을 추출하는 것을 특징으로 하는 비접촉 멀티 터치 인식 방법.
The method according to claim 1,
The step of extracting the hand region
Wherein the skin region is extracted by classifying the skin color using a Red-Green-Blue (RGB) color model and a Hue-Saturation-Intensity (HSI) color model.
제 1 항에 있어서,
상기 손영역을 추출하는 단계는
캐니 에지 검출기(Canny Edge Detector)를 사용하여 피부영역의 외곽선을 추출하는 것을 특징으로 하는 비접촉 멀티 터치 인식 방법.
The method according to claim 1,
The step of extracting the hand region
And extracting an outline of a skin region using a Canny Edge Detector.
제 1 항에 있어서,
상기 손영역을 추출하는 단계는
상기 추출된 외곽선에 대하여 공간 주파수 기법을 사용하여 분석된 상기 외곽선의 복잡도에 따라 상기 손영역만을 추출하는 것을 특징으로 하는 비접촉 멀티 터치 인식 방법.
The method according to claim 1,
The step of extracting the hand region
And extracting only the hand region according to the complexity of the outline analyzed using the spatial frequency technique for the extracted outline.
제 1 항에 있어서,
상기 손영역의 특징점을 추출하는 단계는
더글라스 파커(Douglas Peucker) 알고리즘을 이용하여 손 외곽선에 대하여 미리 설정된 임계치 범위 내에서 근사화하여 상기 손영역의 특징점을 추출하는 것을 특징으로 하는 비접촉 멀티 터치 인식 방법.
The method according to claim 1,
The step of extracting feature points of the hand region
Wherein the feature point of the hand region is extracted by approximating the hand outline within a predetermined threshold range using a Douglas Peucker algorithm.
제 1 항에 있어서,
상기 손모델을 생성하는 단계는
상기 손영역의 특징점들에 대하여 보로노이 테셀레이션(Vornoi tessellation)을 적용하여 상기 컬러 이미지를 분할하는 것을 특징으로 하는 비접촉 멀티 터치 인식 방법.
The method according to claim 1,
The step of generating the hand model
Wherein the color image is divided by applying Voronoi tessellation to the minutiae points of the hand region.
제 6 항에 있어서,
상기 손모델에서 상기 특징점은 보로노이 셀(cell)이 되고, 상기 분할된 영역은 보로노이 다각형이 되는 것을 특징으로 하는 비접촉 멀티 터치 인식 방법.
The method according to claim 6,
Wherein the feature point is a Voronoi cell in the hand model, and the divided region is a Voronoi polygon.
제 7 항에 있어서,
상기 모든 보로노이 셀들은 서로 간섭하지 않으며, 상기 보로노이 다각형은 상기 보로노이 셀들이 서로 간섭하지 않는 한 최대의 영역을 가지는 것을 특징으로 하는 비접촉 멀티 터치 인식 방법.
8. The method of claim 7,
Wherein all the Voronoi cells do not interfere with each other, and the Voronoi polygon has a maximum area as long as the Voronoi cells do not interfere with each other.
제 7 항에 있어서,
상기 비접촉 멀티 터치를 인식하는 단계는
상기 특징점 중 손가락의 끝점에 해당하는 특징점을 포함한 보로노이 다각형의 내각의 변화를 이용하여 상기 비접촉 멀티 터치를 인식하는 것을 특징으로 하는 비접촉 멀티 터치 인식 방법.
8. The method of claim 7,
The step of recognizing the non-contact multi-touch
Wherein the noncontact multi-touch recognition method recognizes the noncontact multi-touch using a change in the internal angle of the Voronoi polygon including the feature point corresponding to the end point of the finger among the minutiae.
제 1 항 내지 제 9 항 중에 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium storing a program for causing a computer to execute the method according to any one of claims 1 to 9. 사용자의 비접촉 멀티 터치를 촬영한 컬러 이미지를 입력받는 입력부;
상기 컬러 이미지에서 조도 변화를 고려한 색 분석을 통해 피부영역 및 상기 피부영역의 외곽선을 추출한 후 상기 외곽선의 복잡도를 이용하여 손영역을 추출하여 상기 손영역에서 외곽선의 근사화를 통해 손영역의 특징점(hand feature point)을 추출하는 분석부;
상기 손영역의 특징점을 기반으로 각각의 특징점들이 서로 다른 영역 내에 포함되도록 상기 컬러 이미지를 분할함으로써 손가락을 개별적으로 모델링한 손모델을 생성하는 손모델 생성부; 및
상기 손모델을 이용하여 상기 비접촉 멀티 터치를 인식하는 판단부;를 포함하는 비접촉 멀티 터치 인식 시스템.
An input unit for receiving a color image of a noncontact multi-touch of the user;
Extracting a skin region and an outline of the skin region through color analysis in consideration of illumination change in the color image, extracting a hand region using the complexity of the outline, extracting a feature point of the hand region by approximating the outline in the hand region, a feature point extracting unit for extracting a feature point;
A hand model generating unit for generating a hand model in which fingers are individually modeled by dividing the color image so that respective feature points are included in different regions based on the feature points of the hand region; And
And a determination unit for recognizing the non-contact multi-touch using the hand model.
제 11 항에 있어서,
상기 분석부는 RGB(Red-Green-Blue) 컬러 모델과 HSI(Hue-Saturation-Intensity) 컬러 모델을 이용하여 피부색을 분류함으로써 피부영역을 추출하고,
캐니 에지 검출기(Canny Edge Detector)를 사용하여 피부영역의 외곽선을 추출하며 상기 추출된 외곽선에 대하여 공간 주파수 기법을 사용하여 분석된 상기 외곽선의 복잡도에 따라 상기 손영역만을 추출하는 것을 특징으로 하는 비접촉 멀티 터치 인식 시스템.
12. The method of claim 11,
The analyzing unit extracts a skin region by classifying the skin color using a Red-Green-Blue (RGB) color model and a Hue (Saturation-Intensity) color model,
Extracting an outline of a skin region using a Canny Edge Detector and extracting only the hand region according to the complexity of the outline analyzed using a spatial frequency technique with respect to the extracted outline. Touch recognition system.
제 11 항에 있어서,
상기 분석부는 더글라스 파커(Douglas Peucker) 알고리즘을 이용하여 손 외곽선에 대하여 미리 설정된 임계치 범위 내에서 근사화하여 상기 손영역의 특징점을 추출하는 것을 특징으로 하는 비접촉 멀티 터치 인식 시스템.
12. The method of claim 11,
Wherein the analyzing unit approximates the hand outline within a predetermined threshold range using a Douglas Peucker algorithm to extract the feature points of the hand region.
제 11 항에 있어서,
상기 손모델 생성부는 상기 손영역의 특징점들에 대하여 보로노이 테셀레이션(Vornoi tessellation)을 적용하여 상기 컬러 이미지를 분할하는 것을 특징으로 하는 비접촉 멀티 터치 인식 시스템.
12. The method of claim 11,
Wherein the hand model generating unit divides the color image by applying Voronoi tessellation to the minutiae points of the hand region.
제 14 항에 있어서,
상기 특징점은 보로노이 셀(cell)이 되고, 상기 분할된 영역은 보로노이 다각형이 되며,
상기 모든 보로노이 셀들은 서로 간섭하지 않으며, 상기 보로노이 다각형은 상기 보로노이 셀들이 서로 간섭하지 않는 한 최대의 영역을 가지는 것을 특징으로 하는 비접촉 멀티 터치 인식 시스템.
15. The method of claim 14,
The feature point becomes a Voronoi cell, the divided region becomes a Voronoi polygon,
Wherein all the Voronoi cells do not interfere with each other, and the Voronoi polygon has a maximum area as long as the Voronoi cells do not interfere with each other.
제 14 항에 있어서,
상기 판단부는 상기 특징점 중 손가락의 끝점에 해당하는 특징점을 포함한 보로노이 다각형의 내각의 변화를 이용하여 상기 비접촉 멀티 터치를 인식하는 것을 특징으로 하는 비접촉 멀티 터치 인식 시스템.
15. The method of claim 14,
Wherein the determination unit recognizes the noncontact multi-touch using a change in the internal angle of the Voronoi polygon including the minutiae corresponding to the end point of the finger among the minutiae.
KR1020140109807A 2014-08-22 2014-08-22 Non-contact multi touch recognition method and system using color image analysis KR101614798B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140109807A KR101614798B1 (en) 2014-08-22 2014-08-22 Non-contact multi touch recognition method and system using color image analysis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140109807A KR101614798B1 (en) 2014-08-22 2014-08-22 Non-contact multi touch recognition method and system using color image analysis

Publications (2)

Publication Number Publication Date
KR20160023417A true KR20160023417A (en) 2016-03-03
KR101614798B1 KR101614798B1 (en) 2016-04-22

Family

ID=55535412

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140109807A KR101614798B1 (en) 2014-08-22 2014-08-22 Non-contact multi touch recognition method and system using color image analysis

Country Status (1)

Country Link
KR (1) KR101614798B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109350018A (en) * 2019-01-08 2019-02-19 湖南超能机器人技术有限公司 The palm detection method based on image applied to palm bleb detection system
CN110928441A (en) * 2019-10-14 2020-03-27 深圳市天英联合教育股份有限公司 Touch object identification method, system, terminal equipment and storage medium
CN112232332A (en) * 2020-12-17 2021-01-15 四川圣点世纪科技有限公司 Non-contact palm detection method based on video sequence

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
B. Loureiro and R. Rodrigues. "Multi-touch as a natural user interface for elders: A survey." Information Systems and Technologies (CISTI), 2011 6th Iberian Conference on. IEEE, pp. 1-6, 2011.

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109350018A (en) * 2019-01-08 2019-02-19 湖南超能机器人技术有限公司 The palm detection method based on image applied to palm bleb detection system
CN109350018B (en) * 2019-01-08 2019-04-26 湖南超能机器人技术有限公司 The palm detection method based on image applied to palm bleb detection system
CN110928441A (en) * 2019-10-14 2020-03-27 深圳市天英联合教育股份有限公司 Touch object identification method, system, terminal equipment and storage medium
CN110928441B (en) * 2019-10-14 2024-04-05 深圳市天英联合科技股份有限公司 Touch object identification method, system, terminal equipment and storage medium
CN112232332A (en) * 2020-12-17 2021-01-15 四川圣点世纪科技有限公司 Non-contact palm detection method based on video sequence

Also Published As

Publication number Publication date
KR101614798B1 (en) 2016-04-22

Similar Documents

Publication Publication Date Title
JP6079832B2 (en) Human computer interaction system, hand-to-hand pointing point positioning method, and finger gesture determination method
US9111135B2 (en) Systems and methods for tracking human hands using parts based template matching using corresponding pixels in bounded regions of a sequence of frames that are a specified distance interval from a reference camera
Wen et al. A robust method of detecting hand gestures using depth sensors
US9672628B2 (en) Method for partitioning area, and inspection device
Kulshreshth et al. Poster: Real-time markerless kinect based finger tracking and hand gesture recognition for HCI
JP2014524070A5 (en)
TW201411499A (en) Method and apparatus for object positioning by using depth images
She et al. A real-time hand gesture recognition approach based on motion features of feature points
Paul et al. Hand segmentation from complex background for gesture recognition
JP6651388B2 (en) Gesture modeling device, gesture modeling method, program for gesture modeling system, and gesture modeling system
KR101614798B1 (en) Non-contact multi touch recognition method and system using color image analysis
Raj et al. Model for object detection using computer vision and machine learning for decision making
KR101281461B1 (en) Multi-touch input method and system using image analysis
KR101967858B1 (en) Apparatus and method for separating objects based on 3D depth image
Hartanto et al. Real time hand gesture movements tracking and recognizing system
Elakkiya et al. Intelligent system for human computer interface using hand gesture recognition
KR101167784B1 (en) A method for recognizing pointers and a method for recognizing control commands, based on finger motions on the back of the portable information terminal
Qin et al. Real-time markerless hand gesture recognition with depth camera
Wang et al. Skin Color Weighted Disparity Competition for Hand Segmentation from Stereo Camera.
US20150178934A1 (en) Information processing device, information processing method, and program
TW200919336A (en) Method for positioning a non-structural object in a series of continuing images
KR101357581B1 (en) A Method of Detecting Human Skin Region Utilizing Depth Information
Jaiswal et al. Creative exploration of scaled product family 3D models using gesture based conceptual computer aided design (C-CAD) tool
Paul et al. A statistical-topological feature combination for recognition of isolated hand gestures from kinect based depth images
Artyukhin et al. Dactyl alphabet gesture recognition in a video sequence using Microsoft Kinect

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190319

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200217

Year of fee payment: 5