KR101883866B1 - Ground contact type finger input device and method - Google Patents

Ground contact type finger input device and method Download PDF

Info

Publication number
KR101883866B1
KR101883866B1 KR1020160178398A KR20160178398A KR101883866B1 KR 101883866 B1 KR101883866 B1 KR 101883866B1 KR 1020160178398 A KR1020160178398 A KR 1020160178398A KR 20160178398 A KR20160178398 A KR 20160178398A KR 101883866 B1 KR101883866 B1 KR 101883866B1
Authority
KR
South Korea
Prior art keywords
ground
finger
contact
area
brightness value
Prior art date
Application number
KR1020160178398A
Other languages
Korean (ko)
Other versions
KR20180074378A (en
Inventor
최용근
양동석
Original Assignee
단국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 단국대학교 산학협력단 filed Critical 단국대학교 산학협력단
Priority to KR1020160178398A priority Critical patent/KR101883866B1/en
Publication of KR20180074378A publication Critical patent/KR20180074378A/en
Application granted granted Critical
Publication of KR101883866B1 publication Critical patent/KR101883866B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06K9/00355
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Abstract

본 발명은 지면 접촉식 손가락 입력 장치 및 방법에 관한 것이다. 더 상세하게는 지면 및 사용자의 손가락을 촬영하여 영상을 생성하고, 생성된 영사응로부터 지면영역과 손가락영역을 추출하고 지면영역과 손가락영역의 겹치는 각 지점의 정보를 이용하여 접촉 여부를 판단하고, 판단된 접촉 여부 정보를 이용하여 명령 신호를 생성한다. 이를 통해 다양한 액션(Action) 기능을 구현할 수 있으며, 제약 없는 공간에서 가상의 터치 인터페이스(Touch Interface)가 가능한 새로운 개념의 마우스 인터페이스 디바이스(Mouse Interface Device)를 제공할 수 있다.FIELD OF THE INVENTION The present invention relates to a ground contact type finger input device and method. More particularly, the present invention relates to a method of generating an image by photographing a ground and a finger of a user, extracting a ground area and a finger area from the generated projection, determining whether or not to use the information at each of the overlapping points of the ground area and the finger area, And generates a command signal using the determined contact / non-contact information. Accordingly, it is possible to implement a variety of action functions and to provide a new concept of a mouse interface device that allows a virtual touch interface in a space free from constraints.

Description

지면 접촉식 손가락 입력 장치 및 방법 {Ground contact type finger input device and method}[0001] The present invention relates to a ground contact type finger input device and method,

본 발명은 지면 접촉식 손가락 입력 장치 및 방법에 관한 것이다. 보다 상세하게는 손가락 끝이 지면에 접촉하는 정보를 이용하여 기존의 마우스보다 손가락 터치와 동작을 좀 더 다양하게 활용할 수 있는 기술에 관한 것이다.FIELD OF THE INVENTION The present invention relates to a ground contact type finger input device and method. More particularly, the present invention relates to a technique that can utilize finger touch and movement more variously than existing mice by using information that a finger tip touches the ground.

최근 인간과 컴퓨터(Computer) 사이에 자연스러우면서도 상호작용이 강화된 직관적인 인터페이스 기술(Natural Interface)들이 부상하고 있다. 인간과 컴퓨터(Computer)의 상호작용을 위한 사용자의 의도 및 행위 인식에 관한 연구가 활발히 진행되고 있으며, 대표적인 유저 인터페이스(UI : User Interface) 기술인 키보드(Keyboard)나 마우스(Mouse) 역시 포인팅 디바이스(Pointing Device)로서 컴퓨터(Computer)의 제어 및 정보 교환을 담당한다. 마우스(Mouse)의 경우 가장 대표적인 하드웨어(Hardware) 중 하나이다. 다만 기존의 마우스(Mouse)는 확실한 제스처(Gesture) 설정이 규정되어있다. 일단 사용자의 신체 부분이 미리 정해진 위치에 정렬되면, 제스처(Gesture)가 감지된다. 따라서 컴퓨터(Computer) 장치는 미리 정해진 기능이 수행된다. 즉, 현재의 방법으로서는 각 제스처(Gesture)가 일단 감지되면 특정 제스처(Gesture)에 대하여 미리 정해진 액션(Action)을 컴퓨터(Computer)가 실행한다. 현재의 방법은 초기 셋업(Set up) 단계를 통상적으로 포함한다. 셋업(Set up) 단계에 있어서, 확실한 설정의 제스처(Gesture)가 규정되어있고 컴퓨터(Computer)는 특정 제스처(Gesture)에 대한 기능을 수행한다. 이는 사용자가 정해진 위치에서만 마우스(Mouse)를 사용하여야하며, 사용자의 제스처(Gesture)에 따른 액션(Action)이 한정되어있다. 이는 여러 가지 제스처(Gesture)에 따른 다양한 액션(Action)을 구현하는 데에 자유롭지 못하다는 한계를 가진다.Recently, intuitive interface technologies (Natural Interfaces) have emerged between human and computer, which are natural and interactive. Research on user's intention and behavior recognition for interaction between human and computer has been actively carried out. Typical user interface (UI) technology such as a keyboard and a mouse is also referred to as a pointing device Device responsible for computer control and information exchange. In the case of a mouse, it is one of the most representative hardware. However, the existing mouse has a definite gesture setting. Once the user's body part is aligned to a predetermined position, a gesture is detected. Therefore, a predetermined function is performed in the computer device. That is, in the present method, once each gesture is detected, a predetermined action for a specific gesture is executed by a computer. The current method typically includes an initial set up step. In the set up step, a gesture of definite setting is defined, and the computer performs a function for a specific gesture. This means that the user must use the mouse only at a predetermined position, and the action according to the user's gesture is limited. This is not free to implement various actions according to various gestures.

최근 기술의 발달로 프로젝터(Projector) 및 카메라(Camera)가 소형화되어 모바일(Mobile) 기기에 탑재가 되면서 이러한 소형 프로젝터(Projector) 및 카메라(Camera)를 착용형 형태로 제작하여 다양한 서비스를 제공하고자 하는 개념적인 제시(MIT Sixth Sense)뿐 아니라, 포터블(Portable) 형태로 가지고 다니면서 사용할 수 있는 시스템(System)(Microsoft사의 Mobile Surface, Light Blue Optics사의 Light Touch)도 개발되고 있다. 물론 이러한 시스템(System)을 사용함으로써, 디지털(Digital) 단말상의 화면이 아닌 현실의 물체(객체) 위에 디지털(Digital) 정보를 표현하는 것이 가능하게 되었고, 또한 새로운 서비스(Service)의 창출도 가능하게 되었다.As the projector and camera have been miniaturized due to the recent development of technology, they are being mounted on mobile devices, and these compact projectors and cameras are being manufactured in a wearable form to provide various services In addition to conceptual presentation (MIT Sixth Sense), a portable system (System) (Microsoft's Mobile Surface, Light Blue Optics' Light Touch) is being developed. Of course, by using such a system, digital information can be expressed on a real object (object) rather than on a screen on a digital terminal, and a new service can be created .

이러한 시스템(System)에서는 사용자에게 편리한 사용을 위해 손이나 손가락 등의 별도 식별 장치를 부착하지 않은 맨손을 이용한 인터랙션(Interaction) 방법이 제공되어야하며 임베디드 시스템(Embedded system)에서도 빠르게 사용할 수 있도록 하여 크기나 시스템(System)의 부하 및 적은 비용으로 제작할 수 있는 방법을 제공하여야 한다.In such a system, an interaction method using a bare hand, which does not have a separate identification device such as a hand or a finger, should be provided for a user's convenient use, and the system should be provided with an interface The system should be provided with a load of the system and a method of manufacturing it at low cost.

기존의 영상인식 기술은 칼라 카메라(Color camera)를 이용하여 복잡한 알고리즘(Algorithm)으로 얼굴이나 제스처(Gesture) 등을 인식하는 기술이 주를 이루고 있다. 이러한 기술들은 매우 빠른 컴퓨터(Computer)를 필요로 하며 임베디드 시스템(Embedded system)과 같은 소형 제품에 적용하기에는 부적절하다. 특히 프로젝션(Projection)되는 영상에서 손을 트래킹(Tracking)하거나 제스처(Gesture)를 인식하는 것은 단순히 프로젝터(Projector)의 영상이 없는 곳에서 카메라(Camera)를 이용한 영상인식을 하는 것과는 다르다. 즉 영상인식에서 많이 사용하는 방법으로 피부색과 같은 특정 칼라(Color)를 지정하여 인식하는 방식은 프로젝터(Projector) 환경에서는 출력 영상이 손과 같은 대상체에 투사가 되기 때문에 인식률이 현저하게 떨어지게 되며 광원의 변화가 심하기 때문에 인식 자체가 불가능하게 될 수 있다.Conventional image recognition technology is mainly based on recognition of face or gesture using a complex algorithm using a color camera. These technologies require a very fast computer and are not suitable for small-scale applications such as embedded systems. In particular, tracking a hand or recognizing a gesture in a projected image is different from simply recognizing an image using a camera in a place where there is no image of the projector. In other words, in a method of recognizing a specific color such as skin color, which is widely used in image recognition, in the projector environment, since the output image is projected on an object such as a hand, the recognition rate is remarkably decreased, The recognition itself can become impossible because the change is severe.

한편 프로젝션(Projection) 영상과 인터랙션(Interaction)하는 예로는 천정에 프로젝터(Projector)를 거치하고 카메라(Camera)를 이용하여 사용자의 움직임을 인식하고 이를 바탕으로 프로젝션(Projection) 영상과 인터랙션(Interaction)하는 시스템(System)이 있다. 다만 이는 영상처리에 많은 시스템 자원을 요구할 뿐만 아니라 손가락의 움직임 및 터치(Touch)와 같은 정밀한 인식에는 적용할 수 없다.Meanwhile, as an example of interactions with projection images, a projector is mounted on a ceiling, a user's motion is recognized using a camera, and based on the recognition, a user interacts with a projection image There is a system. However, this not only requires a lot of system resources for image processing but also can not be applied to precise recognition such as finger movement and touch.

한국등록특허공보 제1446902호Korean Patent Registration No. 1446902 한국공개특허공보 제2012-0020045호Korean Patent Publication No. 2012-0020045 일본등록특허공보 제5926184호Japanese Patent Publication No. 5926184

이에 본 발명은 상기와 같은 제반 사항을 고려하여 제안된 것으로, 손가락 끝이 지면에 접촉하는 정보를 기초로 한 마우스 인터페이스(Mouse Interface)를 구현하는 것을 목적으로 한다. SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide a mouse interface based on information that a fingertip touches the ground.

또한 별도의 초기 셋업(Set up)이 필요하지 않아 장소에 상관없이 이용 가능한 마우스 인터페이스(Mouse Interface)를 구현하는 것을 목적으로 한다. It is also intended to implement a mouse interface which can be used regardless of the place, since a separate initial setup is not required.

또한 영상 처리를 통하여 지면에 접촉한 각각의 손가락들을 구분 가능하도록 하는 것을 목적으로 한다.Also, it is aimed to be able to distinguish each finger that touches the ground through image processing.

또한 각각의 손가락들이 구분 가능함으로써 사용자는 자유로운 제스처(Gesture)에 따른 다양한 액션(Action) 기능을 구현할 수 있는 것을 목적으로 한다.In addition, since each finger can be distinguished, a user can implement various action functions according to a free gesture (gesture).

또한 제약 없는 공간에서 가상의 터치 인터페이스(Touch Interface)가 가능한 디바이스(Device)를 제공하는 것을 목적으로 한다.It is also intended to provide a device capable of a virtual touch interface in a space free from constraints.

본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해할 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 지면 접촉식 손가락 입력 장치는, 지면 및 사용자의 손가락을 촬영하여 영상을 생성하는 영상생성부, 생성된 영상으로부터 지면영역과 손가락영역을 추출하고 지면영역과 손가락영역의 겹치는 각 지점의 정보를 이용하여 접촉 여부를 판단하는 접촉여부판단부, 판단된 접촉 여부 정보를 이용하여 명령 신호를 생성하는 명령신호생성부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a ground contact type finger input device including an image generation unit for generating an image by photographing a ground and a user's finger, a ground region and a finger region from the generated image, And a command signal generation unit for generating a command signal by using the determined contact information, and a command signal generation unit for generating a command signal by using the determined contact information.

이 때 접촉여부판단부는 생성된 영상으로부터 지면경계선을 추출하는 지면경계선추출부, 추출된 지면경계선과 손가락영역이 겹치는 접촉영역을 추출하는 접촉영역추출부, 추출된 지면경계선 정보를 이용하여 지면영역을 제거하는 지면영역제거부, 지면영역이 제거된 영상으로부터 각 손가락의 끝점을 추출하는 손가락끝점추출부, 추출된 각 손가락의 끝점이 접촉영역과 겹치는 경우 접촉으로 판단하는 접촉인식부를 포함하는 것을 특징으로 한다. 또한 접촉여부 판단부는 생성된 영상의 밝기 값 정보를 이용하여 일정 밝기 값 이하는 배경 영역으로 변환하는 영상변환부를 더 포함하는 것을 특징으로 한다.In this case, the contact determination unit may include a ground boundary extracting unit for extracting a ground boundary from the generated image, a contact region extracting unit for extracting a contact region where the extracted ground boundary and the finger region overlap with each other, A finger end point extracting unit for extracting an end point of each finger from the image in which the ground area is removed, and a contact recognizing unit for determining that the end point of each extracted finger overlaps the contact area, do. The contact determination unit may further include an image conversion unit that converts the brightness value information of the generated image into a background area having a predetermined brightness value or less.

지면경계선추출부는 영상의 밝기 값 정보를 이용하여 지면경계선을 추출하는 마스크(Mask) 기법을 이용하는 것을 특징으로 한다. 이 때 마스크(Mask) 기법의 지면경계선은 밝기 값이 0이 있는 경우 밝기 값이 0을 초과하는 초과지점을 연결한 선, 밝기 값이 0 초과인 경우 가장 작은 밝기 값 지점을 연결한 선인 것을 특징으로 한다.The ground boundary extracting unit is characterized by using a mask technique for extracting a ground boundary line using brightness value information of an image. In this case, the surface boundary line of the mask technique is a line connecting an excess point where the brightness value exceeds 0 when the brightness value is 0, and a line connecting the smallest brightness value point when the brightness value is over 0 .

영상변환부는 밝기 값이 75 이하인 영역을 배경 영역이라고 판단하여, 이를 밝기 값 0으로 변환하는 것을 특징으로 한다.The image converting unit may determine that a region having a brightness value of 75 or less is a background region, and converts the region into a brightness value of 0.

명령신호생성부의 명령 신호는 커서(Cursor)의 움직임, 클릭(Click), 상하스크롤(Scroll), 좌우스크롤(Scroll), 핫키(Hotkey) 중 어느 하나로서 컴퓨터를 제어하는 것을 특징으로 한다.The command signal of the command signal generating unit controls the computer as any one of a cursor movement, a click, an up and down scroll, a left and right scroll, and a hot key.

상기와 같은 목적을 달성하기 위하여 본 발명의 기술적 사상에 의한 지면 접촉식 손가락 입력 방법, 지면 및 사용자의 손가락을 촬영하여 영상을 생성하는 영상생성단계, 생성된 영상으로부터 지면영역과 손가락영역을 추출하고 지면영역과 손가락영역의 겹치는 각 지점의 정보를 이용하여 접촉 여부를 판단하는 접촉여부판단단계, 판단된 접촉 여부 정보를 이용하여 명령 신호를 생성하는 명령신호생성단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a ground contact type finger input method, a method of generating an image by photographing a ground and a user's finger, a step of extracting a ground area and a finger area from the generated image, A contact determination step of determining whether or not to make contact with each other using the information of each point overlapping the ground area and the finger area, and a command signal generating step of generating a command signal using the determined contact presence / absence information.

이 때 접촉여부판단단계는 생성된 영상으로부터 지면경계선을 추출하는 지면경계선추출단계, 추출된 지면경계선과 손가락영역이 겹치는 접촉영역을 추출하는 접촉영역추출단계, 추출된 지면경계선 정보를 이용하여 지면영역을 제거하는 지면영역제거단계, 지면영역이 제거된 영상으로부터 각 손가락의 끝점을 추출하는 손가락끝점추출단계, 추출된 각 손가락의 끝점이 접촉영역과 겹치는 경우 접촉으로 판단하는 접촉인식단계를 포함하는 것을 특징으로 한다. 또한 접촉여부 판단단계는 생성된 영상의 밝기 값 정보를 이용하여 일정 밝기 값 이하는 배경 영역으로 변환하는 영상변환단계를 더 포함하는 것을 특징으로 한다.In this case, the step of determining whether or not the contact is made includes a step of extracting a paper boundary line from the generated image, a step of extracting a contact area extracting a contact area in which the extracted paper boundary line and the finger area overlap each other, A finger end point extraction step of extracting an end point of each finger from the image in which the ground area is removed, and a contact recognition step of determining that the end point of each extracted finger is in contact with the contact area, . In addition, the contact determination step may further include an image conversion step of converting the brightness value information of the generated image into a background area less than a predetermined brightness value.

지면경계선추출단계는 영상의 밝기 값 정보를 이용하여 지면경계선을 추출하는 마스크(Mask) 기법을 이용하는 것을 특징으로 한다. 이 때 마스크(Mask) 기법의 지면경계선은 밝기 값이 0이 있는 경우 밝기 값이 0을 초과하는 초과지점을 연결한 선, 밝기 값이 0 초과인 경우 가장 작은 밝기 값 지점을 연결한 선인 것을 특징으로 한다.The ground boundary extracting step is characterized by using a mask technique for extracting a ground boundary line using brightness value information of an image. In this case, the surface boundary line of the mask technique is a line connecting an excess point where the brightness value exceeds 0 when the brightness value is 0, and a line connecting the smallest brightness value point when the brightness value is over 0 .

영상변환단계는 밝기 값이 75 이하인 영역을 배경 영역이라고 판단하여, 이를 밝기 값 0으로 변환하는 것을 특징으로 한다.The image converting step determines that a region having a brightness value of 75 or less is a background region, and converts the region into a brightness value of 0.

명령신호생성단계의 명령 신호는 커서(Cursor)의 움직임, 클릭(Click), 상하스크롤(Scroll), 좌우스크롤(Scroll), 핫키(Hotkey) 중 어느 하나로서 컴퓨터를 제어하는 것을 특징으로 한다.The command signal in the command signal generating step controls the computer as any one of a cursor movement, a click, a scroll, a left and right scroll, and a hot key.

이상에서 설명한 바와 같은 지면 접촉식 손가락 입력 장치 및 방법에 따르면,According to the ground-contact finger input device and method as described above,

첫째, 손가락 끝이 지면에 접촉하는 정보를 기초로 하여 마우스 인터페이스(Mouse Interface) 기술을 구현할 수 있는 효과를 가진다.First, there is an effect that a mouse interface technology can be implemented based on information that the fingertip touches the ground.

둘째, 별도의 초기 셋업(Set up)이 필요하지 않아 장소에 상관없이 이용 가능한 마우스 인터페이스(Mouse Interface) 기술을 구현할 수 있는 효과를 가진다.Second, it is not necessary to set up a separate initial setup, and it is possible to implement an available mouse interface technology regardless of the place.

둘째, 영상 처리를 통하여 지면에 접촉한 각각의 손가락들을 구분할 수 있는 효과를 가진다.Second, it has the effect of distinguishing the fingers in contact with the ground through image processing.

셋째, 각각의 손가락들이 구분 가능함으로써 사용자는 자유로운 제스처(Gesture)에 따른 다양한 액션(Action) 기능을 구현할 수 있는 효과를 가진다.Third, since the respective fingers can be distinguished, the user can implement various action functions according to a free gesture (Gesture).

넷째, 제약 없는 공간에서 가상의 터치 인터페이스(Touch Interface)가 가능한 디바이스(Device)를 제공할 수 있는 효과를 가진다.Fourth, there is an effect that a device capable of a virtual touch interface can be provided in an unrestricted space.

도 1은 본 발명의 일 실시예에 따른 지면 접촉식 손가락 입력 시스템을 나타낸 도면.
도 2는 지면 접촉식 손가락 입력 장치를 나타낸 구성도.
도 3은 지면 접촉식 손가락 입력 장치의 접촉여부판단부를 나타낸 구성도.
도 4는 지면 접촉식 손가락 입력 방법을 나타낸 순서도.
도 5a는 본 발명의 일 실시예에 따른 지면 및 사용자의 손가락이 촬영된 영상을 나타낸 도면.
도 5b는 본 발명의 일 실시예에 따른 일정 밝기 값 이하의 영역을 밝기 값 0으로 변환한 영상을 나타낸 도면.
도 5c는 본 발명의 일 실시예에 따른 지면 경계선, 손가락영역, 접촉영역을 추출한 영상을 나타낸 도면.
도 5d는 본 발명의 일 실시예에 따른 지면영역이 제거된 영상을 나타낸 도면.
도 5e는 본 발명의 일 실시예에 따른 각 손가락의 끝점을 추출한 영상을 나타낸 도면.
도 5f는 본 발명의 일 실시예에 따른 접촉영역과 각 손가락 끝점이 일대일로 매칭된 영상을 나타낸 도면.
도 6a는 본 발명의 일 실시예에 따른 지면과 손가락이 접촉하지 않은 비접촉영역에서 지면경계선을 추출하는 마스크(Mask)를 나타낸 도면.
도 6b는 본 발명의 일 실시예에 따른 지면과 손가락이 접촉한 접촉영역에서 지면경계선을 추출하는 마스크(Mask)를 나타낸 도면.
도 7a는 본 발명의 일 실시예에 따른 커서(Cursor) 움직임 명령을 구현하는 손가락 영상을 나타낸 도면.
도 7b는 본 발명의 일 실시예에 따른 클릭(Click) 명령을 구현하는 손가락 영상을 나타낸 도면.
도 7c는 본 발명의 일 실시예에 따른 상하스크롤(Scroll) 명령을 구현하는 손가락 영상을 나타낸 도면.
도 7d는 본 발명의 일 실시예에 따른 좌우스크롤(Scroll) 명령을 구현하는 손가락 영상을 나타낸 도면.
도 7e는 본 발명의 일 실시예에 따른 핫키(Hotkey) 명령을 구현하는 손가락 영상을 나타낸 도면.
BRIEF DESCRIPTION OF THE DRAWINGS Figure 1 is a diagram of a ground-contacting finger input system in accordance with an embodiment of the present invention.
2 is a configuration diagram showing a ground-contact type finger input device.
FIG. 3 is a block diagram showing a contact determination unit of the ground contact type finger input device. FIG.
4 is a flowchart showing a ground contact type finger input method.
FIG. 5A is a view illustrating an image in which a finger and a finger of a user are photographed according to an embodiment of the present invention. FIG.
FIG. 5B is a diagram illustrating an image obtained by converting an area of a predetermined brightness value or less to a brightness value of 0 according to an exemplary embodiment of the present invention; FIG.
FIG. 5C is a view showing an image obtained by extracting a paper boundary line, a finger region, and a contact region according to an embodiment of the present invention; FIG.
5D is a diagram illustrating an image in which a ground area is removed according to an embodiment of the present invention.
FIG. 5E is a view showing an image of an end point of each finger extracted according to an embodiment of the present invention; FIG.
FIG. 5F is a view showing an image in which a contact area and each finger end point are matched one-to-one according to an embodiment of the present invention. FIG.
FIG. 6A is a view showing a mask for extracting a paper boundary line in a non-contact area in which the paper and the finger are not in contact with each other according to the embodiment of the present invention; FIG.
FIG. 6B is a view showing a mask for extracting a paper boundary line in a contact area where a finger is in contact with the paper according to an embodiment of the present invention; FIG.
FIG. 7A illustrates a finger image that implements a cursor motion instruction in accordance with an embodiment of the present invention. FIG.
7B illustrates a finger image implementing a Click command according to an embodiment of the present invention.
7C illustrates a finger image that implements a scroll command according to an embodiment of the present invention.
7D illustrates a finger image that implements a left and right scroll command according to one embodiment of the present invention.
7E illustrates a finger image that implements a Hotkey command in accordance with an embodiment of the present invention.

첨부한 도면을 참조하여 본 발명의 실시예들에 의한 지면 접촉식 손가락 입력 장치 및 방법에 대하여 상세히 설명한다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술범위에 포함되는 모든 영상을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. 첨부된 도면에 있어서, 구조물들의 치수는 본 발명의 명확성을 기하기 위하여 실제보다 확대하거나, 개략적인 구성을 이해하기 위하여 실제보다 축소하여 도시한 것이다.A ground contact type finger input apparatus and method according to embodiments of the present invention will be described in detail with reference to the accompanying drawings. The present invention is capable of various modifications and various forms, and specific embodiments are illustrated in the drawings and described in detail in the text. It should be understood, however, that the present invention is not intended to be limited to the particular forms disclosed, but includes all images falling within the spirit and scope of the present invention. Like reference numerals are used for like elements in describing each drawing. In the accompanying drawings, the dimensions of the structures are enlarged to illustrate the present invention, and are actually shown in a smaller scale than the actual dimensions in order to understand the schematic structure.

또한, 제1 및 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 한편, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Also, the terms first and second, etc. may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. On the other hand, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

도 1을 참조하면, 본 발명의 일 실시예에 따른 지면 접촉식 손가락 입력 시스템을 나타낸다.Referring to FIG. 1, there is shown a ground contact finger input system according to an embodiment of the present invention.

먼저 적외선 발광 센서(IR Diffuse Sensor)(23)를 손가락(13)에 비추면 광은 반사되어 적외선 패스 필터 카메라(Filter Camera)(25)에 들어오게 된다. 이 때 적외선 패스 필터 카메라(IR Pass Filter Camera)(25)는 모노 카메라(Mono Camera)인 것을 특징으로 한다. 적외선 발광 센서(IR Diffuse Sensor)(23)를 손가락(13)에 비추면 가까운 손가락(13) 부분의 광이 더 많이 반사되어 들어온다. 즉, 상대적으로 입력 장치(20)에 가깝게 있는 손가락(13)이 영상으로 볼 때 더 밝게 보인다. 반사되어 적외선 패스 필터 카메라(IR Pass Filter Camera)(25)로 들어온 광은 입력 장치(20)의 영상으로 입력되고, 영상 정보는 마우스 컨트롤러(Mouse Controller)(27)로 전달된다. 그리고 전달된 영상 정보에 따라 마우스 컨트롤러(Mouse Controller)(27)는 컴퓨터(Computer)(30)를 제어할 수 있게 된다. 이 때 전달된 영상 정보는 손가락(13)이 지면(G)에 접촉하였을 때의 영상 정보로서, 이는 손가락 5개로 구현할 수 있는 다양한 명령 신호를 생성한다. 만약 왼손과 오른손을 함께 사용한다면 총 손가락 10개로 구현할 수 있는 다양한 명령 신호를 생성한다. 도 1에서 나타낸 바와 같이, 손가락(13)이 접촉한 대상은 지면(G)이지만, 이는 책상, 벽, 책 등 손가락(13)이 접촉 가능한 모든 대상이 될 수 있는 것으로 해석하여야 한다.First, when the IR diffuse sensor 23 is illuminated to the finger 13, the light is reflected and enters the infrared pass filter camera 25. At this time, the infrared pass filter camera (IR Pass Filter Camera) 25 is a mono camera. When the IR diffuse sensor 23 is illuminated to the finger 13, the light of the finger 13 nearer to the finger 13 is reflected more. That is, the finger 13, which is relatively close to the input device 20, appears brighter when viewed by the image. The light reflected by the infrared pass filter camera 25 is input to the input device 20 and the image information is transmitted to the mouse controller 27. The mouse controller 27 can control the computer 30 according to the transmitted image information. The image information transmitted at this time is image information when the finger 13 comes in contact with the paper surface G, which generates various command signals that can be implemented with five fingers. If you use the left hand and the right hand together, you can create a variety of command signals that can be implemented with a total of 10 fingers. As shown in Fig. 1, the object to which the finger 13 is contacted is the ground G, but it should be interpreted that it can be any object to which the finger 13 can touch, such as a desk, a wall, and a book.

도 2 및 도 3을 참조하면, 지면 접촉식 손가락 입력 장치는 영상생성부(100), 접촉여부판단부(200), 명령신호생성부(300)를 포함하여 구성된다.2 and 3, the ground contact type finger input device includes an image generation unit 100, a contact determination unit 200, and a command signal generation unit 300.

영상생성부(100)는 지면 및 사용자의 손가락을 촬영하여 영상을 생성한다.The image generating unit 100 photographs the ground and the user's finger to generate an image.

접촉여부판단부(200)는 생성된 영상으로부터 지면영역과 손가락영역을 추출하고, 지면영역과 손가락영역의 겹치는 각 지점의 정보를 이용하여 접촉 여부를 판단한다. The contact determination unit 200 extracts the ground area and the finger area from the generated image, and determines whether or not to make contact using the information of each of the overlapping points of the ground area and the finger area.

이 때 접촉여부판단부(200)는 지면경계선추출부(211), 접촉영역추출부(213), 지면영역제거부(215), 손가락끝점추출부(217), 접촉인식부(219)를 포함하여 구성된다. At this time, the contact determination unit 200 includes a ground boundary extracting unit 211, a contact area extracting unit 213, a ground area removing unit 215, a finger end point extracting unit 217, and a contact recognizing unit 219 .

지면경계선추출부(211)는 생성된 영상으로부터 지면경계선을 추출한다. 지면경계선추출부(211)는 영상의 밝기 값 정보를 이용하여 지면경계선을 추출하는 마스크(Mask) 기법을 이용한다. 이 때 마스크(Mask) 기법의 지면경계선은 밝기 값이 0이 있는 경우 밝기 값이 0을 초과하는 초과지점을 연결한 선, 밝기 값이 0 초과인 경우 가장 작은 밝기 값 지점을 연결한 선인 것을 특징으로 한다.The ground boundary extracting unit 211 extracts a ground boundary from the generated image. The ground boundary extracting unit 211 uses a mask technique for extracting a ground boundary using brightness information of an image. In this case, the surface boundary line of the mask technique is a line connecting an excess point where the brightness value exceeds 0 when the brightness value is 0, and a line connecting the smallest brightness value point when the brightness value is over 0 .

접촉영역추출부(213)는 추출된 지면경계선과 손가락영역이 겹치는 접촉영역을 추출한다.The contact region extracting unit 213 extracts a contact region where the extracted ground boundary line and the finger region overlap.

지면영역제거부(215)는 추출된 지면경계선 정보를 이용하여 지면영역을 제거한다.The ground area removing unit 215 removes the ground area using the extracted ground boundary information.

손가락끝점추출부(217)는 지면영역이 제거된 영상으로부터 각 손가락의 끝점을 추출한다.The finger end point extraction unit 217 extracts the end points of the respective fingers from the image in which the ground area is removed.

접촉인식부(219)는 추출된 각 손가락의 끝점이 접촉영역과 겹치는 경우 접촉으로 판단한다.The contact recognizing unit 219 judges that the end point of each of the extracted fingers is in contact with the contact area.

아울러 접촉여부판단부(200)는 생성된 영상의 밝기 값 정보를 이용하여 일정 밝기 값 이하는 배경 영역으로 변환하는 영상변환부(220)를 더 포함하여 구성된다. 영상변환부(220)는 밝기 값이 75 이하인 영역을 배경 영역이라고 판단하여, 이를 밝기 값 0으로 변환한다.The contact determination unit 200 further includes an image conversion unit 220 that converts the brightness value information of the generated image into a background area having a predetermined brightness value or less. The image converting unit 220 determines that the area having a brightness value of 75 or less is a background area and converts the area into a brightness value of 0.

명령신호생성부(300)는 판단된 접촉 여부 정보를 이용하여 명령 신호를 생성한다. 이 때 명령 신호는 커서(Cursor)의 움직임, 클릭(Click), 상하스크롤(Scroll), 좌우스크롤(Scroll), 핫키(Hotkey) 중 어느 하나로서 컴퓨터를 제어한다. 상기 명령 신호는 본 발명의 일 실시예에 따른 명령 신호로서, 상기 용어들에 의해 한정되지 않는다. 최대 손가락 10개로 구현할 수 있는 모든 경우의 수가 명령 신호로 구현될 수 있으며, 명령 신호는 사용자의 설정에 따라 다양한 동작이 가능한 것으로 해석하여야 한다.The command signal generator 300 generates a command signal using the determined contact information. At this time, the command signal controls the computer as any one of a cursor movement, a click, a scroll, a left and right scroll, and a hot key. The command signal is an instruction signal according to an embodiment of the present invention, and is not limited by the terms. The number of all cases that can be implemented with a maximum of 10 fingers can be implemented as a command signal, and the command signal should be interpreted as being capable of various operations according to the user's setting.

도 4를 참조하면, 지면 접촉식 손가락 입력 방법은 영상생성단계(S100), 지면경계선추출단계(S211), 접촉영역추출단계(S213), 지면영역제거단계(S215), 손가락끝점추출단계(S217), 접촉인식단계(S219), 명령신호생성단계(S300)를 포함하여 구성된다.Referring to FIG. 4, the ground contact type finger input method includes an image generation step S100, a ground boundary extraction step S211, a contact area extraction step S213, a ground area removal step S215, a finger end point extraction step S217 ), A contact recognition step (S219), and a command signal generation step (S300).

영상생성단계(S100)는 지면 및 사용자의 손가락을 촬영하여 영상을 생성한다.In the image generation step S100, the image of the ground and the user's finger is photographed.

지면경계선추출단계(S211)는 생성된 영상의 밝기 값 정보를 이용하여 일정 밝기 값 이하는 배경 영역으로 변환한다. 생성된 영상 중 밝기 값이 75 이하인 영역을 배경 영역이라고 판단하여, 이를 밝기 값 0으로 변환한다. 지면경계선추출단계(S211)는 영상의 밝기 값 정보를 이용하여 지면경계선을 추출하는 마스크(Mask) 기법을 이용하여 생성된 영상으로부터 지면경계선을 추출한다. 이 때 마스크(Mask) 기법의 지면경계선은 밝기 값이 0이 있는 경우 밝기 값이 0을 초과하는 초과지점을 연결한 선, 밝기 값이 0 초과인 경우 가장 작은 밝기 값 지점을 연결한 선인 것을 특징으로 한다.In the ground boundary extracting step S211, the brightness value information of the generated image is used to convert into a background area less than a certain brightness value. An area having a brightness value of 75 or less is determined as a background area, and the brightness value is converted into a brightness value of 0. In the step S211, a boundary line is extracted from the generated image using a mask technique for extracting a boundary line of the image using the brightness value information of the image. In this case, the surface boundary line of the mask technique is a line connecting an excess point where the brightness value exceeds 0 when the brightness value is 0, and a line connecting the smallest brightness value point when the brightness value is over 0 .

접촉영역추출단계(S213)는 추출된 지면경계선과 손가락영역이 겹치는 접촉영역을 추출한다.The contact area extraction step (S213) extracts a contact area where the extracted ground boundary line and the finger area overlap.

지면영역제거단계(S215)는 추출된 지면경계선 정보를 이용하여 지면영역을 제거한다.The ground area removing step (S215) removes the ground area using the extracted ground boundary information.

손가락끝점추출단계(S217)는 지면영역이 제거된 영상으로부터 각 손가락의 끝점을 추출한다.The finger end point extracting step (S217) extracts the end points of the respective fingers from the image in which the ground area is removed.

접촉인식단계(S219)는 추출된 각 손가락의 끝점이 접촉영역과 겹치는 경우 접촉으로 판단한다.In the contact recognition step S219, when the extracted end point of each finger overlaps the contact area, it is judged as contact.

명령신호생성단계(S300)는 판단된 접촉 여부 정보를 이용하여 명령 신호를 생성한다. 이 때 명령 신호는 커서(Cursor)의 움직임, 클릭(Click), 상하스크롤(Scroll), 좌우스크롤(Scroll), 핫키(Hotkey) 중 어느 하나로서 컴퓨터를 제어한다. 상기 명령 신호는 본 발명의 일 실시예에 따른 명령 신호로서, 상기 용어들에 의해 한정되지 않는다. 최대 손가락 10개로 구현할 수 있는 모든 경우의 수가 명령 신호로 구현될 수 있으며, 명령 신호는 사용자의 설정에 따라 다양한 동작이 가능한 것으로 해석하여야 한다.The command signal generation step (S300) generates a command signal using the determined contact / non-contact information. At this time, the command signal controls the computer as any one of a cursor movement, a click, a scroll, a left and right scroll, and a hot key. The command signal is an instruction signal according to an embodiment of the present invention, and is not limited by the terms. The number of all cases that can be implemented with a maximum of 10 fingers can be implemented as a command signal, and the command signal should be interpreted as being capable of various operations according to the user's setting.

도 5a 내지 도 6b를 참조하면, 본 발명의 일 실시예에 따른 지면 접촉식 손가락 입력 시스템 과정을 보여준다. Referring to FIGS. 5A and 6B, a ground contact finger input system according to an exemplary embodiment of the present invention is shown.

1) 지면(G) 및 사용자의 손가락이 촬영된 영상(도 5a)을 생성한다.1) The image of the ground G and the finger of the user is photographed (Fig. 5A).

2) 생성된 영상(도 5a)을 HSV 컬러모델(Hue Saturation Value Color Model)로 변경하고, 변경된 영상의 밝기 값 정보를 이용하여 일정 밝기 값 이하는 배경 영역으로 변환한다. 이 때 생성된 영상 중 밝기 값이 75 이하인 영역을 배경 영역이라고 판단하여, 이를 밝기 값 0으로 변환한다. 2) The generated image (FIG. 5A) is changed to the HSV color model (Hue Saturation Value Color Model) and converted into a background area less than a predetermined brightness value by using the brightness value information of the changed image. In this case, it is determined that a region having a brightness value of 75 or less is a background region, and converts the region into a brightness value of 0.

3) 변환된 영상(도 5b)으로부터 지면(G)영역과 손가락영역(5)을 추출한다. 추가로, 변환된 영상(도 5b)으로부터 지면경계선(3)을 추출한다. 지면경계선(3) 추출은 밝기 값 정보를 이용하여 지면경계선(3)을 추출하는 마스크(Mask) 기법을 이용한다. 이 때 마스크(Mask)는 변환된 영상(도 5b)에서 지면경계선(3)을 추출하면서 돌아다니는 역할을 한다. 본 발명의 마스크(Mask) 기법에 의해 지면경계선(3)을 추출하는 방법은 도 6a 및 도 6b로 설명 가능하다. 도 6a의 경우 지면(G)과 손가락이 접촉하지 않은 비접촉영역에서 지면경계선(3)을 추출하는 마스크(Mask)로서, 밝기 값이 0 초과 값인 지면(G)과 밝기 값이 0 값인 배경 사이에 속한 지점을 지면경계선(3)이라고 판단하는 마스크(Mask)이다. 도 6b의 경우 지면(G)과 손가락이 접촉한 접촉영역(7)에서 지면경계선(3)을 추출하는 마스크(Mask)로서, 밝기 값이 0 초과 값 중에서 가장 작은 밝기 값을 가지는 지점을 지면경계선(3)이라고 판단하는 마스크(Mask)이다. 본 발명의 일실시예에 따른 마스크(Mask)는 영상의 좌측, 우측, 상측, 하측 중 어느 하나의 지점에서 시작하지만, 이는 마스크(Mask)를 이용하여 영상으로부터 추출하고자 하는 대상의 형태에 따라 어느 하나의 출발점으로 한정되지 않는다. 본 발명의 일실시예에 따른 마스크(Mask)는 영상의 좌측에서 지면경계점을 추출한 후, 추출한 지면경계점을 출발점으로 하여 마스크(Mask)가 지면경계선(3)을 찾아가면서 영상의 우측까지 움직이는 것을 특징으로 한다. 마스크(Mask)가 영상의 우측에 다다르면 영상의 좌측부터 우측까지의 지면경계선(3)이 추출되었다는 것을 보여준다. 본 발명에서 사용된 마스크(Mask) 기법은 고르지 못한 지면(G)에서도 적용 가능한 기법으로서, 본 발명의 일 실시예보다 고르지 못한 지면(G)에서는 지면경계선(3)을 더욱 정밀하게 추출할 수 있는 것을 특징으로 한다. 도 5c에서 제시한 바와 같이, 본 발명의 마스크(Mask) 기법은 크게 마스크 A와 마스크 B를 이용하였지만 영상의 밝기 값에 따라 도 6a 및 도 6b 외에 다양한 마스크(Mask)가 이용될 수 있음을 이해하여야 한다. 3) Extract the ground (G) area and the finger area (5) from the converted image (Fig. 5B). In addition, the paper boundary line 3 is extracted from the converted image (Fig. 5B). The extraction of the ground boundary line (3) uses a mask technique for extracting the ground boundary line (3) using the brightness value information. At this time, the mask plays a role of extracting the ground boundary line 3 from the converted image (FIG. 5B). A method of extracting the paper boundary line 3 by the mask technique of the present invention can be described with reference to FIGS. 6A and 6B. In the case of FIG. 6A, as a mask for extracting the ground boundary line 3 from the noncontact area where the finger G is not in contact with the ground G, a mask G is formed between the ground G having a brightness value of more than 0 and the background having a brightness value of 0 Is a border line (3). In the case of FIG. 6B, as a mask for extracting the ground boundary line 3 from the contact area 7 in which the ground G and the finger are in contact, a point having the smallest brightness value among the values exceeding 0 is referred to as a ground boundary line (3). The mask according to an embodiment of the present invention starts at any one of the left, right, upper, and lower sides of the image. However, the mask may be masked depending on the shape of the object to be extracted from the image using a mask It is not limited to one starting point. The mask according to an embodiment of the present invention is characterized in that a mask is extracted from the left side of the image and then moved to the right side of the image while the mask is located at the boundary line 3 . When the mask reaches the right side of the image, it shows that the ground boundary line (3) from the left to the right side of the image has been extracted. The mask technique used in the present invention is applicable to an uneven ground G. It is possible to extract the ground boundary 3 more precisely at an uneven ground G than an embodiment of the present invention . As shown in FIG. 5C, although the mask technique of the present invention uses the mask A and the mask B largely, it is understood that various masks can be used in addition to the FIGS. 6A and 6B according to the brightness value of the image. shall.

4) 지면경계선(3)이 추출된 영상(도 5c)으로부터 지면(G)영역을 제거한다.4) The ground (G) area is removed from the extracted image (FIG. 5C).

5) 지면(G)영역이 제거된 영상(도 5d)으로부터 각 손가락 끝점(9)을 추출한다. 이 때 각 손가락 끝점(9)은 가장 큰 y축 값을 가지는 지점을 각 손가락 끝점(9)이라고 판단한다. 만약 하나의 손가락에서 가장 큰 y축 값을 가지는 지점이 복수 개일 경우, 각각의 y축 값으로부터 x축 값들 추출하여 이들의 중간지점이 해당 손가락의 끝점이라고 판단한다. 예를 들어 도 5d의 확대 도면을 참조하면, (0.9, 3), (0.6, 3), (0.3, 3)이 하나의 손가락에서 가장 큰 y축 값을 가지는 복수 개의 지점이라 할 때, 이들의 평균 x축 값은 0.6이 된다.((0.9+0.6+0.3)/3) 따라서 좌표점 (0.6, 3)을 해당 손가락의 끝점이라 판단한다. 이와 같이 하나의 손가락에서 가장 큰 y축 값을 가지는 지점이 복수 개일 경우는, 손가락이 지면(G)을 누르는 상황과 같이 사용자의 접촉 방식에 따라 발생할 수 있는 다양한 경우가 될 수 있다.5) Each finger end point 9 is extracted from the image (FIG. 5D) from which the ground (G) area is removed. At this time, each finger end point 9 judges that the point having the largest y-axis value is each finger end point 9. If there are a plurality of points having the largest y-axis value in one finger, the x-axis values are extracted from each y-axis value, and the middle point of these x-axis values is determined as the end point of the corresponding finger. For example, referring to the enlarged view of FIG. 5D, if (0.9, 3), (0.6, 3), and (0.3, 3) are a plurality of points having the largest y- The average x-axis value is 0.6 ((0.9 + 0.6 + 0.3) / 3). Therefore, the coordinate point (0.6, 3) is determined as the end point of the finger. When there are a plurality of points having the largest y-axis value in one finger, it can be various cases that can occur depending on the contact method of the user, such as a situation in which the finger presses the ground G.

6) 도 5c의 접촉영역(7)과 도 5e의 각 손가락 끝점(9)이 겹치는 경우 접촉으로 판단하고, 이를 각각 일대일로 매칭(Matching)한다. 매칭(Matching)된 결과 영상이 도 5f이다. 만약 본 발명의 일실시예와 다르게 사용자가 손가락(13)을 5개미만으로 지면(G)에 접촉하였을 때, 지면(G)에 접촉하지 않은 손가락(13)으로부터 가장 큰 y축 값을 가지는 지점인 손가락 끝점(9)을 추출할 수 있지만 지면(G)과 손가락이 접촉한 접촉영역(7)은 추출할 수 없다는 것으로 해석하여야 한다.6) When the contact area 7 of FIG. 5C overlaps the respective finger end points 9 of FIG. 5E, it is judged as a contact and they are matched to each other on a one-to-one basis. The resulting image that is matched is shown in Figure 5f. Unlike the embodiment of the present invention, when the user touches the ground G with only five pieces of the finger 13, the point having the largest y-axis value from the finger 13 not in contact with the ground G It should be interpreted that the finger end point 9 can be extracted but the contact area 7 where the finger G contacts the ground G can not be extracted.

도 7a 내지 도 7e를 참조하면, 본 발명의 일 실시예에 따른 명령 신호를 구현하는 손가락 영상을 보여준다.7A to 7E, a finger image for implementing a command signal according to an embodiment of the present invention is shown.

도 7a는 본 발명의 일 실시예에 따른 커서(Cursor) 움직임 명령을 구현하는 손가락 영상을 나타낸 도면으로서 기존 마우스 모델(Mouse Model)과 동일하다. 이 때 본 발명의 일 실시예에 따른 커서(Cursor) 움직임은 사용자가 포인팅(Pointing) 수단을 움직이는 경로를 정확하게 표시하는 지시자로서, 마우스 커서(Mouse cursor)의 형상이나 색상은 다양한 변형이 가능하다. 마우스 커서(Mouse cursor)는 손가락 개수 혹은 설정에 따라 1개 이상이 생성될 수 있으며, 랜덤(Random)한 방향으로 이동할 수 있다. FIG. 7A is a diagram illustrating a finger image that implements a cursor movement instruction according to an exemplary embodiment of the present invention, and is the same as the conventional mouse model. In this case, the cursor movement according to an embodiment of the present invention is an indicator for accurately indicating a path through which the user moves the pointing means, and the shape and color of the mouse cursor can be variously modified. More than one mouse cursor can be created depending on the number of fingers or setting, and can be moved in a random direction.

도 7b는 본 발명의 일 실시예에 따른 클릭(Click) 명령을 구현하는 손가락 영상을 나타낸 도면으로서 지면(G)과 손가락 끝(15)이 접촉하는 영역(5)을 인식하여 클릭(Click) 명령을 구현한다. 도 7b에 나타난 손가락 영상은 본 발명의 일 실시예에 따른 클릭(Click) 명령을 구현하지만, 상기 손가락 영상은 사용자 설정에 따라 다른 명령으로 구현할 수 있음으로 해석하여야한다.7B is a view showing a finger image implementing a click instruction according to an embodiment of the present invention and recognizing an area 5 in which the ground G and the fingertip 15 contact each other, Lt; / RTI > The finger image shown in FIG. 7B implements a click instruction according to an embodiment of the present invention, but the finger image can be implemented as another instruction according to user setting.

도 7c는 본 발명의 일 실시예에 따른 상하스크롤(Scroll) 명령을 구현하는 손가락 영상을 나타낸 도면으로서 손가락의 밝기 값의 변화로 상하스크롤(Scroll) 명령을 구현한다. 도 7c에 나타난 손가락 영상은 본 발명의 일 실시예에 따른 상하스크롤(Scroll) 명령을 구현하지만, 상기 손가락 영상은 사용자 설정에 따라 다른 명령으로 구현할 수 있음으로 해석하여야한다.FIG. 7C is a diagram illustrating a finger image implementing a scroll command according to an embodiment of the present invention. The scroll command is implemented by changing the brightness value of a finger. Although the finger image shown in FIG. 7C implements a scroll command according to an exemplary embodiment of the present invention, the finger image can be implemented as another instruction according to user settings.

도 7d는 본 발명의 일 실시예에 따른 좌우스크롤(Scroll) 명령을 구현하는 손가락 영상을 나타낸 도면으로서 인식된 접촉 영역(5)의 좌우 움직임으로 좌우스크롤(Scroll) 명령을 구현한다. 도 7d에 나타난 손가락 영상은 본 발명의 일 실시예에 따른 좌우스크롤(Scroll) 명령을 구현하지만, 상기 손가락 영상은 사용자 설정에 따라 다른 명령으로 구현할 수 있음으로 해석하여야한다.FIG. 7D implements right and left scrolling commands by left and right movement of the contact area 5 recognized as a drawing of a finger image implementing a left and right scroll instruction according to an embodiment of the present invention. The finger image shown in FIG. 7D implements a right and left scroll command according to an embodiment of the present invention, but the finger image can be implemented by other instructions according to user setting.

도 7e는 본 발명의 일 실시예에 따른 핫키(Hotkey) 명령을 구현하는 손가락 영상을 나타낸 도면으로서 접촉 영역(5) 조합으로 핫키(Hotkey) 명령을 구현한다. 도 7e에 나타난 손가락 영상은 본 발명의 일 실시예에 따른 핫키(Hotkey) 명령을 구현하지만, 상기 손가락 영상은 사용자 설정에 따라 다른 명령으로 구현할 수 있음으로 해석하여야한다. 접촉 영역(5) 조합의 경우의 수는 한 손을 기준으로 할 때 최대 32가지가 될 수 있으며, 양손을 기준으로 할 때는 최대 1,024가지가 될 수 있다. 특히 본 발명은 일 실시예로서, 손가락을 자연스럽게 사용하지 못하는 사용자 또는 일부 손가락을 사용할 수 없는 사용자에게 적용될 수 있는 것으로 해석하여야 한다.FIG. 7E shows a finger image implementing a Hotkey command according to an embodiment of the present invention, and implements a Hotkey command in a combination of the contact areas 5. FIG. The finger image shown in FIG. 7E implements a hotkey command according to an embodiment of the present invention, but the finger image can be implemented as another command according to user setting. The number of combinations of the contact area (5) can be up to 32 on the basis of one hand, and up to 1,024 on the basis of both hands. In particular, the present invention should be construed as being applicable to a user who can not use a finger naturally or a user who can not use a finger as an embodiment.

상기에서는 본 발명의 일 실시예로서, 지면 접촉식 손가락 입력 장치가 바닥에 접지한 상태에서 장치 위에 손을 올려놓은 형태로 구현하였지만 이는 팔찌형과 같은 휴대용 웨어러블(Wearable) 등 사용자의 변형으로 다양하게 응용할 수 있는 것으로 해석하여야 한다.In the above description, the ground-contacting type finger input device is mounted on the apparatus while the ground-contacting type finger input device is grounded on the floor. However, the ground-contacting type finger input device may be variously modified by a user such as a portable wearable It should be interpreted as being applicable.

또한 본 발명의 지면 접촉식 손가락 입력 장치는 마우스(Mouse)로 한정되는 것이 아닌, 컴퓨터(Computer) 외 다양한 제어 장치로 응용할 수 있는 것으로 해석하여야 한다. 제어 장치의 일 실시예는 키보드(Keyboard), 휴대폰, 자동차, 리모컨(Remote control) 등이 될 수 있다.Further, the ground contact type finger input device of the present invention should be construed as being applicable not only to a mouse but also to various control devices other than a computer. One embodiment of the control device may be a keyboard, a mobile phone, a car, a remote control, or the like.

이상에서 본 발명의 바람직한 실시예를 설명하였으나, 본 발명은 다양한 변화와 변경 및 균등물을 사용할 수 있다. 본 발명은 상기 실시예를 적절히 변형하여 동일하게 응용할 수 있음이 명확하다. 따라서 상기 기재 내용은 하기 특허청구범위의 한계에 의해 정해지는 본 발명의 범위를 한정하는 것이 아니다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It is clear that the present invention can be suitably modified and applied in the same manner. Therefore, the above description does not limit the scope of the present invention, which is defined by the limitations of the following claims.

G : 지면 3 : 지면경계선
5 : 손가락영역 7 : 접촉영역
10 : 손 13 : 손가락
15 : 손가락 끝 20 : 입력 장치
23 : 적외선 발광 센서(IR Diffuse Sensor)
25 : 적외선 패스 필터 카메라(Filter Camera)
27 : 마우스 컨트롤러(Mouse Controller)
30 : 컴퓨터(Computer)
100 : 영상생성부 200 : 접촉영역판단부
211 : 지면경계선추출부 213 : 접촉영역추출부
215 : 지면영역제거부 217 : 손가락끝점추출부
219 : 접촉인식부 220 : 영상변환부
300 : 명령신호생성부
G: Floor 3: Floor boundary
5: finger area 7: contact area
10: Hand 13: Finger
15: fingertip 20: input device
23: IR Diffuse Sensor
25: Infrared pass filter camera (Filter Camera)
27: Mouse Controller
30: Computer
100: image generating unit 200: contact area determining unit
211: paper boundary line extracting unit 213: contact area extracting unit
215: ground region removing unit 217: finger end point extracting unit
219: contact recognition unit 220: image conversion unit
300: command signal generating unit

Claims (14)

지면 접촉식 손가락 입력 장치에 있어서,
지면 및 사용자의 손가락을 촬영하여 영상을 생성하는 영상생성부;
상기 생성된 영상으로부터 지면영역과 손가락영역을 추출하고, 상기 지면영역과 상기 손가락영역의 겹치는 각 지점의 정보를 이용하여 접촉 여부를 판단하는 접촉여부판단부; 및
상기 판단된 접촉 여부 정보를 이용하여 명령 신호를 생성하는 명령신호생성부;를 포함하며,
상기 접촉여부판단부는,
상기 생성된 영상으로부터 지면경계선을 추출하는 지면경계선추출부;
상기 추출된 지면경계선과 상기 손가락영역이 겹치는 접촉영역을 추출하는 접촉영역추출부;
상기 추출된 지면경계선 정보를 이용하여 지면영역을 제거하는 지면영역제거부;
상기 지면영역이 제거된 영상으로부터 각 손가락의 끝점을 추출하는 손가락끝점추출부; 및
상기 추출된 각 손가락의 끝점이 상기 접촉영역과 겹치는 경우 접촉으로 판단하는 접촉인식부;를 포함하는 것을 특징으로 하는 지면 접촉식 손가락 입력 장치.
A ground contact type finger input device comprising:
An image generating unit for generating an image by photographing a ground and a user's finger;
A contact presence / absence determination unit for extracting a ground area and a finger area from the generated image, and determining whether or not to make contact using information of each of overlapping points of the ground area and the finger area; And
And a command signal generator for generating a command signal using the determined contact / non-contact information,
The contact-
A ground boundary extracting unit for extracting a ground boundary from the generated image;
A contact area extracting unit for extracting a contact area where the extracted ground boundary line and the finger area overlap;
A ground area removing unit for removing the ground area using the extracted ground boundary information;
A finger end point extraction unit for extracting an end point of each finger from the image in which the ground area is removed; And
And a contact recognition unit for determining that the extracted point is a contact when the end point of the extracted finger overlaps the contact area.
삭제delete 제 1항에 있어서,
상기 지면경계선추출부는,
영상의 밝기 값 정보를 이용하여 지면경계선을 추출하는 마스크(Mask) 기법을 이용하는 것을 특징으로 하는 지면 접촉식 손가락 입력 장치.
The method according to claim 1,
The paper-
Wherein a mask (Mask) technique for extracting a paper boundary line using brightness value information of an image is used.
제 3항에 있어서,
상기 마스크(Mask) 기법의 상기 지면경계선은,
밝기 값이 0이 있는 경우 밝기 값이 0을 초과하는 초과지점을 연결한 선,
밝기 값이 0 초과인 경우 가장 작은 밝기 값 지점을 연결한 선인 것을 특징으로 하는 지면 접촉식 손가락 입력 장치.
The method of claim 3,
The ground boundary line of the mask technique,
If the brightness value is 0, the line connecting the excess point where the brightness value exceeds 0,
And when the brightness value is over 0, the smallest brightness value point is connected.
제 1항에 있어서,
상기 접촉여부판단부는,
상기 생성된 영상의 밝기 값 정보를 이용하여 일정 밝기 값 이하는 배경 영역으로 변환하는 영상변환부;를 더 포함하는 것을 특징으로 하는 지면 접촉식 손가락 입력 장치.
The method according to claim 1,
The contact-
And an image converting unit for converting the brightness value of the generated image into a background area having a predetermined brightness value or less using the brightness value information of the generated image.
제 5항에 있어서,
상기 영상변환부는,
밝기 값이 75 이하인 영역을 배경 영역이라고 판단하여, 이를 밝기 값 0으로 변환하는 것을 특징으로 하는 지면 접촉식 손가락 입력 장치.
6. The method of claim 5,
The image converter may include:
Wherein the region having the brightness value of 75 or less is determined to be the background region, and the region is converted into the brightness value of 0.
제 1항에 있어서,
상기 명령 신호는,
커서(Cursor)의 움직임, 클릭(Click), 상하스크롤(Scroll), 좌우스크롤(Scroll), 핫키(Hotkey) 중 어느 하나로서 컴퓨터를 제어하는 것을 특징으로 하는 지면 접촉식 손가락 입력 장치.
The method according to claim 1,
The command signal includes:
Wherein the controller controls the computer as any one of a cursor movement, a click, an up / down scroll, a left / right scroll, and a hot key.
지면 접촉식 손가락 입력 방법에 있어서,
지면 및 사용자의 손가락을 촬영하여 영상을 생성하는 영상생성단계;
상기 생성된 영상으로부터 지면영역과 손가락영역을 추출하고, 상기 지면영역과 상기 손가락영역의 겹치는 각 지점의 정보를 이용하여 접촉 여부를 판단하는 접촉여부판단단계; 및
상기 판단된 접촉 여부 정보를 이용하여 명령 신호를 생성하는 명령신호생성단계;를 포함하며,
상기 접촉여부판단단계는,
상기 생성된 영상으로부터 지면경계선을 추출하는 지면경계선추출단계;
상기 추출된 지면경계선과 상기 손가락영역이 겹치는 접촉영역을 추출하는 접촉영역추출단계;
상기 추출된 지면경계선 정보를 이용하여 지면영역을 제거하는 지면영역제거단계;
상기 지면영역이 제거된 영상으로부터 각 손가락의 끝점을 추출하는 손가락끝점추출단계; 및
상기 추출된 각 손가락의 끝점이 상기 접촉영역과 겹치는 경우 접촉으로 판단하는 접촉인식단계;를 포함하는 것을 특징으로 하는 지면 접촉식 손가락 입력 방법.
A ground contact finger input method comprising:
An image generation step of generating an image by photographing a ground and a finger of a user;
Extracting a ground area and a finger area from the generated image, and determining whether or not to make contact using the information of each of the overlapping points of the ground area and the finger area; And
And a command signal generating step of generating a command signal using the determined contact / non-contact information,
The contact determination step may include:
A ground boundary extracting step of extracting a ground boundary from the generated image;
A contact area extracting step of extracting a contact area in which the extracted ground boundary line and the finger area overlap;
A ground area removing step of removing the ground area using the extracted ground boundary information;
Extracting an end point of each finger from the image in which the ground area is removed; And
And a contact recognition step of determining that the extracted point is a contact when an end point of the extracted finger overlaps with the contact area.
삭제delete 제 8항에 있어서,
상기 지면경계선추출단계는,
영상의 밝기 값 정보를 이용하여 지면경계선을 추출하는 마스크(Mask) 기법을 이용하는 것을 특징으로 하는 지면 접촉식 손가락 입력 방법.
9. The method of claim 8,
Wherein the step of extracting the paper-
Wherein the method comprises using a mask technique for extracting a ground boundary line using brightness value information of an image.
제 10항에 있어서,
상기 마스크(Mask) 기법의 상기 지면경계선은,
밝기 값이 0이 있는 경우 밝기 값이 0을 초과하는 초과지점을 연결한 선,
밝기 값이 0 초과인 경우 가장 작은 밝기 값 지점을 연결한 선인 것을 특징으로 하는 지면 접촉식 손가락 입력 방법.
11. The method of claim 10,
The ground boundary line of the mask technique,
If the brightness value is 0, the line connecting the excess point where the brightness value exceeds 0,
And when the brightness value is over 0, the smallest brightness value point is connected.
제 8항에 있어서,
상기 접촉여부판단단계는,
상기 생성된 영상의 밝기 값 정보를 이용하여 일정 밝기 값 이하는 배경 영역으로 변환하는 영상변환단계;를 더 포함하는 것을 특징으로 하는 지면 접촉식 손가락 입력 방법.
9. The method of claim 8,
The contact determination step may include:
And converting the generated brightness value information into a background area less than a predetermined brightness value using the brightness value information of the generated image.
제 12항에 있어서,
상기 영상변환단계는,
밝기 값이 75 이하인 영역을 배경 영역이라고 판단하여, 이를 밝기 값 0으로 변환하는 것을 특징으로 하는 지면 접촉식 손가락 입력 방법.
13. The method of claim 12,
Wherein the image conversion step comprises:
Wherein a region having a brightness value of 75 or less is determined to be a background region, and the region is converted into a brightness value of 0.
제 8항에 있어서,
상기 명령 신호는,
커서(Cursor)의 움직임, 클릭(Click), 상하스크롤(Scroll), 좌우스크롤(Scroll), 핫키(Hotkey) 중 어느 하나로서 컴퓨터를 제어하는 것을 특징으로 하는 지면 접촉식 손가락 입력 방법.
9. The method of claim 8,
The command signal includes:
Wherein the computer is controlled as any one of a cursor movement, a click, an up / down scroll, a left / right scroll, and a hot key.
KR1020160178398A 2016-12-23 2016-12-23 Ground contact type finger input device and method KR101883866B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160178398A KR101883866B1 (en) 2016-12-23 2016-12-23 Ground contact type finger input device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160178398A KR101883866B1 (en) 2016-12-23 2016-12-23 Ground contact type finger input device and method

Publications (2)

Publication Number Publication Date
KR20180074378A KR20180074378A (en) 2018-07-03
KR101883866B1 true KR101883866B1 (en) 2018-08-01

Family

ID=62918737

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160178398A KR101883866B1 (en) 2016-12-23 2016-12-23 Ground contact type finger input device and method

Country Status (1)

Country Link
KR (1) KR101883866B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109887375A (en) * 2019-04-17 2019-06-14 西安邮电大学 Piano practice error correction method based on image recognition processing

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108857A (en) * 2010-10-28 2012-06-07 Yoshihiro Wada Key input device, portable terminal equipped with the same, and program allowing portable terminal to function as input device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5926184A (en) 1982-08-06 1984-02-10 Sasakura Eng Co Ltd Compressed steam-type distillation of salt water
KR101815020B1 (en) 2010-08-26 2018-01-31 삼성전자주식회사 Apparatus and Method for Controlling Interface
KR101446902B1 (en) 2011-08-19 2014-10-07 한국전자통신연구원 Method and apparatus for user interraction
KR102133702B1 (en) * 2012-02-24 2020-07-14 토마스 제이. 모스카릴로 Gesture recognition devices and methods

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012108857A (en) * 2010-10-28 2012-06-07 Yoshihiro Wada Key input device, portable terminal equipped with the same, and program allowing portable terminal to function as input device

Also Published As

Publication number Publication date
KR20180074378A (en) 2018-07-03

Similar Documents

Publication Publication Date Title
KR101809636B1 (en) Remote control of computer devices
KR101872426B1 (en) Depth-based user interface gesture control
US8866781B2 (en) Contactless gesture-based control method and apparatus
KR101446902B1 (en) Method and apparatus for user interraction
KR20170107357A (en) Multi-modal gesture based interactive system and method using one single sensing system
CN102460373A (en) Surface computer user interaction
US20140161309A1 (en) Gesture recognizing device and method for recognizing a gesture
CN103929603A (en) Image Projection Device, Image Projection System, And Control Method
WO2014105012A1 (en) System and method for gesture based touchscreen control of displays
CN103744542A (en) Hybrid pointing device
JP2012238293A (en) Input device
CN112486394A (en) Information processing method and device, electronic equipment and readable storage medium
KR101883866B1 (en) Ground contact type finger input device and method
Liang et al. Turn any display into a touch screen using infrared optical technique
KR101998786B1 (en) Non-contact Finger Input Device and Method in Virtual Space
CN103472931A (en) Method for operating simulation touch screen by mouse
TWM485448U (en) Image-based virtual interaction device
US9870061B2 (en) Input apparatus, input method and computer-executable program
Corso et al. The 4D Touchpad: Unencumbered HCI With VICs
Basak et al. A vision interface framework for intuitive gesture recognition using color based blob detection
KR20110049162A (en) Apparatus and method for virtual input/output in portable image processing device
Takahashi et al. Extending Three-Dimensional Space Touch Interaction using Hand Gesture
TWI697827B (en) Control system and control method thereof
TWI603226B (en) Gesture recongnition method for motion sensing detector
Lee et al. Mouse operation on monitor by interactive analysis of intuitive hand motions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant