KR101258969B1 - Input device using non-contact user interface - Google Patents

Input device using non-contact user interface Download PDF

Info

Publication number
KR101258969B1
KR101258969B1 KR1020120061433A KR20120061433A KR101258969B1 KR 101258969 B1 KR101258969 B1 KR 101258969B1 KR 1020120061433 A KR1020120061433 A KR 1020120061433A KR 20120061433 A KR20120061433 A KR 20120061433A KR 101258969 B1 KR101258969 B1 KR 101258969B1
Authority
KR
South Korea
Prior art keywords
unit
hand motion
keyboard
virtual keyboard
keyboard unit
Prior art date
Application number
KR1020120061433A
Other languages
Korean (ko)
Inventor
정문진
Original Assignee
주식회사 케이엠티글로벌
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이엠티글로벌 filed Critical 주식회사 케이엠티글로벌
Priority to KR1020120061433A priority Critical patent/KR101258969B1/en
Application granted granted Critical
Publication of KR101258969B1 publication Critical patent/KR101258969B1/en
Priority to US14/405,403 priority patent/US20150185857A1/en
Priority to PCT/KR2013/004964 priority patent/WO2013183938A1/en
Priority to EP13800120.1A priority patent/EP2860611A4/en
Priority to CN201380029984.XA priority patent/CN104335145A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE: An input device having a non-contact user interface is provided to easily execute a key under an individual section if a part of a user body is positioned in a specific individual section of a virtual keyboard unit. CONSTITUTION: An input device having a non-contact user interface includes a keyboard unit(20), a virtual keyboard unit(30), a hand motion detecting unit(40), a position calculating unit(50), and a control unit(60). The keyboard unit has more than one letter information and indicates the letter information in an individual section. The virtual keyboard unit is upwardly separated from the keyboard unit leaving a predetermined gap. The virtual keyboard forms an area for the individual section to correspond to the individual section of the keyboard unit on a flat surface. The hand motion detecting unit is formed in a predetermined position above the virtual keyboard unit. The hand motion detecting unit detects a user hand motion positioned on the virtual keyboard unit by photographing the user hand motion. The position calculating unit calculates the position of the user hand motion on the virtual keyboard unit using a vector value of the user hand motion detected in the hand motion detecting unit. If individual section information of the virtual keyboard unit is drawn from the location of the user hand motion, the individual section information of the keyboard unit corresponding to the individual section information of the virtual keyboard unit is checked, and the control unit outputs a control signal executing the letter information of the individual section of the keyboard unit. [Reference numerals] (20) Keyboard unit; (30) Virtual keyboard unit; (40) Hand motion detecting unit; (50) Position calculating unit; (60) Control unit

Description

비접촉식 사용자 인터페이스를 이용한 입력장치{INPUT DEVICE USING NON-CONTACT USER INTERFACE}Input device using contactless user interface {INPUT DEVICE USING NON-CONTACT USER INTERFACE}

본 발명은 비접촉식 사용자 인터페이스를 이용한 입력장치에 관한 것으로서, 보다 상세하게는 사용자가 자신의 신체 중 어느 일부를 특정 목적을 수행하기 위해 표시되는 자판부에 직접 접촉하지 않고, 상기 자판부의 근처에 접근하기만 해도 개별 구획의 자판을 용이하게 선택할 수 있는 비접촉식 사용자 인터페이스를 이용한 입력장치에 관한 것이다.The present invention relates to an input device using a non-contact user interface, and more particularly, to allow a user to access a portion of his or her body without directly contacting a keyboard portion displayed for performing a specific purpose, and approaching the vicinity of the keyboard portion. It relates to an input device using a non-contact user interface that can easily select the keyboard of the individual compartment.

최근 들어 금융거래의 증가에 대응하기 위해 통신망을 이용하여 사용자가 금융기관의 도움없이 직접 금융거래를 실행할 수 있도록 현금 자동지급기(Automatic Teller Machine, ATM)가 공공장소에 설치되고 있으며, 인터넷뱅킹이나 모바일뱅킹, 텔레폰 뱅킹 등의 다양한 장치를 통해서도 사용자가 직접 금융거래를 처리할 수 있다. 상기와 같은 현금 자동지급기는 금융기관의 업무가 종료된 이후에도 작동되므로 사용자의 이용이 매우 편리하다.Recently, in order to cope with the increase in financial transactions, an automatic teller machine (ATM) has been installed in public places so that users can execute financial transactions directly without the help of financial institutions. Through various devices such as banking and telephony banking, users can process financial transactions directly. Cash dispenser as described above is operated even after the operation of the financial institution is very convenient for the user.

또한, 대도시를 중심으로 인구밀집도가 급속히 증가함에 따라, 아파트 또는 초고층 건물이 급속도로 생겨나고 있다. 이러한 아파트 또는 초고층 건물에 있어서, 여러 층 사이에 사람들의 이동을 원활하게 하기 위하여 각 건물마다 여러 대의 엘리베이터가 설치되고 있다. In addition, as population density rapidly increases around large cities, apartments or skyscrapers are rapidly being generated. In such an apartment or a high-rise building, several elevators are installed in each building to facilitate the movement of people between floors.

상기와 같이 현금 자동지급기의 메뉴항목 중 처리해야하는 업무를 선택하거나 엘리베이터에서 이동하고자 하는 층이 표시된 스위치나 버튼을 선택하기 위해, 사용자가 자신의 신체 중 어느 일부를 통해 일정 기준 이상의 힘을 상기 스위치나 버튼으로 인가하거나, 터치스크린 등에 접촉함으로써 해당 스위치 등을 선택하는 방식이 현재 주로 사용되고 있다.As described above, in order to select a task to be processed among the menu items of the ATM, or to select a switch or a button displaying a floor to be moved in an elevator, the user may apply a force higher than a predetermined level through any part of his / her body. Currently, a method of selecting a corresponding switch or the like by applying a button or touching the touch screen is mainly used.

하지만 이와 같이 사용자가 일정 기준 이상의 힘을 해당 스위치 등으로 인가하여 스위치를 선택하는 방식은 사용자로 하여금 해당 스위치나 버튼 등에 신체 중 어느 일부를 접촉시켜야 할 뿐더러, 일정 기준 이상의 힘을 가해야 하는 수고로움을 야기시킨다.However, the method of selecting a switch by applying a force above a certain level to the corresponding switch, etc., requires the user to contact any part of the body with the corresponding switch or button, and also requires the effort to apply a force above a certain level. Cause.

또한, 사용자가 일정 이상의 힘을 가하지 않고 해당 스위치에 손가락을 포함한 신체 중 어느 일부분을 접촉시켜 해당 스위치를 선택하는 방식은 신체 중 어느 한 부분을 해당 스위치에 직접 닿도록 해야 하기 때문에, 불특정 다수의 여러 사람들이 사용하는 스위치에 자신의 신체를 접촉시킴으로써, 스위치를 매개로 하여 바이러스의 확산 및 신체의 오염 등의 문제점이 발생한다.In addition, the user selects the switch by touching any part of the body including a finger to the switch without applying a certain force, so that any part of the body must directly touch the switch, By contacting one's body with a switch used by people, problems such as the spread of viruses and contamination of the body occur through the switch.

즉, 종래에는 소정의 키 버튼을 단말기 표면에 설치하고 직접적으로 고무패드상에서 버튼을 누르거나 스크롤 방식으로 입력하는 방법, 2차원적인 바닥 평면이나 벽면에 입력하는 방법, 전원 ON/OFF와 같이 최소한의 물리적인 외부 버튼만을 가지고 터치패널을 이용한 정전압, 정저항 형태의 터치스크린으로의 입력방법, 사람의 음성을 통한 보이스 인식으로의 데이터 및 실행키를 입력하는 방법으로 사용되어져 왔었다. 또한, 반사체와 적외선 센서까지의 거리값을 바탕으로 아날로그 전기신호를 출력하며, 이에 아날로그 전기신호는 디지털 변환과정을 거쳐 수치화되고 각 수치에 대응되는 키값을 가져 가상키보드 또는 마우스로 처리되는 경우도 있으며, 최근에는 제스쳐 기반 사용자 인터페이스로서 상호작용을 위한 다양한 센서들을 활용하는 방법으로도 사용자의 요구에 부응하고 있기도 하다.That is, in the related art, a predetermined key button is installed on the surface of the terminal and directly pressed on the rubber pad or input by scrolling, inputting on a two-dimensional floor plane or wall, or power supply ON / OFF. It has been used as a method of inputting a constant voltage, a constant resistance type touch screen using a touch panel only with physical external buttons, and data and execution keys for voice recognition through human voice. In addition, an analog electric signal is output based on the distance between the reflector and the infrared sensor. The analog electric signal is digitized through a digital conversion process, and may be processed by a virtual keyboard or a mouse with a key value corresponding to each value. In recent years, as a gesture-based user interface, the use of various sensors for interaction has also responded to the needs of users.

그러나, 상기 2차원적인 입력상의 고전적인 방법 이외의 음성을 통한 보이스 인식으로서의 데이터 및 실행 방법은 노이즈에 약한 문제점으로 인해 공공 장소에서 사용하기 부적합하여 다중의 사용자들로부터 특정 목소리를 구별할 수 있는 보다 안정적인 사용자 음성 인식 기술이 필요하고, 제스쳐 기반의 인터페이스 입력 방법은 광원 간섭 문제로 인해 여러 대의 카메라 및 고가의 장비를 이용하거나, 사용자가 직접적인 장비를 장착하여 상호 작용해야 하는 불편함이 있고, 주변 환경 변화에 민감한 부분을 해결하기 위해 별도의 외부 장치에 보다 다양한 기술을 필요로 하는 어려움이 있었다.However, data and execution methods as voice recognition through voice other than the classical method on the two-dimensional input are unsuitable for use in public due to the weakness of noise, which makes it possible to distinguish a specific voice from multiple users. Stable user voice recognition technology is required, and the gesture-based interface input method is inconvenient to use multiple cameras and expensive equipment due to the light source interference problem, or the user must interact with the direct equipment. The challenge was to require more technology in a separate external device to address the changes.

본 발명은 상기와 같은 문제점들을 해결하기 위해 안출된 것으로서, 본 발명은 자판부에 대응되게 평면으로 개별 구획의 영역을 형성하는 가상 자판부를 구비하여, 상기 가상 자판부 상에서 움직이는 사용자의 신체 일부가 가상 자판부의 특정 개별 구획에 위치하기만 해도 하방의 개별 구획의 자판을 용이하게 실행할 수 있는 비접촉식 사용자 인터페이스를 이용한 입력장치를 제공하는 것을 목적으로 한다. The present invention has been made to solve the above problems, the present invention comprises a virtual keyboard portion to form an area of the individual partition in a plane corresponding to the keyboard portion, the body part of the user moving on the virtual keyboard portion is virtual An object of the present invention is to provide an input device using a non-contact user interface that can easily execute the keyboard of an individual compartment below even if located in a specific individual compartment of the keyboard unit.

상기와 같은 기술적 과제를 해결하기 위해, 본 발명의 바람직한 일실시예에 있어서, 상기 비접촉식 사용자 인터페이스를 이용한 입력장치는, 1 이상의 문자 정보를 구비하고, 상기 문자 정보를 개별 구획으로 표시하는 자판부(20); 상기 자판부(20)의 직상방에 미리 정해진 간격만큼 이격되어, 상기 자판부(20)의 개별 구획에 대응되게 평면으로 개별 구획의 영역을 형성하는 가상 자판부(30); 상기 가상 자판부(30) 상방의 미리 정해진 위치에 구비되어, 상기 가상 자판부(30) 상으로 진입하는 사용자의 손동작을 촬영을 통해 감지하는 손동작감지부(40); 상기 손동작감지부(40)에서 감지된 상기 손동작의 벡터값에서 상기 가상 자판부(30) 상의 상기 손동작의 위치를 연산하는 위치연산부(50); 및 연산된 상기 손동작의 위치로부터 상기 가상 자판부(30)의 개별 구획 정보가 도출되면, 상기 가상 자판부(30)의 개별 구획 정보와 대응되는 상기 자판부(20)의 개별 구획 정보를 확인한 후, 상기 자판부(20)의 개별 구획의 문자 정보를 실행하는 제어신호를 출력하는 제어부(60);를 포함하여 구성될 수 있다.In order to solve the above technical problem, in one preferred embodiment of the present invention, the input device using the contactless user interface, the keyboard unit having one or more character information, and displays the character information in a separate section ( 20); A virtual keyboard part 30 spaced apart from each other by a predetermined interval directly above the keyboard part 20 to form an area of the individual partitions in a plane corresponding to the individual partitions of the keyboard part 20; A hand motion detection unit (40) provided at a predetermined position above the virtual keyboard unit (30) to detect a user's hand motion entering the virtual keyboard unit (30) by photographing; A position calculation unit (50) for calculating the position of the hand gesture on the virtual keyboard unit (30) from the vector value of the hand gesture detected by the hand gesture detecting unit (40); And when the individual partition information of the virtual keyboard unit 30 is derived from the calculated position of the hand gesture, after checking the individual partition information of the keyboard unit 20 corresponding to the individual partition information of the virtual keyboard unit 30, And a control unit 60 for outputting a control signal for executing character information of the individual sections of the keyboard unit 20.

또한, 상기 자판부(20)는 엘리베이터, 현금자동지급기(ATM) 또는 자동판매기의 입력부 중 어느 하나를 포함할 수 있다.In addition, the vending unit 20 may include any one of an input unit of an elevator, an ATM, or a vending machine.

또한, 상기 손동작감지부(40)는 광학 근접 센서 또는 조도 센서 중 적어도 1 이상을 포함하는 것이 바람직하다.In addition, the hand motion detection unit 40 preferably includes at least one or more of the optical proximity sensor or the illumination sensor.

또한, 상기 백터값은 X,Y,Z축의 영역으로 구분된 가상의 매트릭스 형태 내에서 상기 손동작 움직임의 이미지 변화를 데이터화하여 연산 처리될 수 있다.In addition, the vector value may be arithmetic processed by data-forming an image change of the hand movement in a virtual matrix form divided into X, Y, and Z axis regions.

상기와 같은 본 발명의 비접촉식 사용자 인터페이스를 이용한 입력장치는 사용자가 자신의 신체 중 어느 일부를 특정 목적을 수행하기 위해 표시되는 자판부에 직접 접촉하지 않고, 상기 자판부의 근처에 접근하기만 해도 개별 구획의 자판을 용이하게 선택할 수 있다.As described above, the input device using the non-contact user interface of the present invention does not directly touch any part of its body to perform a specific purpose. You can easily choose the keyboard.

따라서, 본 발명은 불특정 다수의 사람들이 직접 접촉하는 자판을 무의식중에 접촉함으로써 전염될 수 있는 각종 바이러스의 확산 및 신체오염을 방지할 수 있다.Accordingly, the present invention can prevent the spread of various viruses and body contamination that can be transmitted by unconsciously contacting a keyboard directly contacted by an unspecified number of people.

또한, 본 발명은 사용자가 장갑 등 손의 보호장비를 착용한 경우, 자판을 접촉하기 위하여 착용한 보호장비를 제거해야 하는 번거로움을 방지할 수 있다.In addition, the present invention can prevent the hassle of having to remove the worn protective equipment in order to contact the keyboard when the user wears a protective equipment of the hand such as gloves.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 전술한 발명의 내용과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.
도 1은 본 발명의 일 실시예에 따른 비접촉식 사용자 인터페이스를 이용한 입력장치의 사시도이다.
도 2는 본 발명의 일 실시예인 비접촉식 사용자 인터페이스를 이용한 입력장치의 구성을 도시한 것이다.
도 3은 본 발명의 일 실시예에 따른 동작 인식을 위한 가상의 매트릭스 형태의 이미지 구성을 도시한 것이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate exemplary embodiments of the invention and, together with the description of the invention, It should not be construed as limited.
1 is a perspective view of an input device using a contactless user interface according to an embodiment of the present invention.
2 illustrates a configuration of an input device using a contactless user interface according to an embodiment of the present invention.
FIG. 3 illustrates an image configuration in a virtual matrix form for gesture recognition according to an embodiment of the present invention.

본 발명에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로 본 발명을 한정하려는 의도가 아니며, 단수의 표현은 문맥상 명백히 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명의 실시예로는 다수 개가 존재할 수 있으며, 설명에 있어서 중복되는 설명은 생략되는 것도 있다.It is to be understood that the terminology used herein is for the purpose of describing particular embodiments only and is not intended to limit the invention in any way, and the singular forms "a," "an," and "the" include plural referents unless the context clearly dictates otherwise. There may be a plurality of embodiments of the present invention, and overlapping descriptions may be omitted in the description.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명하면 다음과 같다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

도 1은 본 발명의 일 실시예에 따른 비접촉식 사용자 인터페이스를 이용한 입력장치의 사시도이고, 도 2는 본 발명의 일 실시예인 비접촉식 사용자 인터페이스를 이용한 입력장치의 구성을 도시한 것이고, 도 3은 본 발명의 일 실시예에 따른 동작 인식을 위한 가상의 매트릭스 형태의 이미지 구성을 도시한 것이다. 1 is a perspective view of an input device using a contactless user interface according to an embodiment of the present invention, Figure 2 shows the configuration of the input device using a contactless user interface according to an embodiment of the present invention, Figure 3 According to an embodiment of the present invention, there is shown an image configuration in a virtual matrix form for motion recognition.

도 1 및 도 2를 참조하면, 본 발명의 일실시예에 있어서, 비접촉식 사용자 인터페이스를 이용한 입력장치는 1 이상의 문자 정보를 구비하고, 상기 문자 정보를 개별 구획으로 표시하는 자판부(20); 상기 자판부(20)의 직상방에 미리 정해진 간격만큼 이격되어, 상기 자판부(20)의 개별 구획에 대응되게 평면으로 개별 구획의 영역을 형성하는 가상 자판부(30); 상기 가상 자판부(30) 상방의 미리 정해진 위치에 구비되어, 상기 가상 자판부(30) 상으로 진입하는 사용자의 손동작을 촬영을 통해 감지하는 손동작감지부(40); 상기 손동작감지부(40)에서 감지된 상기 손동작의 벡터값에서 상기 가상 자판부(30) 상의 상기 손동작의 위치를 연산하는 위치연산부(50); 및 연산된 상기 손동작의 위치로부터 상기 가상 자판부(30)의 개별 구획 정보가 도출되면, 상기 가상 자판부(30)의 개별 구획 정보와 대응되는 상기 자판부(20)의 개별 구획 정보를 확인한 후, 상기 자판부(20)의 개별 구획의 문자 정보를 실행하는 제어신호를 출력하는 제어부(60);를 포함하여 구성될 수 있다. 1 and 2, in an embodiment of the present invention, an input device using a non-contact user interface includes: a keyboard unit 20 having one or more character information and displaying the character information in separate sections; A virtual keyboard part 30 spaced apart from each other by a predetermined interval directly above the keyboard part 20 to form an area of the individual partitions in a plane corresponding to the individual partitions of the keyboard part 20; A hand motion detection unit (40) provided at a predetermined position above the virtual keyboard unit (30) to detect a user's hand motion entering the virtual keyboard unit (30) by photographing; A position calculation unit (50) for calculating the position of the hand gesture on the virtual keyboard unit (30) from the vector value of the hand gesture detected by the hand gesture detecting unit (40); And when the individual partition information of the virtual keyboard unit 30 is derived from the calculated position of the hand gesture, after checking the individual partition information of the keyboard unit 20 corresponding to the individual partition information of the virtual keyboard unit 30, And a control unit 60 for outputting a control signal for executing character information of the individual sections of the keyboard unit 20.

종래에는 엘리베이터 버튼이나 ATM 등의 메뉴 항목을 선택하는 경우 사용자로 하여금 불특정 다수의 사람들이 사용하는 버튼이나 스위치 등에 자신의 신체를 접촉시키는 수고로움이 발생하며, 또한 버튼 등을 매개로 하여 바이러스의 확산 및 신체의 오염 등의 문제점이 발생할 수 있다.Conventionally, when selecting a menu item such as an elevator button or an ATM, the user has a trouble in contacting his or her body with a button or a switch used by an unspecified number of people, and also spreads a virus through a button or the like. And problems such as contamination of the body may occur.

그러나 상기와 같은 본 발명의 비접촉식 사용자 인터페이스를 이용한 입력장치는 사용자가 자신의 신체 중 어느 일부를 특정 목적을 수행하기 위해 표시되는 자판부에 직접 접촉하지 않고, 상기 자판부의 근처에 접근하기만 해도 개별 구획의 자판을 용이하게 선택할 수 있는 효과가 있다.However, the input device using the non-contact user interface of the present invention as described above does not directly touch any part of the user's body, which is displayed to perform a specific purpose, and is approached even if the user approaches the keyboard only. There is an effect that the keyboard of the compartment can be easily selected.

자판부(20)는 1 이상의 문자 정보가 표시될 수 있다. 문자 정보는 한글, 영문, 숫자, 특수 문자 등을 모두 포함할 수 있다. 이러한 자판부(20)는 각각의 문자 정보가 구비된 개별 구획으로 표시될 수 있다. The keyboard unit 20 may display one or more character information. Character information may include all Korean, English, numbers, special characters, and the like. The keyboard unit 20 may be displayed in individual sections provided with respective character information.

상기 개별구획은 이동하고자 하는 층수 등을 표시한 엘리베이터 버튼이나 스위치 각각이나, 현금자동지급기(ATM)의 금융 업무 처리를 위한 개별적인 메뉴 항목, 음료 등의 제품 자동판매기의 입력부 등 특정 목적을 수행하기 위해 사용자의 신체 일부분의 동작을 통해 입력을 할 수 있는 여러 장치의 선택 항목일 수 있다. The individual compartments may be used to perform specific purposes such as elevator buttons or switches indicating the number of floors to be moved, individual menu items for ATM processing, and an input unit of a product vending machine such as a beverage. It may be a selection item of various devices that can input through the movement of a part of the user's body.

따라서 본 발명의 일실시예에 따른 상기 자판부(20)는 엘리베이터, 현금자동지급기(ATM) 또는 자동판매기의 입력부 중 어느 하나를 포함할 수 있다. Therefore, the keyboard unit 20 according to an embodiment of the present invention may include any one of an input unit of an elevator, an ATM, or a vending machine.

도 1을 참조하면, 본 발명에 동원되는 가상 자판부(30)는 자판부(20)의 직상방으로 일정 간격만큼 떨어져 형성될 수 있다. 이러한 가상 자판부(30)는 자판부(20)의 개별 구획에 대응되게 평면으로 별도의 가상 개별 구획의 영역으로 형성될 수 있다. 즉, 본 발명은 자판부(20)와 동일한 형상의 가상 자판부(30)과 상하로 형성될 수 있다. Referring to FIG. 1, the virtual keyboard part 30 mobilized in the present invention may be formed to be spaced apart by a predetermined distance directly above the keyboard part 20. The virtual keyboard portion 30 may be formed as a region of separate virtual individual partitions in a plane corresponding to the individual partitions of the keyboard portion 20. That is, the present invention may be formed up and down with the virtual keyboard portion 30 having the same shape as the keyboard portion 20.

따라서, 본 발명은 가상 자판부(30)를 이용하여 자판부(20)에 신체 중 일부를 직접 접촉하지 않고 자판부(20)의 근처에 접근하기만 해도, 즉 가상 자판부(30)의 접촉이나 터치를 통해서 자판부(20)의 선택하고자 하는 개별 구획을 용이하게 선택할 수 있게 된다. Accordingly, the present invention does not directly contact a part of the body with the keyboard 20 using the virtual keyboard 30, but only close to the keyboard 20, that is, contact with the virtual keyboard 30. Alternatively, the individual compartments to be selected of the keyboard unit 20 can be easily selected through touch.

자판부(20)와 가상 자판부(30)의 이격 간격(d)은 사용자의 편의를 참작하여 0<d≤10(단위:cm)내에서 자유롭게 선택가능하다. 다만, 가상 자판부(30)는 자판부(20)의 개별 구획의 크기나 다른 구획과의 간섭 배제, 선택의 정확성, 사용자의 기존 접촉식 자판과의 혼동이나 사용시의 오류 방지 등을 고려하여 1~3cm의 짧은 범위 내에서 형성되는 것이 바람직하다.The distance d between the keyboard portion 20 and the virtual keyboard portion 30 may be freely selected within 0 <d ≦ 10 (unit: cm) in consideration of the user's convenience. However, the virtual keyboard unit 30 may be configured in consideration of the size of individual compartments of the keyboard unit 20 or the interference with other compartments, the accuracy of selection, the user's confusion with an existing touch keyboard, or the prevention of errors in use. It is preferable that it is formed within a short range of ˜3 cm.

손동작감지부(40)는 가상 자판부(30) 상방의 소정의 위치에 사용자의 손동작을 감지할 수 있는 카메라(camera)를 구비할 수 있다. 따라서 상기 카메라는 가상 자판부(30) 상으로 진입하는 사용자의 손동작을 촬영할 수 있다. The hand motion detecting unit 40 may include a camera capable of detecting a user's hand motion at a predetermined position above the virtual keyboard unit 30. Therefore, the camera may capture the hand gesture of the user entering the virtual keyboard 30.

상기 손동작감지부(40)는 광학 근접 센서 또는 조도 센서 중 적어도 1 이상을 포함하는 것이 바람직하다. 즉, 상기 카메라는 가상 자판부(30) 상에서 움직이는 사용자의 손동작을 촬영할 뿐만 아니라, 상기 하나의 센서 또는 조합된 복수의 센서를 통해 사용자의 손의 위치 및/또는 방향 등을 감지하고, 그 감지결과를 위치연산부(50)에 제공한다.The hand motion detection unit 40 preferably includes at least one of an optical proximity sensor and an illumination sensor. That is, the camera not only photographs the user's hand movement on the virtual keyboard unit 30, but also detects the position and / or direction of the user's hand through the one sensor or a plurality of combined sensors, and detects the result. To the position calculation unit 50.

특히, 손동작감지부(40)는 가상 자판부(30) 상에 위치하는 손 또는 손가락의 움직임을 촬영하여 그 움직임의 벡터값을 측정할 수 있다. In particular, the hand motion detection unit 40 may measure the motion of the hand or finger located on the virtual keyboard 30 to measure the vector value of the motion.

상기 카메라는 심도 감지 카메라(depth-sensing camera)인 것이 바람직하다. 심도 감지 카메라는 인지특성과 센서를 통해 손 또는 손가락의 움직임의 이동속도와 방향, 궤적 등을 감지할 수 있다. The camera is preferably a depth-sensing camera. Depth detection cameras can detect the movement speed, direction, and trajectory of a hand or finger movement through cognitive characteristics and sensors.

손동작감지부(40)는 카메라에서 촬영된 객체(손 또는 손가락)의 움직임을 감지하여, 기준 위치로부터 움직임(동작) 벡터를 측정한다. 이후, 위치연산부(50)는 손동작감지부(40)에서 감지된 손동작의 벡터값에서 가상 자판부(30)의 상에서의 객체(손 또는 손가락)의 위치를 연산한다.The hand motion detector 40 detects a motion of an object (hand or finger) photographed by a camera and measures a motion (motion) vector from a reference position. Thereafter, the position calculating unit 50 calculates the position of the object (hand or finger) on the virtual keyboard unit 30 from the vector value of the hand gesture detected by the hand gesture detecting unit 40.

손동작감지부(40)의 동작 감지 카메라를 이용하여 최초의 손가락 움직임 신호를 인지하는 방법은 적외선 영상센서나 초전 센서를 통해 소정의 입력 영역 내의 각 방위별 (동,서,남,북)로부터 유입되는 손가락 움직임으로 입력되는 검출 신호를 내부의 CPU 프로세싱의 초기 단계로 접수하여 디지털 0의 신호를 1의 신호값으로 변경하여 모든 센서나 심도 감지 카메라의 초기 대기 상태에서 동작 상태로 전환하도록 할 수 있다. The method of recognizing the first finger movement signal using the motion detection camera of the hand motion detection unit 40 flows from each direction (east, west, south, north) in a predetermined input area through an infrared image sensor or pyroelectric sensor. The detection signal inputted by the finger movement can be accepted as an initial stage of internal CPU processing, and the digital 0 signal can be changed to the signal value of 1 to switch from the initial standby state of all sensors or the depth sensing camera to the operating state. .

손동작감지부(40)는 3차원 공간상 각 X,Y,Z 축의 좌표에서의 위치 정보를 이용한 입력장치로 입수된 신호에 대하여 내부의 광학 근접 센서와 조도 센서, 지자기 센서 등을 포함하여 입력 신호의 기준으로부터 아날로그적인 값을 나타내게 한다.The hand motion detecting unit 40 includes an optical proximity sensor, an illuminance sensor, a geomagnetic sensor, and the like, for an input signal obtained by using an input device using position information on coordinates of each X, Y, and Z axes in a three-dimensional space. The analogue value is expressed from the standard of.

우선적으로 광학 근접 센서와 피사체에 대한 접근과 원위를 검출할 수 있도록 하여 포토 트랜지스터로의 수신기와 방사기로의 LED 구성으로 광센서와 광학 엔코더를 포함한 동작을 기본으로 한다. 최대 3개 이상의 적외광을 이용하여 손가락의 움직임으로 파생되는 LED 반사광의 입력 대비 반사의 위상차의 검출로 인해 입력에 대한 반응을 하도록 한다.First of all, it is possible to detect the proximity and distality of the optical proximity sensor and the subject, and the LED configuration of the receiver to the photo transistor and the emitter is based on the operation including the optical sensor and the optical encoder. Up to three or more infrared lights are used to respond to the input due to the detection of the phase difference of the reflection relative to the input of the LED reflected light derived from the movement of the finger.

근접 센서의 인지각은 좌우, 상하의 일정각 범위 (예: 100°± 10°)내 동작되도록 초기 기준각을 정하고, 인지 거리는 손가락 움직임과의 이격 거리(예: 1~ 10cm이내) 및 출력 전압 신호를 일정 전압 (예: 1.5V)로 발생될 수 있도록 하고, 그 아날로그적 전압으로 디지털로 변환 처리 되도록 한다.The recognition angle of the proximity sensor sets the initial reference angle to operate within a certain angle range (e.g., 100 ° ± 10 °) of the left and right, and the recognition distance is the distance from the finger movement (e.g. within 1 ~ 10cm) and the output voltage signal. Can be generated at a constant voltage (e.g. 1.5V) and converted to digital analogue voltage.

조도 센서는 근접센서와 함께 빛의 세기에 대한 반응을 전압으로 변경해주도록 작용하여 감도 편차를 최소화하기 위해 측정 간격의 주기를 (예:100ms) 단위의 직렬로 데이터화된 구성을 유지할 수 있다. The illuminance sensor works with the proximity sensor to change the response of the light intensity to a voltage to maintain a data-formatted configuration of units of measurement intervals (eg 100ms) to minimize sensitivity variations.

지자기 센서는 3축 (X,Y,Z)의 자기 세기를 측정하여 아날로그 신호로 출력하는 것을 기본으로 하나, 4 방위별 (동,서,남,북)에서의 입력 기준에 있어 카메라가 보는 방향과 전혀 다른 입력 기준에 대하여 입력 전압 범위(예: 2.6V ~ 3.6V) 내에서 좌우 상하 반전에 대한 데이터 수치를 제시하여 정해진 특정 값이 아닌 이상 변수에 대한 처리 방안으로 유지할 수 있다. Geomagnetic sensor measures the magnetic strength of three axes (X, Y, Z) and outputs it as an analog signal.However, the direction of the camera in terms of input in four directions (East, West, South, North) Data values for left and right upside down within the input voltage range (eg, 2.6V to 3.6V) can be presented for an input reference that is completely different from the input reference.

심도 감지 카메라를 이용하여 3차원 공간상의 정보를 처리하는 방법은 3차원 벡터 연산으로 2차원의 X,Y축 위치로의 손가락의 좌우 이동의 움직임과 Z축의 깊이로 실행을 위한 누르는 위치를 인지하도록 3축의 벡터 연산으로 수행하도록 할 수 있다.A method of processing information in three-dimensional space using a depth-sensing camera is a three-dimensional vector operation that recognizes the movement of the left and right movement of the finger to two-dimensional X and Y-axis positions and the pressing position for execution by the depth of the Z-axis. It can be performed by three-axis vector operation.

벡터 연산의 여러 가지 방법 중에서 벡터 내적을 이용한 X,Y 좌표의 분해와 외적 연산으로의 X,Y 2개의 벡터와 직교하는 Z의 벡터값으로 나온 공간과 공간의 일면으로의 생성된 법선 벡터를 이용하여 그 값의 결과를 가지도록 할 수 있다.
Among the various methods of vector operation, the decomposition of X, Y coordinates using the vector dot product and the generated normal vector to one side of the space and the space resulting from the vector value of Z orthogonal to the two vectors of X and Y by the cross product operation To have a result of that value.

도 3을 참조하면, 동작 인식을 위한 정사각형 모형의 가상의 매트릭스 형태의 이미지 구성은 X축의 (0을 포함한 9까지의 숫자와 *, # 기호)×Y축의 (숫자)×Z축의 (숫자)영역으로 구분하여 최소형 공간 영역 내에서의 손가락 움직임의 이미지 변화를 데이터화하여 벡터 연산 처리한다.Referring to FIG. 3, the virtual matrix image configuration of the square model for motion recognition includes (numbers up to 9 including 0 and * and # symbols) on the X axis (numbers) on the Y axis (numbers) on the Z axis (numbers). The image change of the finger movement in the smallest spatial region is converted into data and processed as a vector operation.

도 3에 도시된 바와 같이, 최소한의 움직임 이미지 변화에 대한 연산을 위한 기본 이미지 필터 구성은 X,Y,Z 축에 대한 4×3×4의 총 48개로 분할하여 손가락 움직임의 이미지 변화에 대한 벡터 연산 처리를 기본으로 한다. 즉, 상기 백터값은 X,Y,Z 각 축별 3차원 데이터로 이루어질 수 있다.As shown in FIG. 3, the basic image filter configuration for the calculation of the minimum motion image change is divided into 48 pieces of 4 × 3 × 4 with respect to the X, Y, and Z axes, and the vector for the image change of the finger motion. Based on arithmetic processing. That is, the vector value may be composed of three-dimensional data for each axis of X, Y, and Z.

따라서 본 발명의 일실시예에 따른 상기 백터값은 X,Y,Z축의 영역으로 구분된 가상의 매트릭스 형태 내에서 상기 손동작 움직임의 이미지 변화를 데이터화하여 연산 처리될 수 있다.Accordingly, the vector value according to an embodiment of the present invention may be arithmetic processed by data-changing the image change of the hand movement in a virtual matrix form divided into X, Y, and Z axis regions.

데이터를 더 세밀하게 구분할수록 인지 감도가 향상되는 장점을 가질 수 있으나, 반복적인 연산처리에 의한 주요 CPU에 대한 일정 이상의 부하를 고려하여 적절한 분할이 바람직하다. The more detailed data can be classified, the better the perception sensitivity can be. However, proper division is desirable in consideration of a certain load on the main CPU by repetitive computation.

특히, 3차원 공간상에서 임의의 가장 최소 단위의 정사각형 모형체를 가정하여 상단을 위쪽, 아래쪽, 왼쪽, 오른쪽으로 각각 X,Y 축으로 구분하고, Z축은 심도 감지 카메라의 방향으로의 거리로 인지되어 근접 및 원위 등은 Z축으로 하고, 최대값과 최소값으로 각각 정하여 표현할 수 있다. 예를 들어, 왼쪽은 X축의 최소값이고, 오른쪽은 X축의 최대값, 윗쪽은 Y축의 최대값이고, 아래쪽은 Y축의 최소값이다. 카메라 방향으로 근접의 경우는 Z축은 최소값으로 원위는 최대값으로 설정하여 값을 표현하도록 정할 수 있다.In particular, assuming a square model of the smallest unit in a three-dimensional space, the top is divided into upper, lower, left, and right directions by X and Y axes, respectively, and the Z axis is recognized as the distance in the direction of the depth sensing camera. Proximity, distal, etc. can be expressed as Z-axis, and can be expressed by setting the maximum and minimum values, respectively. For example, the left side is the minimum value of the X axis, the right side is the maximum value of the X axis, the upper side is the maximum value of the Y axis, and the lower side is the minimum value of the Y axis. In the case of proximity to the camera direction, the Z-axis can be set to represent the minimum value and the distal to the maximum value.

연산 수행을 위한 소프트웨어 프로그램은 기준 사용자 대부분의 오른손 손가락 움직임의 이미지 처리와 왼손 손가락의 움직임의 이미지 처리와 구분하여 벡터 연산을 위한 함수 구현을 기본으로 할 수 있다.The software program for performing the operation can be based on the implementation of the function for vector operation by distinguishing from the image processing of the right hand finger movement and the left hand finger movement of most of the reference user.

손가락의 움직임을 하나의 인지점으로 예시하고, 이동할 때의 이동 궤적을 연산 처리하고, 그 이동하는 위치를 나타내는 벡터 V(X,Y,Z)는 이동 시간 t 의 함수로서 변환을 하고, 벡터 연산 함수 V의 스칼라 변수 t의 미분은 스칼라 함수의 경우와 같이 Illustrates the movement of a finger with a single point of recognition, computes the movement trajectory when moving, and the vector V (X, Y, Z) indicating the movement position is converted as a function of the movement time t, and the vector operation The derivative of the scalar variable t of function V is the same as for the scalar function.

Figure 112012045700485-pat00001
Figure 112012045700485-pat00001

로 이루어질 수 있다(예: 벡터 연산의 정의를 인용).(Eg quoting the definition of a vector operation).

사용자 손가락의 움직임이 기준축 X,Y축 상에서 2차원 평면에서 이루어지는 것이 아닌 3차원 공간상이므로 임의적으로 변할 수 있고, X축과 연동하여 Y축 및 Z축이 변할 수 있는 부분이기에 입력에 따른 오차의 보정을 위한 필터링 및 스케일링 과정을 추가로 수행하여 손떨림 보정 등의 지원을 고려하고자 입력 데이터에 대한 비교 및 제어 과정을 수반할 수 있다.Since the user's finger movement is in three-dimensional space rather than in two-dimensional plane on the reference axis X, Y axis, it can be arbitrarily changed, and the error according to the input because the Y axis and Z axis can be changed in conjunction with the X axis. The filtering and scaling process may be additionally performed in order to consider the support of image stabilization, which may involve comparison and control of the input data.

위치연산부(50)는 센서(광학 근접 센서, 조도 센서 및 지자기 센서)로부터 변환되어 입수된 디지털 신호와 데이터베이스(DB)의 미리 정해진 기준값과 심도 감지 카메라로부터 추출된 연산 처리 값을 서로 비교 분석하여 데이터를 처리할 수 있다. The position calculation unit 50 compares and analyzes the digital signal obtained by conversion from the sensors (optical proximity sensor, illuminance sensor and geomagnetic sensor), the predetermined reference value of the database DB, and the calculation processing value extracted from the depth sensing camera. Can be processed.

보다 자세하게는 정사각형 모형의 가상의 매트릭스 필터를 기반으로 손가락의 움직임을 동영상을 통해 여러 차례 캡쳐 및 하드웨어적 에뮬레이터로 구성된 응용 프로그램을 이용하여 수차례의 실제 측정 데이터를 추출한다. 즉, 센서 동작 기반의 데이터를 기반으로 한 응용 프로그램으로 구성된 소프트웨어와 하드웨어적 에뮬레이터로 각 X,Y,Z 축을 기준으로 입수되는 손가락 움직임의 모션을 여러 회에 걸쳐서 측정하고 각 위치별로 데이터를 정리 구성한다.More specifically, based on a hypothetical matrix filter of a square model, finger motions are captured through video several times, and the actual measurement data is extracted several times using an application program consisting of a hardware emulator. In other words, software and hardware emulator composed of application based on sensor motion data is used to measure the motion of finger movement obtained on each X, Y, Z axis several times and organize the data by each location. do.

손가락 움직임에 대한 센서의 동작을 이해 및 구현하기 위한 시각적 영상 프로그램을 만들고, 센서들의 실제 측정 데이터의 변화를 그래프화 할 수도 있다. Visual image programs can be created to understand and implement the sensor's behavior with respect to finger movements, and graph changes in the actual measurement data of the sensors.

특히, 하드웨어적 에뮬레이터에서 센서의 종류와 기능, 속도를 정하도록 선택적 기능을 부가하면서 데이터를 구축하여 다양한 손가락의 움직임에 따라 센서들의 반응했던 데이터가 더 세밀해져 인지 감도가 향상되는 장점을 가질 수 있다. In particular, the hardware emulator may have an advantage of improving the cognitive sensitivity by adding more detailed functions to determine the type, function, and speed of the sensor while constructing the data to make the data responded to the sensors more sensitive to various finger movements. .

정리하면, 각 센서별 특징을 기반으로 사용자 정의에 맞게 선택되도록 프로그램 툴 개발하고, 심도 감지 카메라의 초기 인지점을 기준으로 수차례 반복 측정하여 검색, 연산, 비교 분석하여 데이터 베이스 구축하며, 데이터 베이스화된 프로그램과 실제 심도 감지 카메라를 통해 입수되는 영상 이미지와 비교하여 가장 근접점을 표시한다. In summary, the program tool is developed to be selected according to the user's definition based on the characteristics of each sensor, and the database is constructed by searching, calculating, comparing and analyzing several times repeatedly based on the initial recognition point of the depth detection camera. The closest point is displayed by comparing it with the video image obtained through the preprogrammed program and the actual depth detection camera.

센서로부터 입수된 데이터들을 이용하여 3차원 공간 정보를 저장하기 위한 메모리와 CPU를 포함하여 3차원 공간상에서의 입력 신호를 우선 검색과 추출, 연산, 비교 분석 등의 일련의 과정을 통해 중복 유무를 확인하고, 일정 이상 반복된 부분은 제거하도록 제어하고, 각 센서들의 특징을 살려 데이터를 연산 처리 분석하여 오차값을 최소화하기 위해 설계 입력 데이터 베이스를 구성하고 그 기준하에 처리될 수 있도록 한다.Using the data obtained from the sensor, it checks for duplicates through a series of processes such as searching, extracting, calculating and comparing the input signal in 3D space, including memory and CPU for storing 3D space information. In addition, the control unit removes a portion which is repeated more than a certain time, and makes use of the characteristics of each sensor to analyze and analyze the data to construct a design input database in order to minimize the error value and to be processed based on the reference.

데이터 전달부에서의 송수신간 통신은 RS-232의 직렬 통신을 기본으로 하고, 경우에 따라 통신속도를 높이거나 거리에 제약을 받을 경우 노이즈에 강하고, 통신거리의 최대한 멀리 보낼 수 있는 환경적인 영향의 보완이 필요할 때 RS-422 또는 RS-485를 이용할 수 있다. 용도에 따라서는 10/100 Base의 Ethernet 이나, 자유롭게 사용 가능한 주파수 대역으로 ISM Band의 무선 LAN을 활용하는 방법도 고려할 수 있다.The communication between the transmitter and the receiver in the data transmission unit is based on RS-232 serial communication. In some cases, if the communication speed is increased or the distance is restricted, it is resistant to noise and environmental effects can be transmitted as far as possible. RS-422 or RS-485 can be used when supplementation is needed. Depending on the application, you can consider using 10/100 Base Ethernet or ISM Band wireless LAN as a freely available frequency band.

상기 입력 장치에서 손가락의 움직임은 사용자의 인터페이스로 인지하고, 위치연산부, 제어부를 거쳐 최종 인지 처리의 반응은 액정화면이나 TV, 게임기 및 PC 모니터 등으로 될 수 있다. 다만 상기 예에 한정되지 않으며, 소정의 입력 영역 내에서의 화면 전방의 지지대를 포함한 지면으로부터 일정의 부분 떨어진 상태에서 입력하도록 하며, 근접 센서, 조도 센서 또는 지자기 센서를 통해 변환된 디지털 데이터 값과 심도 감지 카메라를 이용하여 가상 매트릭스 이미지 필터를 통해 연산 처리되어 추출된 값을 서로 비교 분석하여 보정값을 최종 데이터로 전달하여 사용자가 원하는 입력 정보나 데이터를 수행할 수 있도록 할 수 있다.The movement of the finger in the input device is recognized as a user interface, and the response of the final recognition process through the position calculating unit and the control unit may be a liquid crystal display, a TV, a game machine, a PC monitor, or the like. However, the present invention is not limited to the above example, and is input at a predetermined distance from the ground including the support in front of the screen in a predetermined input area, and the digital data value and depth converted through the proximity sensor, the illuminance sensor, or the geomagnetic sensor. The sensing camera may be computed and processed through a virtual matrix image filter to compare the extracted values with each other and deliver correction values as final data so that a user may perform desired input information or data.

제어부(60)는 연산된 상기 손동작의 위치로부터 가상 자판부(30)의 개별 구획 정보가 도출되면, 가상 자판부(30)의 개별 구획 정보와 대응되는 자판부(20)의 개별 구획 정보를 확인한 후, 자판부(20)의 개별 구획의 문자 정보를 실행하는 제어신호를 출력한다. When the individual partition information of the virtual keyboard unit 30 is derived from the calculated position of the hand gesture, the controller 60 confirms the individual partition information of the keyboard unit 20 corresponding to the individual partition information of the virtual keyboard unit 30. Thereafter, a control signal for executing character information of the individual sections of the keyboard portion 20 is output.

상기와 같은 본 발명은 종래 평면상에서의 버튼을 누르거나 스크롤 방식으로 입력하는 마우스 또는 터치 패널을 이용한 정전압, 정저항 형태의 터치 스크린으로의 입력 방법과는 달리, 3차원 공간상에서 사용자 인터페이스로서의 손가락 움직임의 이동 속도와 궤적을 심도 감지 카메라의 인지특성과 센서를 통해, 아날로그 신호를 디지털로 수치화된 정보를 비교, 분석하여 사용자의 입력 정보를 인지하는 신개념 입력 장치 기술을 구현할 수 있다. As described above, the present invention is different from the input method of inputting a touch screen of a constant voltage and a constant resistance type using a mouse or a touch panel that presses a button on a plane or scrolls, and moves a finger as a user interface in a three-dimensional space. Depth detection speed and trajectory of the camera Through the cognitive characteristics and sensors of the camera, it is possible to implement a new concept input device technology that recognizes the user's input information by comparing and analyzing the digital numerical information of the analog signal.

또한, 본 발명은 종래의 3차원 공간상에서의 동작 인식 기반 기술에서 나타나는 적지 않은 오차 범위를 최소화하도록 심도 감지 카메라를 통하여 이미지 필터를 통과하는 이동하는 손가락의 움직임의 궤적 범위를 연산처리하고, 모션 센서의 디지털 변환된 수치의 데이터 베이스를 비교 분석하여 사용자가 원하는 입력 정보를 보다 정확하게 인지하도록 할 수 있다. In addition, the present invention calculates the trajectory range of the movement of the moving finger passing through the image filter through the depth-sensing camera to minimize the error range shown in the motion recognition-based technology in the conventional three-dimensional space, motion sensor By comparing and analyzing the database of the digitally converted numerical value of the user can more accurately recognize the desired input information.

최종적으로는 사용자의 입력 이전 개발 과정에서 사전 여러 차례 반복 작업을 통해 데이터 베이스화된 범위 내에서의 데이터를 제어하고, 수치 오차 값을 최소화하고 보정해주면서 최종 데이터를 전달함으로써 3차원 공간상에서 사용자의 손가락 움직임의 유형으로 원하는 신호를 인지 또는 표시함을 특징으로 할 수 있다.Finally, the user's finger movements in the three-dimensional space are controlled by passing the final data while controlling the data within the databaseized range by minimizing and correcting the numerical error value through several iterations before the user's input development. It may be characterized by the recognition or display of the desired signal in the type of.

본 발명은 이상에서 살펴본 바와 같이 바람직한 실시예를 들어 설명하였으나, 상기한 실시예에 한정되지 아니하며, 첨부된 특허청구범위에 의하여 해석되어야 할 것이다. 또한, 당해 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 첨부된 특허청구범위의 균등범위 내에서 다양한 수정 및 변형가능함은 물론이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. It will be apparent to those skilled in the art that various changes and modifications may be made without departing from the scope of the present invention as defined by the appended claims and their equivalents.

10 : 비접촉식 사용자 인터페이스를 이용한 입력장치
20 : 자판부 30 : 가상 자판부
40 : 손동작감지부 50 : 위치연산부
60 : 제어부
10: input device using a contactless user interface
20: keyboard portion 30: virtual keyboard portion
40: hand motion detection unit 50: position calculation unit
60: control unit

Claims (4)

비접촉식 사용자 인터페이스를 이용한 입력장치에 있어서,
공공장소에서 사용되는 엘리베이터, 현금자동지급기(ATM) 또는 자동판매기 중 어느 하나에 정보를 입력할 수 있는 적어도 하나의 스위치 또는 버튼을 포함하는 자판부;
상기 자판부의 수직으로 일정간격 이격된 높이에 상기 자판부에 포함된 스위치 또는 버튼의 면적에 대응되도록 개별 구획의 영역을 형성해 손의 위치를 연산하는 기준이 되는 가상 자판부;
상기 자판부의 인접하게 배치되어 상기 가상 자판부의 개별 구획의 영역으로 진입하는 손동작을 감지해 백터 값을 생성하고 손가락의 움직임을 촬영하는 손동작감지부;
상기 손동작감지부를 통해 생성된 정보를 무선통신을 통해 외부로 제공하는 데이터 전달부;
상기 데이터 전달부로부터 제공받은 상기 백터값과, 촬영된 영상을 통해 상기 개별 구획의 영역 상의 손동작 위치를 연산하는 위치연산부; 및
상기 위치연산부에서 제공되는 개별 구획의 영역 상의 손동작 위치와 상기 자판부를 매칭해 상기 자판부의 스위치 또는 버튼에 해당하는 정보를 실행하는 제어신호를 출력하는 제어부를 포함하는 비접촉식 사용자 인터페이스를 이용한 입력장치.
In the input device using a contactless user interface,
A keyboard unit including at least one switch or button for inputting information into any one of an elevator, an ATM, and a vending machine used in a public place;
A virtual keyboard part serving as a reference for calculating a hand position by forming an area of an individual partition so as to correspond to an area of a switch or button included in the keyboard part at a height spaced vertically by the keyboard part;
A hand motion detector arranged adjacent to the keyboard to detect a hand motion entering an area of an individual compartment of the virtual keyboard to generate a vector value, and to photograph a finger movement;
A data transfer unit which provides information generated by the hand motion detection unit to the outside through wireless communication;
A position calculation unit for calculating a hand gesture position on an area of the individual section based on the vector value and the photographed image provided from the data transfer unit; And
And a controller for matching a hand motion position on an area of an individual compartment provided by the position calculator with the keyboard to output a control signal for executing information corresponding to a switch or a button of the keyboard.
삭제delete 제1항에 있어서,
상기 손동작감지부(40)는 광학 근접 센서 또는 조도 센서 중 적어도 1 이상을 포함하는 것을 특징으로 하는 비접촉식 사용자 인터페이스를 이용한 입력장치.
The method of claim 1,
The hand motion detection unit 40 is an input device using a non-contact user interface, characterized in that at least one of the optical proximity sensor or the illumination sensor.
제1항에 있어서,
상기 백터값은 X,Y,Z축의 영역으로 구분된 가상의 매트릭스 형태 내에서 상기 손동작 움직임의 이미지 변화를 데이터화하여 연산 처리되는 것을 특징으로 하는 비접촉식 사용자 인터페이스를 이용한 입력장치.
The method of claim 1,
The vector value is an input device using a non-contact user interface, characterized in that the image processing of the hand motion movement in the virtual matrix form divided into the X, Y, Z axis region is processed by the data.
KR1020120061433A 2012-06-08 2012-06-08 Input device using non-contact user interface KR101258969B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020120061433A KR101258969B1 (en) 2012-06-08 2012-06-08 Input device using non-contact user interface
US14/405,403 US20150185857A1 (en) 2012-06-08 2013-06-05 User interface method and apparatus based on spatial location recognition
PCT/KR2013/004964 WO2013183938A1 (en) 2012-06-08 2013-06-05 User interface method and apparatus based on spatial location recognition
EP13800120.1A EP2860611A4 (en) 2012-06-08 2013-06-05 User interface method and apparatus based on spatial location recognition
CN201380029984.XA CN104335145A (en) 2012-06-08 2013-06-05 User interface method and apparatus based on spatial location recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120061433A KR101258969B1 (en) 2012-06-08 2012-06-08 Input device using non-contact user interface

Publications (1)

Publication Number Publication Date
KR101258969B1 true KR101258969B1 (en) 2013-05-07

Family

ID=48665233

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120061433A KR101258969B1 (en) 2012-06-08 2012-06-08 Input device using non-contact user interface

Country Status (1)

Country Link
KR (1) KR101258969B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210003477A (en) 2019-07-02 2021-01-12 주식회사 메이드인랩 Method and system for providing user interace
KR102372045B1 (en) 2020-10-26 2022-03-10 주식회사 파인텍 Method, device and system for kiosk input based on contactless air touch
KR20220051756A (en) * 2020-10-19 2022-04-26 효성티앤에스 주식회사 Automated Teller Machine
KR20220055158A (en) 2020-10-26 2022-05-03 주식회사 파인텍 Method and system for elevator operation based on non-contact input

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156548A (en) * 2005-11-30 2007-06-21 Toshiba Corp Information processor and switching method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007156548A (en) * 2005-11-30 2007-06-21 Toshiba Corp Information processor and switching method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210003477A (en) 2019-07-02 2021-01-12 주식회사 메이드인랩 Method and system for providing user interace
KR20220051756A (en) * 2020-10-19 2022-04-26 효성티앤에스 주식회사 Automated Teller Machine
KR102485805B1 (en) * 2020-10-19 2023-01-06 효성티앤에스 주식회사 Automated Teller Machine
KR102372045B1 (en) 2020-10-26 2022-03-10 주식회사 파인텍 Method, device and system for kiosk input based on contactless air touch
KR20220055158A (en) 2020-10-26 2022-05-03 주식회사 파인텍 Method and system for elevator operation based on non-contact input

Similar Documents

Publication Publication Date Title
US8830189B2 (en) Device and method for monitoring the object&#39;s behavior
US20150185857A1 (en) User interface method and apparatus based on spatial location recognition
US9600078B2 (en) Method and system enabling natural user interface gestures with an electronic system
EP2817693B1 (en) Gesture recognition device
US20160299604A1 (en) Method and apparatus for controlling a mobile device based on touch operations
US20170024017A1 (en) Gesture processing
KR20100106203A (en) Multi-telepointer, virtual object display device, and virtual object control method
CN105320275B (en) The method of wearable device and operation wearable device
CN102033702A (en) Image display device and display control method thereof
JPH0844490A (en) Interface device
KR101258969B1 (en) Input device using non-contact user interface
JP2004078977A (en) Interface device
TWI553508B (en) Apparatus and method for object sensing
KR20140100761A (en) Gesture-based user input method and system with touch devices
US20150355719A1 (en) Method and system enabling control of different digital devices using gesture or motion control
KR20100075282A (en) Wireless apparatus and method for space touch sensing and screen apparatus using depth sensor
KR102169236B1 (en) Touchscreen device and method for controlling the same and display apparatus
US11054941B2 (en) Information processing system, information processing method, and program for correcting operation direction and operation amount
KR20110033318A (en) Virtual mouse system using image recognition
KR101004671B1 (en) Network Apparatus having Function of Space Projection and Space Touch and the Controlling Method thereof
KR101595293B1 (en) space touch control system based on a depth sensor
KR102405476B1 (en) Method and system for elevator operation based on non-contact input
KR101598579B1 (en) User interface and method for providing guidance information
KR101904733B1 (en) Apparatus for detecting an input location using 3D camera
KR20130053153A (en) Mobile terminal of non-contact type and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170420

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180326

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee