KR101460028B1 - Keyboard having non-contact operating apparatus - Google Patents

Keyboard having non-contact operating apparatus Download PDF

Info

Publication number
KR101460028B1
KR101460028B1 KR1020130091493A KR20130091493A KR101460028B1 KR 101460028 B1 KR101460028 B1 KR 101460028B1 KR 1020130091493 A KR1020130091493 A KR 1020130091493A KR 20130091493 A KR20130091493 A KR 20130091493A KR 101460028 B1 KR101460028 B1 KR 101460028B1
Authority
KR
South Korea
Prior art keywords
keyboard
photosensor
optical signal
unit
light receiving
Prior art date
Application number
KR1020130091493A
Other languages
Korean (ko)
Inventor
허용구
장병탁
Original Assignee
주식회사 루멘스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 루멘스 filed Critical 주식회사 루멘스
Priority to KR1020130091493A priority Critical patent/KR101460028B1/en
Priority to PCT/KR2014/003086 priority patent/WO2014168416A1/en
Application granted granted Critical
Publication of KR101460028B1 publication Critical patent/KR101460028B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials

Abstract

Provided is a keyboard having a non-contact operating device which has low power consumption, has a fast algorithm for motion recognition, reduces production costs, and has a simple motion recognition process. The keyboard includes: at least one non-contact sensor module and a micro control unit. The non-contact sensor module includes: a light emitting unit which irradiates an object with light; and a light receiving unit which receives the light reflected from the object and converts an optical signal for the object into an electrical signal. The micro control unit receives the electrical signal converted by at least one non-contact sensor module, and calculates spatial coordinates for the object from the received electrical signal.

Description

비접촉 조작 장치를 구비한 키보드{Keyboard having non-contact operating apparatus}[0001] The present invention relates to a keyboard having a non-contact operating apparatus,

본 발명은 키보드에 관한 것으로서, 보다 상세하게는 위치 및/또는 동작 인식 처리과정을 통하여 사용자에게 새롭고 다양한 인터페이스를 제공할 수 있는 비접촉 조작 장치를 구비한 키보드에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a keyboard, and more particularly, to a keyboard having a contactless operation device capable of providing a new and various interface to a user through position and / or motion recognition processing.

IT 기술의 급격한 변화에 따라 다양한 상황에서도 편리하게 사용할 수 있도록 동작 인식을 통한 제어방법들이 다양하게 제시되고 있다. 상기 제어방법들에서 동작 인식은 이미지센서(카메라)를 이용하여 구현하고 있다. 이미지센서로 동작 인식을 하기 위해서는 전원을 상시 연결해 놓아야 하기 때문에 많은 전력이 불필요하게 낭비되는 문제점이 있다. 또한, 이미지센서는 동작 인식 과정 중에서 복수의 이미지를 추출하여 영상처리를 실시하기 위한 일련의 과정이 필요하기 때문에 프로세서의 부담이 크고 장치 구현 및 처리 알고리즘이 매우 복잡한 문제점이 있다. 따라서, 이미지센서로 동작 인식을 구현하기 위해서는 제조비용이 상승하는 문제점도 수반된다. According to the rapid change of IT technology, there are various control methods through motion recognition for convenient use in various situations. In the above control methods, motion recognition is implemented using an image sensor (camera). In order to recognize the operation with the image sensor, since power must be always connected, much power is wasted unnecessarily. Also, since the image sensor requires a series of processes for extracting a plurality of images and performing image processing in the operation recognition process, the burden on the processor is large, and the device implementation and processing algorithm are complicated. Therefore, in order to implement the motion recognition with the image sensor, the manufacturing cost is also increased.

특허공개번호 제10-2013-0025540호(2013.03.12)Patent Publication No. 10-2013-0025540 (March 3, 2013)

본 발명은 상기와 같은 문제점을 포함하여 여러 문제점들을 해결하기 위한 것으로서, 소모전력이 낮고 동작 인식을 위한 알고리즘이 빠르며, 제조비용이 낮으며, 동작 인식 처리과정이 간단한 비접촉 조작 장치를 제공하며, 나아가, 이러한 비접촉 조작 장치를 구비하는 키보드를 제공하는 것을 목적으로 한다. 그러나 이러한 과제는 예시적인 것으로, 이에 의해 본 발명의 범위가 한정되는 것은 아니다.SUMMARY OF THE INVENTION The present invention provides a non-contact operation device that solves various problems including the above problems and has a low consumed power, a fast algorithm for recognizing motion, a low manufacturing cost, and a simple operation recognition process, And a keyboard provided with such a noncontact operating device. However, these problems are exemplary and do not limit the scope of the present invention.

본 발명의 일 관점에 의한 비접촉 조작 장치를 구비한 키보드가 제공될 수 있다. 상기 비접촉 조작 장치를 구비한 키보드는 대상물에 조사광을 조사할 수 있는 발광부;와 상기 조사광이 상기 대상물에서 반사된 반사광을 수광하여 상기 대상물에 대한 광학신호를 전기신호로 변환할 수 있는 수광부;를 포함하는, 적어도 하나 이상의 비접촉 센서 모듈; 및 상기 적어도 하나 이상의 비접촉 센서 모듈에 의하여 변환된 상기 전기신호를 입력받고, 상기 전기신호로부터 상기 대상물에 대한 공간좌표를 산출하는 마이크로컨트롤유닛;을 포함한다. A keyboard having a contactless operation device according to one aspect of the present invention can be provided. The keyboard includes a contactless operation device, and includes a light emitting portion capable of irradiating an object with irradiation light, a light receiving portion capable of receiving the reflected light reflected from the object and converting an optical signal for the object into an electric signal, At least one contactless sensor module; And a micro control unit for receiving the electric signal converted by the at least one non-contact sensor module and calculating spatial coordinates of the object from the electric signal.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 적어도 하나 이상의 비접촉 센서 모듈은 키보드의 외부에 노출되도록 배치되고, 상기 마이크로컨트롤유닛은 상기 키보드의 내부에 내장되도록 배치될 수 있다. In the keyboard provided with the contactless operation device, the at least one non-contact sensor module is disposed to be exposed to the outside of the keyboard, and the micro control unit may be disposed inside the keyboard.

상기 비접촉 조작 장치를 구비한 키보드는 상기 키보드의 기본입력키를 이용할 수 있는 제 1 상태 및 상기 비접촉 센서 모듈 및 상기 마이크로컨트롤유닛에 의하여 상기 대상물의 위치 또는 움직임을 파악할 수 있는 제 2 상태 중 적어도 어느 하나의 상태를 선택할 수 있는 토글키(toggle key)를 더 포함할 수 있다. Wherein the keyboard equipped with the noncontact operation device has a first state in which the basic input key of the keyboard can be used and a second state in which the position or movement of the object can be grasped by the noncontact sensor module and the micro control unit And may further include a toggle key for selecting one state.

상기 비접촉 조작 장치를 구비한 키보드는 상기 제 1 상태 및 상기 제 2 상태 중에서 선택된 적어도 어느 하나의 상태를 확인할 수 있는 표시창을 더 포함할 수 있다. The keyboard including the contactless operation device may further include a display window for confirming at least one of the first state and the second state.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 수광부는, 가로 및 세로로 어레이 배치된 복수개의 광센서들을 포함할 수 있으며, 수광되는 상기 반사광의 세기 및 수광각에 대한 정보를 가지는 상기 대상물에 대한 광학신호를 상기 전기신호로 변환할 수 있다. In the keyboard equipped with the contactless operation device, the light receiving unit may include a plurality of optical sensors arrayed in a longitudinal and a transverse array, and may include optical sensors for detecting the intensity of the reflected light and information about the light receiving angle, Signal to the electrical signal.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 수광부는, 가로로 어레이 배치된 복수의 포토다이오드들로 구성된 제 1 광센서부; 및 세로로 어레이 배치된 복수의 포토다이오드들로 구성된 제 2 광센서부;를 포함할 수 있고, 상기 대상물에 대한 광학신호는 상기 제 1 광센서부에 의하여 검출된 상기 대상물의 움직임의 가로성분에 대한 광학신호; 상기 제 2 광센서부에 의하여 검출된 상기 대상물의 움직임의 세로성분에 대한 광학신호; 및 상기 제 1 광센서부 및 상기 제 2 광센서부에 의하여 검출된 상기 대상물의 움직임의 높이성분에 대한 광학신호;가 통합되어 구현될 수 있다. In the keyboard equipped with the noncontact operation device, the light receiving unit may include: a first photosensor unit including a plurality of photodiodes arranged in a horizontal array; And a second photosensor portion composed of a plurality of photodiodes arranged in a vertical array, and wherein the optical signal for the object is obtained by multiplying the horizontal component of the movement of the object detected by the first photosensor portion Optical signal for; An optical signal for a vertical component of the movement of the object detected by the second photosensor section; And an optical signal for a height component of a motion of the object detected by the first photosensor and the second photosensor.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 적어도 하나 이상의 비접촉 센서 모듈은, 상기 발광부와 상기 수광부를 구비하는, 하나의 비접촉 센서 모듈일 수 있다. In the keyboard equipped with the noncontact operation device, the at least one noncontact sensor module may be one noncontact sensor module including the light emitting portion and the light receiving portion.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 적어도 하나 이상의 비접촉 센서 모듈은, 상기 발광부와 상기 수광부를 각각 구비하고, 서로 이격된, 적어도 두 개의 비접촉 센서 모듈들일 수 있다. In the keyboard having the contactless operation device, the at least one or more noncontact sensor modules may be at least two noncontact sensor modules each having the light emitting portion and the light receiving portion and being spaced apart from each other.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 적어도 두 개의 비접촉 센서 모듈들은 제 1 비접촉 센서 모듈 및 제 2 비접촉 센서 모듈을 포함할 수 있고, 상기 마이크로컨트롤유닛은, 상기 적어도 두 개의 비접촉 센서 모듈들에 의하여 변환된 상기 전기신호를 입력받고, 상기 적어도 두 개의 비접촉 센서 모듈들 중 적어도 하나의 비접촉 센서 모듈의 전기신호로부터 상기 대상물에 대한 공간좌표를 산출할 수 있다. 이 경우, 상기 마이크로컨트롤유닛은, 상기 제 1 및 제 2 비접촉 센서 모듈들의 이격거리; 및 상기 제 1 및 제 2 비접촉 센서 모듈에 각각 구비된 상기 수광부에 수광되는 상기 반사광의 수광각을 이용하여 상기 대상물에 대한 공간좌표 중 높이성분을 산출할 수 있다. In the keyboard having the contactless operation device, the at least two non-contact sensor modules may include a first contactless sensor module and a second contactless sensor module, and the microcontroller may include at least two contactless sensor modules The spatial coordinates of the object can be calculated from the electrical signals of at least one non-contact sensor module among the at least two non-contact sensor modules. In this case, the micro control unit may include: a distance between the first and second non-contact sensor modules; And a light receiving angle of the reflected light received by the light receiving portions of the first and second non-contact sensor modules, respectively, to calculate a height component of the spatial coordinates of the object.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 마이크로컨트롤유닛은, 상기 공간좌표를 이용하여 상기 대상물의 움직임에 대응하는 제스쳐 동작을 판별하고, 상기 제스쳐 동작에 대응하는 제어신호를 생성할 수 있다. 상기 제어신호는 상기 키보드 또는 상기 키보드와 연결된 전산장치를 조작할 수 있는 신호나 상기 키보드 또는 상기 키보드와 연결된 전산장치에 설치된 소프트웨어를 제어할 수 있는 신호를 포함할 수 있다. In the keyboard provided with the contactless operation device, the micro control unit can use the space coordinates to determine a gesture operation corresponding to the movement of the object, and generate a control signal corresponding to the gesture operation. The control signal may include a signal for operating the keyboard or a computer connected to the keyboard, or a signal for controlling software installed in the keyboard or the computer connected to the keyboard.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 발광부는 적외선 발광 다이오드(IRED)를 포함하고, 상기 수광부는 포토다이오드를 포함할 수 있다. In the keyboard provided with the contactless operation device, the light emitting unit may include an infrared light emitting diode (IRED), and the light receiving unit may include a photodiode.

본 발명의 다른 관점에 의한 비접촉 조작 장치를 구비한 키보드가 제공될 수 있다. 상기 비접촉 조작 장치를 구비한 키보드는 대상물에 조사광을 조사할 수 있는 발광부; 상기 조사광이 상기 대상물에서 반사된 반사광을 수광하여 상기 대상물에 대한 광학신호를 전기신호로 변환할 수 있는 적어도 하나 이상의 수광부; 및 상기 적어도 하나 이상의 수광부에 의하여 변환된 상기 전기신호를 입력받아 상기 대상물에 대한 공간좌표를 산출하는 마이크로컨트롤유닛;을 포함한다. A keyboard having a contactless operation device according to another aspect of the present invention can be provided. The keyboard equipped with the contactless operation device includes a light emitting portion capable of irradiating an object with irradiation light; At least one light-receiving unit capable of receiving the reflected light reflected from the object and converting the optical signal for the object into an electric signal; And a micro control unit which receives the electric signal converted by the at least one light receiving unit and calculates spatial coordinates of the object.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 수광부는, 가로 및 세로로 어레이 배치된 복수개의 광센서들을 포함할 수 있으며, 수광되는 상기 반사광의 세기 및 수광각에 대한 정보를 가지는 상기 대상물에 대한 광학신호를 상기 전기신호로 변환할 수 있다. In the keyboard equipped with the contactless operation device, the light receiving unit may include a plurality of optical sensors arrayed in a longitudinal and a transverse array, and may include optical sensors for detecting the intensity of the reflected light and information about the light receiving angle, Signal to the electrical signal.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 수광부는, 가로로 어레이 배치된 복수의 포토다이오드들로 구성된 제 1 광센서부; 및 세로로 어레이 배치된 복수의 포토다이오드들로 구성된 제 2 광센서부;를 포함할 수 있고, 상기 대상물에 대한 광학신호는 상기 제 1 광센서부에 의하여 검출된 상기 대상물의 움직임의 가로성분에 대한 광학신호; 상기 제 2 광센서부에 의하여 검출된 상기 대상물의 움직임의 세로성분에 대한 광학신호; 및 상기 제 1 및 제 2 광센서부에 의하여 검출된 상기 대상물의 움직임의 높이성분에 대한 광학신호;가 통합되어 구현될 수 있다. In the keyboard equipped with the noncontact operation device, the light receiving unit may include: a first photosensor unit including a plurality of photodiodes arranged in a horizontal array; And a second photosensor portion composed of a plurality of photodiodes arranged in a vertical array, and wherein the optical signal for the object is obtained by multiplying the horizontal component of the movement of the object detected by the first photosensor portion Optical signal for; An optical signal for a vertical component of the movement of the object detected by the second photosensor section; And an optical signal for a height component of a motion of the object detected by the first and second photosensor units.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 적어도 하나 이상의 수광부는 제 1 수광부 및 제 2 수광부를 구비하는 적어도 두 개의 수광부들을 포함할 수 있고, 상기 마이크로컨트롤유닛은, 상기 적어도 두 개의 수광부들에 의하여 변환된 상기 전기신호를 입력받고, 상기 적어도 두 개의 수광부들 중 적어도 하나의 수광부의 전기신호로부터 상기 대상물에 대한 공간좌표를 산출할 수 있다. 이 경우, 상기 마이크로컨트롤유닛은, 상기 제 1 수광부 및 제 2 수광부의 이격거리; 및 상기 제 1 및 제 2 수광부에 각각 수광되는 상기 반사광의 수광각을 이용하여 상기 대상물에 대한 공간좌표 중 높이성분을 산출할 수 있다. In the keyboard equipped with the contactless operation device, the at least one light-receiving unit may include at least two light-receiving units including a first light-receiving unit and a second light-receiving unit, And the spatial coordinates of the object may be calculated from the electrical signals of at least one light-receiving unit of the at least two light-receiving units. In this case, the micro control unit may include: a distance between the first light receiving unit and the second light receiving unit; And a light receiving angle of the reflected light received by the first and second light receiving portions, respectively, to calculate a height component of the spatial coordinates of the object.

상기 비접촉 조작 장치를 구비한 키보드에서, 상기 적어도 하나 이상의 수광부는 키보드의 외부에 노출되도록 배치되고, 상기 마이크로컨트롤유닛은 상기 키보드의 내부에 내장되도록 배치될 수 있다. In the keyboard equipped with the noncontact operation device, the at least one light receiving unit is disposed so as to be exposed to the outside of the keyboard, and the micro control unit may be disposed inside the keyboard.

상기 비접촉 조작 장치를 구비한 키보드는 상기 키보드의 기본입력키를 이용할 수 있는 제 1 상태 및 상기 발광부, 상기 수광부 및 상기 마이크로컨트롤유닛에 의하여 상기 대상물의 위치 또는 움직임을 파악할 수 있는 제 2 상태 중 어느 하나의 상태를 선택할 수 있는 토글키(toggle key)를 더 포함할 수 있다. Wherein the keyboard having the noncontact operation device is provided with a first state in which the basic input key of the keyboard can be used and a second state in which the position or movement of the object can be grasped by the light emitting portion, And may further include a toggle key for selecting any one of the states.

상기 비접촉 조작 장치를 구비한 키보드는 상기 제 1 상태 및 상기 제 2 상태 중에서 선택된 어느 하나의 상태를 확인할 수 있는 표시창을 더 포함할 수 있다. The keyboard including the contactless operation device may further include a display window for confirming any one of the first state and the second state.

상기한 바와 같이 이루어진 본 발명의 일 실시예에 따르면, 소모전력이 낮고 동작 인식을 위한 알고리즘이 빠르며, 제조비용이 낮으며, 동작 인식 처리과정이 간단한 비접촉 조작 장치를 구비한 키보드를 제공할 수 있다. 물론 이러한 효과에 의해 본 발명의 범위가 한정되는 것은 아니다.According to an embodiment of the present invention as described above, it is possible to provide a keyboard equipped with a contactless operation device having a low consumed power, a fast algorithm for recognizing an operation, a low manufacturing cost, and a simple operation recognition process . Of course, the scope of the present invention is not limited by these effects.

도 1은 본 발명의 일 실시예에 따른 비접촉 조작 장치를 포함하는 구성을 도해하는 구성도이다.
도 2는 본 발명의 일 실시예에 따른 비접촉 조작 장치에서 비접촉 센서 모듈을 도해하는 도면이다.
도 3 및 도 4는 본 발명의 일 실시예에 따른 비접촉 조작 장치에서 제 1 광센서부가 대상물의 움직임의 가로성분에 대한 광학신호를 검출하는 개념을 각각 도해하는 도면이다.
도 5 및 도 6은 본 발명의 일 실시예에 따른 비접촉 조작 장치에서 제 2 광센서부가 대상물의 움직임의 세로성분에 대한 광학신호를 검출하는 개념을 각각 도해하는 도면이다.
도 7은 본 발명의 일 실시예에 따른 비접촉 제스쳐 조작장치에서 비접촉 센서 모듈이 대상물의 움직임의 높이성분에 대한 광학신호를 검출하는 개념을 도해하는 도면이다.
도 8은 본 발명의 변형된 일 실시예에 따른 비접촉 조작 장치를 포함하는 구성을 도해하는 구성도이다.
도 9는 본 발명의 일 실시예에 따른 비접촉 조작 장치에서 제 1 광센서부 및 제 2 광센서부가 검출한 광학신호에 의하여 대상물의 공간좌표를 산출하는 개념을 도해하는 도면이다.
도 10은 본 발명의 다른 실시예에 따른 비접촉 조작 장치를 포함하는 구성을 도해하는 구성도이다.
도 11은 본 발명의 다른 실시예에 따른 비접촉 조작 장치에서 두 개의 비접촉 센서 모듈들의 이격거리 및 반사광의 수광각을 이용하여 대상물에 대한 공간좌표 중 높이성분을 산출하는 개념을 도해하는 도면이다.
도 12는 본 발명의 변형된 다른 실시예에 따른 비접촉 조작 장치를 포함하는 구성을 도해하는 구성도이다.
도 13은 본 발명의 일부 실시예들에 따른 비접촉 조작 장치를 구비한 키보드를 도해하는 도면이다.
도 14 내지 도 17은 본 발명의 일부 실시예들에 따른 비접촉 조작장치를 구비한 키보드 상에서 구현될 수 있는 대상물의 예시적인 움직임을 도해하는 도면들이다.
1 is a configuration diagram illustrating a configuration including a contactless operation apparatus according to an embodiment of the present invention.
2 is a diagram illustrating a noncontact sensor module in a noncontact handling apparatus according to an embodiment of the present invention.
Figs. 3 and 4 are diagrams respectively illustrating the concept of detecting an optical signal with respect to the horizontal component of the motion of the object in the first optical sensor unit in the contactless operation device according to the embodiment of the present invention. Fig.
Figs. 5 and 6 are diagrams each illustrating a concept of detecting an optical signal for a longitudinal component of a motion of a second optical sensor attachment object in the contactless operation device according to the embodiment of the present invention. Fig.
7 is a diagram illustrating a concept of the non-contact sensor module in the non-contact gesture manipulation apparatus according to an embodiment of the present invention, which detects an optical signal with respect to a height component of movement of an object.
8 is a configuration diagram illustrating a configuration including a contactless operation apparatus according to a modified embodiment of the present invention.
9 is a diagram illustrating a concept of calculating spatial coordinates of an object by an optical signal detected by a first photosensor unit and a second photosensor unit in a contactless operation apparatus according to an embodiment of the present invention.
10 is a configuration diagram illustrating a configuration including a contactless operation apparatus according to another embodiment of the present invention.
11 is a diagram illustrating a concept of calculating a height component in space coordinates for an object using a distance between two non-contact sensor modules and a receiving angle of reflected light in a non-contact operation apparatus according to another embodiment of the present invention.
12 is a configuration diagram illustrating a configuration including a contactless operation apparatus according to another modified embodiment of the present invention.
13 is a diagram illustrating a keyboard having a contactless operation device according to some embodiments of the present invention.
14-17 illustrate exemplary movements of an object that may be implemented on a keyboard with a contactless manipulation device in accordance with some embodiments of the present invention.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이며, 하기 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 하기 실시예들에 한정되는 것은 아니다. 오히려 이들 실시예들은 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다. 또한 설명의 편의 및 명확성을 위하여, 도면에 도시된 구성 요소들은, 상호 간에 크기가 비례하지 않으면서, 적어도 일부가 과장 또는 축소될 수 있다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. The present invention is not limited to the embodiments. Rather, these embodiments are provided so that this disclosure will be more thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Also, for convenience and clarity of description, elements shown in the figures may be exaggerated or at least partially exaggerated without being mutually proportional in size.

본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)"라는 용어는 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. As used herein, the singular forms "a," "an," and "the" include singular forms unless the context clearly dictates otherwise. Also, the term " comprise "when used in this specification is taken to specify the presence of stated features, integers, steps, operations, elements, elements and / , Operation, absence, presence of elements and / or groups. As used herein, the term "and / or" includes any and all combinations of one or more of the listed items.

본 명세서에서 제 1, 제 2 등의 용어는 다양한 부재, 부품, 영역, 층들 및/또는 부분들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부분들은 이들 용어에 의해 한정되어서는 안됨은 자명하다. 이들 용어는 하나의 부재, 부품, 영역, 층 또는 부분을 다른 영역, 층 또는 부분과 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제 1 부재, 부품, 영역, 층 또는 부분은 본 발명의 가르침으로부터 벗어나지 않고서도 제 2 부재, 부품, 영역, 층 또는 부분을 지칭할 수 있다.Although the terms first, second, etc. are used herein to describe various elements, parts, regions, layers and / or sections, these elements, parts, regions, layers and / It is obvious that no. These terms are only used to distinguish one member, component, region, layer or section from another region, layer or section. Thus, a first member, component, region, layer or section described below may refer to a second member, component, region, layer or section without departing from the teachings of the present invention.

이하, 본 발명의 실시예들은 본 발명의 이상적인 실시예들을 개략적으로 도시하는 도면들을 참조하여 설명한다. 도면들에 있어서, 예를 들면, 제조 기술 및/또는 공차(tolerance)에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 발명 사상의 실시예들은 본 명세서에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니되며, 예를 들면 제조상 초래되는 형상의 변화를 포함하여야 한다.Hereinafter, embodiments of the present invention will be described with reference to the drawings schematically showing ideal embodiments of the present invention. In the figures, for example, variations in the shape shown may be expected, depending on manufacturing techniques and / or tolerances. Accordingly, embodiments of the present invention should not be construed as limited to any particular shape of the regions shown herein, but should include variations in shape resulting, for example, from manufacturing.

도 1은 본 발명의 일 실시예에 따른 비접촉 조작 장치를 포함하는 구성을 도해하는 구성도이고, 도 2는 본 발명의 일 실시예에 따른 비접촉 조작 장치에서 비접촉 센서 모듈을 도해하는 도면이다. Fig. 1 is a diagram illustrating a configuration including a noncontact operating device according to an embodiment of the present invention, and Fig. 2 is a diagram illustrating a noncontact sensor module in a noncontact operating device according to an embodiment of the present invention.

도 1 내지 도 2를 참조하면, 본 발명의 일 실시예에 따른 비접촉 조작 장치(1)는 발광부(10)와 수광부(20)를 각각 구비하며, 대상물(예를 들어, 도 3, 도 5, 도 7, 또는 도 11의 S)에 대한 광학신호를 전기신호로 변환할 수 있는, 적어도 하나 이상의 비접촉 센서 모듈(30)을 포함한다. 비접촉 센서 모듈(30)은 발광부(10) 및 수광부(20)를 구비한다. 1 and 2, a contactless operation apparatus 1 according to an embodiment of the present invention includes a light emitting portion 10 and a light receiving portion 20, and is provided with an object (for example, , Fig. 7, or Fig. 11 (S)) into an electrical signal. The noncontact sensor module 30 includes a light emitting portion 10 and a light receiving portion 20.

발광부(10)는 대상물(S)에 조사광을 조사할 수 있다. 예를 들어, 발광부(10)는 조사광을 조사할 수 있는 발광 다이오드(LED) 등의 발광 소자일 수 있고, 인체의 동작 및/또는 위치를 감지하기 위해서 발광부(10)는 적외선 발광 다이오드(IRED)를 포함할 수 있다. 발광부(10)는 사용자의 선택에 따라 필요한 경우에만 조사광이 방출되도록 구성될 수도 있다. 이는 사용자가 사용하지 않는 휴지기간에도 계속 조사광이 방출됨으로써 전력이 불필요하게 소모되는 것을 방지하기 위함이다. The light emitting portion 10 can irradiate the object S with irradiation light. For example, the light emitting portion 10 may be a light emitting element such as a light emitting diode (LED) capable of irradiating light, and the light emitting portion 10 may be a light emitting element such as an infrared light emitting diode (IRED). The light emitting portion 10 may be configured such that irradiation light is emitted only when necessary by the user's choice. This is to prevent unnecessary consumption of electric power because the continuous irradiation light is emitted even in the idle period that the user does not use.

수광부(20)는 발광부(10)를 광원으로 하여 상기 조사광이 대상물(S)에서 반사된 반사광을 수광할 수 있다. 수광부(20)는, 예를 들어, 가로 및 세로로 어레이 배치, 복수개의 광센서들을 포함할 수 있다. 이러한 광센서는 대상물(S)에 대한 광학신호를 전기신호로 변환할 수 있는 수광 소자일 수 있으며, 예를 들어, 포토다이오드를 포함할 수 있다. 예를 들면, 수광부(20)는 가로로 어레이 배치된 복수의 포토다이오드(25)들로 구성된 제 1 광센서부(20a) 및 세로로 어레이 배치된 복수의 포토다이오드(25)들로 구성된 제 2 광센서부(20b)를 포함할 수 있다.The light receiving unit 20 can receive the reflected light reflected by the object S using the light emitting unit 10 as a light source. The light receiving portion 20 may include, for example, arrayed laterally and vertically, and a plurality of optical sensors. Such an optical sensor may be a light receiving element capable of converting an optical signal for the object S into an electric signal, and may include, for example, a photodiode. For example, the light receiving section 20 includes a first photosensor section 20a composed of a plurality of photodiodes 25 arranged in a transverse array, and a second photosensor section 20b composed of a plurality of vertically arrayed photodiodes 25 And an optical sensor unit 20b.

수광부(20)는 대상물(S)에 대한 광학신호를 전기신호로 변환할 수 있다. 상기 광학신호란 넓은 의미에서 광과 관련된 모든 신호를 말하고, 좁은 의미에서 전압, 전류, 전력 등 계측이 가능한 각종 전기적인 신호로 변환될 수 있는 광학신호를 말한다. 나아가, 본 발명의 기술적 사상에 따르면, 대상물(S)에 대한 광학신호는, 예를 들어, 대상물(S)의 위치 및/또는 움직임에 대하여 복수의 이미지를 추출하고 영상처리를 수행함으로써 구현되는 신호가 아니라, 대상물(S)의 정적인 위치 및/또는 동적인 움직임에 의해 반사되어 수신되는 반사광의 세기 및/또는 반사광의 각도에 대한 정보를 가지는 신호를 의미할 수 있다. 즉, 대상물(S)에 대한 광학신호는, 예를 들어, 도 4 또는 도 6과 같이, 수광되는 반사광의 세기에 대한 정보와, 예를 들어, 도 11과 같이, 수광되는 반사광의 수광각(∠θ1, ∠θ2)에 대한 정보를 가질 수 있다. The light receiving unit 20 can convert an optical signal for the object S into an electric signal. The optical signal refers to all signals related to light in a broad sense and refers to optical signals that can be converted into various electrical signals capable of measuring voltage, current, and power in a narrow sense. Further, according to the technical idea of the present invention, the optical signal for the object S is obtained, for example, by a signal (not shown) implemented by extracting a plurality of images with respect to the position and / But may refer to a signal having information on the intensity of reflected light and / or the angle of reflected light reflected and received by the static position of the object S and / or the dynamic motion. That is, the optical signal for the object S may include information about the intensity of the reflected light received, for example, as shown in FIG. 4 or 6, and the light receiving angle ∠θ 1 , ∠θ 2 ).

또한, 본 발명의 일 실시예에 따른 비접촉 조작 장치(1)는 상기 전기신호를 입력받아 대상물(S)에 대한 공간좌표를 산출하는 마이크로컨트롤유닛(MCU, 40)을 구비한다. 나아가, 마이크로컨트롤유닛(40)은 상기 공간좌표를 이용하여 대상물(S)의 정적인 위치를 판별하고 대상물(S)의 동적인 움직임에 대응하는 제스쳐 동작을 판별하고, 상기 정적인 위치 및/또는 상기 제스쳐 동작에 대응하는 제어신호를 생성할 수 있다. Further, the contactless manipulation apparatus 1 according to an embodiment of the present invention includes a micro control unit (MCU) 40 that receives the electric signals and calculates space coordinates for the object S. Further, the micro control unit 40 determines the static position of the object S using the space coordinates, determines the gesture operation corresponding to the dynamic movement of the object S, and determines the static position and / A control signal corresponding to the gesture operation can be generated.

한편, 앞에서 언급한 대상물(S)은 비접촉 조작 장치(1) 및/또는 단말장치(120)를 사용하는 사용자의 적어도 신체 일부를 포함할 수 있다. 또한, 대상물(S)은 상기 사용자가 가지고 있거나 착용하고 있는 도구, 기기, 기구 및/또는 장치를 포함할 수 있다. 대상물(S)은 일정 시간 동안 공간 상에서 위치가 고정될 수 있으며, 나아가, 공간 상에서 위치가 가변될 수도 있다. 따라서, 대상물(S)이 일정 시간 동안 공간 상에서 위치가 고정되는 경우 비접촉 조작 장치(1)는 대상물(S)의 위치를 파악하는 포지션 센서를 포함할 수 있으며, 대상물(S)이 시간에 따라 공간 상에서 위치가 가변되는 경우 비접촉 조작 장치(1)는 대상물(S)의 움직임을 파악하고 이에 대응하는 제스쳐 동작을 판별하는 모션 센서 또는 제스쳐 센서를 포함할 수 있다. On the other hand, the above-mentioned object S may include at least a body part of the user using the contactless operation device 1 and / or the terminal device 120. [ In addition, the object S may include tools, devices, instruments and / or devices that the user has or wears. The object S can be fixed in position in space for a predetermined time, and further, the position on the space can be varied. Therefore, when the position of the object S is fixed in space for a predetermined period of time, the noncontact handling apparatus 1 may include a position sensor for detecting the position of the object S, The contactless operation device 1 may include a motion sensor or a gesture sensor for recognizing the movement of the object S and discriminating the corresponding gesture operation.

여기에서, 대상물(S)의 움직임이라 함은 비접촉 조작 장치(1)에서 소정거리 이내에 위치하는 사용자의 손가락 움직임, 손바닥 움직임, 손등 움직임, 손 움직임, 팔 움직임, 머리 움직임, 얼굴 움직임, 눈 움직임, 눈동자 움직임, 눈꺼풀 움직임, 입 움직임, 입술 움직임, 혀 움직임, 어깨 움직임, 몸통 움직임, 다리 움직임, 발가락 움직임 및 발 움직임 중에서 적어도 어느 하나를 포함할 수 있다. 나아가, 대상물(S)의 움직임은 앞서 언급한 사용자 인체의 움직임 뿐만 아니라 사용자가 가지고 있거나 착용함으로써 위치가 가변될 수 있는 도구, 기기, 기구 및/또는 장치의 움직임을 포함할 수 있다. 예를 들어, 발광부(10)에서 제공되는 조사광이 반사될 수 있는 반지를 사용자가 손가락에 착용한 경우에, 대상물(S)의 움직임은 상기 반지의 움직임을 의미할 수 있다. Herein, the motion of the object S refers to movement of the user's finger, palm, hand, hand, arm, head, face, eye, Eye movements, eyelid movements, mouth movements, lip movements, tongue movements, shoulder movements, torso movements, leg movements, toe movements, and foot movements. Further, the movement of the object S may include movement of the above-mentioned user's body, as well as movement of tools, devices, instruments, and / or devices that can be varied in position by the wearer or wearer. For example, when a user wears a ring on which a light to be irradiated by the light emitting unit 10 can be reflected, movement of the object S may mean movement of the ring.

한편, 본 발명의 일 실시예에 따른 비접촉 조작 장치(1)는 마이크로컨트롤유닛(40)에서 생성된 상기 제어신호를 단말장치(120)로 송신하는 통신부(50)를 선택적으로 더 구비할 수 있다. 나아가, 통신부(50)는 단말장치(120)와 정보데이타를 송수신할 수도 있다. The contactless operation apparatus 1 according to an embodiment of the present invention may further include a communication unit 50 for transmitting the control signal generated by the micro control unit 40 to the terminal device 120 . Further, the communication unit 50 may transmit and receive information data to and from the terminal device 120. [

본 명세서에서 언급하는 단말장치는 중앙에 있는 전산장치와 통신망으로 연결되어 데이터를 입력하거나 처리결과를 출력하는 장치 뿐만 아니라, 중앙에 있는 전산장치와 별개로 또는 무관하게, 독립적으로 데이터를 입력하거나 처리결과를 출력할 수 있는 장치를 포함할 수 있다. 단말장치(120)는, 예를 들어, 컴퓨터, 노트북, 태블릿 피씨, 태블릿 이동통신기기, 스마트폰, 핸드폰, 스마트패드, 게임기기, 가상체험장치, 휴대용 멀티미디어 재생장치, 전자북, 유에스비 허브(USB HUB), 마우스, 키보드, 모니터 및 헤드셋 중 적어도 어느 하나를 포함할 수 있다. The terminal device referred to in the present specification is a device that is connected to a central computer device through a communication network and inputs data or outputs a processing result, as well as a device that inputs or processes data independently or independently of a central computer device And a device capable of outputting the result. The terminal device 120 may be a computer, a laptop, a tablet PC, a tablet mobile communication device, a smart phone, a mobile phone, a smart pad, a game device, a virtual experience device, a portable multimedia player, HUB), a mouse, a keyboard, a monitor, and a headset.

통신부(50)에 의해 단말장치(120)로 송신되는 상기 제어신호는, 예를 들어, 단말장치(120)를 구성하는 적어도 하나 이상의 하드웨어 또는 단말장치(120)에 설치된 소프트웨어를 제어할 수 있는 신호를 포함할 수 있다. 예를 들어, 단말장치(120)가 키보드인 경우, 상기 제어신호는 상기 키보드 또는 상기 키보드와 연결된 컴퓨터를 조작할 수 있는 신호나 상기 키보드 또는 상기 키보드와 연결된 컴퓨터에 설치된 소프트웨어를 제어할 수 있는 신호를 포함할 수 있다. The control signal transmitted to the terminal device 120 by the communication unit 50 is a signal for controlling software installed in at least one hardware or terminal device 120 constituting the terminal device 120, . ≪ / RTI > For example, when the terminal device 120 is a keyboard, the control signal may be a signal capable of operating the keyboard or the computer connected to the keyboard, or a signal capable of controlling software installed in the computer connected to the keyboard or the keyboard . ≪ / RTI >

통신부(50)는 무선통신부(52) 및 유선통신부(54) 중에서 적어도 어느 하나를 포함할 수 있다. 무선통신부(52)는, 예를 들어, 블루투스(Bluetooth) 통신 또는 지그비(Zigbee) 통신을 이용할 수 있다. 한편, 무선통신부(52)에 적용되는 통신방식은 블루투스 방식 또는 지그비 방식에 한정되지는 않으며, 예를 들어, RFID(Radio Frequency Identification), NFC(Near Field Communication), 공진유도, 자기유도 등의 다양한 통신방식도 적용될 수 있다. 블루투스 통신 또는 지그비 통신을 위해서는 비접촉 조작 장치(1)와 단말장치(120) 상호간에 설정이 필요하다. 따라서, 단말장치(120)는 블루투스 통신 또는 지그비 통신을 지원하는 모듈을 포함할 수 있다. 만약, 단말장치(120)가 이러한 모듈을 가지지 않는 경우에는 별도의 통신중계기, 예를 들어, 동글(dongle, 220)이 단말장치(120)에 추가적으로 제공될 수 있다. 동글(220)은, 예를 들어, 단말장치(120)의 USB 포트에 연결될 수 있는 USB 동글을 포함할 수 있으나, 단말장치(120)에 연결되는 형태에 특별히 한정되지 않는다. 유선통신부(52)는, 예를 들어, 비접촉 조작 장치(1)와 단말장치(120)를 연결하는 유선케이블을 지원하도록 구성될 수 있다. 유선케이블은, 예를 들어, USB 케이블이나 연장케이블 등을 포함할 수 있으며, 비접촉 조작 장치(1)의 연결포트부와 단말장치(120)의 연결포트부를 연결할 수 있다. The communication unit 50 may include at least one of a wireless communication unit 52 and a wired communication unit 54. [ The wireless communication unit 52 can use, for example, Bluetooth communication or Zigbee communication. The communication method applied to the wireless communication unit 52 is not limited to the Bluetooth method or the Zigbee method. For example, the communication method applied to the wireless communication unit 52 may be a variety of methods such as RFID (Radio Frequency Identification), NFC (Near Field Communication) A communication method can also be applied. For the Bluetooth communication or ZigBee communication, setting is required between the contactless operation device 1 and the terminal device 120. Accordingly, the terminal device 120 may include a module for supporting Bluetooth communication or Zigbee communication. If the terminal device 120 does not have such a module, a separate communication repeater, e.g., a dongle 220, may be additionally provided to the terminal device 120. [ The dongle 220 may include, for example, a USB dongle that can be connected to a USB port of the terminal device 120, but is not particularly limited to a form connected to the terminal device 120. The wired communication unit 52 may be configured to support a wired cable connecting the non-contact operation device 1 and the terminal device 120, for example. The wired cable may include, for example, a USB cable or an extension cable, and may connect the connection port portion of the noncontact operation device 1 and the connection port portion of the terminal device 120. [

본 발명의 일부 실시예들에서 비접촉 조작 장치(1)의 적어도 일부는 단말장치(120)의 표면에 부착되거나 내측에 내장되는 형태로 배치되어 제공될 수 있다. 예를 들어, 비접촉 조작 장치(1)를 구성하는 구성요소들의 일부는 단말장치(120)의 내측에 내장되는 형태로 배치되며 비접촉 조작 장치(1)를 구성하는 구성요소들의 다른 일부는 단말장치(120)의 표면에서 노출되도록 배치될 수 있다. 구체적인 예를 들면, 비접촉 센서 모듈(30)을 구성하는 발광부(10) 및/또는 수광부(20)는 단말장치(120)의 표면에서 노출되도록 배치될 수 있으며, 마이크로컨트롤유닛(40)은 단말장치(120)의 내측에 내장되는 형태로 배치될 수 있다. In some embodiments of the present invention, at least a part of the contactless operation device 1 may be provided in the form of being attached to the surface of the terminal device 120 or embedded therein. For example, some of the components constituting the noncontact handling device 1 are disposed inside the terminal device 120, and another part of the components constituting the noncontact handling device 1 is connected to the terminal device 120, respectively. For example, the light emitting unit 10 and / or the light receiving unit 20 constituting the noncontact sensor module 30 may be arranged to be exposed on the surface of the terminal device 120, And may be disposed in the form of being embedded inside the apparatus 120.

이러한 비접촉 조작 장치(1)를 이루는 구성요소들은 단일한 일체를 형성하지 않고 단말장치(120) 내에 이격되어 배치될 수 있다. 물론, 이와 달리, 비접촉 조작 장치(1)를 이루는 구성요소들은 단일한 일체의 부품을 형성하면서 단말장치(120) 내에 제공될 수도 있다. 나아가, 비접촉 조작 장치(1)는 단말장치(120)와는 별개로 단말장치(120)와 이격되어 제공될 수도 있다. The components constituting the noncontact operation device 1 may be disposed apart from each other in the terminal device 120 without forming a single integral body. Of course, the components constituting the contactless operation device 1 may alternatively be provided in the terminal device 120 while forming a single integral part. Further, the noncontact operation device 1 may be provided separately from the terminal device 120 separately from the terminal device 120. [

이하에서는, 비접촉 조작 장치(1)가 대상물(S)의 위치 및/또는 대상물(S)의 움직임에 대응하여 광학신호를 검출하고 공간좌표를 산출하는 개념을 설명한다. Hereinafter, the concept of detecting the optical signal and calculating the spatial coordinates corresponding to the position of the object S and / or the motion of the object S will be described.

도 3 및 도 4는 본 발명의 일 실시예에 따른 비접촉 조작 장치에서 제 1 광센서부가 대상물의 움직임의 가로성분에 대한 광학신호를 검출하는 개념을 각각 도해하는 도면이고, 도 5 및 도 6은 본 발명의 일 실시예에 따른 비접촉 조작 장치에서 제 2 광센서부가 대상물의 움직임의 세로성분에 대한 광학신호를 검출하는 개념을 각각 도해하는 도면이고, 도 7은 본 발명의 일 실시예에 따른 비접촉 제스쳐 조작장치에서 비접촉 센서 모듈이 대상물의 움직임의 높이성분에 대한 광학신호를 검출하는 개념을 도해하는 도면이다.FIGS. 3 and 4 are diagrams each illustrating a concept of detecting an optical signal with respect to a horizontal component of a motion of a first optical sensor attachment object in a contactless operation device according to an embodiment of the present invention, and FIGS. 5 and 6 FIG. 7 is a diagram illustrating the concept of detecting an optical signal with respect to a longitudinal component of a motion of an object in the second optical sensor unit in the contactless operation apparatus according to an embodiment of the present invention, In the gesture manipulation apparatus, the non-contact sensor module detects the optical signal for the height component of the motion of the object.

도 2 내지 도 6을 참조하면, 수광부(20)는 발광부(10)를 광원으로 하여 대상물(S)의 위치 및/또는 대상물(S)의 움직임에 따라 반사되는 반사광을 수광하며, 가로 및 세로로 어레이 배치된, 복수개의 광센서(25)들을 포함한다. 수광부(20)는, 예를 들어, 포토다이오드(25)가 가로축(x축)으로 어레이 배치된 제 1 광센서부(20a)와 포토다이오드(25)가 세로축(y축)으로 어레이 배치된 제 2 광센서부(20b)로 구성될 수 있다. 이와 달리, 본 발명의 변형된 실시예에서는 제 1 광센서부(20a) 및 제 2 광센서부(20b)가 서로 구분되고 이격되어 개별적으로 배치되는 것이 아니라, 서로 인접하여 배치될 수 있으며, 나아가, 서로 혼재되어 배치될 수도 있다. 2 to 6, the light receiving unit 20 receives reflected light reflected by the position of the object S and / or the movement of the object S using the light emitting unit 10 as a light source, And a plurality of optical sensors 25 arranged in an array. The photodetector 20 includes a first photodetector portion 20a and a photodiode 25 in which photodiodes 25 are arrayed along the horizontal axis (x axis) and photodiodes 25 arranged in the vertical axis (y axis) 2 optical sensor unit 20b. Alternatively, in the modified embodiment of the present invention, the first photosensor portion 20a and the second photosensor portion 20b may be disposed adjacent to each other instead of being separately arranged and spaced apart from each other. Further, Or may be disposed in a mixed manner.

도 3 및 도 4를 참조하면, 제 1 광센서부(20a)에서는 가로축으로 어레이 배치된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 가로 움직임(x축에 나란한 방향으로의 움직임)에 대한 광학신호를 검출할 수 있다. 또는, 제 1 광센서부(20a)에서는 가로축으로 어레이 배치된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 임의방향 움직임의 가로성분(x축에 나란한 방향으로의 성분)에 대한 광학신호를 검출할 수 있다. 3 and 4, in the first photosensor section 20a, a plurality of photodiodes 25 arrayed in the horizontal axis are used to perform lateral movement (movement in the direction parallel to the x axis) of the object S Can be detected. Or, in the first photosensor section 20a, by the plurality of photodiodes 25 arrayed in the horizontal axis, the horizontal component (the component in the direction parallel to the x axis) of the arbitrary direction movement of the object S The optical signal can be detected.

예를 들어, 대상물(S)이 도 3에서 좌측에서 우측으로 움직일 때, 제 1 광센서부(20a)에 수광되는 반사광의 광학신호의 세기는 제 1 광센서부(20a) 내의 임의의 포토다이오드들(25a, 25b, 25c)을 기준으로 도 4와 같이 시간에 따라 변화한다. 즉, 대상물(S)이 움직이면서 포토다이오드(25a)에 점점 근접할수록 포토다이오드(25a)에 수광되는 반사광의 광학신호의 세기(A)는 점점 증대되고, 포토다이오드(25a)와 최근접한 위치에서 포토다이오드(25a)에 수광되는 반사광의 광학신호의 세기(A)는 정점을 이루고, 대상물(S)이 움직이면서 포토다이오드(25a)에서 점점 멀어질수록 포토다이오드(25a)에 수광되는 반사광의 광학신호의 세기(A)는 점점 감소된다. 동일한 원리로 포토다이오드(25b)에서 시간에 따른 광학신호의 세기(B)의 분포가 나타나며, 포토다이오드(25c)에서 시간에 따른 광학신호의 세기(C)의 분포가 나타난다. 한편, 대상물(S)이 움직이므로, 대상물(S)과 포토다이오드들(25a, 25b, 25c) 각각의 이격 거리가 시간에 따라 순차적으로 변화하고, 광학신호의 세기(A, B, C)의 분포도 시간에 따라 순차적으로 변화한다. 이와 같이, 어레이 배치된 복수의 포토다이오드(25)의 각각에서 검출되는 광학신호의 세기 및 각도를 모두 취합하여 분석하면 대상물(S)의 가로 움직임 또는 대상물(S)의 임의방향 움직임의 가로성분에 대한 이동거리, 속도, 가속도, 움직임의 시점과 종점 등의 벡터정보를 파악할 수 있다.For example, when the object S moves from left to right in FIG. 3, the intensity of the optical signal of the reflected light received by the first photosensor portion 20a is lower than the intensity of the optical signal of the other photosensor 20a in the first photosensor portion 20a As shown in Fig. 4, with reference to the reference numerals 25a, 25b, and 25c. That is, as the object S moves closer and closer to the photodiode 25a, the intensity A of the reflected light received by the photodiode 25a increases gradually. As the object S moves closer to the photodiode 25a, The intensity A of the optical signal of the reflected light received by the diode 25a forms a peak and the optical signal of the reflected light received by the photodiode 25a becomes smaller as the object S moves away from the photodiode 25a The strength (A) decreases gradually. The distribution of the intensity (B) of the optical signal over time appears in the photodiode 25b on the same principle, and the distribution of the intensity C of the optical signal over time appears in the photodiode 25c. On the other hand, since the object S moves, the separation distance between the object S and each of the photodiodes 25a, 25b and 25c sequentially varies with time, and the intensity of the optical signals A, B and C The distribution varies sequentially with time. By analyzing and analyzing both the intensity and the angle of the optical signal detected in each of the plurality of photodiodes 25 arrayed in this way, it is possible to analyze the lateral motion of the object S or the lateral component of the random movement of the object S The vector information such as the moving distance, speed, acceleration, start point and end point of the motion can be grasped.

도 5 및 도 6을 참조하면, 제 2 광센서부(20b)에서는 세로축으로 어레이 배치된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 세로 움직임(y축에 나란한 방향으로의 움직임)에 대한 광학신호를 검출할 수 있다. 또는, 제 2 광센서부(20b)에서는 세로축으로 어레이 배치된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 임의방향 움직임의 세로성분(y축에 나란한 방향으로의 성분)에 대한 광학신호를 검출할 수 있다. 5 and 6, in the second photosensor section 20b, a plurality of photodiodes 25 arrayed in a vertical axis are arranged to move longitudinally (in a direction parallel to the y-axis) Can be detected. Or, in the second photosensor section 20b, by the plurality of photodiodes 25 arrayed in the vertical axis, the vertical component (the component in the direction parallel to the y axis) of the arbitrary direction movement of the object S The optical signal can be detected.

예를 들어, 대상물(S)이 도 5와 같이 y축 방향과 나란하게 상측에서 하측으로 움직일 때, 제 2 광센서부(20b)에 수광되는 반사광의 광학신호 세기는 제 2 광센서부(20b) 내의 임의의 포토다이오드들(25d, 25e, 25f, 25g)을 기준으로 도 6과 같이 시간에 따라 변화한다. 즉, 대상물(S)이 움직이면서 포토다이오드(25d)에 점점 근접할수록 포토다이오드(25d)에 수광되는 반사광의 광학신호 세기(D)는 점점 증대되고, 포토다이오드(25d)와 최근접한 위치에서 포토다이오드(25d)에 수광되는 반사광의 광학신호의 세기(D)는 정점을 이루고, 대상물(S)이 움직이면서 포토다이오드(25d)에서 점점 멀어질수록 포토다이오드(25d)에 수광되는 반사광의 광학신호 세기(D)는 점점 감소된다. 동일한 원리로 포토다이오드(25e)에서 시간에 따른 광학신호 세기(E)의 분포가 나타나며, 포토다이오드(25f)에서 시간에 따른 광학신호 세기(F)의 분포가 나타나며, 포토다이오드(25g)에서 시간에 따른 광학신호 세기(G)의 분포가 나타난다. 한편, 대상물(S)이 움직이므로, 대상물(S)과 포토다이오드들(25d, 25e, 25f, 25g) 각각의 이격 거리가 시간에 따라 순차적으로 변화하고, 광학신호 세기(D, E, F, G)의 분포도 시간에 따라 순차적으로 변화한다. 이와 같이, 어레이 배치된 복수의 포토다이오드(25)의 각각에서 검출되는 광학신호의 세기 및 각도를 모두 취합하여 분석하면 대상물(S)의 세로 움직임 또는 대상물(S)의 임의방향 움직임의 세로성분에 대한 이동거리, 속도, 가속도, 움직임의 시점과 종점 등의 벡터정보를 파악할 수 있다.For example, when the object S moves from the upper side to the lower side in parallel with the y-axis direction as shown in Fig. 5, the optical signal intensity of the reflected light received by the second photosensor unit 20b is lower than that of the second photosensor unit 20b As shown in FIG. 6, with respect to any of the photodiodes 25d, 25e, 25f, and 25g in FIG. That is, as the object S moves closer and closer to the photodiode 25d, the optical signal intensity D of the reflected light received by the photodiode 25d gradually increases, and at the position nearest to the photodiode 25d, The intensity D of the optical signal of the reflected light received by the photodiode 25d forms a peak and the intensity of the optical signal of the reflected light received by the photodiode 25d increases as the object S moves further away from the photodiode 25d D) is gradually decreased. The distribution of the optical signal intensity E over time appears in the photodiode 25e on the same principle and the distribution of the optical signal intensity F over time appears in the photodiode 25f, The distribution of the optical signal intensity (G) according to the distribution of the optical signal intensity. The distance S between the object S and each of the photodiodes 25d, 25e, 25f and 25g sequentially changes with time and the optical signal intensity D, E, F, G) varies sequentially with time. By analyzing and analyzing both the intensity and the angle of the optical signal detected in each of the plurality of photodiodes 25 arrayed in this manner, the vertical motion of the object S or the vertical component of the random movement of the object S The vector information such as the moving distance, speed, acceleration, start point and end point of the motion can be grasped.

도 7을 참조하면, 제 1 광센서부(20a) 및/또는 제 2 광센서부(20b)를 포함하는 수광부(20)에서는 가로축 및/또는 세로축으로 어레이 배열된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 높이 움직임(z축에 나란한 방향으로의 움직임)에 대한 광학신호를 검출할 수 있다. 또는 제 1 광센서부(20a) 및 제 2 광센서부(20b)를 포함하는 수광부(20)에서는 가로축 및/또는 세로축으로 어레이 배열된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 임의방향 움직임의 높이성분(z축에 나란한 방향으로의 성분)에 대한 광학신호를 검출할 수 있다. 예를 들어, 대상물(S)이 도 7과 같이 고점에서 저점으로 움직일 때, 제 1 광센서부(20a) 및/또는 제 2 광센서부(20b)를 포함하는 수광부(20)에 수광되는 반사광의 광학신호의 세기는 증대된다. 이와 같이, 어레이 배치된 복수의 포토다이오드(25)의 각각에서 검출되는 광학신호의 세기 및 각도를 모두 취합하여 분석하면 대상물(S)의 높이 움직임 또는 대상물(S)의 임의방향 움직임의 높이성분에 대한 이동거리, 속도, 가속도, 움직임의 시점과 종점 등의 벡터정보를 파악할 수 있다.7, in the light receiving unit 20 including the first photosensor unit 20a and / or the second photosensor unit 20b, a plurality of photodiodes 25 arranged in an array in the horizontal axis and / or the vertical axis (Movement in the direction parallel to the z-axis) of the object S can be detected. Or the light receiving unit 20 including the first photosensor unit 20a and the second photosensor unit 20b is provided with a plurality of photodiodes 25 arrayed in the horizontal and / (Component in the direction parallel to the z-axis) of the arbitrary direction movement of the light source. For example, when the object S moves from the high point to the low point as shown in FIG. 7, the reflected light (light) received by the light receiving section 20 including the first photosensor section 20a and / or the second photosensor section 20b The intensity of the optical signal of the light source is increased. By analyzing and analyzing both the intensity and the angle of the optical signal detected in each of the plurality of photodiodes 25 arrayed in this manner, the height of the object S or the height component of the movement of the object S in any direction The vector information such as the moving distance, speed, acceleration, start point and end point of the motion can be grasped.

공간상에서 대상물(S)의 임의방향 움직임에 대한 광학신호(또는 광학신호에서 변환된 전기신호)는, 도 3 및 도 4을 참조하여 설명한 것처럼, 제 1 광센서부(20a)에 의하여 검출된 대상물(S)의 움직임의 가로성분에 대한 광학신호(또는 광학신호에서 변환된 전기신호); 도 5 및 도 6을 참조하여 설명한 것처럼, 제 2 광센서부(20b)에 의하여 검출된 대상물(S)의 움직임의 세로성분에 대한 광학신호(또는 광학신호에서 변환된 전기신호); 도 7을 참조하여 설명한 것처럼, 제 1 광센서부(20a) 및 제 2 광센서부(20b)에 의하여 검출된 대상물(S)의 움직임의 높이성분에 대한 광학신호(또는 광학신호에서 변환된 전기신호);가 통합되어 구현될 수 있다. The optical signal (or the electric signal converted from the optical signal) for the arbitrary movement of the object S in the space is converted into the electric signal of the object S detected by the first photosensor unit 20a as described with reference to Figs. (Or an electrical signal converted from an optical signal) for the horizontal component of the motion of the object S; As described with reference to Figs. 5 and 6, an optical signal (or an electric signal converted from an optical signal) for a vertical component of the motion of the object S detected by the second photosensor section 20b; As described with reference to Fig. 7, the optical signal (or the electric signal converted from the optical signal) for the height component of the motion of the object S detected by the first photosensor portion 20a and the second photosensor portion 20b Signal) can be integrated and implemented.

이러한 통합된 광학신호(또는 광학신호에서 변환된 전기신호)는 대상물(S)의 임의방향으로의 움직임에 대한 이동거리, 속도, 가속도, 움직임의 시점과 종점 등의 시간정보와 벡터정보를 반영할 수 있다. 따라서, 발광부(10)와 수광부(20)를 포함하는 비접촉 센서 모듈(30)은, 이미지센서(카메라)를 이용하지 않고서도, 대상물(S)에 의해 반사되어 수신되는 광의 각도, 광의 세기를 이용하여 공간상에서 대상물(S)의 위치 및 움직임의 정확한 궤적을 검출할 수 있다. The integrated optical signal (or the electrical signal converted from the optical signal) reflects the time information and the vector information such as the moving distance, velocity, acceleration, and the starting and ending points of movement of the object S in an arbitrary direction . Therefore, the non-contact sensor module 30 including the light emitting portion 10 and the light receiving portion 20 can measure the angle and the intensity of the light reflected and received by the object S without using the image sensor It is possible to detect an accurate locus of the position and motion of the object S in the space.

마이크로컨트롤유닛(40)은 비접촉 센서 모듈(30)에서 검출된 대상물(S)에 대한 광학신호와 상기 광학신호가 변환된 전기신호를 입력받아 대상물(S)의 위치 및/또는 움직임에 대한 공간좌표를 구현하는 알고리즘을 탑재할 수 있다. 나아가, 상기 공간좌표를 이용하여 대상물(S)의 위치 및/또는 움직임에 대응하는 제스쳐 동작을 판별하고, 상기 제스쳐 동작에 대응하는 제어신호를 생성할 수 있다. 마이크로컨트롤유닛(40)은 상기 제어신호를 생성하기 위하여, 제스쳐 동작과 이에 대응하는 제어신호를 각각 저장한 데이타베이스부를 포함할 수 있다. 또한, 마이크로컨트롤유닛(40)은 상기 공간좌표를 이용하여 대상물(S)의 위치 및/또는 움직임에 대응하는 제스쳐 동작을 판별하기 위하여 비교판단부를 포함할 수 있다. The micro control unit 40 receives an optical signal for the object S detected by the non-contact sensor module 30 and an electrical signal obtained by converting the optical signal and outputs the spatial coordinates Can be implemented. Further, the spatial coordinates may be used to determine a gesture operation corresponding to the position and / or movement of the object S, and generate a control signal corresponding to the gesture operation. The micro control unit 40 may include a database unit for storing the gesture operation and the corresponding control signal, respectively, in order to generate the control signal. In addition, the micro control unit 40 may include a comparison determination unit for determining a gesture operation corresponding to the position and / or motion of the object S using the spatial coordinates.

예를 들어, 마이크로컨트롤유닛(40)은, 제스쳐 동작이 시계방향의 원(circle)을 형성할 경우 이에 대응하는 제어신호가 단말장치(120)를 구성하는 적어도 하나의 하드웨어 또는 단말장치(120)에 설치된 소프트웨어의 줌업(zoom up) 기능을 가능하게 하는 제어신호로 설정되어 있는, 데이타베이스부를 포함할 수 있다. 이러한 데이타베이스부는 사용자가 임의로 설정할 수 있도록 구성될 수 있다. For example, when the gesture operation forms a circle in the clockwise direction, the micro control unit 40 generates a control signal corresponding to at least one hardware or terminal device 120 constituting the terminal device 120, And a data portion which is set to a control signal that enables a function of zooming up the software installed in the computer. Such a database part can be configured so that the user can arbitrarily set it.

또한, 예를 들어, 마이크로컨트롤유닛(40)은 대상물(S)의 실제 움직임이 공간상에서 형성하는 형상이 시점과 종점이 정확하게 일치하지 않더라도 대상물(S)의 실제 움직임의 가로성분, 세로성분 및 높이성분에 대한 이동거리, 속도, 가속도, 곡률, 움직임의 시점과 종점 등의 시간정보와 벡터정보를 고려할 때 대상물(S)의 움직임은 시계방향의 원을 형성하는 제스쳐 동작으로 판별할 수 있는 비교판단부를 포함할 수 있다. 비교판단부는 대상물(S)의 움직임과 상기 제스쳐 동작 간의 오차를 산출하고, 소정의 오차범위 이내에서 상기 대상물(S)의 움직임을 상기 데이타베이스부에 저장된 제스쳐 동작으로 분류하고 판별할 수 있는 알고리즘을 포함할 수 있다. In addition, for example, the micro control unit 40 can determine the shape of the actual movement of the object S in the space, even if the start point and the end point do not exactly coincide with each other, Considering the time information and the vector information such as the moving distance, speed, acceleration, curvature, motion start point and end point of the motion of the object, the motion of the object S can be determined by a gesture operation that forms a clockwise circle. Section. The comparison determination unit calculates an error between the motion of the object S and the gesture motion and classifies an motion of the object S into a gesture motion stored in the database unit and determines an error within a predetermined error range .

도 8은 본 발명의 변형된 일 실시예에 따른 비접촉 조작 장치를 포함하는 구성을 도해하는 구성도이다. 도 8을 참조하면, 본 발명의 본 발명의 변형된 일 실시예에 따른 비접촉 조작 장치(1)에서는, 도 1과 달리, 발광부(10)와 수광부(20)가 비접촉 센서 모듈(30)과 같은 하나의 모듈을 구성하지 않고 서로 이격되어 배치될 수 있다. 발광부(10)와 수광부(20)가 하나의 모듈을 구성하지 않으므로 비접촉 조작 장치(1) 내에서 발광부(10)와 수광부(20)는 독립적으로 자유롭게 배치될 수 있어, 배치 자유도가 높아지는 유리한 효과를 기대할 수 있다. 물론, 도 1에서는 발광부(10)와 수광부(20)가 하나의 모듈을 이루면서 구성되므로, 비접촉 조작 장치(1) 내에서 용이하게 배치 및 핸들링할 수 있다는 유리한 효과를 기대할 수 있다. 발광부(10) 및 수광부(20)를 사용하여 대상물(S)의 위치 및/또는 대상물(S)의 움직임에 대응하여 광학신호를 검출하고 공간좌표를 산출하는 개념은 도 1과 동일하며, 마이크로컨트롤유닛(40)과 통신부(50)에 대한 설명도 도 1과 동일하므로, 여기에서는 생략한다. 8 is a configuration diagram illustrating a configuration including a contactless operation apparatus according to a modified embodiment of the present invention. 1, the light emitting unit 10 and the light receiving unit 20 are connected to the noncontact sensor module 30 and the light receiving unit 20, respectively, in the contactless operation apparatus 1 according to the modified embodiment of the present invention, They can be disposed apart from each other without forming the same single module. Since the light emitting portion 10 and the light receiving portion 20 do not constitute a single module, the light emitting portion 10 and the light receiving portion 20 can be freely arranged independently in the noncontact handling device 1, Effect can be expected. Of course, since the light emitting unit 10 and the light receiving unit 20 are formed as one module in FIG. 1, an advantageous effect of being easily arranged and handled in the noncontact handling apparatus 1 can be expected. The concept of detecting the optical signal and calculating the spatial coordinates corresponding to the position of the object S and / or the movement of the object S using the light emitting portion 10 and the light receiving portion 20 is the same as in Fig. 1, The description of the control unit 40 and the communication unit 50 is also identical to that of FIG. 1, and therefore will not be described here.

이하에서는 본 발명의 다른 실시예들에 따라, 상기 비접촉 센서 모듈(30)이 적어도 두 개 이상인 복수개로 제공되는 경우, 또는, 상기 수광부(20)가 적어도 두 개 이상인 복수개로 제공되는 경우에, 대상물의 공간좌표를 더 정밀하게 산출할 수 있다는 유리한 효과를 설명하고자 한다. Hereinafter, according to other embodiments of the present invention, when a plurality of the non-contact sensor modules 30 are provided as at least two or more, or when a plurality of the light receiving portions 20 are provided as at least two or more, The spatial coordinates of the target object can be calculated more precisely.

도 4 및 도 9를 참조하면, 예를 들어 시간 T1에서, 제 1 광센서부(20a) 내의 포토다이오드들(25a, 25b, 25c)에 수광되는 반사광의 광학신호 세기는 광학신호(C), 광학신호(B), 광학신호(A)의 순서로 점점 작아진다. 즉, 시간 T1에서 대상물(S)의 위치는, 포토다이오드(25c)에 가장 근접하고, 포토다이오드(25a)에서 가장 이격되어 있는, 평면 상의 임의의 어느 한 점에 대응될 수 있다. 따라서, 시간 T1에서 대상물(S)의 위치는, 도 9에 도시된 것처럼, 제 1 광센서부(20a)에 의하여, xy 평면에 수직이며, x축에 수직이며, y축 및 z축에 나란한 평면(Px) 상의 임의의 어느 한 점에 대응될 수 있다. 4 and 9, for example, at time T 1 , the optical signal intensity of the reflected light received by the photodiodes 25a, 25b, and 25c in the first photosensor section 20a is the optical signal C, , The optical signal (B), and the optical signal (A). That is, the position of the object S at time T 1 may correspond to any point on the plane closest to the photodiode 25c and the most distant from the photodiode 25a. Therefore, the position of the object S at time T 1 is determined by the first photosensor section 20a to be perpendicular to the xy plane, perpendicular to the x-axis, May correspond to any one point on the side-by-side plane (P x ).

또한, 도 6 및 도 9를 참조하면, 예를 들어 시간 T1에서, 제 2 광센서부(20b) 내의 포토다이오드들(25d, 25e, 25f, 25g)에 수광되는 반사광의 광학신호 세기는 광학신호(F), 광학신호(E), 광학신호(G), 광학신호(D)의 순서로 점점 작아진다. 즉, 시간 T1에서 대상물(S)의 위치는, 포토다이오드(25f)에 가장 근접하고, 그 다음으로 포토다이오드(25e)에 근접하며, 포토다이오드(25d)와 가장 이격되어 있는, 평면 상의 임의의 어느 한 점에 대응될 수 있다. 따라서, 시간 T1에서 대상물(S)의 위치는, 도 9에 도시된 것처럼, 제 2 광센서부(20b)에 의하여, xy 평면에 수직이며, y축에 수직이며, x축 및 z축에 나란한 평면(Py) 상의 임의의 어느 한 점에 대응될 수 있다.6 and 9, the optical signal intensity of the reflected light received by the photodiodes 25d, 25e, 25f, and 25g in the second photosensor section 20b at time T 1 , for example, (F), the optical signal (E), the optical signal (G), and the optical signal (D). That is, the position of the object S at the time T 1 is the position closest to the photodiode 25f, next to the photodiode 25e, and the most distant from the photodiode 25d Or the like. 9, the position of the object S at time T 1 is perpendicular to the xy plane, perpendicular to the y-axis, and perpendicular to the x-axis and the z-axis by the second photosensor section 20b, May correspond to any one point on the side-by-side plane (P y ).

따라서, 도 4, 도 6 및 도 9를 참조하면, 예를 들어 시간 T1에서, 대상물(S)의 위치는, 도 9에 도시된 것처럼, 제 1 광센서부(20a)에 의하여, xy 평면에 수직이며, x축에 수직이며, y축 및 z축에 나란한 평면(Px) 상의 임의의 어느 한 점에 대응되며, 제 2 광센서부(20b)에 의하여, xy 평면에 수직이며, y축에 수직이며, x축 및 z축에 나란한 평면(Py) 상의 임의의 어느 한 점에 대응될 수 있으므로, 시간 T1에서, 대상물(S)의 위치는, 평면(Px)과 평면(Py)가 교차되는 교차라인(Lz) 상의 임의의 어느 한 점에 대응될 수 있다. 4, 6, and 9, for example, at time T 1 , the position of the object S is determined by the first photosensor section 20a in the xy plane Corresponds to any one point on the plane (P x ) which is perpendicular to the x-axis and parallel to the y-axis and the z-axis, perpendicular to the xy plane by the second photosensor portion 20b, and y is perpendicular to the axis, it can correspond to the x-axis, and any one point on the parallel planes (P y) to the z-axis, the time position in the T 1, the object (S), the plane (P x) and the plane ( May correspond to any one point on the intersecting line (L z ) where the intersecting lines (P y , P y ) intersect.

이에 따르면, 하나의 비접촉 센서 모듈(30) 내에 구비되는 제 1 광센서부(20a) 및 제 2 광센서부(20b)에 의해서도, 대상물(S)의 위치가 교차라인(Lz) 상의 임의의 어느 한 점에 대응될 수 있다. 다만, 단 하나의 비접촉 센서 모듈(30)에 의해서는 대상물(S)의 공간좌표 중 높이성분(z성분)을 정확하게 파악하는 것이 용이하지 않을 수 있다. 물론, 대상물(S)이 비접촉 센서 모듈(30)에서 높이 방향(z축 방향)으로 멀어질수록 도 4 및 도 6에 나타난 광학신호의 세기의 절대값은 상대적으로 작으며, 대상물(S)이 비접촉 센서 모듈(30)에서 높이 방향(z축 방향)으로 가까울수록 도 4 및 도 6에 나타난 광학신호의 세기의 절대값은 상대적으로 커지지만, 공간좌표 중 높이성분(z성분)의 절대치를 정확하게 파악하는 것은 용이하지 않다. Accordingly, on one non-contact sensor module 30, the first photosensor section (20a) and the second cross-line position of the object (S) by the optical sensor unit (20b) (L z) which is provided in any of the It can correspond to any one point. However, it is not easy to accurately grasp the height component (z component) among the spatial coordinates of the object S by only one non-contact sensor module 30. [ Of course, as the object S moves away from the non-contact sensor module 30 in the height direction (z-axis direction), the absolute value of the intensity of the optical signal shown in Figs. 4 and 6 is relatively small, As the absolute value of the intensity of the optical signal shown in FIG. 4 and FIG. 6 becomes relatively larger in the height direction (z axis direction) in the non-contact sensor module 30, the absolute value of the height component (z component) It is not easy to grasp.

이와 같이, 발광부(10)와 수광부(20)로 구성된 1개의 독립된 비접촉 센서 모듈을 이용하는 경우, 대상물(S)의 정확한 위치 좌표를 정확하게 산출하기 어렵다는 문제점이 있다. 또한, 대상물(S)의 크기가 큰 경우 좌우, 상하 움직임에 따라 일부 구간의 좌표에서는 반사광의 수신이 차단되어 정확한 공간좌표를 파악하기 어려우며 나아가 대상물의 움직임을 인식함에 오류가 발생할 수 있다는 문제점이 있다. 본 발명의 다른 실시예에 따른 비접촉 조작 장치(1)는 복수의 비접촉 센서 모듈들을 포함함으로써, 이러한 문제점을 해결하고자 한다. As described above, there is a problem in that it is difficult to accurately calculate the exact position coordinates of the object S when using one independent contactless sensor module composed of the light emitting portion 10 and the light receiving portion 20. In addition, when the size of the object S is large, reception of the reflected light is blocked at the coordinates of some sections according to the left and right and up and down movements, so that it is difficult to grasp the accurate spatial coordinates and error may occur in recognizing the movement of the object . The noncontact operating device 1 according to another embodiment of the present invention includes a plurality of noncontact sensor modules to solve such a problem.

도 10은 본 발명의 다른 실시예에 따른 비접촉 조작 장치를 포함하는 구성을 도해하는 구성도이다. 도 11은 본 발명의 다른 실시예에 따른 비접촉 조작 장치에서 두 개의 비접촉 센서 모듈들의 이격거리 및 반사광의 수광각을 이용하여 대상물에 대한 공간좌표 중 높이성분을 산출하는 개념을 도해하는 도면이다. 10 is a configuration diagram illustrating a configuration including a contactless operation apparatus according to another embodiment of the present invention. 11 is a diagram illustrating a concept of calculating a height component in space coordinates for an object using a distance between two non-contact sensor modules and a receiving angle of reflected light in a non-contact operation apparatus according to another embodiment of the present invention.

도 10과 같이, 적어도 둘 이상의 비접촉 센서 모듈들(31)은 제 1 비접촉 센서 모듈(30-1)과 제 2 비접촉 센서 모듈(30-2)을 포함한다. 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2)의 각각은 앞에서 상술한 비접촉 센서 모듈(30)과 동일하다. 도 11을 참조하면, 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2) 사이의 이격거리(D)와, 복수의 비접촉 센서 모듈들(30-1, 30-2)에 각각 구비된 수광부(20)에 수광되는 반사광(R1, R2)의 수광각(∠θ1, ∠θ2, 단위:도(°))을 이용함으로써 대상물(S)에 대한 공간좌표 중 높이성분(H)을 수학식 1과 같이 삼각진법으로 산출할 수 있다. As shown in FIG. 10, at least two or more non-contact sensor modules 31 include a first non-contact sensor module 30-1 and a second non-contact sensor module 30-2. Each of the first and second non-contact sensor modules 30-1 and 30-2 is the same as the non-contact sensor module 30 described above. 11, the distance D between the first non-contact sensor module 30-1 and the second contactless sensor module 30-2 and the distances D between the non-contact sensor modules 30-1 and 30-2 (∠θ 1 , ∠θ 2 , unit: degree (°)) of the reflected light (R 1 , R 2 ) received by the light receiving portion 20 provided in the light receiving portion The middle-height component (H) can be calculated by the triangular method as shown in Equation (1).

[수학식 1][Equation 1]

H = D / (tan(90°- θ1) + tan(90°- θ2))H = D / (tan (90 -? 1 ) + tan (90 -? 2 )

또한, 다수의 비접촉 센서 모듈들(31)이 배치됨으로써 대상물(S)의 크기에 상관없이 정확한 위치좌표를 산출할 수 있다. 도 10 및 도 11에서는, 예시적으로, 비접촉 센서 모듈들(31)이 두 개의 비접촉 센서 모듈인 경우를 설명하였지만, 나아가, 더 많은 개수의 복수의 비접촉 센서 모듈들(31)이 가로 및/또는 세로 방향으로 어레이로 배치됨으로써 보다 정확한 대상물(S)의 위치좌표를 산출할 수 있다. In addition, by arranging the plurality of non-contact sensor modules 31, accurate position coordinates can be calculated irrespective of the size of the object S. 10 and 11 illustratively illustrate the case where the noncontact sensor modules 31 are two noncontact sensor modules, but further, a larger number of the plurality of noncontact sensor modules 31 may be disposed in the lateral and / The positional coordinates of the object S can be calculated more accurately.

수광되는 반사광의 수광각은 제 1 광센서부(20a)에서 가로축으로 어레이 배치된 복수의 포토다이오드(25)들과 제 2 광센서부(20b)에서 세로축으로 어레이 배치된 복수의 포토다이오드(25)들에 수광되는 반사광의 광학신호의 세기 분포를 종합적으로 분석하여 산출할 수 있다. 한편, 수광각의 산출을 용이하게 하도록, 제 1 광센서부(20a) 및 제 2 광센서부(20b)의 상부에 반사광을 선택적으로 차단 및 통과시킬 수 있는 슬릿부(미도시)들을 배치할 수 있다. 예를 들어, 상기 슬릿부는 서로 나란하게 이격되어 배열된 복수의 바(bar)들로 구성될 수 있다. 제 1 광센서부(20a) 상의 슬릿부 방향과 제 2 광센서부(20b) 상의 슬릿부 방향은 서로 교차되는 방향일 수 있다.The light receiving angle of the reflected light is detected by a plurality of photodiodes 25 arrayed in the horizontal axis in the first photosensor section 20a and a plurality of photodiodes 25 arranged in the vertical axis array in the second photosensor section 20b The intensity distribution of the optical signal of the reflected light received by the light receiving element can be comprehensively analyzed. On the other hand, slit portions (not shown) capable of selectively blocking and passing reflected light are disposed on the first photosensor portion 20a and the second photosensor portion 20b to facilitate the calculation of the acceptance angle . For example, the slit portions may be formed of a plurality of bars arranged in parallel to each other. The direction of the slit portion on the first photosensor portion 20a and the direction of the slit portion on the second photosensor portion 20b may be directions intersecting with each other.

최종적으로, 도 11을 참조하여 산출한 공간좌표의 높이성분(H)을 도 9를 참조하여 산출한 교차라인(Lz)과 결합하면, 대상물(S)의 공간좌표를 산출할 수 있다. 마이크로컨트롤유닛(40)은 복수의 비접촉 센서 모듈들(31)에서 검출된 반사광의 광학정보와 복수의 비접촉 센서 모듈들(31) 간의 이격거리(D) 정보를 입력받아 대상물(S)의 공간좌표를 구현하는 알고리즘을 탑재하여 정확한 좌표 데이타를 출력할 수 있다.Finally, the spatial coordinates of the object S can be calculated by combining the height component H of the space coordinate calculated with reference to Fig. 11 and the intersection line L z calculated with reference to Fig. The micro control unit 40 receives the optical information of the reflected light detected by the plurality of non-contact sensor modules 31 and the distance information D between the plurality of non-contact sensor modules 31, Can be mounted and an accurate coordinate data can be output.

나아가, 마이크로컨트롤유닛(40)은 산출된 대상물(S)의 위치를 나타내는 공간좌표를 이용하여 대상물(S)의 움직임에 대한 제스쳐 동작을 판별하고, 상기 제스쳐 동작에 대응하는 제어신호를 생성할 수 있다. 이를 위하여, 선택적으로, 제스쳐 동작과 이에 대응하는 제어신호를 각각 저장한 데이타베이스부를 더 포함할 수 있다. 또한, 마이크로컨트롤유닛(40)은 대상물(S) 움직임에 대한 제스쳐 동작을 판별하기 위하여 비교판단부를 더 포함할 수 있다. Further, the micro control unit 40 can determine the gesture motion for the motion of the object S using the spatial coordinates indicating the position of the calculated object S, and generate the control signal corresponding to the gesture motion have. To this end, the apparatus may further include a database unit that selectively stores a gesture operation and a corresponding control signal. In addition, the micro control unit 40 may further include a comparison determination unit for determining a gesture operation with respect to the object S motion.

예를 들어, 마이크로컨트롤유닛(40)은, 제스쳐 동작이 시계방향의 원(circle)을 형성할 경우 이에 대응하는 제어신호가, 단말장치(120)를 구성하는 적어도 하나의 하드웨어 또는 단말장치(120)에 설치된 소프트웨어의 줌업(zoom up) 기능을 가능하게 하는 제어신호로 설정되어 있는, 데이타베이스부를 포함할 수 있다. 이러한 데이타베이스부는 사용자가 임의로 설정할 수 있도록 구성될 수 있다. 또한, 마이크로컨트롤유닛(40)은 대상물(S)의 실제 움직임이 공간상에서 형성하는 형상이 시점과 종점이 정확하게 일치하지 않더라도 대상물(S)의 실제 움직임의 가로성분, 세로성분 및 높이성분에 대한 이동거리, 속도, 가속도, 곡률, 움직임의 시점과 종점 등의 시간정보와 벡터정보를 고려할 때 대상물(S)의 실제 움직임은 시계방향의 원을 형성하는 제스쳐 동작으로 판별할 수 있는 비교판단부를 포함할 수 있다. 비교판단부는 대상물(S)의 실제 움직임과 상기 제스쳐 동작 간의 오차를 산출하고, 소정의 오차범위 이내에서 대상물(S)의 실제 움직임을 상기 데이타베이스부에 저장된 제스쳐 동작으로 분류하고 판별할 수 있는 알고리즘을 포함할 수 있다. For example, when the gesture operation forms a circle in the clockwise direction, the corresponding control signal is transmitted to at least one hardware or terminal device 120 And a data portion which is set as a control signal for enabling a function of zooming up the software installed in the computer. Such a database part can be configured so that the user can arbitrarily set it. The micro control unit 40 is configured to move the movement of the object S in the horizontal, vertical, and vertical components of the actual movement of the object S even if the shape formed by the actual movement of the object S in the space does not exactly coincide with the start point and the end point. Considering time information and vector information such as distance, velocity, acceleration, curvature, motion start and end points, and the like, the actual motion of the object S includes a comparison determination unit that can be determined as a gesture motion forming a clockwise circle . The comparison determining unit calculates an error between the actual motion of the object S and the gesture motion and calculates an algorithm for classifying the actual motion of the object S into a gesture motion stored in the database unit within a predetermined error range . ≪ / RTI >

도 12는 본 발명의 변형된 다른 실시예에 따른 비접촉 조작 장치를 포함하는 구성을 도해하는 구성도이다.12 is a configuration diagram illustrating a configuration including a contactless operation apparatus according to another modified embodiment of the present invention.

도 12를 참조하면, 본 발명의 본 발명의 변형된 다른 실시예에 따른 비접촉 조작 장치(1)에서는, 도 10과 달리, 발광부(10)와 수광부(20)가 비접촉 센서 모듈(30)과 같은 하나의 모듈을 구성하지 않고 서로 이격되어 배치될 수 있다. 발광부(10)와 수광부(20)가 하나의 모듈을 구성하지 않으므로 비접촉 조작 장치(1) 내에서 발광부(10)와 수광부(20)는 독립적으로 자유롭게 배치될 수 있어, 배치 자유도가 높아지는 유리한 효과를 기대할 수 있다. 나아가, 도 10과 달리, 적어도 둘 이상의 수광부들(21)은 제 1 수광부(20-1)와 제 2 수광부(20-2)를 포함한다. 제 1 수광부(20-1)와 제 2 수광부(20-2)의 각각은 앞에서 상술한 수광부(20)와 동일하다. 이 경우, 대상물(S)에 대한 공간좌표 중 높이성분(H)은 제 1 수광부(20-1)와 제 2 수광부(20-2) 사이의 이격거리(D)와 제 1 수광부(20-1)와 제 2 수광부(20-2)에 각각 수광되는 반사광(R1, R2)의 수광각(∠θ1, ∠θ2, 단위:도(°))을 이용함으로써 동일한 수학식 1에 의하여 산출될 수 있다. 발광부(10) 및 복수의 수광부들(21)를 사용하여 대상물(S)의 위치 및/또는 대상물(S)의 움직임에 대응하여 광학신호를 검출하고 공간좌표를 산출하는 개념은 도 10과 동일하며, 마이크로컨트롤유닛(40)과 통신부(50)에 대한 설명도 도 10과 동일하므로, 여기에서는 생략한다. 10, the light emitting unit 10 and the light receiving unit 20 are connected to the noncontact sensor module 30 and the contactless sensor module 30 in the contactless operation device 1 according to the modified embodiment of the present invention, They can be disposed apart from each other without forming the same single module. Since the light emitting portion 10 and the light receiving portion 20 do not constitute a single module, the light emitting portion 10 and the light receiving portion 20 can be freely arranged independently in the noncontact handling device 1, Effect can be expected. Furthermore, unlike FIG. 10, at least two light receiving portions 21 include a first light receiving portion 20-1 and a second light receiving portion 20-2. Each of the first light receiving section 20-1 and the second light receiving section 20-2 is the same as the light receiving section 20 described above. In this case, the height component H of the spatial coordinates with respect to the object S is the distance D between the first light receiving portion 20-1 and the second light receiving portion 20-2 and the distance D between the first light receiving portion 20-1 (∠θ 1 , ∠θ 2 , unit: degree (°)) of the reflected light (R 1 , R 2 ) received by the first light receiving part 20-2 and the second light receiving part 20-2, Can be calculated. The concept of detecting the optical signal and calculating the spatial coordinates corresponding to the position of the object S and / or the motion of the object S using the light emitting portion 10 and the plurality of light receiving portions 21 is the same as in Fig. 10 The description of the micro control unit 40 and the communication unit 50 is the same as that of FIG. 10, and will not be described here.

본 발명의 일 실시예에 따른 비접촉 조작 장치(1)는 기존에 사용되는 이미지센서(카메라) 방식의 문제점을 개선하여, 저전력, 저비용이 가능한 동작 인식알고리즘을 통하여 사용자에게 새롭고 다양한 인터페이스를 제공할 수 있다. 기존에 사용되는 비접촉 제스쳐 동작 인식 방식은 카메라 모듈방식으로 구현되었다. 카메라 모듈방식이란 시모스(CMOS) 카메라로 사용자의 움직임을 촬영하고 센서 집적회로(IC)가 촬영한 영상을 인식하는 방식이다. 시모스 카메라로 촬영한 영상을 센서 집적회로로 전송하고 동작을 인식, 검출하는 시간은 상대적으로 많이 소요되고 인식감도는 많이 떨어지는 단점이 있다. 또한, 인식감도가 많이 떨어지기 때문에 다양한 동작을 동시에 처리하기가 매우 어려운 단점도 있다. 나아가, 동작을 인식하기 위해 카메라 모듈을 동작시켜야 하기 때문에 전력소모량이 많은 단점도 있다. 또한, 카메라 모듈을 사용하기 때문에 제조단가도 매우 높은 단점이 있다. 이에 반하여, 본 발명의 실시예들에서는 적외선 발광 다이오드(IRED), 포토다이오드 및 마이크로컨트롤유닛을 이용하여 동작 인식을 하므로, 저전력, 빠른 동작 인식 알고리즘, 낮은 단가, 간단한 동작 인식 처리과정을 통하여 이러한 문제점들을 해결할 수 있다. The noncontact manipulation apparatus 1 according to the embodiment of the present invention improves the problems of the conventional image sensor (camera) method and provides a new and various interface to the user through a low-power and low-cost motion recognition algorithm have. Conventionally, the non-contact gesture motion recognition method is implemented by a camera module method. The camera module method is a method of capturing the movement of a user with a CMOS camera and recognizing an image captured by a sensor integrated circuit (IC). It takes a relatively long time to recognize and detect the movement of the image captured by the Simos camera to the sensor integrated circuit, and there is a disadvantage that the recognition sensitivity is much lower. In addition, there is a drawback in that it is very difficult to simultaneously process various operations because the recognition sensitivity is greatly reduced. Furthermore, since the camera module must be operated in order to recognize the operation, there is a disadvantage that the power consumption is large. In addition, since the camera module is used, the manufacturing cost is very high. On the other hand, in the embodiments of the present invention, since the operation recognition is performed by using the infrared light emitting diode (IRED), the photodiode, and the micro control unit, Can be solved.

한편, 지금까지 상술한 본 발명의 기술적 사상은 이미지센서(카메라) 방식의 문제점을 개선하여, 저전력, 저비용이 가능한 위치 및/또는 동작 인식알고리즘을 통하여 사용자에게 새롭고 다양한 인터페이스를 제공한다는 점에서 다양한 제품에 적용이 가능하며, 이하에서는, 이를 키보드(keyboard)에 적용한 구성을 설명한다. Meanwhile, the technical idea of the present invention as described above improves the problems of the image sensor (camera) method, and provides a new and various interface to the user through a low power and low cost position and / or motion recognition algorithm. In the following, a configuration applied to a keyboard will be described.

기존의 일반적인 키보드는 트랙볼(track ball), 터치패드(touch pad), 포인팅 스틱(pointing stick)을 구비하여 다양한 사용자 인터페이스를 구현하고 있다. 트랙볼을 이용한 인터페이스는 가격이 저렴하지만 감도가 좋지 않은 경우가 많고 부피가 큰 문제점이 있으며, 일정 성능 이상의 감도를 획득하기 위해서는 상대적으로 높은 비용이 요구된다는 단점이 있다. 터치패드를 이용한 인터페이스는 열에 약해 오동작을 하는 단점과 포인터의 정확한 포착에 많은 문제점을 가지며, 또한 그림 등을 그릴 때에도 포인터의 위치선정에 많은 어려움이 있다는 단점이 있다. 포인팅 스틱을 이용한 인터페이스는 압력 센서로서 사용자가 누르는 압력에 비례하는 속도로 화면의 마우스 커서가 움직이는 방식을 이용하며 비교적 세밀한 조정이 가능하나 사용자의 다양한 움직임에 대응하기에 용이하지 않다는 단점이 있다. 따라서, 기존의 입력방식인 트랙볼, 터치패드, 포인팅스틱 들은 아직까지 세밀한 조정이나 빠른 대응 측면에서 마우스를 대체하기에는 많은 단점들이 존재한다. 본 발명의 실시예들에서는 앞에서 상술한 비접촉 조작 장치(1) 중 적어도 일부를 기존의 키보드 내에 내장함으로써 이러한 단점들을 극복하고자 한다. Conventional general keyboards have various user interfaces by providing a track ball, a touch pad, and a pointing stick. The interface using the trackball has a problem in that it is inexpensive but has a low sensitivity and a large volume, and a relatively high cost is required in order to obtain sensitivity higher than a predetermined performance. The interface using the touch pad has many disadvantages in that it is malfunctioning due to weak heat and accurate capturing of the pointer, and there is a drawback in that it is difficult to select a pointer even when drawing a picture. The interface using the pointing stick is a pressure sensor that uses a method of moving the mouse cursor on the screen at a speed proportional to the pressure applied by the user, and relatively fine adjustment is possible, but it is not easy to cope with various movements of the user. Therefore, existing input methods such as trackball, touch pad, and pointing stick have many disadvantages to replace the mouse in terms of fine adjustment and quick response. In the embodiments of the present invention, it is attempted to overcome these disadvantages by embedding at least a part of the above-described contactless controlling apparatus 1 in a conventional keyboard.

도 13은 본 발명의 실시예들에 따른 비접촉 조작 장치를 구비한 키보드를 도해하는 도면이다. 도 13을 참조하면, 본 발명의 실시예들에 따른, 비접촉 조작 장치를 구비한 키보드(120)는 도 1 내지 도 12를 참조하여 설명한 다양한 실시예들에 따른 비접촉 조작 장치(1)가 구비된 키보드를 포함한다. 비접촉 조작 장치(1)의 적어도 일부는 키보드(120)의 표면에서 노출되도록 배치하며, 비접촉 조작 장치(1)의 나머지 일부는 키보드(120)의 내부에 내장되도록 배치할 수 있다. 예를 들어, 도 10에 도시된 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2)은 키보드(120)의 외부에 노출되도록 배치하며, 마이크로컨트롤유닛(40)과 통신부(50) 등은 키보드(120)의 내부에 내장되도록 배치할 수 있다. 도면에 도시된 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2)의 위치는 예시적이며, 키보드의 용도나 형상에 따라 적절하게 변경하여 배치될 수 있다. 유사한 방식으로, 도 1, 도 8 및 도 12에 도시된 비접촉 조작 장치(1)에서 발광부(10)와 수광부(20)는 키보드(120)의 외부에 노출되도록 배치될 수 있다. 한편, 변형된 실시예에서, 비접촉 조작 장치(1)를 구성하는 마이크로컨트롤유닛(40)이 구현하는 기능의 적어도 일부는 키보드(120)와 연결되어 있는 컴퓨터(미도시)에 의하여 연동되어 구현되도록 구성될 수도 있다.13 is a diagram illustrating a keyboard equipped with a contactless operation device according to the embodiments of the present invention. Referring to Fig. 13, a keyboard 120 having a noncontact handling device according to the embodiments of the present invention is provided with the contactless operation device 1 according to the various embodiments described with reference to Figs. 1 to 12 Keyboard. At least a part of the contactless controlling device 1 is arranged so as to be exposed at the surface of the keyboard 120 and the remaining part of the contactless controlling device 1 is arranged to be built in the inside of the keyboard 120. [ For example, the first contactless sensor module 30-1 and the second contactless sensor module 30-2 shown in FIG. 10 are disposed so as to be exposed to the outside of the keyboard 120, and the microcontroller 40, The communication unit 50 and the like can be disposed inside the keyboard 120. [ The positions of the first contactless sensor module 30-1 and the second contactless sensor module 30-2 shown in the figure are illustrative and can be appropriately changed according to the application or shape of the keyboard. In a similar manner, the light emitting portion 10 and the light receiving portion 20 in the contactless operation device 1 shown in Figs. 1, 8, and 12 may be disposed so as to be exposed to the outside of the keyboard 120. [ In the modified embodiment, at least a part of the functions implemented by the micro control unit 40 constituting the noncontact handling apparatus 1 is realized by being interlocked with a computer (not shown) connected to the keyboard 120 .

비접촉 조작 장치를 구비한 키보드(120)는 프레임(124a), 기본입력키(124b), 특수기능키(124c), 스위치키(switch key, 124d), 및 표시창(124e)을 포함할 수 있다. 비접촉 조작 장치를 구비한 키보드(120)에서는, 기본입력키(124b)를 이용할 수 있는 제 1 상태와 비접촉 조작 장치(1)에 의하여 대상물(S)의 위치 및/또는 움직임을 파악할 수 있는 제 2 상태를 명확하게 구분하는 것이 필요할 수 있다. 상기 제 1 상태는 문자입력키, 숫자입력키, 엔터입력키, 스페이스입력키 등과 같은 일반적인 기본입력키(124b)를 이용하는 통상적인 키보드 사용 상태를 의미한다. 상기 제 2 상태는, 도 14 내지 도 17과 같이, 비접촉 조작 장치(1)에 의하여 대상물(S)의 위치 및/또는 움직임을 파악할 수 있는 상태를 의미한다. The keyboard 120 having the contactless operation device may include a frame 124a, a basic input key 124b, a special function key 124c, a switch key 124d, and a display window 124e. The keyboard 120 provided with the contactless operation device is provided with a first state in which the basic input key 124b can be used and a second state in which the position and / or movement of the object S can be grasped by the non- It may be necessary to clearly distinguish the states. The first state refers to a normal keyboard use state using a general basic input key 124b such as a character input key, a numeric input key, an enter input key, a space input key, and the like. The second state means a state in which the position and / or motion of the object S can be grasped by the non-contact operation device 1, as shown in Figs. 14 to 17. Fig.

예를 들어, 비접촉 조작 장치를 구비한 키보드(120)에서, 일반적인 입력키(124b)를 누르기 위하여 사용자가 손을 키보드에 근접하는 경우에도, 비접촉 조작 장치(1)가 활성화되어 사용자 손바닥의 움직임을 파악하고 이에 대응하는 제스쳐 동작을 판별하고 제어신호를 생성한다면 경우에 따라서는 통상적인 키보드 활용이 용이하지 않을 수도 있다. 이러한 문제점을 극복하기 위하여 키보드(120)의 기본입력키(124b)를 이용할 수 있는 제 1 상태와 비접촉 센서 모듈(30) 및 마이크로컨트롤유닛(40)에 의하여 대상물(S)의 위치 또는 움직임을 파악할 수 있는 제 2 상태 중 어느 하나의 상태를 선택할 수 있는 스위치키(124d)를 기존의 기본입력키(124b)와 별개로 제공할 수 있다. 스위치키(124d)는 상기 제 1 상태와 상기 제 2 상태를 토글링(toggling)할 수 있는 토글키(toggle key)로 이해될 수 있다. 즉, 토글키(124d)를 순차적으로 누름에 따라서, 상기 제 1 상태는 활성화되고 상기 제 2 상태는 비활성화되는 제 1 단계, 상기 제 1 상태는 비활성화되고 상기 제 2 상태는 활성화되는 제 2 단계가 순차적으로 구현되도록 구성할 수 있다. For example, in the keyboard 120 provided with the noncontact handling device, even when the user approaches the keyboard to press the general input key 124b, the noncontact handling device 1 is activated to move the user's palm If a gesture operation is identified and a control signal is generated, it may not be easy to use a conventional keyboard in some cases. In order to overcome such a problem, a first state in which the basic input key 124b of the keyboard 120 can be used and a position and movement of the object S are detected by the non-contact sensor module 30 and the micro control unit 40 The switch key 124d can be provided separately from the existing basic input key 124b. The switch key 124d can be understood as a toggle key that can toggle the first state and the second state. That is, as the toggle key 124d is sequentially depressed, the first state is activated and the second state is deactivated, a second step in which the first state is deactivated and the second state is activated And can be configured to be implemented sequentially.

상술한 내용에 의하면, 키보드(120)의 기본입력키(124b)를 이용할 수 있는 제 1 상태와 비접촉 센서 모듈(30) 및 마이크로컨트롤유닛(40)에 의하여 대상물(S)의 위치 또는 움직임을 파악할 수 있는 제 2 상태가 동시에 활성화되지 않도록 토글키(124d)를 구성하였으나, 본 발명의 변형된 실시예에서는 상기 제 1 상태와 상기 제 2 상태가 동시에 활성화되는 경우도 포함하도록 구성할 수 있다. 예를 들어, 시뮬레이션게임 등을 수행하는 과정에서 슈팅(shooting)을 위하여 키보드의 기본입력키인 엔터키를 입력하는 단계와 조이스틱을 대신하여 비접촉 조작 장치(1)에 의하여 대상물(S)의 위치 또는 움직임을 파악하는 단계가 동시에 수행되는 것이 필요할 수 있다. 이 경우 키보드의 기본입력키인 엔터키를 입력하는 사용자의 왼손과 가령, 우측으로 나아가는, 대상물(S)의 움직임을 표현하는 사용자의 오른손을 구분하기 위하여, 비접촉 센서 모듈(30)이 감지할 수 있는 영역의 범위와 마이크로컨트롤유닛(40)의 알고리즘 등을 세밀하게 조정할 수 있다. 따라서, 본 발명의 변형된 실시예에서는 토글키(124d)를 순차적으로 누름에 따라서, 상기 제 1 상태는 활성화되고 상기 제 2 상태는 비활성화되는 제 1 단계, 상기 제 1 상태는 비활성화되고 상기 제 2 상태는 활성화되는 제 2 단계, 상기 제 1 상태와 상기 제 2 상태가 동시에 활성화되는 제 3 단계가 순차적으로 구현되도록 구성할 수 있다. 물론 상기 단계들의 순서는 임의로 변경가능하다. According to the above description, the first state in which the basic input key 124b of the keyboard 120 can be used and the position and movement of the object S by the non-contact sensor module 30 and the micro control unit 40 The toggle key 124d is configured such that the first state and the second state in which the first state and the second state can be simultaneously activated are configured. However, in the modified embodiment of the present invention, the first state and the second state may be simultaneously activated. For example, in a process of performing a simulation game or the like, a step of inputting an enter key, which is a basic input key of a keyboard, for shooting, and a step of replacing a joystick with a position or a position of an object S by a non- It may be necessary that the step of grasping the movement be carried out simultaneously. In this case, the non-contact sensor module 30 can detect the left hand of the user who inputs the enter key, which is the basic input key of the keyboard, and the right hand of the user who expresses the movement of the object S, And the algorithm of the micro control unit 40 and the like can be finely adjusted. Accordingly, in a modified embodiment of the present invention, as the toggle key 124d is sequentially depressed, the first state is activated and the second state is deactivated, the first state is deactivated and the second state is deactivated, The second state in which the first state is activated and the third state in which the first state and the second state are simultaneously activated are sequentially implemented. Of course, the order of the above steps can be arbitrarily changed.

또한, 도 13을 참조하면, 단수의 토글키(124d)를 순차적으로 누름에 따라 각 단계들이 순차적으로 구현될 수 있도록 구성하였으나, 본 발명의 다른 변형된 실시예에서는 두 개의 스위치키(124d)들이 제공될 수 있다. 즉, 상기 제 1 상태의 활성화와 비활성화가 순차적으로 토글링될 수 있는 제 1 스위치키와 상기 제 2 상태의 활성화와 비활성화가 순차적으로 토글링될 수 있는 제 2 스위치키를 제공할 수 있다. 따라서, 상기 제 1 스위치키와 상기 제 2 스위치키의 조합으로 상기 제 1 내지 제 3단계들을 각각 구현할 수 있다. 13, each of the steps may be sequentially implemented by sequentially pressing a single toggle key 124d. However, in another modified embodiment of the present invention, two switch keys 124d Can be provided. That is, it is possible to provide a first switch key, in which activation and deactivation of the first state can be sequentially toggled, and a second switch key, in which activation and deactivation of the second state can be sequentially toggled. Therefore, the first to third steps may be implemented by a combination of the first switch key and the second switch key, respectively.

한편, 키보드(120)의 기본입력키(124b)를 이용할 수 있는 제 1 상태와 비접촉 센서 모듈(30) 및 마이크로컨트롤유닛(40)에 의하여 대상물(S)의 위치 또는 움직임을 파악할 수 있는 제 2 상태 간의 스위칭 기능을 부여할 수 있는 다른 구성도 충분히 가능하다. 예를 들어, 특수기능키(124c) 중에서 어느 하나에 상기 스위칭 기능을 부여할 수도 있다. 또한, 예를 들어, 키보드(120)의 프레임(124a) 상에 별도의 스위칭 장치를 제공할 수 있다. 나아가, 이러한 하드웨어 스위치와 별도로 대상물(S)의 특정한 움직임에 대응하는 특정한 제스쳐 동작으로 상기 스위칭 기능을 구현하도록 구성할 수도 있다. The first state in which the basic input key 124b of the keyboard 120 can be used and the second state in which the position or movement of the object S can be grasped by the non-contact sensor module 30 and the micro- Other configurations capable of giving switching functions between states are also possible. For example, the switching function may be given to any one of the special function keys 124c. In addition, for example, a separate switching device may be provided on the frame 124a of the keyboard 120. [ Further, it may be configured to implement the switching function with a specific gesture operation corresponding to a specific movement of the object S separately from the hardware switch.

한편, 상기 제 1 상태 및/또는 상기 제 2 상태의 활성화 여부를 키보드(120)의 사용자가 용이하게 파악할 수 있도록, 표시창(124e)에 활성화된 상태에 대한 정보가 나타날 수 있도록 구성할 수 있다. 즉, 키보드(120)의 기본입력키(124b)를 이용할 수 있는 제 1 상태 및 비접촉 조작 장치(1)에 의하여 대상물(S)의 위치 또는 움직임을 파악할 수 있는 제 2 상태 중 선택된 적어도 어느 하나의 상태를 확인할 수 있는 표시창(124e)을 제공할 수 있다. 예를 들어, 표시창(124e)에 상기 제 1 상태가 활성화되어 있다고 표시된 경우, 상술한 토글키(124d)를 누름으로서 비접촉 조작 장치(1)를 활성화하여 대상물(S)의 위치 및/또는 움직임을 파악할 수 있다. 또한, 예를 들어, 표시창(124e)에 상기 제 2 상태가 활성화되어 있다고 표시된 경우, 상술한 토글키(124d)를 누름으로서 비접촉 조작 장치(1)를 비활성하여 통상적인 기본입력키(124b)를 이용할 수 있다. On the other hand, information on the activated state can be displayed on the display window 124e so that the user of the keyboard 120 can easily recognize whether the first state and / or the second state is activated. That is, at least one selected from among a first state in which the basic input key 124b of the keyboard 120 can be used and a second state in which the position or movement of the object S can be grasped by the non- A display window 124e for confirming the status can be provided. For example, when it is indicated that the first state is activated in the display window 124e, the noncontact handling apparatus 1 is activated by depressing the above-described toggle key 124d to detect the position and / or movement of the object S . Further, for example, when it is indicated that the second state is activated in the display window 124e, the non-contact operation device 1 is deactivated by depressing the above-described toggle key 124d so that the normal basic input key 124b Can be used.

도 14 내지 도 17은 본 발명의 일부 실시예들에 따른 비접촉 조작장치를 구비한 키보드 상에서 구현될 수 있는 대상물의 예시적인 움직임을 도해하는 도면들이다. 14-17 illustrate exemplary movements of an object that may be implemented on a keyboard with a contactless manipulation device in accordance with some embodiments of the present invention.

예를 들어, 도 14를 참조하면, 비접촉 조작 장치를 구비한 키보드(120) 상에서 사용자의 손(S)을 키보드(120)와 접촉하지 않고 이격하여 좌측에서 우측으로 나아가는 경우, 비접촉 조작 장치(1)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐 동작은 우측으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 키보드(120)에 연결된 전산장치(미도시)에 송신하는 제어신호는 키보드(120)의 우측 방향키에 대응하는 신호일 수 있다. For example, referring to FIG. 14, when the user's hand S is moved from the left side to the right side without being in contact with the keyboard 120 on the keyboard 120 provided with the contactless operation device, The control signal transmitted to the computer device (not shown) connected to the keyboard 120 is transmitted to the keyboard 120 through the keyboard 120, And may be a signal corresponding to the right direction key.

또한, 예를 들어, 도 15를 참조하면, 비접촉 조작 장치를 구비한 키보드(120) 상에서 사용자의 손(S)을 키보드(120)와 접촉하지 않고 이격하여 키보드(120)의 하측에서 키보드(120)의 상측으로 나아가는 경우, 비접촉 조작 장치(1)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐 동작은 상측으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 키보드(120)에 연결된 전산장치(미도시)에 송신하는 제어신호는 키보드(120)의 상측 방향키에 대응하는 신호일 수 있다. 15, the user's hand S is separated from the keyboard 120 without touching the keyboard 120 on the keyboard 120 provided with the contactless operation device, The gesture operation determined by the micro control unit 40 of the noncontact operation device 1 can be divided into a linear movement toward the upper side so that the computer device connected to the keyboard 120 May be a signal corresponding to the upward direction key of the keyboard 120. [

또한, 예를 들어, 도 16을 참조하면, 비접촉 조작 장치를 구비한 키보드(120) 상에서 사용자의 손(S)을 키보드(120)와 접촉하지 않고 이격하여 높이 방향의 고점에서 저점으로 나아가는 경우, 비접촉 조작 장치(1)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐 동작은 중력 방향으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 키보드(120)에 연결된 전산장치(미도시)에 송신하는 제어신호는 키보드(120)의 엔터(Enter)키나 마우스 버튼의 클릭에 대응하는 신호일 수 있다. 16, when the user's hand S moves away from the keyboard 120 and moves from the highest point to the lowest point in the height direction, on the keyboard 120 having the contactless operation device, The gesture operation determined by the micro control unit 40 of the noncontact operation apparatus 1 can be divided into a linear movement in the direction of the gravity and thus the control signal transmitted to the computer (not shown) connected to the keyboard 120 May be a signal corresponding to an Enter key of the keyboard 120 or a click of a mouse button.

또한, 예를 들어, 도 17을 참조하면, 비접촉 조작 장치를 구비한 키보드(120) 상에서 사용자의 손(S)을 키보드(120)와 접촉하지 않고 이격하여 키보드의 자판면과 기울이도록 움직이는 경우, 키보드(120)에 연결된 전산장치(미도시)에 송신하는 제어신호는 조이스틱에서 사용자측으로 당기는 방향에 대응하는 신호일 수 있다. 17, when the user's hand S is moved on the keyboard 120 provided with the contactless operation device so as to be inclined with respect to the keyboard face of the keyboard without being in contact with the keyboard 120, A control signal transmitted to a computer (not shown) connected to the keyboard 120 may be a signal corresponding to a direction of pulling the joystick toward the user.

물론, 앞에서 상술한 제스쳐 동작과 이에 대응하는 제어신호 간의 관계는 키보드의 제품 출고 시점에 제조자가 임의로 설정할 수 있으며, 나아가, 키보드의 사용자가 임의로 변경 설정하는 것도 가능하다. Of course, the relationship between the above-described gesture operation and the corresponding control signal can be arbitrarily set by the manufacturer at the time of shipment of the keyboard, and further, the user of the keyboard can arbitrarily change the setting.

지금까지 설명한 비접촉 조작 장치를 구비한 키보드(120)는 기존의 키보드에서 채용하고 있는 트랙볼, 터치패드, 포인팅 스틱의 기능을 대체할 수 있고, 추가적으로 게임과 같이 세밀한 조작을 필요로 하는 컨트롤에 사용되는 조이스틱의 기능을 동급 또는 그 이상으로 지원하면서 이러한 기능을 구현함에 있어서 키보드의 크기 및 인터페이스는 획기적으로 간소화할 수 있다는 장점을 가진다. 또한 이러한 기능을 구현함에 있어서 기존의 키보드가 사용하고 있는 물리적 인터페이스(예를 들어, USB 인터페이스)를 추가적인 비용없이 사용할 수 있으며, 나아가, 기존의 키보드에서 사용되는 물리적 인터페이스(예를 들어, USB 인터페이스)를 통해 비접촉 조작 장치(1)의 전원을 제공할 수 있다는 장점을 가진다. The keyboard 120 provided with the contactless control device described above can replace the functions of the trackball, the touch pad, and the pointing stick employed in the conventional keyboard, and additionally can be used for a control requiring a detailed operation like a game It has the advantage that the size and interface of the keyboard can be dramatically simplified in implementing this function while supporting the joystick function at the same level or more. In addition, a physical interface (for example, a USB interface) used by an existing keyboard can be used at an additional cost, and a physical interface (for example, a USB interface) It is possible to provide the power of the noncontact handling apparatus 1 through the contactless operation device 1.

본 발명의 일 실시예들에 따른 비접촉 조작 장치를 구비한 키보드에서는 기존의 일반적인 입력장치인 키보드와 융합된 모션-조이스틱(motion-joystick) 기능을 통해서 전통적인 키보드가 입력장치인 트랙볼, 터치패드, 포인팅 스틱 등의 기능으로 표현할 수 없었던 사용자 인터페이스 기능(예를 들어, 게임, 프리젠테이션, 무비 플레이어 등에서 사용자 직관적인 인터페이싱 기능)이 가능해진다. In the keyboard having the contactless operation device according to one embodiment of the present invention, a motion-joystick function fused with a conventional keyboard as a conventional input device allows a conventional keyboard to function as a trackball, a touch pad, A user interface function (for example, a user intuitive interfacing function in a game, a presentation, a movie player, etc.) which can not be expressed by a function of a stick or the like becomes possible.

또한, 본 발명의 일 실시예들에 따른 비접촉 조작 장치를 구비한 키보드에서는 기존 키보드 제품에 저렴한 추가비용으로 트랙볼, 터치패드, 포인팅 스틱 기능을 대체할 수 있는 부가 인터페이스 장치를 추가할 수 있는 장점을 가진다. Further, in the keyboard provided with the non-contact operation device according to the embodiments of the present invention, an additional interface device that can replace the function of the trackball, the touch pad, and the pointing stick can be added to the existing keyboard product at an inexpensive additional cost I have.

또한, 본 발명의 일 실시예들에 따른 비접촉 조작 장치를 구비한 키보드에서는 트랙볼, 터치패드, 포인팅 스틱과 같은 기존의 부가 인터페이스 장치들의 기능에 추가로 조이스틱 기능을 추가로 지원하는 것이 가능하다는 장점을 가진다. Further, the keyboard provided with the contactless operation device according to one embodiment of the present invention has an advantage that the joystick function can be additionally supported in addition to the functions of the existing additional interface devices such as the trackball, the touch pad, and the pointing stick I have.

또한, 본 발명의 일 실시예들에 따른 비접촉 조작 장치를 구비한 키보드에서는 비접촉 방식의 인터페이스를 통해 사용자의 빠른 인터페이스 요구에 대한 지원이 가능하다는 장점을 가진다. Further, the keyboard having the contactless operation device according to the embodiments of the present invention has an advantage that it can support the user's request for the quick interface through the non-contact interface.

또한, 본 발명의 일 실시예들에 따른 비접촉 조작 장치를 구비한 키보드에서는 비접촉 방식의 인터페이스를 통해 사용자가 키보드에 직접 접촉하기 어려운 상황(예를 들어, 손에 오물이 묻어있는 경우나 불특정 다수의 접촉에 의한 세균 감염 확률이 높은 환경의 경우)에서도 기본적인 조작(예를 들어, 커서의 좌우이동이나 엔터키 입력) 기능이 지원가능하다는 장점을 가진다. Further, in the keyboard provided with the noncontact operation device according to the embodiments of the present invention, in a situation where the user is difficult to directly touch the keyboard (for example, when there is dirt on the hand or an unspecified number of (For example, movement of the cursor left or right or enter key input) function can be supported even in a case where the probability of bacterial infection due to contact is high).

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

1 : 비접촉 조작 장치 10 : 발광부
20 : 수광부 30 : 비접촉 센서 모듈들
30-1 : 제 1 비접촉 센서 모듈 30-2 : 제 2 비접촉 센서 모듈
40 : 마이크로컨트롤유닛 50 : 통신부
120 : 단말장치(키보드)
1: Non-contact operation device 10:
20: light receiving unit 30: non-contact sensor module
30-1: first non-contact sensor module 30-2: second non-contact sensor module
40: micro control unit 50: communication unit
120: terminal device (keyboard)

Claims (15)

대상물에 조사광을 조사할 수 있는 발광부;와 상기 조사광이 상기 대상물에서 반사된 반사광을 수광하여 상기 대상물에 대한 광학신호를 전기신호로 변환할 수 있는 수광부;를 포함하는, 적어도 하나 이상의 비접촉 센서 모듈; 및
상기 적어도 하나 이상의 비접촉 센서 모듈에 의하여 변환된 상기 전기신호를 입력받고, 상기 전기신호로부터 상기 대상물에 대한 공간좌표를 산출하는 마이크로컨트롤유닛;을 포함하고,
상기 수광부는, 가로로 어레이 배열된 복수의 포토다이오드들로 구성된 제1광센서부; 및 세로로 어레이 배열된 복수의 포토다이오드들로 구성된 제2광센서부;를 포함하고, 수광되는 상기 반사광의 세기 및 수광각에 대한 정보를 가지는 상기 대상물에 대한 광학신호를 상기 전기신호로 변환할 수 있고,
상기 제1광센서부와 상기 제2광센서부는 혼재되어 배치되지 않고 서로 구분되어 이격되면서 개별적으로 배치되고,
상기 대상물에 대한 광학신호는 상기 제1광센서부에 의하여 검출된 상기 대상물의 움직임의 가로성분에 대한 광학신호; 상기 제2광센서부에 의하여 검출된 상기 대상물의 움직임의 세로성분에 대한 광학신호; 및 상기 제1광센서부 및 상기 제2광센서부에 의하여 검출된 상기 대상물의 움직임의 높이성분에 대한 광학신호;가 통합되어 구현되고,
상기 높이성분에 대한 광학신호는, 상기 제1광센서부에 포함된 상기 복수의 포토다이오드들 및 상기 제2광센서부에 포함된 상기 복수의 포토다이오드들의 각각에서 검출되는 광학신호의 세기와 각도를 취합하여 취득하고,
상기 마이크로컨트롤유닛은, 상기 제1광센서부 및 상기 제2광센서부의 이격거리; 및 상기 제1광센서부 및 상기 제2광센서부에 각각 수광되는 상기 반사광의 수광각을 이용하여 상기 대상물에 대한 공간좌표 중 높이성분을 산출하는, 비접촉 조작 장치를 구비한 키보드.
And a light receiving unit capable of receiving the reflected light reflected from the object and converting an optical signal to the object into an electric signal, the light receiving unit being capable of emitting light to the object, Sensor module; And
And a micro control unit for receiving the electric signal converted by the at least one non-contact sensor module and calculating spatial coordinates of the object from the electric signal,
The light receiving unit includes: a first photosensor unit including a plurality of photodiodes arranged in a horizontal array; And a second photosensor part composed of a plurality of photodiodes arranged in a vertical array, and converting an optical signal for the object having the intensity of the reflected light and information about the light receiving angle into the electric signal Can,
The first photosensor unit and the second photosensor unit are not arranged in a mixed manner but are separately arranged while being separated from each other,
Wherein the optical signal for the object is an optical signal for a horizontal component of the motion of the object detected by the first photosensor portion; An optical signal for a vertical component of the movement of the object detected by the second photosensor section; And an optical signal for a height component of a motion of the object detected by the first photosensor and the second photosensor,
Wherein the optical signal for the height component includes an intensity of an optical signal detected at each of the plurality of photodiodes included in the first photosensor portion and each of the plurality of photodiodes included in the second photosensor portion, And acquires,
Wherein the micro control unit comprises: a separation distance between the first photosensor unit and the second photosensor unit; And a contactless operation device for calculating a height component of space coordinates with respect to the object by using the light reception angle of the reflected light received by the first photosensor portion and the second photosensor portion, respectively.
제 1 항에 있어서,
상기 적어도 하나 이상의 비접촉 센서 모듈은 키보드의 외부에 노출되도록 배치되고, 상기 마이크로컨트롤유닛은 상기 키보드의 내부에 내장되도록 배치되는, 비접촉 조작 장치를 구비한 키보드.
The method according to claim 1,
Wherein the at least one non-contact sensor module is disposed so as to be exposed to the outside of the keyboard, and the micro control unit is disposed inside the keyboard.
제 1 항에 있어서,
상기 키보드의 기본입력키를 이용할 수 있는 제 1 상태 및 상기 비접촉 센서 모듈 및 상기 마이크로컨트롤유닛에 의하여 상기 대상물의 위치 또는 움직임을 파악할 수 있는 제 2 상태 중 적어도 어느 하나의 상태를 선택할 수 있는 토글키(toggle key)를 더 포함하는, 비접촉 조작 장치를 구비한 키보드.
The method according to claim 1,
A toggle key for selecting at least one of a first state in which the basic input key of the keyboard can be used and a second state in which the position of the object or the movement can be grasped by the microcontroller unit and the non- wherein the keyboard further comprises a toggle key.
제 1 항에 있어서,
상기 키보드의 기본입력키를 이용할 수 있는 제 1 상태 및 상기 비접촉 센서 모듈 및 상기 마이크로컨트롤유닛에 의하여 상기 대상물의 위치 또는 움직임을 파악할 수 있는 제 2 상태 중 선택된 적어도 어느 하나의 상태를 확인할 수 있는 표시창을 더 포함하는, 비접촉 조작 장치를 구비한 키보드.
The method according to claim 1,
A display state in which at least one state selected from among a first state in which the basic input key of the keyboard can be used and a second state in which the position or movement of the object can be grasped by the microcontroller unit and the non- Further comprising a contactless operation device.
삭제delete 삭제delete 제 1 항에 있어서,
상기 적어도 하나 이상의 비접촉 센서 모듈은, 상기 발광부와 상기 수광부를 구비하는, 하나의 비접촉 센서 모듈인, 비접촉 조작 장치를 구비한 키보드.
The method according to claim 1,
Wherein the at least one non-contact sensor module is one non-contact sensor module including the light emitting portion and the light receiving portion.
제 1 항에 있어서,
상기 적어도 하나 이상의 비접촉 센서 모듈은, 상기 발광부와 상기 수광부를 각각 구비하고, 서로 이격된, 적어도 두 개의 비접촉 센서 모듈들인, 비접촉 조작 장치를 구비한 키보드.
The method according to claim 1,
Wherein the at least one non-contact sensor module includes at least two non-contact sensor modules each having the light emitting portion and the light receiving portion and spaced apart from each other.
삭제delete 삭제delete 제 1 항에 있어서,
상기 마이크로컨트롤유닛은, 상기 공간좌표를 이용하여 상기 대상물의 움직임에 대응하는 제스쳐 동작을 판별하고, 상기 제스쳐 동작에 대응하는 제어신호를 생성하는, 비접촉 조작 장치를 구비한 키보드.
The method according to claim 1,
Wherein the micro control unit determines a gesture operation corresponding to the movement of the object using the space coordinates and generates a control signal corresponding to the gesture operation.
제 11 항에 있어서,
상기 제어신호는 상기 키보드 또는 상기 키보드와 연결된 전산장치를 조작할 수 있는 신호나 상기 키보드 또는 상기 키보드와 연결된 전산장치에 설치된 소프트웨어를 제어할 수 있는 신호를 포함하는, 비접촉 조작 장치를 구비한 키보드.
12. The method of claim 11,
Wherein the control signal includes a signal capable of operating the keyboard or a computer connected to the keyboard or a signal capable of controlling software installed in the keyboard or a computer connected to the keyboard.
삭제delete 삭제delete 삭제delete
KR1020130091493A 2013-04-09 2013-08-01 Keyboard having non-contact operating apparatus KR101460028B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130091493A KR101460028B1 (en) 2013-08-01 2013-08-01 Keyboard having non-contact operating apparatus
PCT/KR2014/003086 WO2014168416A1 (en) 2013-04-09 2014-04-09 Non-contact operation device and electronic device linked with same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130091493A KR101460028B1 (en) 2013-08-01 2013-08-01 Keyboard having non-contact operating apparatus

Publications (1)

Publication Number Publication Date
KR101460028B1 true KR101460028B1 (en) 2014-11-11

Family

ID=52287619

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130091493A KR101460028B1 (en) 2013-04-09 2013-08-01 Keyboard having non-contact operating apparatus

Country Status (1)

Country Link
KR (1) KR101460028B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017026704A1 (en) * 2015-08-12 2017-02-16 전자부품연구원 Multi-input device
US11188157B1 (en) 2020-05-20 2021-11-30 Meir SNEH Touchless input device with sensor for measuring linear distance

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149348A (en) * 1997-11-18 1999-06-02 Mitsubishi Electric Corp Finger input pointer device
JP2003058301A (en) * 2001-08-14 2003-02-28 Sharp Corp Keyboard input device with pointing device
KR20100012422A (en) * 2008-07-29 2010-02-08 비에스엔텍(주) Optical pointing device and operation method
KR20110045330A (en) * 2009-10-26 2011-05-04 엘지전자 주식회사 Mobile terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11149348A (en) * 1997-11-18 1999-06-02 Mitsubishi Electric Corp Finger input pointer device
JP2003058301A (en) * 2001-08-14 2003-02-28 Sharp Corp Keyboard input device with pointing device
KR20100012422A (en) * 2008-07-29 2010-02-08 비에스엔텍(주) Optical pointing device and operation method
KR20110045330A (en) * 2009-10-26 2011-05-04 엘지전자 주식회사 Mobile terminal

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017026704A1 (en) * 2015-08-12 2017-02-16 전자부품연구원 Multi-input device
KR101757539B1 (en) * 2015-08-12 2017-07-12 전자부품연구원 Multi-input device
US11188157B1 (en) 2020-05-20 2021-11-30 Meir SNEH Touchless input device with sensor for measuring linear distance

Similar Documents

Publication Publication Date Title
US9268400B2 (en) Controlling a graphical user interface
KR100674090B1 (en) System for Wearable General-Purpose 3-Dimensional Input
US8830189B2 (en) Device and method for monitoring the object's behavior
US20130063345A1 (en) Gesture input device and gesture input method
KR20140060297A (en) Method for detecting motion of input body and input device using same
US20190033992A1 (en) Dual-mode optical input device
KR20100106203A (en) Multi-telepointer, virtual object display device, and virtual object control method
KR20140114913A (en) Apparatus and Method for operating sensors in user device
KR101328385B1 (en) Tactile finger tip mouse and operating method of the same
JP2015121979A (en) Wearable information input device, information input system and information input method
US11640198B2 (en) System and method for human interaction with virtual objects
US20130257809A1 (en) Optical touch sensing apparatus
KR101460028B1 (en) Keyboard having non-contact operating apparatus
KR101211808B1 (en) Gesture cognitive device and method for recognizing gesture thereof
JP2014209336A (en) Information processing device and input support method
CN208834274U (en) A kind of input equipment
US20120162059A1 (en) Handwriting input device with charger
KR101341577B1 (en) Direction input device and user interface controlling method using the direction input device
KR101469186B1 (en) Mouse having noncontact operating apparatus with recognition of gesture
CN109032397A (en) A kind of input equipment
KR101504148B1 (en) Non-contact operating apparatus
KR20100115396A (en) Triangulation wireless finger mouse
KR100339923B1 (en) Coordinate inputting apparatus using a light and its method
US9207863B2 (en) Input device and input method
US20120182231A1 (en) Virtual Multi-Touch Control Apparatus and Method Thereof

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee