WO2014168416A1 - Non-contact operation device and electronic device linked with same - Google Patents

Non-contact operation device and electronic device linked with same Download PDF

Info

Publication number
WO2014168416A1
WO2014168416A1 PCT/KR2014/003086 KR2014003086W WO2014168416A1 WO 2014168416 A1 WO2014168416 A1 WO 2014168416A1 KR 2014003086 W KR2014003086 W KR 2014003086W WO 2014168416 A1 WO2014168416 A1 WO 2014168416A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
light
light receiving
array
contact
Prior art date
Application number
PCT/KR2014/003086
Other languages
French (fr)
Korean (ko)
Inventor
유태경
조현용
허용구
장병탁
신은성
문명지
Original Assignee
주식회사 루멘스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020130038416A external-priority patent/KR101415931B1/en
Priority claimed from KR1020130038417A external-priority patent/KR101524050B1/en
Priority claimed from KR1020130074878A external-priority patent/KR101471816B1/en
Priority claimed from KR1020130074876A external-priority patent/KR101469129B1/en
Priority claimed from KR1020130074877A external-priority patent/KR101469186B1/en
Priority claimed from KR1020130082215A external-priority patent/KR101504148B1/en
Priority claimed from KR1020130091493A external-priority patent/KR101460028B1/en
Application filed by 주식회사 루멘스 filed Critical 주식회사 루멘스
Publication of WO2014168416A1 publication Critical patent/WO2014168416A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Definitions

  • the present invention relates to a contactless control device and an electronic device linked thereto, and more particularly, to a non-contact control device and an electronic device linked thereto, which can provide a new and various interface to a user through a simple position and / or motion recognition process. It is about.
  • Motion recognition in the control methods is implemented using an image sensor (camera).
  • image sensor camera
  • power must be connected at all times, so a lot of power is unnecessarily wasted.
  • the image sensor requires a series of processes for extracting a plurality of images from the motion recognition process to perform image processing, the burden on the processor is high and the device implementation and processing algorithms are very complicated. Therefore, in order to implement motion recognition with an image sensor, a problem arises in that the manufacturing cost increases.
  • the present invention is to solve a number of problems including the above problems, low power consumption, fast algorithm for motion recognition, low manufacturing cost, and provides a non-contact operation device with a simple operation recognition process
  • An object of the present invention is to provide an electronic device interlocked with such a non-contact manipulation device.
  • these problems are exemplary, and the scope of the present invention is not limited thereby.
  • Non-contact manipulation apparatus may include at least one light emitting unit capable of emitting light; Comprising a plurality of optical sensors arranged in a horizontal and vertical array, respectively, receiving the light reflected by the object motion by using the light emitting unit as a light source, for the object motion having information on the intensity and angle of the received light At least one light receiving unit capable of converting an optical signal into an electrical signal; And a microcontrol unit configured to receive the electrical signal, calculate a spatial coordinate for the object, determine a gesture motion with respect to the object motion using the spatial coordinate, and generate a control signal corresponding to the gesture motion.
  • MCU light emitting unit capable of emitting light
  • At least one light receiving unit capable of converting an optical signal into an electrical signal
  • a microcontrol unit configured to receive the electrical signal,
  • the light receiving unit comprises: a first array unit including a plurality of photodiodes arranged horizontally; And a second array unit including a plurality of photodiodes arranged in a vertical array, wherein the optical signal for the object motion comprises: an optical signal for a horizontal component of the object motion detected by the first array unit; An optical signal for a vertical component of the object motion detected by the second array unit; And an optical signal for the height component of the object motion detected by the first array unit and the second array unit.
  • the first array portion and the second array portion may be arranged separately from each other and spaced apart from each other without being mixed.
  • the contactless control device is a computer, notebook, tablet PC, tablet mobile communication device, smart phone, mobile phone, smart pad, game device, virtual experience device, portable multimedia playback device, electronic book, USB hub (USB HUB)
  • the electronic device may further include a communication unit configured to transmit to an electronic device including at least one of a mouse, a keyboard, a monitor, and a headset.
  • the control signal may include a signal for controlling hardware constituting the electronic device or software installed on the electronic device.
  • the communication unit may include at least one of a wireless communication unit using Bluetooth communication or Zigbee communication and a wired communication unit using a universal serial bus (USB) cable.
  • a wireless communication unit using Bluetooth communication or Zigbee communication and a wired communication unit using a universal serial bus (USB) cable.
  • USB universal serial bus
  • At least some of the light emitting unit, the light receiving unit, the microcontrol unit, and the communication unit may be embedded in the electronic device.
  • At least some of the light emitting unit, the light receiving unit, the microcontrol unit, and the communication unit may be disposed outside the electronic device.
  • the light emitting portion and the light receiving portion may be disposed apart from each other without being modularized.
  • the light emitting unit and the light receiving unit may constitute at least one non-contact sensor module.
  • the at least one non-contact sensor module includes a first non-contact sensor module and a second non-contact sensor module spaced apart from each other, the microcontrol unit, the separation distance of the first and second non-contact sensor modules and the first The height component of the spatial coordinates of the object may be calculated using the light receiving angles of the reflected light received by the light receiving units provided in the first and second non-contact sensor modules, respectively.
  • the at least one light receiving unit includes a first light receiving unit and a second light receiving unit spaced apart from each other, and the microcontrol unit includes a separation distance between the first light receiving unit and the second light receiving unit and the first light receiving unit. And a height component of the spatial coordinates of the object using the light receiving angle of the reflected light received by the second light receiving unit.
  • the light emitting unit may include an infrared light emitting diode (IRED), and the light receiving unit may include a photodiode.
  • IRED infrared light emitting diode
  • An electronic device may be provided.
  • the electronic device may be configured in conjunction with the non-contact manipulation apparatus described above.
  • the electronic device includes a computer, a laptop, a tablet PC, a tablet mobile communication device, a smartphone, a mobile phone, a smart pad, a game device, a virtual experience device, a portable multimedia player, an electronic book, a USB hub, a mouse, a keyboard, It may include at least one of a monitor and a headset.
  • a non-contact operation device and a linked electronic device with low power consumption, fast algorithm for motion recognition, low manufacturing cost, and simple motion recognition processing. can do.
  • the scope of the present invention is not limited by these effects.
  • FIG. 1 is a configuration diagram illustrating a configuration including a non-contact operation device according to an embodiment of the present invention.
  • FIG. 2 is a view illustrating a non-contact sensor module including a light emitting unit and a light receiving unit in a non-contact manipulation apparatus according to an embodiment of the present invention.
  • 3 and 4 are views illustrating a concept in which the first array unit detects an optical signal for a horizontal component of the movement of the object in the non-contact manipulation device according to the embodiment of the present invention.
  • 5 and 6 are views illustrating a concept of detecting the optical signal for the vertical component of the movement of the object in the non-contact manipulation apparatus according to an embodiment of the present invention, respectively.
  • FIG. 7 is a view illustrating a concept of the non-contact sensor module to detect the optical signal for the height component of the movement of the object in the non-contact operation device according to an embodiment of the present invention.
  • FIG. 8 is a block diagram illustrating a configuration including a non-contact manipulation apparatus according to a modified embodiment of the present invention.
  • FIG. 9 illustrates a concept of calculating a spatial coordinate of an object based on an optical signal detected by a first array unit and a second array unit in a non-contact manipulation apparatus according to an embodiment of the present invention.
  • FIG. 10 is a configuration diagram illustrating a configuration including a non-contact manipulation apparatus according to another embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a concept of calculating a height component among spatial coordinates of an object by using a distance between two non-contact sensor modules and a light receiving angle of reflected light in a non-contact manipulation device according to another exemplary embodiment of the present invention.
  • FIG. 12 is a configuration diagram illustrating a configuration including a non-contact manipulation apparatus according to another modified embodiment of the present invention.
  • FIG. 13A and 13B illustrate a concept in which a first array unit detects an optical signal for a horizontal component of a movement of an object in a non-contact manipulation device according to still another embodiment of the present invention.
  • FIG. 14 is a diagram illustrating a configuration of a mouse to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
  • 15 is a diagram illustrating a configuration of a keyboard to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
  • 16 is a diagram illustrating a configuration of a USB hub to which a non-contact manipulation device according to some embodiments of the present invention is applied.
  • FIG. 17 is a diagram illustrating a configuration of a headset to which a non-contact manipulation device is applied according to some embodiments of the present invention.
  • FIG. 18 is a diagram illustrating a configuration of a monitor to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
  • FIG. 19 is a diagram illustrating a configuration of a smart phone to which a non-contact manipulation device according to some embodiments of the present invention is applied.
  • FIG. 20 is a diagram illustrating a configuration in which a non-contact manipulation device according to some embodiments of the present disclosure is disposed and provided outside of an electronic device.
  • 21A-21D illustrate exemplary movements of an object that may be provided on a mouse to which a non-contact manipulation device is applied in accordance with some embodiments of the present invention.
  • 22A-22D illustrate exemplary movements of an object that may be provided on a keyboard to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
  • first, second, etc. are used herein to describe various members, parts, regions, layers, and / or parts, but these members, parts, regions, layers, and / or parts are defined by these terms. It is obvious that not. These terms are only used to distinguish one member, part, region, layer or portion from another region, layer or portion. Thus, the first member, part, region, layer or portion, which will be discussed below, may refer to the second member, component, region, layer or portion without departing from the teachings of the present invention.
  • FIG. 1 is a block diagram illustrating a configuration including a non-contact manipulation apparatus according to an embodiment of the present invention
  • Figure 2 is a diagram illustrating a non-contact sensor module in a non-contact manipulation apparatus according to an embodiment of the present invention.
  • the non-contact manipulation apparatus 1000 includes a light emitting unit 10 and a light receiving unit 20, respectively, and an object (for example, FIGS. 3 and 5). 7, or at least one non-contact sensor module 30 capable of converting the optical signal for S) of FIG. 11 into an electrical signal.
  • the non-contact sensor module 30 includes a light emitting unit 10 and a light receiving unit 20.
  • the light emitter 10 may irradiate the object S with irradiation light.
  • the light emitting unit 10 may be a light emitting device such as a light emitting diode (LED) capable of irradiating irradiated light, and the light emitting unit 10 may be an infrared light emitting diode in order to detect an operation and / or a position of a human body. (IRED).
  • the light emitter 10 may be configured to emit irradiation light only when necessary according to a user's selection. This is to prevent unnecessary consumption of power by continuously radiating light even during a period of inactivity not used by the user.
  • the light receiving unit 20 may receive the reflected light reflected from the object S by using the light emitting unit 10 as a light source.
  • the light receiver 20 may include, for example, an array arrangement horizontally and vertically, and a plurality of optical sensors.
  • the optical sensor may be a light receiving device capable of converting an optical signal for the object S into an electrical signal, and may include, for example, a photodiode.
  • the light receiving unit 20 includes a first array unit 20a composed of a plurality of photodiodes 25 arranged horizontally and a second array composed of a plurality of photodiodes 25 arranged vertically. It may include a portion 20b.
  • the light receiver 20 may convert an optical signal for the object S into an electrical signal.
  • the optical signal refers to all signals related to light in a broad sense, and refers to an optical signal that can be converted into various electrical signals capable of measuring voltage, current, power, etc. in a narrow sense.
  • the optical signal for the object S is, for example, a signal implemented by extracting a plurality of images and performing image processing with respect to the position and / or movement of the object S. Rather, it may mean a signal having information on the intensity of the reflected light and / or the angle of the reflected light that is reflected and received by the static position and / or dynamic movement of the object S.
  • the optical signal for the object S for example, as shown in Fig. 4 or 6, the information on the intensity of the reflected light received, for example, as shown in Fig. 11, the light receiving angle of the received reflected light ( ⁇ 1 and ⁇ 2 ).
  • the non-contact manipulation apparatus 1000 includes a micro control unit (MCU) 40 that receives the electrical signal and calculates a spatial coordinate for the object S. Further, the microcontrol unit 40 determines the static position of the object S by using the spatial coordinates, determines the gesture motion corresponding to the dynamic movement of the object S, and determines the static position and / or A control signal corresponding to the gesture operation may be generated.
  • MCU micro control unit
  • the aforementioned object S may include a body part of a user who uses the non-contact manipulation apparatus 1000 and / or the electronic device 1120.
  • the object S may include tools, devices, instruments and / or devices that the user possesses or wears.
  • the object S may be fixed in space for a predetermined time, and furthermore, the position S may be variable in space.
  • the non-contact manipulation apparatus 1000 may perform a function of a position sensor for detecting the position of the object S, and the object S may be Accordingly, when the position is changed in the space, the non-contact manipulation apparatus 1000 may perform a function of a motion sensor or a gesture sensor that detects a movement of the object S and determines a gesture motion corresponding thereto.
  • the motion of the object S refers to a user's finger movement, palm movement, back movement of the hand, hand movement, arm movement, head movement, It may include at least one of facial movement, eye movement, eye movement, eyelid movement, mouth movement, lip movement, tongue movement, shoulder movement, torso movement, leg movement, toe movement, and foot movement.
  • the movement of the object S may include not only the movement of the user's body mentioned above, but also the movement of a tool, an apparatus, an apparatus, and / or an apparatus whose position may be changed by the user having or wearing it.
  • the movement of the object S may include the movement of the ring.
  • the non-contact operation apparatus 1000 may further include a communication unit 50 for transmitting the control signal generated by the microcontrol unit 40 to the electronic device 1120.
  • the communication unit 50 may transmit and receive information data with the electronic device 1120.
  • the electronic device 1120 referred to herein is not only a device that is connected to a communication device in the center through a communication network and inputs data or outputs a processing result, but also independently or independently of the computer device in the center. It may include a device that can input or output the processing results.
  • the electronic device 1120 may be a computer, a laptop, a tablet PC, a tablet mobile communication device, a smartphone, a mobile phone, a smart pad, a game device, a virtual experience device, a portable multimedia player, an electronic book, a USB hub, and a USB HUB. ), A mouse, a keyboard, a monitor, and a headset.
  • the control signal transmitted to the electronic device 1120 by the communication unit 50 may be, for example, a signal capable of controlling at least one hardware or software installed in the electronic device 1120 constituting the electronic device 1120. It may include.
  • the control signal may be a signal for operating the keyboard or a computer connected to the keyboard or a signal for controlling software installed in the keyboard or a computer connected to the keyboard. It may include.
  • the communication unit 50 may include at least one of the wireless communication unit 52 and the wired communication unit 54.
  • the wireless communication unit 52 may use, for example, Bluetooth communication or Zigbee communication.
  • the communication method applied to the wireless communication unit 52 is not limited to the Bluetooth method or the Zigbee method, for example, a variety of RFID (Radio Frequency Identification), NFC (Near Field Communication), resonance induction, magnetic induction Communication methods can also be applied.
  • the electronic device 1120 may include a module supporting Bluetooth communication or Zigbee communication. If the electronic device 1120 does not have such a module, a separate communication repeater, for example, a dongle 220 may be additionally provided to the electronic device 1120.
  • the dongle 220 may include, for example, a USB dongle that may be connected to a USB port of the electronic device 1120, but is not particularly limited to a form connected to the electronic device 1120.
  • the wired communication unit 54 may be configured to support, for example, a wired cable connecting the non-contact manipulation device 1000 and the electronic device 1120.
  • the wired cable may include, for example, a USB cable or an extension cable, and may connect a connection port portion of the non-contact manipulation apparatus 1000 and a connection port portion of the electronic device 1120.
  • the non-contact manipulation apparatus 1000 may further include an input / output port unit 60 that may exchange various signals, data, and the like with an external device.
  • At least a part of the non-contact manipulation apparatus 1000 may be embedded in the electronic device 1120.
  • the components constituting the non-contact manipulation apparatus 1000 eg, the light emitting unit 10, the light receiving unit 20, the microcontrol unit 40, and the communication unit 50
  • the remaining parts of the components constituting the non-contact manipulation apparatus 1000 may be disposed to be exposed in the surface of the electronic device 1120.
  • the light emitting unit 10 and / or the light receiving unit 20 constituting the non-contact sensor module 30 may be disposed to be exposed on the surface of the electronic device 1120, and the microcontrol unit 40 may be electronic. It may be arranged in a form that is embedded inside the device 1120.
  • the components constituting the non-contact manipulation device 1000 may be spaced apart from the electronic device 1120 without forming a single unity.
  • the components forming the non-contact manipulation apparatus 1000 may be provided in the electronic device 1120 while forming a single integral part.
  • non-contact manipulation apparatus 1000 may be provided outside the electronic device 1120 and spaced apart from the electronic device 1120 separately from the electronic device 1120.
  • the non-contact manipulation apparatus 1000 detects an optical signal and calculates spatial coordinates in response to the position of the object S and / or the movement of the object S will be described.
  • FIGS. 3 and 4 are views illustrating a concept in which the first array unit detects an optical signal for the horizontal component of the movement of the object in the non-contact manipulation device according to one embodiment of the present invention
  • FIGS. 5 and 6 illustrate the present invention.
  • a second array unit illustrates a concept of detecting an optical signal for a vertical component of a movement of an object
  • FIG. 7 is a non-contact manipulation device according to an embodiment of the present invention. Is a diagram illustrating the concept of the non-contact sensor module to detect the optical signal for the height component of the movement of the object.
  • the light receiving unit 20 receives the reflected light reflected by the position of the object S and / or the movement of the object S using the light emitting unit 10 as a light source, and is horizontal and vertical.
  • a plurality of photosensors eg photodiodes
  • the light receiving unit 20 is, for example, a second array in which the photodiode 25 is arranged in the horizontal axis (x-axis) and the second array in which the photodiode 25 is arranged in the vertical axis (y-axis). It may be composed of an array unit 20b.
  • a photodiode 25 having a form of an M1 x N1 matrix may be arranged in the first array unit 20a in which the photodiodes 25 are arranged in the horizontal axis (x-axis).
  • the number of columns N1 may be greater than the number M1 of rows of the matrix.
  • a photodiode 25 having a form of an M2 x N2 matrix may be arranged, but not shown in FIG. 5.
  • the number of rows M2 may be larger than the number of columns N2 of the matrix.
  • the first array unit 20a and the second array unit 20b may not be mixed with each other, but may be separately spaced apart from each other.
  • the accuracy of sensing is improved by recognizing the motion by dividing the component of the motion of the object having an arbitrary direction into the horizontal motion and the vertical motion, and this increase in accuracy is due to the improvement of the resolution of the sensor itself.
  • it is implemented by the array arrangement of the existing sensor it is possible to expect an advantageous effect that the burden of manufacturing cost for improving the accuracy of sensing is significantly lowered.
  • first array portion 20a and the second array portion 20b may be disposed adjacent to each other instead of being separated from each other and spaced apart from each other, and further, mixed and disposed. May be
  • the horizontal movement of the object S is performed by the plurality of photodiodes 25 arranged in the horizontal axis (movement in a direction parallel to the x-axis). It can detect the optical signal for.
  • the plurality of photodiodes 25 arranged in the horizontal axis may be used to provide an optical system with respect to the horizontal component (component in the direction parallel to the x axis) of an arbitrary movement of the object S. The signal can be detected.
  • the intensity of the optical signal of the reflected light received by the first array unit 20a may be reduced by any photodiodes (eg, in the first array unit 20a). It changes with time as shown in FIG. 4 based on 25a, 25b, 25c). That is, as the object S moves closer to the photodiode 25a, the intensity A of the optical signal of the reflected light received by the photodiode 25a is gradually increased, and the photo at the position closest to the photodiode 25a is increased.
  • the intensity A of the optical signal of the reflected light received by the diode 25a peaks, and as the object S moves and moves away from the photodiode 25a, the optical signal of the reflected light received by the photodiode 25a increases. The intensity A is gradually reduced.
  • the distribution of the intensity B of the optical signal with time is shown in the photodiode 25b, and the distribution of the intensity C of the optical signal with time is shown in the photodiode 25c.
  • the separation distances of the object S and the photodiodes 25a, 25b, and 25c each change sequentially with time, and the intensity (A, B, C) of the optical signal is changed.
  • the distribution also changes sequentially with time.
  • the intensity and angle of the optical signals detected by each of the plurality of photodiodes 25 arranged in the array are collected and analyzed, the horizontal component of the horizontal movement of the object S or the arbitrary movement of the object S is determined.
  • Vector information such as moving distance, speed, acceleration, and the start and end points of the movement can be grasped.
  • the vertical movement of the object S (movement in a direction parallel to the y axis) is performed by the plurality of photodiodes 25 arranged in the vertical axis. It can detect the optical signal for.
  • the plurality of photodiodes 25 arranged in the vertical axis may be used to provide an optical system with respect to the vertical component (component in the direction parallel to the y axis) of an arbitrary movement of the object S. The signal can be detected.
  • the optical signal intensity of the reflected light received by the second array unit 20b is in the second array unit 20b. It changes with time as shown in FIG. 6 based on arbitrary photodiodes 25d, 25e, 25f, and 25g. That is, as the object S moves closer and closer to the photodiode 25d, the optical signal intensity D of the reflected light received by the photodiode 25d is gradually increased, and the photodiode at the position closest to the photodiode 25d is increased.
  • the intensity D of the optical signal of the reflected light received at 25d is at its peak, and as the object S moves and moves away from the photodiode 25d, the optical signal intensity of the reflected light received at the photodiode 25d ( D) gradually decreases.
  • the distribution of the optical signal intensity E with time is shown in the photodiode 25e, the distribution of the optical signal intensity F with the time in the photodiode 25f, and time in the photodiode 25g.
  • the distribution of the optical signal intensity G according to the above appears.
  • the separation distances of the object S and the photodiodes 25d, 25e, 25f, and 25g sequentially change with time, and the optical signal intensities D, E, F, The distribution of G) also changes sequentially with time.
  • the intensity and angle of the optical signal detected by each of the plurality of photodiodes 25 arranged in the array are collected and analyzed, the longitudinal component of the vertical movement of the object S or the arbitrary movement of the object S is determined.
  • Vector information such as moving distance, speed, acceleration, and the start and end points of the movement can be grasped.
  • the plurality of photodiodes 25 are arranged in a horizontal axis and / or a vertical axis.
  • the optical signal for the height movement (movement in the direction parallel to the z axis) of the object S can be detected.
  • any of the objects S may be formed by a plurality of photodiodes 25 arrayed in a horizontal axis and / or a vertical axis.
  • the optical signal for the height component (component in the direction parallel to the z axis) of the directional motion can be detected.
  • the strength of the signal is increased.
  • the intensity and angle of the optical signals detected by each of the plurality of photodiodes 25 arranged in the array are collected and analyzed, the height component of the height movement of the object S or the arbitrary movement of the object S is determined.
  • Vector information such as moving distance, speed, acceleration, and the start and end points of the movement can be grasped.
  • the optical signal (or the electrical signal converted from the optical signal) for the arbitrary direction movement of the object S in space is the object detected by the first array unit 20a ( An optical signal (or an electrical signal converted from the optical signal) for the horizontal component of the movement of S); 5 and 6, an optical signal (or an electrical signal converted from the optical signal) for the vertical component of the movement of the object S detected by the second array unit 20b; As described with reference to FIG. 7, an optical signal (or an electrical signal converted from the optical signal) for the height component of the movement of the object S detected by the first array unit 20a and the second array unit 20b. It can be implemented by separating and integrating;
  • the integrated optical signal may reflect time information and vector information such as a moving distance, a speed, an acceleration, a start point and an end point of the movement of the object S in any direction. Can be. Accordingly, the non-contact sensor module 30 including the light emitting unit 10 and the light receiving unit 20 can measure the angle and intensity of light reflected by the object S without using an image sensor (camera). It is possible to detect the exact trajectory of the position and the movement of the object S in space.
  • the microcontrol unit 40 receives an optical signal for the object S detected by the non-contact sensor module 30 and an electrical signal converted from the optical signal, and then spatial coordinates of the position and / or movement of the object S. Algorithm to implement Furthermore, the gesture coordinate corresponding to the position and / or the movement of the object S may be determined using the spatial coordinates, and a control signal corresponding to the gesture gesture may be generated.
  • the microcontrol unit 40 may include a database unit which stores a gesture operation and a control signal corresponding thereto in order to generate the control signal.
  • the microcontrol unit 40 may include a comparison determination unit to determine a gesture operation corresponding to the position and / or movement of the object S using the spatial coordinates.
  • the microcontrol unit 40 includes at least one hardware or electronic device 1120 in which a control signal corresponding to the electronic device 1120 when the gesture action forms a circle clockwise. And a database portion set as a control signal for enabling a zoom up function of the software installed in the.
  • a database unit may be configured to be arbitrarily set by a user.
  • the microcontrol unit 40 is the actual shape of the object (S) even if the motion of the object (S), that is, the shape that the actual movement of the object (S) forms in space does not exactly match the starting point and the end point.
  • the motion of the object S forms a circle in the clockwise direction. It may include a comparison determination unit that can be determined by the gesture operation.
  • the comparison determination unit calculates an error between the movement of the object S and the gesture operation, and a algorithm for classifying and determining the movement of the object S as a gesture operation stored in the database within a predetermined error range. It may include.
  • FIG. 8 is a block diagram illustrating a configuration including a non-contact manipulation apparatus according to a modified embodiment of the present invention.
  • the light emitting unit 10 and the light receiving unit 20 may be connected to the non-contact sensor module 30.
  • the modules may be spaced apart from each other without configuring the same single module. Since the light emitting unit 10 and the light receiving unit 20 do not constitute a single module, the light emitting unit 10 and the light receiving unit 20 may be freely disposed independently in the non-contact manipulation apparatus 1000, so that the degree of freedom of arrangement is increased. You can expect the effect.
  • FIG. 1 in FIG.
  • the light emitting unit 10 and the light receiving unit 20 are configured as one module, an advantageous effect that the light emitting unit 10 and the light receiving unit 20 may be easily disposed and handled in the non-contact manipulation apparatus 1000 may be expected.
  • the concept of detecting the optical signal and calculating the spatial coordinates in response to the position of the object S and / or the movement of the object S using the light emitter 10 and the light receiver 20 is the same as FIG.
  • Description of the control unit 40 and the communication unit 50 is also the same as in FIG.
  • the optical signal intensity of the reflected light received by the photodiodes 25a, 25b, and 25c in the first array unit 20a may be represented by the optical signal C, It becomes smaller gradually in order of the optical signal B and the optical signal A.
  • FIG. That is, the position of the object S at time T 1 may correspond to any one point on the plane that is closest to the photodiode 25c and spaced apart from the photodiode 25a. Therefore, the position of the object S at time T 1 is perpendicular to the xy plane, perpendicular to the x-axis, parallel to the y-axis and z-axis, by the first array portion 20a, as shown in FIG. 9. It can correspond to any one point on the plane P x .
  • the optical signal intensity of the reflected light received by the photodiodes 25d, 25e, 25f, and 25g in the second array unit 20b may be represented by an optical signal. (F), optical signal (E), optical signal (G), and optical signal (D) in order of decreasing. That is, at time T 1 , the position of the object S is closest to the photodiode 25f, then close to the photodiode 25e, and is spaced apart from the photodiode 25d most arbitrarily. It can correspond to any point of.
  • the position of the object S at time T 1 is perpendicular to the xy plane, perpendicular to the y-axis, parallel to the x-axis and z-axis, by the second array portion 20b, as shown in FIG. 9. It can correspond to any one point on the plane P y .
  • the position of the object S is in the xy plane by the first array unit 20a, as shown in FIG. 9.
  • Perpendicular to the x-axis corresponding to any point on the plane P x parallel to the y-axis and z-axis, and perpendicular to the y-axis by the second array portion 20b Since it is perpendicular and can correspond to any point on the plane P y parallel to the x and z axes, at time T 1 , the position of the object S is the plane P x and the plane P y. ) May correspond to any point on the intersection line L z that intersects.
  • the position of the object S is set to any one on the intersection line L z even by the first array unit 20a and the second array unit 20b provided in one non-contact sensor module 30. May correspond to a point.
  • the absolute value of the intensity of the optical signal shown in FIGS. 4 and 6 is relatively small, and the object S is
  • the non-contact sensor module 30 gets closer to the height direction (z-axis direction)
  • the absolute value of the intensity of the optical signal shown in FIGS. 4 and 6 becomes relatively large, but the absolute value of the height component (z component) in the spatial coordinates is increased. It is not easy to figure out.
  • the non-contact manipulation apparatus 1000 includes a plurality of non-contact sensor modules to solve this problem.
  • FIG. 10 is a configuration diagram illustrating a configuration including a non-contact manipulation apparatus according to another embodiment of the present invention.
  • FIG. 11 is a diagram illustrating a concept of calculating a height component among spatial coordinates of an object by using a distance between two non-contact sensor modules and a light receiving angle of reflected light in a non-contact manipulation device according to another exemplary embodiment of the present invention.
  • At least two non-contact sensor modules 30 include a first non-contact sensor module 30-1 and a second non-contact sensor module 30-2 spaced apart from each other.
  • Each of the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 is the same as the non-contact sensor module described above. Referring to FIG. 11, the separation distance D between the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2, and the plurality of non-contact sensor modules 30-1 and 30-2.
  • the middle height component (H) can be calculated by the trigonometric method as in Equation (1).
  • the plurality of non-contact sensor modules 30 are arranged, it is possible to calculate the exact position coordinates regardless of the size of the object (S). 10 and 11 exemplarily illustrate a case in which the non-contact sensor modules 30 are two non-contact sensor modules. Furthermore, a larger number of the plurality of non-contact sensor modules 30 are in the horizontal and / or vertical directions. By arranging in an array, it is possible to calculate a more accurate position coordinate of the object S.
  • the received angles of the received reflected light are a plurality of photodiodes 25 arranged in the horizontal axis in the first array unit 20a and a plurality of photodiodes 25 arranged in the vertical axis in the second array unit 20b.
  • the intensity distribution of the optical signal of the reflected light received at can be comprehensively analyzed and calculated.
  • slit portions (not shown) for selectively blocking and passing the reflected light may be disposed on the first array portion 20a and the second array portion 20b.
  • the slit portion may be composed of a plurality of bars arranged side by side spaced apart from each other.
  • the slit portion direction on the first array portion 20a and the slit portion direction on the second array portion 20b may be directions crossing each other.
  • the spatial coordinates of the object S may be calculated.
  • the microcontrol unit 40 receives the optical information of the reflected light detected by the plurality of non-contact sensor modules 30 and the distance D information between the plurality of non-contact sensor modules 30 and receives spatial coordinates of the object S. Equipped with an algorithm to output accurate coordinate data.
  • the microcontrol unit 40 may determine a gesture motion with respect to the movement of the object S by using the calculated spatial coordinates indicating the position of the object S, and generate a control signal corresponding to the gesture motion. have. To this end, it may optionally further comprise a database unit for storing the gesture operation and the control signal corresponding thereto. In addition, the microcontrol unit 40 may further include a comparison determination unit to determine the gesture operation for the movement of the object (S).
  • the microcontrol unit 40 moves the horizontal component, the vertical component, and the height component of the actual movement of the target object S, even if the actual movement of the target object S is formed in space, when the starting point and the end point do not exactly match.
  • the actual movement of the object S may include a comparison determination unit which can be determined by the gesture motion forming a clockwise circle. Can be.
  • the comparison determination unit calculates an error between the actual motion of the object S and the gesture motion, and classifies and determines the motion of the object S as a gesture motion stored in the database within a predetermined error range. It may include.
  • FIG. 12 is a configuration diagram illustrating a configuration including a non-contact manipulation apparatus according to another modified embodiment of the present invention.
  • the light emitting unit 10 and the light receiving unit 20 may be connected to the non-contact sensor module 30.
  • the modules may be spaced apart from each other without configuring the same single module. Since the light emitting unit 10 and the light receiving unit 20 do not constitute a single module, the light emitting unit 10 and the light receiving unit 20 may be freely disposed independently in the non-contact manipulation apparatus 1000, so that the degree of freedom of arrangement is increased. You can expect the effect.
  • at least two light receiving units 21 include a first light receiving unit 20-1 and a second light receiving unit 20-2.
  • each of the first light receiving unit 20-1 and the second light receiving unit 20-2 is the same as the light receiving unit 20 described above.
  • the height component H of the spatial coordinates of the object S is the separation distance D between the first light receiving unit 20-1 and the second light receiving unit 20-2 and the first light receiving unit 20-1.
  • the light receiving angles ( ⁇ 1 , ⁇ 2 , unit: degree (°)) of the reflected light R 1 , R 2 received at the second light receiving unit 20-2, respectively. Can be calculated.
  • the concept of detecting an optical signal and calculating spatial coordinates in accordance with the position of the object S and / or the movement of the object S using the light emitter 10 and the plurality of light receivers 21 is the same as that of FIG. 10. Since the description of the microcontrol unit 40 and the communication unit 50 is also the same as in FIG. 10, it will be omitted here.
  • FIG. 13A and 13B illustrate a concept in which a first array unit detects an optical signal for a horizontal component of a movement of an object in a non-contact manipulation device according to still another embodiment of the present invention.
  • FIG. 13A corresponds to a modified embodiment of the first array unit 20a disclosed in FIG. 3, and
  • FIG. 13B is a cross-sectional view illustrating the Q-Q cut plane of FIG. 13A.
  • the first photodiode PD1 has a height H at which the amount of light passage can vary according to at least an angle, and has a first partition W1 having a plurality of first slits S1 arranged side by side in the first direction.
  • the photodiode may be a photodiode capable of detecting the light amount of the first region biased to one side of the light passing between the first slits S1 and the light amount of the second region biased to the other side.
  • the first photodiode PD1 may include a first eccentric array PD1a and a second eccentric array PD1b, the first shown in FIGS. 13A and 13B.
  • the first eccentric array PD1a may correspond to the photodiode 25a shown in FIG. 3
  • the second eccentric array PD1b shown in FIGS. 13A and 13B may correspond to the photodiode 25b shown in FIG. 3. have.
  • the first eccentric array PD1a is installed below the first partition walls W1 and is installed to be biased to one side based on the center line of each of the first slits S1, and has different intensities according to the amount of light. Signal can be output.
  • the second eccentric array PD1b is disposed below the first partition walls W1, and is disposed to be biased to the other side based on the center line of each of the first slits S1, and has a different intensity according to the amount of light. Can output a signal.
  • the first array unit 20a having the photodiode 25 arrayed on the horizontal axis (x axis) may include first partition walls W1 extending along the vertical axis (y axis). Accordingly, the microcontrol unit 40 may determine the X-axis angle of the object S by using the output difference of the relative electrical signals of the first eccentric array PD1a and the second eccentric array PD1b. .
  • the second array portion 20b in which the photodiodes 25 are arranged in the vertical axis (y axis) is disposed between the first partition walls W1 extending along the horizontal axis (x axis).
  • the first eccentric array PD1a and the second eccentric array PD1b described above are arranged so that the microcontrol unit 40 is relative to the first eccentric array PD1a and the second eccentric array PD1b.
  • the Y-axis angle of the object S may be determined using the difference in output of the electrical signal.
  • the angle of the object S can be finally calculated by combining the X-axis angle and the Y-axis angle of the object S thus determined.
  • the non-contact manipulation apparatus 1000 may improve the problem of the conventional image sensor (camera) method and provide a new and diverse interface to the user through a motion recognition algorithm capable of low power and low cost.
  • the conventional non-contact gesture gesture recognition method is implemented by a camera module method.
  • the camera module method is a method of capturing a user's movement with a CMOS camera and recognizing an image captured by a sensor integrated circuit (IC).
  • IC sensor integrated circuit
  • the time taken to transfer the image taken by the CMOS camera to the sensor integrated circuit and to recognize and detect the motion is relatively high, and the recognition sensitivity is much lowered.
  • the camera module since the camera module must be operated to recognize the operation, there is a disadvantage in that a lot of power consumption is required. In addition, since the camera module is used, manufacturing costs are also very high. On the contrary, in the embodiments of the present invention, since the motion recognition is performed by using an infrared light emitting diode (IRED), a photodiode, and a microcontrol unit, this problem is achieved through a low power, fast motion recognition algorithm, low cost, and simple motion recognition processing. Can solve them.
  • IRED infrared light emitting diode
  • FIG. 14 is a diagram illustrating a configuration of a mouse to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
  • the non-contact manipulation apparatus 1000 described above may be embedded in the mouse 1120.
  • the plurality of non-contact sensor modules 30 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other may be disposed on the surface of the mouse 1120. .
  • the control signal transmitted to the computing device connected to the mouse 1120 may include a signal corresponding to the right direction key of the keyboard.
  • 15 is a diagram illustrating a configuration of a keyboard to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
  • the non-contact manipulation apparatus 1000 described above may be provided in a form of being attached to the surface of the keyboard 1120 or inserted into the inside thereof.
  • the plurality of non-contact sensor modules 30 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other may be disposed on the surface of the keyboard 1120.
  • the non-contact sensor modules 30 may be arranged in a frame 124a surrounding the keyboard 124b of the keyboard.
  • the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000 detects a user's motion without touching and touching a body, such as a finger, to easily operate a computer device such as a PC and related software. Because it can be controlled, it can be applied to various fields.
  • 16 is a diagram illustrating a configuration of a USB hub to which a non-contact manipulation device according to some embodiments of the present invention is applied.
  • the non-contact manipulation apparatus 1000 described above may be provided to be attached to or inserted into the surface of the UBS hub 1120 having the multi UBS port 122a.
  • the plurality of non-contact sensor modules 30 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other may be disposed on the surface 122b of the USB hub 1120.
  • the USB hub 1120 interlocked with the non-contact manipulation device 1000 according to an exemplary embodiment of the present invention detects a user's motion without touching and touching a body, such as a finger, and easily operates a computer device such as a PC and related software. It can be applied to various fields because it can control.
  • FIG. 17 is a diagram illustrating a configuration of a headset to which a non-contact manipulation device is applied according to some embodiments of the present invention.
  • the headset 1120 includes two speaker units 126a, a microphone unit 126b, and a headband unit 126c connecting the two speaker units 126a and the speaker unit 126a. It includes the housing portion 126d formed on the outside.
  • the plurality of non-contact sensor modules 30 and / or the microcontrol unit 40 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other are each a speaker unit.
  • 126a, the microphone unit 126b, the headband portion 126c, and the housing portion 126d may be disposed and provided in a form that is attached to or inserted into the inside.
  • the above-described gesture recognition headset 1120 is a non-contact gesture headset using a light emitting unit and a light receiving unit, and can easily control a mobile device by recognizing a user's motion without touching and touching a finger.
  • FIG. 18 is a diagram illustrating a configuration of a monitor to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
  • the non-contact manipulation apparatus 1000 described above may be provided in a form of being attached to the surface of the monitor 1120 or inserted into the inside thereof.
  • the plurality of non-contact sensor modules 30 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other may be disposed on the surface of the monitor 1120.
  • the non-contact sensor modules 30 in the monitor 1120 interlocked with the non-contact manipulation device 1000 may be selected from a monitor pedestal 125a, a monitor pillar 125b, a monitor frame 125c, and a monitor screen 125d. It may be arranged and configured in at least one.
  • the monitor 1120 interlocked with the non-contact manipulation apparatus 1000 detects a user's motion without touching and touching a body, such as a finger, to easily operate a computer device such as a PC and related software. Because it can be controlled, it can be applied to various fields.
  • FIG. 19 is a diagram illustrating a configuration of a smart phone to which a non-contact manipulation device according to some embodiments of the present invention is applied.
  • At least a part of the non-contact manipulation apparatus 1000 described above may be provided to be attached to the surface of the smart phone 1120 or inserted into the inside.
  • the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 constituting a part of the non-contact manipulation device 1000 may be spaced apart from each other to have a predetermined distance.
  • FIG. 20 is a diagram illustrating a configuration in which a non-contact manipulation device according to some embodiments of the present disclosure is disposed and provided outside of an electronic device.
  • the non-contact manipulation apparatus 1000 described above may be provided as a separate device from the electronic device 1120.
  • the control signal generated by the microcontrol unit 40 of the non-contact manipulation apparatus 1000 is wired to the electronic device 1120 through wired cables 127a and 127b, or is disposed in the non-contact manipulation apparatus 1000.
  • 52 may be wirelessly transmitted to the electronic device 1120.
  • the electronic device 1120 may include at least one of a computer, a laptop, a tablet PC, a tablet mobile communication device, a smartphone, a mobile phone, a smart pad, a game device, a virtual experience device, a portable multimedia playback device, and an electronic book. Can be.
  • 21A-21D illustrate exemplary movements of an object that may be provided on a mouse to which a non-contact manipulation device is applied in accordance with some embodiments of the present invention.
  • the non-contact manipulation apparatus when the user's hand S moves from the left to the right without contacting the mouse on the mouse 1120 interlocked with the non-contact manipulation apparatus 1000 described above, the non-contact manipulation apparatus
  • the gesture motion determined by the microcontrol unit 40 of FIG. 1000 may be classified into a linear motion toward the right. Accordingly, a control signal transmitted to a computing device such as a computer connected to the mouse 1120 may be transmitted to the right direction key of the keyboard. It may be a signal corresponding to.
  • the contactless state is not contacted.
  • the gesture motion determined by the microcontrol unit 40 of the control device 1000 may be classified into a linear motion directed upward. Accordingly, a control signal transmitted to a computer device such as a computer connected to the mouse 1120 may be transmitted. It may be a signal corresponding to an up direction key.
  • the gesture motion determined by the micro-control unit 40 of the non-contact manipulation device 1000 may be classified into a linear motion in the direction of gravity, and thus a control signal transmitted to a computer device such as a computer connected to the mouse 1120. May be a signal corresponding to a click of an enter key or a mouse button on the keyboard.
  • the control signal transmitted to the computing device such as a computer connected to the mouse 1120 may be a signal corresponding to the direction in which the joystick is pulled toward the user.
  • 22A-22D illustrate exemplary movements of an object that may be provided on a keyboard to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
  • a control signal transmitted to a computing device such as a computer connected to the keyboard 1120 may be transmitted to the keyboard. It may be a signal corresponding to the right direction key of 1120.
  • the user's hand S may be spaced apart from the keyboard 1120 without touching the keyboard 1120 on the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000 described above.
  • the gesture motion determined by the microcontrol unit 40 of the non-contact manipulation apparatus 1000 may be classified as a linear movement toward the upper side, and thus connected to the keyboard 1120.
  • the control signal transmitted to the computing device such as a computer may be a signal corresponding to the upper direction key of the keyboard 1120.
  • the user's hand S may be spaced apart from the keyboard 1120 without touching the keyboard 1120 on the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000, at a high point in the height direction.
  • the gesture motion determined by the microcontrol unit 40 of the non-contact manipulation apparatus 1000 may be classified into a linear motion toward the gravity direction, and accordingly, the computing device such as a computer connected to the keyboard 1120 may be used.
  • the control signal to be transmitted may be a signal corresponding to a click of an enter key or a mouse button of the keyboard 1120.
  • the user's hand S may be spaced apart from the keyboard 1120 without contacting the keyboard 1120 on the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000 described above.
  • the control signal transmitted to the computing device such as a computer connected to the keyboard 1120 may be a signal corresponding to the direction in which the joystick is pulled toward the user.
  • the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000 may include a frame 124a, a basic input key 124b, a special function key 124c, a switch key 124d, and a display window 124e. Can be.
  • the position and / or the movement of the object S may be determined by the first state in which the basic input key 124b is available and the non-contact manipulation apparatus 1000. It may be necessary to clearly distinguish the second state.
  • the first state refers to a general keyboard use state using a general basic input key 124b such as a character input key, a numeric input key, an enter input key, a space input key, and the like.
  • the second state refers to a state in which the position and / or movement of the object S can be grasped by the non-contact manipulation apparatus 1000 as shown in FIGS. 22A to 22D.
  • the non-contact manipulation apparatus 1000 is activated to hold the user's palm.
  • the movement of the controller determines the movement of the gesture, the gesture action corresponding to the gesture, and the control signal is generated.
  • the first state in which the primary input key 124b of the keyboard 1120 can be used and the position or movement of the object S can be determined by the non-contact sensor module 30 and the microcontrol unit 40.
  • the switch key 124d for selecting any one of the second states may be provided separately from the existing basic input key 124b.
  • the switch key 124d may be understood as a toggle key capable of toggling the first state and the second state. That is, as the toggle key 124d is sequentially pressed, the first step is activated and the second state is deactivated, and the second step is deactivated and the second state is activated. It can be configured to be implemented sequentially.
  • the first state in which the basic input key 124b of the keyboard 1120 can be used and the position or movement of the object S can be determined by the non-contact sensor module 30 and the microcontrol unit 40.
  • the toggle key 124d is configured to prevent the second state from being activated at the same time
  • the modified embodiment of the present invention may be configured to include the case where the first state and the second state are activated at the same time. For example, a step of inputting an enter key, which is a basic input key of a keyboard, for shooting in a process of performing a simulation game, etc. and the position of the object S by the non-contact manipulation apparatus 1000 instead of the joystick. It may be necessary for the steps to grasp the movement to be performed simultaneously.
  • the non-contact sensor module 30 may detect the left hand of the user who inputs the enter key, which is the basic input key of the keyboard, and the right hand of the user who expresses the movement of the object S, for example, moving toward the right.
  • the range of the area and the algorithm of the microcontrol unit 40 can be finely adjusted. Accordingly, in a modified embodiment of the present invention, as the toggle key 124d is sequentially pressed, the first state is activated and the second state is deactivated, and the first state is deactivated and the second is deactivated.
  • the state may be configured to sequentially implement a second step of activating, and a third step of activating the first state and the second state simultaneously. Of course, the order of the steps can be arbitrarily changed.
  • each step is configured to be implemented sequentially by pressing a single toggle key 124d in sequence, but in another modified embodiment of the present invention, two switch keys 124d may be provided. have. That is, a first switch key for sequentially activating and deactivating the first state and a second switch key for sequentially activating and deactivating the second state can be provided. Accordingly, the first to third steps may be implemented by the combination of the first switch key and the second switch key.
  • a first state in which the basic input key 124b of the keyboard 1120 is used and a second in which the position or movement of the object S can be detected by the non-contact sensor module 30 and the microcontrol unit 40 are used.
  • Other configurations are also possible that can impart a switching function between states.
  • the switching function may be given to any one of the special function keys 124c.
  • a separate switching device may be provided on the frame 124a of the keyboard 1120.
  • the switching function may be configured by a specific gesture operation corresponding to a specific movement of the object S.
  • information about the activated state may be displayed on the display window 124e so that the user of the keyboard 1120 may easily determine whether the first state and / or the second state are activated. That is, at least one selected from a first state capable of using the basic input key 124b of the keyboard 1120 and a second state capable of detecting the position or movement of the object S by the non-contact manipulation apparatus 1000.
  • a display window 124e for checking the status may be provided. For example, when the display window 124e indicates that the first state is activated, the contactless operation device 1000 is activated by pressing the above-described toggle key 124d to adjust the position and / or movement of the object S. FIG. I can figure it out. For example, if the display window 124e indicates that the second state is activated, the non-contact manipulation device 1000 is deactivated by pressing the above-described toggle key 124d to disable the normal basic input key 124b. It is available.
  • Existing general keyboards are equipped with a track ball, a touch pad, and a pointing stick to implement various user interfaces.
  • the interface using the trackball is inexpensive, but the sensitivity is often poor and there is a bulky problem, a relatively high cost is required to obtain a sensitivity over a certain performance.
  • the interface using the touch pad is weak to heat and has a problem of malfunctioning and a problem of accurately capturing the pointer, and also has a disadvantage of difficulty in positioning the pointer even when drawing a picture.
  • the interface using the pointing stick is a pressure sensor that uses the method of moving the mouse cursor on the screen at a speed proportional to the pressure that the user presses, and relatively fine adjustment is possible but it is not easy to cope with various movements of the user.
  • the existing input methods such as trackball, touch pad, and pointing stick have many disadvantages to replace the mouse in terms of fine adjustment or quick response.
  • the embodiments of the present invention can overcome these disadvantages by providing a keyboard interlocked with the non-contact operation apparatus 1000 described above.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

To provide a non-contact operation device having low power consumption, a quick algorithm for recognizing a motion, low manufacturing cost, and a simple motion recognition processing step, the present invention provides the non-contact operation device comprising: one or more light-emitting portions for emitting light; one or more light receiving portions comprising a plurality of light sensors arranged in horizontal and vertical arrays, for receiving light from the light emitting portion as a light source and reflected due to a motion of an object, and converting into an electric signal an optical signal with respect to the motion of the object containing information on the strength and angle of the light that is received; and a micro-control unit (MCU) for receiving an input of the electric signal, calculating space coordinates of the object, determining a gesture motion with respect to the motion of the object by using the space coordinates, and generating a control signal corresponding to the gesture motion.

Description

비접촉 조작장치 및 이와 연동된 전자기기Non-contact operation device and associated electronic device
본 발명은 비접촉 조작장치 및 이와 연동된 전자기기에 관한 것으로서, 보다 상세하게는 간단한 위치 및/또는 동작 인식 처리과정을 통하여 사용자에게 새롭고 다양한 인터페이스를 제공할 수 있는 비접촉 조작장치 및 이와 연동된 전자기기에 관한 것이다. The present invention relates to a contactless control device and an electronic device linked thereto, and more particularly, to a non-contact control device and an electronic device linked thereto, which can provide a new and various interface to a user through a simple position and / or motion recognition process. It is about.
IT 기술의 급격한 변화에 따라 다양한 상황에서도 편리하게 사용할 수 있도록 동작 인식을 통한 제어방법들이 다양하게 제시되고 있다. 상기 제어방법들에서 동작 인식은 이미지센서(카메라)를 이용하여 구현하고 있다. 이미지센서로 동작 인식을 하기 위해서는 전원을 상시 연결해 놓아야 하기 때문에 많은 전력이 불필요하게 낭비되는 문제점이 있다. 또한, 이미지센서는 동작 인식 과정 중에서 복수의 이미지를 추출하여 영상처리를 실시하기 위한 일련의 과정이 필요하기 때문에 프로세서의 부담이 크고 장치 구현 및 처리 알고리즘이 매우 복잡한 문제점이 있다. 따라서, 이미지센서로 동작 인식을 구현하기 위해서는 제조비용이 상승하는 문제점도 수반된다. With the rapid change in IT technology, various control methods through motion recognition have been proposed for convenient use in various situations. Motion recognition in the control methods is implemented using an image sensor (camera). In order to recognize the motion with the image sensor, power must be connected at all times, so a lot of power is unnecessarily wasted. In addition, since the image sensor requires a series of processes for extracting a plurality of images from the motion recognition process to perform image processing, the burden on the processor is high and the device implementation and processing algorithms are very complicated. Therefore, in order to implement motion recognition with an image sensor, a problem arises in that the manufacturing cost increases.
본 발명은 상기와 같은 문제점을 포함하여 여러 문제점들을 해결하기 위한 것으로서, 소모전력이 낮고 동작 인식을 위한 알고리즘이 빠르며, 제조비용이 낮으며, 동작 인식 처리과정이 간단한 비접촉 조작장치를 제공하며, 나아가, 이러한 비접촉 조작장치와 연동된 전자기기를 제공하는 것을 목적으로 한다. 그러나 이러한 과제는 예시적인 것으로, 이에 의해 본 발명의 범위가 한정되는 것은 아니다.The present invention is to solve a number of problems including the above problems, low power consumption, fast algorithm for motion recognition, low manufacturing cost, and provides a non-contact operation device with a simple operation recognition process, An object of the present invention is to provide an electronic device interlocked with such a non-contact manipulation device. However, these problems are exemplary, and the scope of the present invention is not limited thereby.
본 발명의 일 관점에 의한 비접촉 조작장치가 제공될 수 있다. 상기 비접촉 조작장치는 광을 방출할 수 있는 적어도 하나 이상의 발광부; 가로 및 세로로 각각 어레이 배열된 복수개의 광센서들을 포함하며, 상기 발광부를 광원으로 하여 대상물 모션에 의해 반사되는 광을 수용하며, 상기 수용되는 광의 세기 및 각도에 대한 정보를 가지는 상기 대상물 모션에 대한 광학신호를 전기신호로 변환할 수 있는, 적어도 하나 이상의 수광부; 및 상기 전기신호를 입력받아 상기 대상물에 대한 공간좌표를 산출하고, 상기 공간좌표를 이용하여 상기 대상물 모션에 대한 제스쳐동작을 판별하고, 상기 제스쳐동작에 대응하는 제어신호를 생성하는, 마이크로컨트롤유닛(MCU);을 구비한다.Non-contact manipulation apparatus according to one aspect of the present invention can be provided. The non-contact manipulation device may include at least one light emitting unit capable of emitting light; Comprising a plurality of optical sensors arranged in a horizontal and vertical array, respectively, receiving the light reflected by the object motion by using the light emitting unit as a light source, for the object motion having information on the intensity and angle of the received light At least one light receiving unit capable of converting an optical signal into an electrical signal; And a microcontrol unit configured to receive the electrical signal, calculate a spatial coordinate for the object, determine a gesture motion with respect to the object motion using the spatial coordinate, and generate a control signal corresponding to the gesture motion. MCU);
상기 비접촉 조작장치에서, 상기 수광부는 가로로 어레이 배열된 복수의 포토다이오드들로 구성된 제 1 어레이부; 및 세로로 어레이 배열된 복수의 포토다이오드들로 구성된 제 2 어레이부;를 포함하고, 상기 대상물 모션에 대한 광학신호는 상기 제 1 어레이부에 의하여 검출된 상기 대상물 모션의 가로성분에 대한 광학신호; 상기 제 2 어레이부에 의하여 검출된 상기 대상물 모션의 세로성분에 대한 광학신호; 및 상기 제 1 어레이부 및 상기 제 2 어레이부에 의하여 검출된 상기 대상물 모션의 높이성분에 대한 광학신호;로 구분될 수 있다. In the non-contact manipulation apparatus, the light receiving unit comprises: a first array unit including a plurality of photodiodes arranged horizontally; And a second array unit including a plurality of photodiodes arranged in a vertical array, wherein the optical signal for the object motion comprises: an optical signal for a horizontal component of the object motion detected by the first array unit; An optical signal for a vertical component of the object motion detected by the second array unit; And an optical signal for the height component of the object motion detected by the first array unit and the second array unit.
상기 비접촉 조작장치에서, 상기 제 1 어레이부와 상기 제 2 어레이부는 혼재되어 배치되지 않고 서로 구분되고 이격되어 개별적으로 배치될 수 있다. In the non-contact manipulation apparatus, the first array portion and the second array portion may be arranged separately from each other and spaced apart from each other without being mixed.
상기 비접촉 조작장치는 상기 제어신호를 컴퓨터, 노트북, 태블릿 피씨, 태블릿 이동통신기기, 스마트폰, 핸드폰, 스마트패드, 게임기기, 가상체험장치, 휴대용 멀티미디어 재생장치, 전자북, 유에스비 허브(USB HUB), 마우스, 키보드, 모니터 및 헤드셋 중 적어도 어느 하나를 포함하는 전자기기에 송신하는 통신부를 더 포함할 수 있다. 상기 제어신호는 상기 전자기기를 구성하는 하드웨어 또는 상기 전자기기에 설치된 소프트웨어를 제어할 수 있는 신호를 포함할 수 있다. The contactless control device is a computer, notebook, tablet PC, tablet mobile communication device, smart phone, mobile phone, smart pad, game device, virtual experience device, portable multimedia playback device, electronic book, USB hub (USB HUB) The electronic device may further include a communication unit configured to transmit to an electronic device including at least one of a mouse, a keyboard, a monitor, and a headset. The control signal may include a signal for controlling hardware constituting the electronic device or software installed on the electronic device.
상기 비접촉 조작장치에서, 상기 통신부는 블루투스(Bluetooth) 통신 또는 지그비(Zigbee) 통신을 이용하는 무선통신부 및 USB(Universal Serial Bus) 케이블을 이용하는 유선통신부 중에서 적어도 어느 하나를 포함할 수 있다. In the contactless operation apparatus, the communication unit may include at least one of a wireless communication unit using Bluetooth communication or Zigbee communication and a wired communication unit using a universal serial bus (USB) cable.
상기 비접촉 조작장치에서, 상기 발광부, 상기 수광부, 상기 마이크로컨트롤유닛 및 상기 통신부 중 적어도 일부는 상기 전자기기에 내장되어 배치될 수 있다. In the non-contact manipulation device, at least some of the light emitting unit, the light receiving unit, the microcontrol unit, and the communication unit may be embedded in the electronic device.
상기 비접촉 조작장치에서, 상기 발광부, 상기 수광부, 상기 마이크로컨트롤유닛 및 상기 통신부 중 적어도 일부는 상기 전자기기의 외부에 배치될 수 있다. In the non-contact manipulation apparatus, at least some of the light emitting unit, the light receiving unit, the microcontrol unit, and the communication unit may be disposed outside the electronic device.
상기 비접촉 조작장치에서, 상기 발광부 및 상기 수광부는 모듈화되지 않고 서로 이격되어 배치될 수 있다. In the non-contact manipulation apparatus, the light emitting portion and the light receiving portion may be disposed apart from each other without being modularized.
상기 비접촉 조작장치에서, 상기 발광부 및 상기 수광부는 적어도 하나 이상의 비접촉 센서 모듈을 구성할 수 있다. 여기에서, 상기 적어도 하나 이상의 비접촉 센서 모듈은 서로 이격된 제 1 비접촉 센서 모듈 및 제 2 비접촉 센서 모듈을 포함하고, 상기 마이크로컨트롤유닛은, 상기 제 1 및 제 2 비접촉 센서 모듈들의 이격거리 및 상기 제 1 및 제 2 비접촉 센서 모듈들에 각각 구비된 상기 수광부에 수광되는 상기 반사광의 수광각을 이용하여 상기 대상물에 대한 공간좌표 중 높이성분을 산출할 수 있다. In the non-contact manipulation apparatus, the light emitting unit and the light receiving unit may constitute at least one non-contact sensor module. Here, the at least one non-contact sensor module includes a first non-contact sensor module and a second non-contact sensor module spaced apart from each other, the microcontrol unit, the separation distance of the first and second non-contact sensor modules and the first The height component of the spatial coordinates of the object may be calculated using the light receiving angles of the reflected light received by the light receiving units provided in the first and second non-contact sensor modules, respectively.
상기 비접촉 조작장치에서, 상기 적어도 하나 이상의 수광부는 서로 이격된 제 1 수광부 및 제 2 수광부를 포함하고, 상기 마이크로컨트롤유닛은, 상기 제 1 수광부와 상기 제 2 수광부 사이의 이격거리 및 상기 제 1 수광부 및 상기 제 2 수광부에 수광되는 상기 반사광의 수광각을 이용하여 상기 대상물에 대한 공간좌표 중 높이성분을 산출할 수 있다. In the non-contact manipulation apparatus, the at least one light receiving unit includes a first light receiving unit and a second light receiving unit spaced apart from each other, and the microcontrol unit includes a separation distance between the first light receiving unit and the second light receiving unit and the first light receiving unit. And a height component of the spatial coordinates of the object using the light receiving angle of the reflected light received by the second light receiving unit.
상기 비접촉 조작장치에서, 상기 발광부는 적외선 발광 다이오드(IRED)를 포함하고, 상기 수광부는 포토다이오드를 포함할 수 있다. The light emitting unit may include an infrared light emitting diode (IRED), and the light receiving unit may include a photodiode.
본 발명의 다른 관점에 의한 전자기기가 제공될 수 있다. 상기 전자기기는 상술한 비접촉 조작장치와 연동되어 구성될 수 있다. An electronic device according to another aspect of the present invention may be provided. The electronic device may be configured in conjunction with the non-contact manipulation apparatus described above.
상기 전자기기는 컴퓨터, 노트북, 태블릿 피씨, 태블릿 이동통신기기, 스마트폰, 핸드폰, 스마트패드, 게임기기, 가상체험장치, 휴대용 멀티미디어 재생장치, 전자북, 유에스비 허브(USB HUB), 마우스, 키보드, 모니터 및 헤드셋 중 적어도 어느 하나를 포함할 수 있다. The electronic device includes a computer, a laptop, a tablet PC, a tablet mobile communication device, a smartphone, a mobile phone, a smart pad, a game device, a virtual experience device, a portable multimedia player, an electronic book, a USB hub, a mouse, a keyboard, It may include at least one of a monitor and a headset.
상기한 바와 같이 이루어진 본 발명의 일부 실시예들에 따르면, 소모전력이 낮고 동작 인식을 위한 알고리즘이 빠르며, 제조비용이 낮으며, 동작 인식 처리과정이 간단한 비접촉 조작장치 및 이와 연동된 전자기기를 제공할 수 있다. 물론 이러한 효과에 의해 본 발명의 범위가 한정되는 것은 아니다.According to some embodiments of the present invention made as described above, there is provided a non-contact operation device and a linked electronic device with low power consumption, fast algorithm for motion recognition, low manufacturing cost, and simple motion recognition processing. can do. Of course, the scope of the present invention is not limited by these effects.
도 1은 본 발명의 일 실시예에 따른 비접촉 조작장치를 포함하는 구성을 도해하는 구성도이다. 1 is a configuration diagram illustrating a configuration including a non-contact operation device according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 비접촉 조작장치에서 발광부와 수광부를 구비하는 비접촉 센서 모듈을 도해하는 도면이다. 2 is a view illustrating a non-contact sensor module including a light emitting unit and a light receiving unit in a non-contact manipulation apparatus according to an embodiment of the present invention.
도 3 및 도 4는 본 발명의 일 실시예에 따른 비접촉 조작장치에서 제 1 어레이부가 대상물의 움직임의 가로성분에 대한 광학신호를 검출하는 개념을 각각 도해하는 도면이다. 3 and 4 are views illustrating a concept in which the first array unit detects an optical signal for a horizontal component of the movement of the object in the non-contact manipulation device according to the embodiment of the present invention.
도 5 및 도 6은 본 발명의 일 실시예에 따른 비접촉 조작장치에서 제 2 어레이부가 대상물의 움직임의 세로성분에 대한 광학신호를 검출하는 개념을 각각 도해하는 도면이다. 5 and 6 are views illustrating a concept of detecting the optical signal for the vertical component of the movement of the object in the non-contact manipulation apparatus according to an embodiment of the present invention, respectively.
도 7은 본 발명의 일 실시예에 따른 비접촉 조작장치에서 비접촉 센서 모듈이 대상물의 움직임의 높이성분에 대한 광학신호를 검출하는 개념을 도해하는 도면이다.7 is a view illustrating a concept of the non-contact sensor module to detect the optical signal for the height component of the movement of the object in the non-contact operation device according to an embodiment of the present invention.
도 8은 본 발명의 변형된 일 실시예에 따른 비접촉 조작장치를 포함하는 구성을 도해하는 구성도이다.8 is a block diagram illustrating a configuration including a non-contact manipulation apparatus according to a modified embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따른 비접촉 조작장치에서 제 1 어레이부 및 제 2 어레이부가 검출한 광학신호에 의하여 대상물의 공간좌표를 산출하는 개념을 도해하는 도면이다.FIG. 9 illustrates a concept of calculating a spatial coordinate of an object based on an optical signal detected by a first array unit and a second array unit in a non-contact manipulation apparatus according to an embodiment of the present invention.
도 10은 본 발명의 다른 실시예에 따른 비접촉 조작장치를 포함하는 구성을 도해하는 구성도이다.10 is a configuration diagram illustrating a configuration including a non-contact manipulation apparatus according to another embodiment of the present invention.
도 11은 본 발명의 다른 실시예에 따른 비접촉 조작장치에서 두 개의 비접촉 센서 모듈들의 이격거리 및 반사광의 수광각을 이용하여 대상물에 대한 공간좌표 중 높이성분을 산출하는 개념을 도해하는 도면이다.FIG. 11 is a diagram illustrating a concept of calculating a height component among spatial coordinates of an object by using a distance between two non-contact sensor modules and a light receiving angle of reflected light in a non-contact manipulation device according to another exemplary embodiment of the present invention.
도 12는 본 발명의 변형된 다른 실시예에 따른 비접촉 조작장치를 포함하는 구성을 도해하는 구성도이다.12 is a configuration diagram illustrating a configuration including a non-contact manipulation apparatus according to another modified embodiment of the present invention.
도 13a 및 도 13b는 본 발명의 또 다른 실시예에 따른 비접촉 조작장치에서 제 1 어레이부가 대상물의 움직임의 가로성분에 대한 광학신호를 검출하는 개념을 도해하는 도면이다. 13A and 13B illustrate a concept in which a first array unit detects an optical signal for a horizontal component of a movement of an object in a non-contact manipulation device according to still another embodiment of the present invention.
도 14는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 마우스의 구성을 도해하는 도면이다.14 is a diagram illustrating a configuration of a mouse to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
도 15는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 키보드의 구성을 도해하는 도면이다.15 is a diagram illustrating a configuration of a keyboard to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
도 16은 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 유에스비 허브의 구성을 도해하는 도면이다.16 is a diagram illustrating a configuration of a USB hub to which a non-contact manipulation device according to some embodiments of the present invention is applied.
도 17은 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 헤드셋의 구성을 도해하는 도면이다.17 is a diagram illustrating a configuration of a headset to which a non-contact manipulation device is applied according to some embodiments of the present invention.
도 18은 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 모니터의 구성을 도해하는 도면이다.18 is a diagram illustrating a configuration of a monitor to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
도 19는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 스마트폰의 구성을 도해하는 도면이다.19 is a diagram illustrating a configuration of a smart phone to which a non-contact manipulation device according to some embodiments of the present invention is applied.
도 20은 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 전자기기의 외부에 배치되어 제공되는 구성을 도해하는 도면이다.20 is a diagram illustrating a configuration in which a non-contact manipulation device according to some embodiments of the present disclosure is disposed and provided outside of an electronic device.
도 21a 내지 도 21d는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 마우스 상에 제공될 수 있는 대상물의 예시적인 움직임을 도해하는 도면들이다. 21A-21D illustrate exemplary movements of an object that may be provided on a mouse to which a non-contact manipulation device is applied in accordance with some embodiments of the present invention.
도 22a 내지 도 22d는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 키보드 상에 제공될 수 있는 대상물의 예시적인 움직임을 도해하는 도면들이다. 22A-22D illustrate exemplary movements of an object that may be provided on a keyboard to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 상세히 설명한다. 본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이며, 하기 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 하기 실시예들에 한정되는 것은 아니다. 오히려 이들 실시예들은 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다. 또한 설명의 편의 및 명확성을 위하여, 도면에 도시된 구성 요소들은, 상호 간에 크기가 비례하지 않으면서, 적어도 일부가 과장 또는 축소될 수 있다.Hereinafter, with reference to the accompanying drawings will be described embodiments of the present invention; The embodiments of the present invention are provided to more fully explain the present invention to those skilled in the art, and the following examples can be modified in various other forms, and the scope of the present invention is It is not limited to the embodiments. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. In addition, for convenience and clarity of description, the components illustrated in the drawings may be at least partially exaggerated or reduced in size without being proportional to each other.
본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되며, 본 발명을 제한하기 위한 것이 아니다. 본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)"라는 용어는 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다. 본 명세서에서 사용된 바와 같이, 용어 "및/또는"은 해당 열거된 항목 중 어느 하나 및 하나 이상의 모든 조합을 포함한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. As used herein, the singular forms "a", "an" and "the" may include the plural forms as well, unless the context clearly indicates otherwise. Also, as used herein, the term "comprise" refers to the presence of the shapes, numbers, steps, actions, members, elements, and / or groups mentioned, and one or more other shapes, numbers. It is not intended to exclude the presence or addition of acts, members, elements and / or groups. As used herein, the term "and / or" includes any and all combinations of one or more of the listed items.
본 명세서에서 제 1, 제 2 등의 용어는 다양한 부재, 부품, 영역, 층들 및/또는 부분들을 설명하기 위하여 사용되지만, 이들 부재, 부품, 영역, 층들 및/또는 부분들은 이들 용어에 의해 한정되어서는 안됨은 자명하다. 이들 용어는 하나의 부재, 부품, 영역, 층 또는 부분을 다른 영역, 층 또는 부분과 구별하기 위하여만 사용된다. 따라서, 이하 상술할 제 1 부재, 부품, 영역, 층 또는 부분은 본 발명의 가르침으로부터 벗어나지 않고서도 제 2 부재, 부품, 영역, 층 또는 부분을 지칭할 수 있다.The terms first, second, etc. are used herein to describe various members, parts, regions, layers, and / or parts, but these members, parts, regions, layers, and / or parts are defined by these terms. It is obvious that not. These terms are only used to distinguish one member, part, region, layer or portion from another region, layer or portion. Thus, the first member, part, region, layer or portion, which will be discussed below, may refer to the second member, component, region, layer or portion without departing from the teachings of the present invention.
이하, 본 발명의 실시예들은 본 발명의 이상적인 실시예들을 개략적으로 도시하는 도면들을 참조하여 설명한다. 도면들에 있어서, 예를 들면, 제조 기술 및/또는 공차(tolerance)에 따라, 도시된 형상의 변형들이 예상될 수 있다. 따라서, 본 발명 사상의 실시예들은 본 명세서에 도시된 영역의 특정 형상에 제한된 것으로 해석되어서는 아니되며, 예를 들면 제조상 초래되는 형상의 변화를 포함하여야 한다.Embodiments of the present invention will now be described with reference to the drawings, which schematically illustrate ideal embodiments of the present invention. In the figures, for example, variations in the shape shown may be expected, depending on manufacturing techniques and / or tolerances. Accordingly, embodiments of the inventive concept should not be construed as limited to the specific shapes of the regions shown herein, but should include, for example, changes in shape resulting from manufacturing.
본원은 한국특허청에 출원한 출원번호 제10-2013-0038417호, 제10-2013-0074878호, 제10-2013-0038416호, 제10-2013-0074876호, 제10-2013-0074877호, 제10-2013-0082215호 및 제10-2013-0091493호에 대하여 우선권을 주장하여, 상기 출원된 발명들의 내용은 전체적으로 여기에서 인용되어 통합된다. The present application is filed with the Korean Intellectual Property Office No. 10-2013-0038417, 10-2013-0074878, 10-2013-0038416, 10-2013-0074876, 10-2013-0074877, By claiming priorities with respect to 10-2013-0082215 and 10-2013-0091493, the contents of the above-claimed inventions are hereby incorporated by reference in their entirety.
도 1은 본 발명의 일 실시예에 따른 비접촉 조작장치를 포함하는 구성을 도해하는 구성도이고, 도 2는 본 발명의 일 실시예에 따른 비접촉 조작장치에서 비접촉 센서 모듈을 도해하는 도면이다. 1 is a block diagram illustrating a configuration including a non-contact manipulation apparatus according to an embodiment of the present invention, Figure 2 is a diagram illustrating a non-contact sensor module in a non-contact manipulation apparatus according to an embodiment of the present invention.
도 1 내지 도 2를 참조하면, 본 발명의 일 실시예에 따른 비접촉 조작장치(1000)는 발광부(10)와 수광부(20)를 각각 구비하며, 대상물(예를 들어, 도 3, 도 5, 도 7, 또는 도 11의 S)에 대한 광학신호를 전기신호로 변환할 수 있는, 적어도 하나 이상의 비접촉 센서 모듈(30)을 포함한다. 비접촉 센서 모듈(30)은 발광부(10) 및 수광부(20)를 구비한다. 1 to 2, the non-contact manipulation apparatus 1000 according to an embodiment of the present invention includes a light emitting unit 10 and a light receiving unit 20, respectively, and an object (for example, FIGS. 3 and 5). 7, or at least one non-contact sensor module 30 capable of converting the optical signal for S) of FIG. 11 into an electrical signal. The non-contact sensor module 30 includes a light emitting unit 10 and a light receiving unit 20.
발광부(10)는 대상물(S)에 조사광을 조사할 수 있다. 예를 들어, 발광부(10)는 조사광을 조사할 수 있는 발광 다이오드(LED) 등의 발광 소자일 수 있고, 인체의 동작 및/또는 위치를 감지하기 위해서 발광부(10)는 적외선 발광 다이오드(IRED)를 포함할 수 있다. 발광부(10)는 사용자의 선택에 따라 필요한 경우에만 조사광이 방출되도록 구성될 수도 있다. 이는 사용자가 사용하지 않는 휴지기간에도 계속 조사광이 방출됨으로써 전력이 불필요하게 소모되는 것을 방지하기 위함이다. The light emitter 10 may irradiate the object S with irradiation light. For example, the light emitting unit 10 may be a light emitting device such as a light emitting diode (LED) capable of irradiating irradiated light, and the light emitting unit 10 may be an infrared light emitting diode in order to detect an operation and / or a position of a human body. (IRED). The light emitter 10 may be configured to emit irradiation light only when necessary according to a user's selection. This is to prevent unnecessary consumption of power by continuously radiating light even during a period of inactivity not used by the user.
수광부(20)는 발광부(10)를 광원으로 하여 상기 조사광이 대상물(S)에서 반사된 반사광을 수광할 수 있다. 수광부(20)는, 예를 들어, 가로 및 세로로 어레이 배치, 복수개의 광센서들을 포함할 수 있다. 이러한 광센서는 대상물(S)에 대한 광학신호를 전기신호로 변환할 수 있는 수광 소자일 수 있으며, 예를 들어, 포토다이오드를 포함할 수 있다. 예를 들면, 수광부(20)는 가로로 어레이 배치된 복수의 포토다이오드(25)들로 구성된 제 1 어레이부(20a) 및 세로로 어레이 배치된 복수의 포토다이오드(25)들로 구성된 제 2 어레이부(20b)를 포함할 수 있다.The light receiving unit 20 may receive the reflected light reflected from the object S by using the light emitting unit 10 as a light source. The light receiver 20 may include, for example, an array arrangement horizontally and vertically, and a plurality of optical sensors. The optical sensor may be a light receiving device capable of converting an optical signal for the object S into an electrical signal, and may include, for example, a photodiode. For example, the light receiving unit 20 includes a first array unit 20a composed of a plurality of photodiodes 25 arranged horizontally and a second array composed of a plurality of photodiodes 25 arranged vertically. It may include a portion 20b.
수광부(20)는 대상물(S)에 대한 광학신호를 전기신호로 변환할 수 있다. 상기 광학신호란 넓은 의미에서 광과 관련된 모든 신호를 말하고, 좁은 의미에서 전압, 전류, 전력 등 계측이 가능한 각종 전기적인 신호로 변환될 수 있는 광학신호를 말한다. 나아가, 본 발명의 기술적 사상에 따르면, 대상물(S)에 대한 광학신호는, 예를 들어, 대상물(S)의 위치 및/또는 움직임에 대하여 복수의 이미지를 추출하고 영상처리를 수행함으로써 구현되는 신호가 아니라, 대상물(S)의 정적인 위치 및/또는 동적인 움직임에 의해 반사되어 수신되는 반사광의 세기 및/또는 반사광의 각도에 대한 정보를 가지는 신호를 의미할 수 있다. 즉, 대상물(S)에 대한 광학신호는, 예를 들어, 도 4 또는 도 6과 같이, 수광되는 반사광의 세기에 대한 정보와, 예를 들어, 도 11과 같이, 수광되는 반사광의 수광각(∠θ1, ∠θ2)에 대한 정보를 가질 수 있다. The light receiver 20 may convert an optical signal for the object S into an electrical signal. The optical signal refers to all signals related to light in a broad sense, and refers to an optical signal that can be converted into various electrical signals capable of measuring voltage, current, power, etc. in a narrow sense. Furthermore, according to the spirit of the present invention, the optical signal for the object S is, for example, a signal implemented by extracting a plurality of images and performing image processing with respect to the position and / or movement of the object S. Rather, it may mean a signal having information on the intensity of the reflected light and / or the angle of the reflected light that is reflected and received by the static position and / or dynamic movement of the object S. FIG. That is, the optical signal for the object S, for example, as shown in Fig. 4 or 6, the information on the intensity of the reflected light received, for example, as shown in Fig. 11, the light receiving angle of the received reflected light ( ∠θ 1 and ∠θ 2 ).
또한, 본 발명의 일 실시예에 따른 비접촉 조작장치(1000)는 상기 전기신호를 입력받아 대상물(S)에 대한 공간좌표를 산출하는 마이크로컨트롤유닛(MCU, 40)을 구비한다. 나아가, 마이크로컨트롤유닛(40)은 상기 공간좌표를 이용하여 대상물(S)의 정적인 위치를 판별하고 대상물(S)의 동적인 움직임에 대응하는 제스쳐동작을 판별하고, 상기 정적인 위치 및/또는 상기 제스쳐동작에 대응하는 제어신호를 생성할 수 있다. In addition, the non-contact manipulation apparatus 1000 according to an embodiment of the present invention includes a micro control unit (MCU) 40 that receives the electrical signal and calculates a spatial coordinate for the object S. Further, the microcontrol unit 40 determines the static position of the object S by using the spatial coordinates, determines the gesture motion corresponding to the dynamic movement of the object S, and determines the static position and / or A control signal corresponding to the gesture operation may be generated.
한편, 앞에서 언급한 대상물(S)은 비접촉 조작장치(1000) 및/또는 전자기기(1120)를 사용하는 사용자의 신체 일부를 포함할 수 있다. 또한, 대상물(S)은 상기 사용자가 가지고 있거나 착용하고 있는 도구, 기기, 기구 및/또는 장치를 포함할 수 있다. 대상물(S)은 일정 시간 동안 공간 상에서 위치가 고정될 수 있으며, 나아가, 공간 상에서 위치가 가변될 수도 있다. 따라서, 대상물(S)이 일정 시간 동안 공간 상에서 위치가 고정되는 경우 비접촉 조작장치(1000)는 대상물(S)의 위치를 파악하는 포지션 센서의 기능을 수행할 수 있으며, 대상물(S)이 시간에 따라 공간 상에서 위치가 가변되는 경우 비접촉 조작장치(1000)는 대상물(S)의 움직임을 파악하고 이에 대응하는 제스쳐동작을 판별하는 모션 센서 또는 제스쳐 센서의 기능을 수행할 수 있다. Meanwhile, the aforementioned object S may include a body part of a user who uses the non-contact manipulation apparatus 1000 and / or the electronic device 1120. In addition, the object S may include tools, devices, instruments and / or devices that the user possesses or wears. The object S may be fixed in space for a predetermined time, and furthermore, the position S may be variable in space. Accordingly, when the position S is fixed in the space for a predetermined time, the non-contact manipulation apparatus 1000 may perform a function of a position sensor for detecting the position of the object S, and the object S may be Accordingly, when the position is changed in the space, the non-contact manipulation apparatus 1000 may perform a function of a motion sensor or a gesture sensor that detects a movement of the object S and determines a gesture motion corresponding thereto.
여기에서, 대상물(S)의 모션, 즉, 대상물의 움직임이라 함은 비접촉 조작장치(1000)에서 소정거리 이내에 위치하는 사용자의 손가락 움직임, 손바닥 움직임, 손등 움직임, 손 움직임, 팔 움직임, 머리 움직임, 얼굴 움직임, 눈 움직임, 눈동자 움직임, 눈꺼풀 움직임, 입 움직임, 입술 움직임, 혀 움직임, 어깨 움직임, 몸통 움직임, 다리 움직임, 발가락 움직임 및 발 움직임 중에서 적어도 어느 하나를 포함할 수 있다. Herein, the motion of the object S, that is, the motion of the object, refers to a user's finger movement, palm movement, back movement of the hand, hand movement, arm movement, head movement, It may include at least one of facial movement, eye movement, eye movement, eyelid movement, mouth movement, lip movement, tongue movement, shoulder movement, torso movement, leg movement, toe movement, and foot movement.
나아가, 대상물(S)의 움직임은 앞서 언급한 사용자 인체의 움직임 뿐만 아니라 사용자가 가지고 있거나 착용함으로써 위치가 가변될 수 있는 도구, 기기, 기구 및/또는 장치의 움직임을 포함할 수 있다. 예를 들어, 발광부(10)에서 제공되는 조사광이 반사될 수 있는 반지를 사용자가 손가락에 착용한 경우에, 대상물(S)의 움직임은 상기 반지의 움직임을 포함할 수 있다. Further, the movement of the object S may include not only the movement of the user's body mentioned above, but also the movement of a tool, an apparatus, an apparatus, and / or an apparatus whose position may be changed by the user having or wearing it. For example, when a user wears a ring on which a radiation beam provided by the light emitting unit 10 is reflected on a finger, the movement of the object S may include the movement of the ring.
한편, 본 발명의 일 실시예에 따른 비접촉 조작장치(1000)는 마이크로컨트롤유닛(40)에서 생성된 상기 제어신호를 전자기기(1120)로 송신하는 통신부(50)를 선택적으로 더 구비할 수 있다. 나아가, 통신부(50)는 전자기기(1120)와 정보데이타를 송수신할 수도 있다. On the other hand, the non-contact operation apparatus 1000 according to an embodiment of the present invention may further include a communication unit 50 for transmitting the control signal generated by the microcontrol unit 40 to the electronic device 1120. . In addition, the communication unit 50 may transmit and receive information data with the electronic device 1120.
본 명세서에서 언급하는 전자기기(1120)는 중앙에 있는 전산장치와 통신망으로 연결되어 데이터를 입력하거나 처리결과를 출력하는 장치 뿐만 아니라, 중앙에 있는 전산장치와 별개로 또는 무관하게, 독립적으로 데이터를 입력하거나 처리결과를 출력할 수 있는 장치를 포함할 수 있다. 예를 들어, 전자기기(1120)는 컴퓨터, 노트북, 태블릿 피씨, 태블릿 이동통신기기, 스마트폰, 핸드폰, 스마트패드, 게임기기, 가상체험장치, 휴대용 멀티미디어 재생장치, 전자북, 유에스비 허브(USB HUB), 마우스, 키보드, 모니터 및 헤드셋 중 적어도 어느 하나를 포함할 수 있다. The electronic device 1120 referred to herein is not only a device that is connected to a communication device in the center through a communication network and inputs data or outputs a processing result, but also independently or independently of the computer device in the center. It may include a device that can input or output the processing results. For example, the electronic device 1120 may be a computer, a laptop, a tablet PC, a tablet mobile communication device, a smartphone, a mobile phone, a smart pad, a game device, a virtual experience device, a portable multimedia player, an electronic book, a USB hub, and a USB HUB. ), A mouse, a keyboard, a monitor, and a headset.
통신부(50)에 의해 전자기기(1120)로 송신되는 상기 제어신호는, 예를 들어, 전자기기(1120)를 구성하는 적어도 하나 이상의 하드웨어 또는 전자기기(1120)에 설치된 소프트웨어를 제어할 수 있는 신호를 포함할 수 있다. 예를 들어, 전자기기(1120)가 키보드인 경우, 상기 제어신호는 상기 키보드 또는 상기 키보드와 연결된 컴퓨터를 조작할 수 있는 신호나 상기 키보드 또는 상기 키보드와 연결된 컴퓨터에 설치된 소프트웨어를 제어할 수 있는 신호를 포함할 수 있다. 통신부(50)는 무선통신부(52) 및 유선통신부(54) 중에서 적어도 어느 하나를 포함할 수 있다. The control signal transmitted to the electronic device 1120 by the communication unit 50 may be, for example, a signal capable of controlling at least one hardware or software installed in the electronic device 1120 constituting the electronic device 1120. It may include. For example, when the electronic device 1120 is a keyboard, the control signal may be a signal for operating the keyboard or a computer connected to the keyboard or a signal for controlling software installed in the keyboard or a computer connected to the keyboard. It may include. The communication unit 50 may include at least one of the wireless communication unit 52 and the wired communication unit 54.
무선통신부(52)는, 예를 들어, 블루투스(Bluetooth) 통신 또는 지그비(Zigbee) 통신을 이용할 수 있다. 한편, 무선통신부(52)에 적용되는 통신방식은 블루투스 방식 또는 지그비 방식에 한정되지는 않으며, 예를 들어, RFID(Radio Frequency Identification), NFC(Near Field Communication), 공진유도, 자기유도 등의 다양한 통신방식도 적용될 수 있다. 블루투스 통신 또는 지그비 통신을 위해서는 비접촉 조작장치(1000)와 전자기기(1120) 상호간에 설정이 필요하다. 따라서, 전자기기(1120)는 블루투스 통신 또는 지그비 통신을 지원하는 모듈을 포함할 수 있다. 만약, 전자기기(1120)가 이러한 모듈을 가지지 않는 경우에는 별도의 통신중계기, 예를 들어, 동글(dongle, 220)이 전자기기(1120)에 추가적으로 제공될 수 있다. 동글(220)은, 예를 들어, 전자기기(1120)의 USB 포트에 연결될 수 있는 USB 동글을 포함할 수 있으나, 전자기기(1120)에 연결되는 형태에 특별히 한정되지 않는다. The wireless communication unit 52 may use, for example, Bluetooth communication or Zigbee communication. On the other hand, the communication method applied to the wireless communication unit 52 is not limited to the Bluetooth method or the Zigbee method, for example, a variety of RFID (Radio Frequency Identification), NFC (Near Field Communication), resonance induction, magnetic induction Communication methods can also be applied. For Bluetooth communication or Zigbee communication, a setting is required between the contactless operation device 1000 and the electronic device 1120. Accordingly, the electronic device 1120 may include a module supporting Bluetooth communication or Zigbee communication. If the electronic device 1120 does not have such a module, a separate communication repeater, for example, a dongle 220 may be additionally provided to the electronic device 1120. The dongle 220 may include, for example, a USB dongle that may be connected to a USB port of the electronic device 1120, but is not particularly limited to a form connected to the electronic device 1120.
유선통신부(54)는, 예를 들어, 비접촉 조작장치(1000)와 전자기기(1120)를 연결하는 유선케이블을 지원하도록 구성될 수 있다. 유선케이블은, 예를 들어, USB 케이블이나 연장케이블 등을 포함할 수 있으며, 비접촉 조작장치(1000)의 연결포트부와 전자기기(1120)의 연결포트부를 연결할 수 있다. The wired communication unit 54 may be configured to support, for example, a wired cable connecting the non-contact manipulation device 1000 and the electronic device 1120. The wired cable may include, for example, a USB cable or an extension cable, and may connect a connection port portion of the non-contact manipulation apparatus 1000 and a connection port portion of the electronic device 1120.
한편, 비접촉 조작장치(1000)는 외부 장치와 각종 신호, 데이타 등을 주고받을 수 있는 입출력 포트부(60)를 선택적으로 더 구비할 수 있다. The non-contact manipulation apparatus 1000 may further include an input / output port unit 60 that may exchange various signals, data, and the like with an external device.
본 발명의 일부 실시예들에서 비접촉 조작장치(1000)의 적어도 일부는 전자기기(1120)에 내장되어 배치될 수 있다. 예를 들어, 비접촉 조작장치(1000)를 구성하는 구성요소들(예를 들어, 발광부(10), 수광부(20), 마이크로컨트롤유닛(40), 통신부(50))의 적어도 일부는 전자기기(1120)의 내측에 내장되는 형태로 배치되며 비접촉 조작장치(1000)를 구성하는 상기 구성요소들의 나머지는 전자기기(1120)의 표면에서 노출되도록 배치될 수 있다. 구체적인 예를 들면, 비접촉 센서 모듈(30)을 구성하는 발광부(10) 및/또는 수광부(20)는 전자기기(1120)의 표면에서 노출되도록 배치될 수 있으며, 마이크로컨트롤유닛(40)은 전자기기(1120)의 내측에 내장되는 형태로 배치될 수 있다. In some embodiments of the present disclosure, at least a part of the non-contact manipulation apparatus 1000 may be embedded in the electronic device 1120. For example, at least some of the components constituting the non-contact manipulation apparatus 1000 (eg, the light emitting unit 10, the light receiving unit 20, the microcontrol unit 40, and the communication unit 50) are electronic devices. The remaining parts of the components constituting the non-contact manipulation apparatus 1000 may be disposed to be exposed in the surface of the electronic device 1120. For example, the light emitting unit 10 and / or the light receiving unit 20 constituting the non-contact sensor module 30 may be disposed to be exposed on the surface of the electronic device 1120, and the microcontrol unit 40 may be electronic. It may be arranged in a form that is embedded inside the device 1120.
한편, 이러한 비접촉 조작장치(1000)를 이루는 구성요소들은 단일한 일체를 형성하지 않고 전자기기(1120) 내에 이격되어 배치될 수 있다. 물론, 이와 달리, 비접촉 조작장치(1000)를 이루는 구성요소들은 단일한 일체의 부품을 형성하면서 전자기기(1120) 내에 제공될 수도 있다. Meanwhile, the components constituting the non-contact manipulation device 1000 may be spaced apart from the electronic device 1120 without forming a single unity. Of course, the components forming the non-contact manipulation apparatus 1000 may be provided in the electronic device 1120 while forming a single integral part.
나아가, 비접촉 조작장치(1000)는 전자기기(1120)와는 별개로 전자기기(1120)와 이격되어 전자기기(1120)의 외부에 배치되어 제공될 수도 있다. In addition, the non-contact manipulation apparatus 1000 may be provided outside the electronic device 1120 and spaced apart from the electronic device 1120 separately from the electronic device 1120.
이하에서는, 비접촉 조작장치(1000)가 대상물(S)의 위치 및/또는 대상물(S)의 움직임에 대응하여 광학신호를 검출하고 공간좌표를 산출하는 개념을 설명한다. Hereinafter, a concept in which the non-contact manipulation apparatus 1000 detects an optical signal and calculates spatial coordinates in response to the position of the object S and / or the movement of the object S will be described.
도 3 및 도 4는 본 발명의 일 실시예에 따른 비접촉 조작장치에서 제 1 어레이부가 대상물의 움직임의 가로성분에 대한 광학신호를 검출하는 개념을 각각 도해하는 도면이고, 도 5 및 도 6은 본 발명의 일 실시예에 따른 비접촉 조작장치에서 제 2 어레이부가 대상물의 움직임의 세로성분에 대한 광학신호를 검출하는 개념을 각각 도해하는 도면이고, 도 7은 본 발명의 일 실시예에 따른 비접촉 조작장치에서 비접촉 센서 모듈이 대상물의 움직임의 높이성분에 대한 광학신호를 검출하는 개념을 도해하는 도면이다.3 and 4 are views illustrating a concept in which the first array unit detects an optical signal for the horizontal component of the movement of the object in the non-contact manipulation device according to one embodiment of the present invention, and FIGS. 5 and 6 illustrate the present invention. In the non-contact manipulation device according to an embodiment of the present invention, a second array unit illustrates a concept of detecting an optical signal for a vertical component of a movement of an object, and FIG. 7 is a non-contact manipulation device according to an embodiment of the present invention. Is a diagram illustrating the concept of the non-contact sensor module to detect the optical signal for the height component of the movement of the object.
도 2 내지 도 6을 참조하면, 수광부(20)는 발광부(10)를 광원으로 하여 대상물(S)의 위치 및/또는 대상물(S)의 움직임에 따라 반사되는 반사광을 수광하며, 가로 및 세로로 어레이 배치된, 복수개의 광센서(예를 들어, 포토다이오드)들을 포함한다. 수광부(20)는, 예를 들어, 포토다이오드(25)가 가로축(x축)으로 어레이 배치된 제 1 어레이부(20a)와 포토다이오드(25)가 세로축(y축)으로 어레이 배치된 제 2 어레이부(20b)로 구성될 수 있다. 2 to 6, the light receiving unit 20 receives the reflected light reflected by the position of the object S and / or the movement of the object S using the light emitting unit 10 as a light source, and is horizontal and vertical. A plurality of photosensors (eg photodiodes) arranged in an array. The light receiving unit 20 is, for example, a second array in which the photodiode 25 is arranged in the horizontal axis (x-axis) and the second array in which the photodiode 25 is arranged in the vertical axis (y-axis). It may be composed of an array unit 20b.
포토다이오드(25)가 가로축(x축)으로 어레이 배치된 제 1 어레이부(20a)는 M1 x N1 행렬의 형태를 가지는 포토다이오드(25)가 배치될 수 있으며, 도 3에서는 도시되지 않았지만, 비제한적인 예를 들면, 상기 행렬의 행의 개수인 M1보다 열의 개수인 N1이 더 많을 수 있다. 또한, 포토다이오드(25)가 세로축(y축)으로 어레이 배치된 제 2 어레이부(20b)는 M2 x N2 행렬의 형태를 가지는 포토다이오드(25)가 배치될 수 있으며, 도 5에서는 도시되지 않았지만, 비제한적인 예를 들면, 상기 행렬의 열의 개수인 N2보다 행의 개수인 M2가 더 많을 수 있다. In the first array unit 20a in which the photodiodes 25 are arranged in the horizontal axis (x-axis), a photodiode 25 having a form of an M1 x N1 matrix may be arranged. Although not shown in FIG. For example, the number of columns N1 may be greater than the number M1 of rows of the matrix. In addition, in the second array unit 20b in which the photodiodes 25 are arrayed on a vertical axis (y-axis), a photodiode 25 having a form of an M2 x N2 matrix may be arranged, but not shown in FIG. 5. For example, but not limited to, the number of rows M2 may be larger than the number of columns N2 of the matrix.
도 3 및 도 5를 참조하면, 제 1 어레이부(20a)와 제 2 어레이부(20b)는 서로 혼재되어 배치되지 않고 서로 구분되어 이격되면서 개별적으로 배치될 수 있다. 이러한 구성에 의하여, 임의의 방향을 가지는 대상물의 움직임의 성분을 가로 움직임과 세로 움직임으로 구분하여 동작을 인식함으로써 결과적으로 센싱의 정확도가 개선되며, 이러한 정확도의 상승이 센서 자체의 해상도 개선에 의해서가 아니라 기존 센서의 어레이 배치 구조에 의하여 구현되므로 센싱의 정확도 개선을 위한 제조비용의 부담이 현저히 낮아진다는 유리한 효과를 기대할 수 있다. Referring to FIGS. 3 and 5, the first array unit 20a and the second array unit 20b may not be mixed with each other, but may be separately spaced apart from each other. With this configuration, the accuracy of sensing is improved by recognizing the motion by dividing the component of the motion of the object having an arbitrary direction into the horizontal motion and the vertical motion, and this increase in accuracy is due to the improvement of the resolution of the sensor itself. However, since it is implemented by the array arrangement of the existing sensor, it is possible to expect an advantageous effect that the burden of manufacturing cost for improving the accuracy of sensing is significantly lowered.
본 발명의 변형된 실시예에서는 제 1 어레이부(20a) 및 제 2 어레이부(20b)가 서로 구분되고 이격되어 개별적으로 배치되는 것이 아니라, 서로 인접하여 배치될 수 있으며, 나아가, 서로 혼재되어 배치될 수도 있다.  In a modified embodiment of the present invention, the first array portion 20a and the second array portion 20b may be disposed adjacent to each other instead of being separated from each other and spaced apart from each other, and further, mixed and disposed. May be
도 3 및 도 4를 참조하면, 제 1 어레이부(20a)에서는 가로축으로 어레이 배치된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 가로 움직임(x축에 나란한 방향으로의 움직임)에 대한 광학신호를 검출할 수 있다. 또는, 제 1 어레이부(20a)에서는 가로축으로 어레이 배치된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 임의방향 움직임의 가로성분(x축에 나란한 방향으로의 성분)에 대한 광학신호를 검출할 수 있다. 3 and 4, in the first array unit 20a, the horizontal movement of the object S is performed by the plurality of photodiodes 25 arranged in the horizontal axis (movement in a direction parallel to the x-axis). It can detect the optical signal for. Alternatively, in the first array unit 20a, the plurality of photodiodes 25 arranged in the horizontal axis may be used to provide an optical system with respect to the horizontal component (component in the direction parallel to the x axis) of an arbitrary movement of the object S. The signal can be detected.
예를 들어, 대상물(S)이 도 3에서 좌측에서 우측으로 움직일 때, 제 1 어레이부(20a)에 수광되는 반사광의 광학신호의 세기는 제 1 어레이부(20a) 내의 임의의 포토다이오드들(25a, 25b, 25c)을 기준으로 도 4와 같이 시간에 따라 변화한다. 즉, 대상물(S)이 움직이면서 포토다이오드(25a)에 점점 근접할수록 포토다이오드(25a)에 수광되는 반사광의 광학신호의 세기(A)는 점점 증대되고, 포토다이오드(25a)와 최근접한 위치에서 포토다이오드(25a)에 수광되는 반사광의 광학신호의 세기(A)는 정점을 이루고, 대상물(S)이 움직이면서 포토다이오드(25a)에서 점점 멀어질수록 포토다이오드(25a)에 수광되는 반사광의 광학신호의 세기(A)는 점점 감소된다. 동일한 원리로 포토다이오드(25b)에서 시간에 따른 광학신호의 세기(B)의 분포가 나타나며, 포토다이오드(25c)에서 시간에 따른 광학신호의 세기(C)의 분포가 나타난다. 한편, 대상물(S)이 움직이므로, 대상물(S)과 포토다이오드들(25a, 25b, 25c) 각각의 이격 거리가 시간에 따라 순차적으로 변화하고, 광학신호의 세기(A, B, C)의 분포도 시간에 따라 순차적으로 변화한다. 이와 같이, 어레이 배치된 복수의 포토다이오드(25)의 각각에서 검출되는 광학신호의 세기 및 각도를 모두 취합하여 분석하면 대상물(S)의 가로 움직임 또는 대상물(S)의 임의방향 움직임의 가로성분에 대한 이동거리, 속도, 가속도, 움직임의 시점과 종점 등의 벡터정보를 파악할 수 있다.For example, when the object S moves from left to right in FIG. 3, the intensity of the optical signal of the reflected light received by the first array unit 20a may be reduced by any photodiodes (eg, in the first array unit 20a). It changes with time as shown in FIG. 4 based on 25a, 25b, 25c). That is, as the object S moves closer to the photodiode 25a, the intensity A of the optical signal of the reflected light received by the photodiode 25a is gradually increased, and the photo at the position closest to the photodiode 25a is increased. The intensity A of the optical signal of the reflected light received by the diode 25a peaks, and as the object S moves and moves away from the photodiode 25a, the optical signal of the reflected light received by the photodiode 25a increases. The intensity A is gradually reduced. In the same principle, the distribution of the intensity B of the optical signal with time is shown in the photodiode 25b, and the distribution of the intensity C of the optical signal with time is shown in the photodiode 25c. On the other hand, since the object S moves, the separation distances of the object S and the photodiodes 25a, 25b, and 25c each change sequentially with time, and the intensity (A, B, C) of the optical signal is changed. The distribution also changes sequentially with time. As such, when the intensity and angle of the optical signals detected by each of the plurality of photodiodes 25 arranged in the array are collected and analyzed, the horizontal component of the horizontal movement of the object S or the arbitrary movement of the object S is determined. Vector information such as moving distance, speed, acceleration, and the start and end points of the movement can be grasped.
도 5 및 도 6을 참조하면, 제 2 어레이부(20b)에서는 세로축으로 어레이 배치된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 세로 움직임(y축에 나란한 방향으로의 움직임)에 대한 광학신호를 검출할 수 있다. 또는, 제 2 어레이부(20b)에서는 세로축으로 어레이 배치된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 임의방향 움직임의 세로성분(y축에 나란한 방향으로의 성분)에 대한 광학신호를 검출할 수 있다. 5 and 6, in the second array unit 20b, the vertical movement of the object S (movement in a direction parallel to the y axis) is performed by the plurality of photodiodes 25 arranged in the vertical axis. It can detect the optical signal for. Alternatively, in the second array unit 20b, the plurality of photodiodes 25 arranged in the vertical axis may be used to provide an optical system with respect to the vertical component (component in the direction parallel to the y axis) of an arbitrary movement of the object S. The signal can be detected.
예를 들어, 대상물(S)이 도 5와 같이 y축 방향과 나란하게 상측에서 하측으로 움직일 때, 제 2 어레이부(20b)에 수광되는 반사광의 광학신호 세기는 제 2 어레이부(20b) 내의 임의의 포토다이오드들(25d, 25e, 25f, 25g)을 기준으로 도 6과 같이 시간에 따라 변화한다. 즉, 대상물(S)이 움직이면서 포토다이오드(25d)에 점점 근접할수록 포토다이오드(25d)에 수광되는 반사광의 광학신호 세기(D)는 점점 증대되고, 포토다이오드(25d)와 최근접한 위치에서 포토다이오드(25d)에 수광되는 반사광의 광학신호의 세기(D)는 정점을 이루고, 대상물(S)이 움직이면서 포토다이오드(25d)에서 점점 멀어질수록 포토다이오드(25d)에 수광되는 반사광의 광학신호 세기(D)는 점점 감소된다. 동일한 원리로 포토다이오드(25e)에서 시간에 따른 광학신호 세기(E)의 분포가 나타나며, 포토다이오드(25f)에서 시간에 따른 광학신호 세기(F)의 분포가 나타나며, 포토다이오드(25g)에서 시간에 따른 광학신호 세기(G)의 분포가 나타난다. 한편, 대상물(S)이 움직이므로, 대상물(S)과 포토다이오드들(25d, 25e, 25f, 25g) 각각의 이격 거리가 시간에 따라 순차적으로 변화하고, 광학신호 세기(D, E, F, G)의 분포도 시간에 따라 순차적으로 변화한다. 이와 같이, 어레이 배치된 복수의 포토다이오드(25)의 각각에서 검출되는 광학신호의 세기 및 각도를 모두 취합하여 분석하면 대상물(S)의 세로 움직임 또는 대상물(S)의 임의방향 움직임의 세로성분에 대한 이동거리, 속도, 가속도, 움직임의 시점과 종점 등의 벡터정보를 파악할 수 있다.For example, when the object S moves from the upper side to the lower side in parallel with the y-axis direction as shown in FIG. 5, the optical signal intensity of the reflected light received by the second array unit 20b is in the second array unit 20b. It changes with time as shown in FIG. 6 based on arbitrary photodiodes 25d, 25e, 25f, and 25g. That is, as the object S moves closer and closer to the photodiode 25d, the optical signal intensity D of the reflected light received by the photodiode 25d is gradually increased, and the photodiode at the position closest to the photodiode 25d is increased. The intensity D of the optical signal of the reflected light received at 25d is at its peak, and as the object S moves and moves away from the photodiode 25d, the optical signal intensity of the reflected light received at the photodiode 25d ( D) gradually decreases. In the same principle, the distribution of the optical signal intensity E with time is shown in the photodiode 25e, the distribution of the optical signal intensity F with the time in the photodiode 25f, and time in the photodiode 25g. The distribution of the optical signal intensity G according to the above appears. Meanwhile, since the object S moves, the separation distances of the object S and the photodiodes 25d, 25e, 25f, and 25g sequentially change with time, and the optical signal intensities D, E, F, The distribution of G) also changes sequentially with time. As described above, when the intensity and angle of the optical signal detected by each of the plurality of photodiodes 25 arranged in the array are collected and analyzed, the longitudinal component of the vertical movement of the object S or the arbitrary movement of the object S is determined. Vector information such as moving distance, speed, acceleration, and the start and end points of the movement can be grasped.
도 7을 참조하면, 제 1 어레이부(20a) 및/또는 제 2 어레이부(20b)를 포함하는 수광부(20)에서는 가로축 및/또는 세로축으로 어레이 배열된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 높이 움직임(z축에 나란한 방향으로의 움직임)에 대한 광학신호를 검출할 수 있다. 또는 제 1 어레이부(20a) 및 제 2 어레이부(20b)를 포함하는 수광부(20)에서는 가로축 및/또는 세로축으로 어레이 배열된 복수의 포토다이오드(25)들에 의하여, 대상물(S)의 임의방향 움직임의 높이성분(z축에 나란한 방향으로의 성분)에 대한 광학신호를 검출할 수 있다. 예를 들어, 대상물(S)이 도 7과 같이 고점에서 저점으로 움직일 때, 제 1 어레이부(20a) 및/또는 제 2 어레이부(20b)를 포함하는 수광부(20)에 수광되는 반사광의 광학신호의 세기는 증대된다. 이와 같이, 어레이 배치된 복수의 포토다이오드(25)의 각각에서 검출되는 광학신호의 세기 및 각도를 모두 취합하여 분석하면 대상물(S)의 높이 움직임 또는 대상물(S)의 임의방향 움직임의 높이성분에 대한 이동거리, 속도, 가속도, 움직임의 시점과 종점 등의 벡터정보를 파악할 수 있다.Referring to FIG. 7, in the light receiving unit 20 including the first array unit 20a and / or the second array unit 20b, the plurality of photodiodes 25 are arranged in a horizontal axis and / or a vertical axis. The optical signal for the height movement (movement in the direction parallel to the z axis) of the object S can be detected. Alternatively, in the light receiving unit 20 including the first array unit 20a and the second array unit 20b, any of the objects S may be formed by a plurality of photodiodes 25 arrayed in a horizontal axis and / or a vertical axis. The optical signal for the height component (component in the direction parallel to the z axis) of the directional motion can be detected. For example, when the object S moves from the high point to the low point as shown in FIG. 7, the optical of the reflected light received by the light receiving unit 20 including the first array unit 20a and / or the second array unit 20b. The strength of the signal is increased. As such, when the intensity and angle of the optical signals detected by each of the plurality of photodiodes 25 arranged in the array are collected and analyzed, the height component of the height movement of the object S or the arbitrary movement of the object S is determined. Vector information such as moving distance, speed, acceleration, and the start and end points of the movement can be grasped.
공간상에서 대상물(S)의 임의방향 움직임에 대한 광학신호(또는 광학신호에서 변환된 전기신호)는, 도 3 및 도 4을 참조하여 설명한 것처럼, 제 1 어레이부(20a)에 의하여 검출된 대상물(S)의 움직임의 가로성분에 대한 광학신호(또는 광학신호에서 변환된 전기신호); 도 5 및 도 6을 참조하여 설명한 것처럼, 제 2 어레이부(20b)에 의하여 검출된 대상물(S)의 움직임의 세로성분에 대한 광학신호(또는 광학신호에서 변환된 전기신호); 도 7을 참조하여 설명한 것처럼, 제 1 어레이부(20a) 및 제 2 어레이부(20b)에 의하여 검출된 대상물(S)의 움직임의 높이성분에 대한 광학신호(또는 광학신호에서 변환된 전기신호);를 구분하고 이를 통합하여 구현될 수 있다. As described with reference to FIGS. 3 and 4, the optical signal (or the electrical signal converted from the optical signal) for the arbitrary direction movement of the object S in space is the object detected by the first array unit 20a ( An optical signal (or an electrical signal converted from the optical signal) for the horizontal component of the movement of S); 5 and 6, an optical signal (or an electrical signal converted from the optical signal) for the vertical component of the movement of the object S detected by the second array unit 20b; As described with reference to FIG. 7, an optical signal (or an electrical signal converted from the optical signal) for the height component of the movement of the object S detected by the first array unit 20a and the second array unit 20b. It can be implemented by separating and integrating;
이러한 통합된 광학신호(또는 광학신호에서 변환된 전기신호)는 대상물(S)의 임의방향으로의 움직임에 대한 이동거리, 속도, 가속도, 움직임의 시점과 종점 등의 시간정보와 벡터정보를 반영할 수 있다. 따라서, 발광부(10)와 수광부(20)를 포함하는 비접촉 센서 모듈(30)은, 이미지센서(카메라)를 이용하지 않고서도, 대상물(S)에 의해 반사되어 수신되는 광의 각도, 광의 세기를 이용하여 공간상에서 대상물(S)의 위치 및 움직임의 정확한 궤적을 검출할 수 있다. The integrated optical signal (or an electrical signal converted from the optical signal) may reflect time information and vector information such as a moving distance, a speed, an acceleration, a start point and an end point of the movement of the object S in any direction. Can be. Accordingly, the non-contact sensor module 30 including the light emitting unit 10 and the light receiving unit 20 can measure the angle and intensity of light reflected by the object S without using an image sensor (camera). It is possible to detect the exact trajectory of the position and the movement of the object S in space.
마이크로컨트롤유닛(40)은 비접촉 센서 모듈(30)에서 검출된 대상물(S)에 대한 광학신호와 상기 광학신호가 변환된 전기신호를 입력받아 대상물(S)의 위치 및/또는 움직임에 대한 공간좌표를 구현하는 알고리즘을 탑재할 수 있다. 나아가, 상기 공간좌표를 이용하여 대상물(S)의 위치 및/또는 움직임에 대응하는 제스쳐동작을 판별하고, 상기 제스쳐동작에 대응하는 제어신호를 생성할 수 있다. 마이크로컨트롤유닛(40)은 상기 제어신호를 생성하기 위하여, 제스쳐동작과 이에 대응하는 제어신호를 각각 저장한 데이타베이스부를 포함할 수 있다. 또한, 마이크로컨트롤유닛(40)은 상기 공간좌표를 이용하여 대상물(S)의 위치 및/또는 움직임에 대응하는 제스쳐동작을 판별하기 위하여 비교판단부를 포함할 수 있다. The microcontrol unit 40 receives an optical signal for the object S detected by the non-contact sensor module 30 and an electrical signal converted from the optical signal, and then spatial coordinates of the position and / or movement of the object S. Algorithm to implement Furthermore, the gesture coordinate corresponding to the position and / or the movement of the object S may be determined using the spatial coordinates, and a control signal corresponding to the gesture gesture may be generated. The microcontrol unit 40 may include a database unit which stores a gesture operation and a control signal corresponding thereto in order to generate the control signal. In addition, the microcontrol unit 40 may include a comparison determination unit to determine a gesture operation corresponding to the position and / or movement of the object S using the spatial coordinates.
예를 들어, 마이크로컨트롤유닛(40)은, 제스쳐동작이 시계방향의 원(circle)을 형성할 경우 이에 대응하는 제어신호가 전자기기(1120)를 구성하는 적어도 하나의 하드웨어 또는 전자기기(1120)에 설치된 소프트웨어의 줌업(zoom up) 기능을 가능하게 하는 제어신호로 설정되어 있는, 데이타베이스부를 포함할 수 있다. 이러한 데이타베이스부는 사용자가 임의로 설정할 수 있도록 구성될 수 있다. For example, the microcontrol unit 40 includes at least one hardware or electronic device 1120 in which a control signal corresponding to the electronic device 1120 when the gesture action forms a circle clockwise. And a database portion set as a control signal for enabling a zoom up function of the software installed in the. Such a database unit may be configured to be arbitrarily set by a user.
또한, 예를 들어, 마이크로컨트롤유닛(40)은 대상물(S)의 모션, 즉, 대상물(S)의 실제 움직임이 공간상에서 형성하는 형상이 시점과 종점이 정확하게 일치하지 않더라도 대상물(S)의 실제 움직임의 가로성분, 세로성분 및 높이성분에 대한 이동거리, 속도, 가속도, 곡률, 움직임의 시점과 종점 등의 시간정보와 벡터정보를 고려할 때 대상물(S)의 움직임은 시계방향의 원을 형성하는 제스쳐동작으로 판별할 수 있는 비교판단부를 포함할 수 있다. 비교판단부는 대상물(S)의 움직임과 상기 제스쳐동작 간의 오차를 산출하고, 소정의 오차범위 이내에서 상기 대상물(S)의 움직임을 상기 데이타베이스부에 저장된 제스쳐동작으로 분류하고 판별할 수 있는 알고리즘을 포함할 수 있다. In addition, for example, the microcontrol unit 40 is the actual shape of the object (S) even if the motion of the object (S), that is, the shape that the actual movement of the object (S) forms in space does not exactly match the starting point and the end point. Considering the time information and the vector information such as the moving distance, the speed, the acceleration, the curvature, the start point and the end point of the movement, the motion of the object S forms a circle in the clockwise direction. It may include a comparison determination unit that can be determined by the gesture operation. The comparison determination unit calculates an error between the movement of the object S and the gesture operation, and a algorithm for classifying and determining the movement of the object S as a gesture operation stored in the database within a predetermined error range. It may include.
도 8은 본 발명의 변형된 일 실시예에 따른 비접촉 조작장치를 포함하는 구성을 도해하는 구성도이다. 8 is a block diagram illustrating a configuration including a non-contact manipulation apparatus according to a modified embodiment of the present invention.
도 8을 참조하면, 본 발명의 본 발명의 변형된 일 실시예에 따른 비접촉 조작장치(1000)에서는, 도 1과 달리, 발광부(10)와 수광부(20)가 비접촉 센서 모듈(30)과 같은 하나의 모듈을 구성하지 않고 서로 이격되어 배치될 수 있다. 발광부(10)와 수광부(20)가 하나의 모듈을 구성하지 않으므로 비접촉 조작장치(1000) 내에서 발광부(10)와 수광부(20)는 독립적으로 자유롭게 배치될 수 있어, 배치 자유도가 높아지는 유리한 효과를 기대할 수 있다. 물론, 도 1에서는 발광부(10)와 수광부(20)가 하나의 모듈을 이루면서 구성되므로, 비접촉 조작장치(1000) 내에서 용이하게 배치 및 핸들링할 수 있다는 유리한 효과를 기대할 수 있다. 발광부(10) 및 수광부(20)를 사용하여 대상물(S)의 위치 및/또는 대상물(S)의 움직임에 대응하여 광학신호를 검출하고 공간좌표를 산출하는 개념은 도 1과 동일하며, 마이크로컨트롤유닛(40)과 통신부(50)에 대한 설명도 도 1과 동일하므로, 여기에서는 생략한다. Referring to FIG. 8, in the non-contact manipulation apparatus 1000 according to the modified embodiment of the present invention, unlike FIG. 1, the light emitting unit 10 and the light receiving unit 20 may be connected to the non-contact sensor module 30. The modules may be spaced apart from each other without configuring the same single module. Since the light emitting unit 10 and the light receiving unit 20 do not constitute a single module, the light emitting unit 10 and the light receiving unit 20 may be freely disposed independently in the non-contact manipulation apparatus 1000, so that the degree of freedom of arrangement is increased. You can expect the effect. Of course, in FIG. 1, since the light emitting unit 10 and the light receiving unit 20 are configured as one module, an advantageous effect that the light emitting unit 10 and the light receiving unit 20 may be easily disposed and handled in the non-contact manipulation apparatus 1000 may be expected. The concept of detecting the optical signal and calculating the spatial coordinates in response to the position of the object S and / or the movement of the object S using the light emitter 10 and the light receiver 20 is the same as FIG. Description of the control unit 40 and the communication unit 50 is also the same as in FIG.
이하에서는 본 발명의 다른 실시예들로서, 상술한 비접촉 센서 모듈(30)이 적어도 두 개 이상의 복수개로 제공되는 경우, 또는, 상기 수광부(20)가 적어도 두 개 이상의 복수개로 제공되는 경우에, 대상물의 공간좌표를 더 정밀하게 산출할 수 있다는 유리한 효과를 설명하고자 한다. Hereinafter, as another embodiment of the present invention, when the above-described non-contact sensor module 30 is provided in at least two or more, or when the light receiving unit 20 is provided in at least two or more, The advantageous effect of calculating the spatial coordinates more precisely is explained.
도 4 및 도 9를 참조하면, 예를 들어 시간 T1에서, 제 1 어레이부(20a) 내의 포토다이오드들(25a, 25b, 25c)에 수광되는 반사광의 광학신호 세기는 광학신호(C), 광학신호(B), 광학신호(A)의 순서로 점점 작아진다. 즉, 시간 T1에서 대상물(S)의 위치는, 포토다이오드(25c)에 가장 근접하고, 포토다이오드(25a)에서 가장 이격되어 있는, 평면 상의 임의의 어느 한 점에 대응될 수 있다. 따라서, 시간 T1에서 대상물(S)의 위치는, 도 9에 도시된 것처럼, 제 1 어레이부(20a)에 의하여, xy 평면에 수직이며, x축에 수직이며, y축 및 z축에 나란한 평면(Px) 상의 임의의 어느 한 점에 대응될 수 있다. 4 and 9, for example, at time T 1 , the optical signal intensity of the reflected light received by the photodiodes 25a, 25b, and 25c in the first array unit 20a may be represented by the optical signal C, It becomes smaller gradually in order of the optical signal B and the optical signal A. FIG. That is, the position of the object S at time T 1 may correspond to any one point on the plane that is closest to the photodiode 25c and spaced apart from the photodiode 25a. Therefore, the position of the object S at time T 1 is perpendicular to the xy plane, perpendicular to the x-axis, parallel to the y-axis and z-axis, by the first array portion 20a, as shown in FIG. 9. It can correspond to any one point on the plane P x .
또한, 도 6 및 도 9를 참조하면, 예를 들어 시간 T1에서, 제 2 어레이부(20b) 내의 포토다이오드들(25d, 25e, 25f, 25g)에 수광되는 반사광의 광학신호 세기는 광학신호(F), 광학신호(E), 광학신호(G), 광학신호(D)의 순서로 점점 작아진다. 즉, 시간 T1에서 대상물(S)의 위치는, 포토다이오드(25f)에 가장 근접하고, 그 다음으로 포토다이오드(25e)에 근접하며, 포토다이오드(25d)와 가장 이격되어 있는, 평면 상의 임의의 어느 한 점에 대응될 수 있다. 따라서, 시간 T1에서 대상물(S)의 위치는, 도 9에 도시된 것처럼, 제 2 어레이부(20b)에 의하여, xy 평면에 수직이며, y축에 수직이며, x축 및 z축에 나란한 평면(Py) 상의 임의의 어느 한 점에 대응될 수 있다.6 and 9, for example, at time T 1 , the optical signal intensity of the reflected light received by the photodiodes 25d, 25e, 25f, and 25g in the second array unit 20b may be represented by an optical signal. (F), optical signal (E), optical signal (G), and optical signal (D) in order of decreasing. That is, at time T 1 , the position of the object S is closest to the photodiode 25f, then close to the photodiode 25e, and is spaced apart from the photodiode 25d most arbitrarily. It can correspond to any point of. Therefore, the position of the object S at time T 1 is perpendicular to the xy plane, perpendicular to the y-axis, parallel to the x-axis and z-axis, by the second array portion 20b, as shown in FIG. 9. It can correspond to any one point on the plane P y .
따라서, 도 4, 도 6 및 도 9를 참조하면, 예를 들어 시간 T1에서, 대상물(S)의 위치는, 도 9에 도시된 것처럼, 제 1 어레이부(20a)에 의하여, xy 평면에 수직이며, x축에 수직이며, y축 및 z축에 나란한 평면(Px) 상의 임의의 어느 한 점에 대응되며, 제 2 어레이부(20b)에 의하여, xy 평면에 수직이며, y축에 수직이며, x축 및 z축에 나란한 평면(Py) 상의 임의의 어느 한 점에 대응될 수 있으므로, 시간 T1에서, 대상물(S)의 위치는, 평면(Px)과 평면(Py)가 교차되는 교차라인(Lz) 상의 임의의 어느 한 점에 대응될 수 있다. Thus, referring to FIGS. 4, 6 and 9, for example, at time T 1 , the position of the object S is in the xy plane by the first array unit 20a, as shown in FIG. 9. Perpendicular to the x-axis, corresponding to any point on the plane P x parallel to the y-axis and z-axis, and perpendicular to the y-axis by the second array portion 20b Since it is perpendicular and can correspond to any point on the plane P y parallel to the x and z axes, at time T 1 , the position of the object S is the plane P x and the plane P y. ) May correspond to any point on the intersection line L z that intersects.
이에 따르면, 하나의 비접촉 센서 모듈(30) 내에 구비되는 제 1 어레이부(20a) 및 제 2 어레이부(20b)에 의해서도, 대상물(S)의 위치가 교차라인(Lz) 상의 임의의 어느 한 점에 대응될 수 있다. 다만, 단 하나의 비접촉 센서 모듈(30)에 의해서는 대상물(S)의 공간좌표 중 높이성분(z성분)을 정확하게 파악하는 것이 용이하지 않을 수 있다. 물론, 대상물(S)이 비접촉 센서 모듈(30)에서 높이 방향(z축 방향)으로 멀어질수록 도 4 및 도 6에 나타난 광학신호의 세기의 절대값은 상대적으로 작으며, 대상물(S)이 비접촉 센서 모듈(30)에서 높이 방향(z축 방향)으로 가까울수록 도 4 및 도 6에 나타난 광학신호의 세기의 절대값은 상대적으로 커지지만, 공간좌표 중 높이성분(z성분)의 절대치를 정확하게 파악하는 것은 용이하지 않다. According to this, the position of the object S is set to any one on the intersection line L z even by the first array unit 20a and the second array unit 20b provided in one non-contact sensor module 30. May correspond to a point. However, it may not be easy to accurately grasp the height component (z component) of the spatial coordinates of the object S by the single non-contact sensor module 30. Of course, as the object S moves away from the non-contact sensor module 30 in the height direction (z-axis direction), the absolute value of the intensity of the optical signal shown in FIGS. 4 and 6 is relatively small, and the object S is As the non-contact sensor module 30 gets closer to the height direction (z-axis direction), the absolute value of the intensity of the optical signal shown in FIGS. 4 and 6 becomes relatively large, but the absolute value of the height component (z component) in the spatial coordinates is increased. It is not easy to figure out.
이와 같이, 발광부(10)와 수광부(20)로 구성된 1개의 독립된 비접촉 센서 모듈을 이용하는 경우, 대상물(S)의 정확한 위치 좌표를 정확하게 산출하기 어렵다는 문제점이 있다. 또한, 대상물(S)의 크기가 큰 경우에는 좌우, 상하 움직임에 따라 일부 구간의 좌표에서는 반사광의 수신이 차단되어 정확한 공간좌표를 파악하기 어려우며 나아가 대상물의 움직임을 인식함에 오류가 발생할 수도 있다. 본 발명의 다른 실시예에 따른 비접촉 조작장치(1000)는 복수의 비접촉 센서 모듈들을 포함함으로써, 이러한 문제점을 해결하고자 한다. As described above, when one independent non-contact sensor module including the light emitting unit 10 and the light receiving unit 20 is used, it is difficult to accurately calculate the exact position coordinates of the object S. In addition, when the size of the object S is large, reception of reflected light is blocked in the coordinates of some sections according to left, right, and up and down movements, so that it is difficult to determine accurate spatial coordinates and furthermore, an error may occur in recognizing the movement of the object. The non-contact manipulation apparatus 1000 according to another embodiment of the present invention includes a plurality of non-contact sensor modules to solve this problem.
도 10은 본 발명의 다른 실시예에 따른 비접촉 조작장치를 포함하는 구성을 도해하는 구성도이다. 도 11은 본 발명의 다른 실시예에 따른 비접촉 조작장치에서 두 개의 비접촉 센서 모듈들의 이격거리 및 반사광의 수광각을 이용하여 대상물에 대한 공간좌표 중 높이성분을 산출하는 개념을 도해하는 도면이다. 10 is a configuration diagram illustrating a configuration including a non-contact manipulation apparatus according to another embodiment of the present invention. FIG. 11 is a diagram illustrating a concept of calculating a height component among spatial coordinates of an object by using a distance between two non-contact sensor modules and a light receiving angle of reflected light in a non-contact manipulation device according to another exemplary embodiment of the present invention.
도 10과 같이, 적어도 둘 이상의 비접촉 센서 모듈(30)들은 서로 이격된 제 1 비접촉 센서 모듈(30-1)과 제 2 비접촉 센서 모듈(30-2)을 포함한다. 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2)의 각각은 앞에서 상술한 비접촉 센서 모듈과 동일하다. 도 11을 참조하면, 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2) 사이의 이격거리(D)와, 복수의 비접촉 센서 모듈들(30-1, 30-2)에 각각 구비된 수광부(20)에 수광되는 반사광(R1, R2)의 수광각(∠θ1, ∠θ2, 단위:도(°))을 이용함으로써 대상물(S)에 대한 공간좌표 중 높이성분(H)을 수학식 1과 같이 삼각진법으로 산출할 수 있다. As illustrated in FIG. 10, at least two non-contact sensor modules 30 include a first non-contact sensor module 30-1 and a second non-contact sensor module 30-2 spaced apart from each other. Each of the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 is the same as the non-contact sensor module described above. Referring to FIG. 11, the separation distance D between the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2, and the plurality of non-contact sensor modules 30-1 and 30-2. The spatial coordinates of the object S by using the light receiving angle (각 θ 1 , θθ 2 , unit: degree (°)) of the reflected light (R 1 , R 2 ) received by the light receiving unit 20 respectively provided in the The middle height component (H) can be calculated by the trigonometric method as in Equation (1).
<수학식 1><Equation 1>
H = D / (tan(90°- θ1) + tan(90°- θ2))H = D / (tan (90 °-θ 1 ) + tan (90 °-θ 2 ))
또한, 다수의 비접촉 센서 모듈(30)들이 배치됨으로써 대상물(S)의 크기에 상관없이 정확한 위치좌표를 산출할 수 있다. 도 10 및 도 11에서는, 예시적으로, 비접촉 센서 모듈(30)들이 두 개의 비접촉 센서 모듈인 경우를 설명하였지만, 나아가, 더 많은 개수의 복수의 비접촉 센서 모듈(30)들이 가로 및/또는 세로 방향으로 어레이로 배치됨으로써 보다 정확한 대상물(S)의 위치좌표를 산출할 수 있다. In addition, since the plurality of non-contact sensor modules 30 are arranged, it is possible to calculate the exact position coordinates regardless of the size of the object (S). 10 and 11 exemplarily illustrate a case in which the non-contact sensor modules 30 are two non-contact sensor modules. Furthermore, a larger number of the plurality of non-contact sensor modules 30 are in the horizontal and / or vertical directions. By arranging in an array, it is possible to calculate a more accurate position coordinate of the object S.
수광되는 반사광의 수광각은 제 1 어레이부(20a)에서 가로축으로 어레이 배치된 복수의 포토다이오드(25)들과 제 2 어레이부(20b)에서 세로축으로 어레이 배치된 복수의 포토다이오드(25)들에 수광되는 반사광의 광학신호의 세기 분포를 종합적으로 분석하여 산출할 수 있다. 한편, 수광각의 산출을 용이하게 하도록, 제 1 어레이부(20a) 및 제 2 어레이부(20b)의 상부에 반사광을 선택적으로 차단 및 통과시킬 수 있는 슬릿부(미도시)들을 배치할 수 있다. 예를 들어, 상기 슬릿부는 서로 나란하게 이격되어 배열된 복수의 바(bar)들로 구성될 수 있다. 제 1 어레이부(20a) 상의 슬릿부 방향과 제 2 어레이부(20b) 상의 슬릿부 방향은 서로 교차되는 방향일 수 있다. The received angles of the received reflected light are a plurality of photodiodes 25 arranged in the horizontal axis in the first array unit 20a and a plurality of photodiodes 25 arranged in the vertical axis in the second array unit 20b. The intensity distribution of the optical signal of the reflected light received at can be comprehensively analyzed and calculated. On the other hand, to facilitate the calculation of the light receiving angle, slit portions (not shown) for selectively blocking and passing the reflected light may be disposed on the first array portion 20a and the second array portion 20b. . For example, the slit portion may be composed of a plurality of bars arranged side by side spaced apart from each other. The slit portion direction on the first array portion 20a and the slit portion direction on the second array portion 20b may be directions crossing each other.
최종적으로, 도 11을 참조하여 산출한 공간좌표의 높이성분(H)을 도 9를 참조하여 산출한 교차라인(Lz)과 결합하면, 대상물(S)의 공간좌표를 산출할 수 있다. 마이크로컨트롤유닛(40)은 복수의 비접촉 센서 모듈(30)들에서 검출된 반사광의 광학정보와 복수의 비접촉 센서 모듈(30)들 간의 이격거리(D) 정보를 입력받아 대상물(S)의 공간좌표를 구현하는 알고리즘을 탑재하여 정확한 좌표 데이타를 출력할 수 있다.Finally, when the height component H of the spatial coordinates calculated with reference to FIG. 11 is combined with the intersection line L z calculated with reference to FIG. 9, the spatial coordinates of the object S may be calculated. The microcontrol unit 40 receives the optical information of the reflected light detected by the plurality of non-contact sensor modules 30 and the distance D information between the plurality of non-contact sensor modules 30 and receives spatial coordinates of the object S. Equipped with an algorithm to output accurate coordinate data.
나아가, 마이크로컨트롤유닛(40)은 산출된 대상물(S)의 위치를 나타내는 공간좌표를 이용하여 대상물(S)의 움직임에 대한 제스쳐동작을 판별하고, 상기 제스쳐동작에 대응하는 제어신호를 생성할 수 있다. 이를 위하여, 선택적으로, 제스쳐동작과 이에 대응하는 제어신호를 각각 저장한 데이타베이스부를 더 포함할 수 있다. 또한, 마이크로컨트롤유닛(40)은 대상물(S) 움직임에 대한 제스쳐동작을 판별하기 위하여 비교판단부를 더 포함할 수 있다. In addition, the microcontrol unit 40 may determine a gesture motion with respect to the movement of the object S by using the calculated spatial coordinates indicating the position of the object S, and generate a control signal corresponding to the gesture motion. have. To this end, it may optionally further comprise a database unit for storing the gesture operation and the control signal corresponding thereto. In addition, the microcontrol unit 40 may further include a comparison determination unit to determine the gesture operation for the movement of the object (S).
예를 들어, 마이크로컨트롤유닛(40)은, 제스쳐동작이 시계방향의 원(circle)을 형성할 경우 이에 대응하는 제어신호가, 전자기기(1120)를 구성하는 적어도 하나의 하드웨어 또는 전자기기(1120)에 설치된 소프트웨어의 줌업(zoom up) 기능을 가능하게 하는 제어신호로 설정되어 있는, 데이타베이스부를 포함할 수 있다. 이러한 데이타베이스부는 사용자가 임의로 설정할 수 있도록 구성될 수 있다. 또한, 마이크로컨트롤유닛(40)은 대상물(S)의 실제 움직임이 공간상에서 형성하는 형상이 시점과 종점이 정확하게 일치하지 않더라도 대상물(S)의 실제 움직임의 가로성분, 세로성분 및 높이성분에 대한 이동거리, 속도, 가속도, 곡률, 움직임의 시점과 종점 등의 시간정보와 벡터정보를 고려할 때 대상물(S)의 실제 움직임은 시계방향의 원을 형성하는 제스쳐동작으로 판별할 수 있는 비교판단부를 포함할 수 있다. 비교판단부는 대상물(S)의 실제 움직임과 상기 제스쳐동작 간의 오차를 산출하고, 소정의 오차범위 이내에서 대상물(S)의 실제 움직임을 상기 데이타베이스부에 저장된 제스쳐동작으로 분류하고 판별할 수 있는 알고리즘을 포함할 수 있다. For example, the microcontrol unit 40 may include at least one hardware or electronic device 1120 configured to control the electronic device 1120 when the gesture action forms a circle in a clockwise direction. And a database portion set as a control signal for enabling a zoom up function of the software installed in the &lt; RTI ID = 0.0 &gt; Such a database unit may be configured to be arbitrarily set by a user. In addition, the microcontrol unit 40 moves the horizontal component, the vertical component, and the height component of the actual movement of the target object S, even if the actual movement of the target object S is formed in space, when the starting point and the end point do not exactly match. Considering the time information and the vector information such as the distance, speed, acceleration, curvature, the starting point and the end point of the movement, the actual movement of the object S may include a comparison determination unit which can be determined by the gesture motion forming a clockwise circle. Can be. The comparison determination unit calculates an error between the actual motion of the object S and the gesture motion, and classifies and determines the motion of the object S as a gesture motion stored in the database within a predetermined error range. It may include.
도 12는 본 발명의 변형된 다른 실시예에 따른 비접촉 조작장치를 포함하는 구성을 도해하는 구성도이다.12 is a configuration diagram illustrating a configuration including a non-contact manipulation apparatus according to another modified embodiment of the present invention.
도 12를 참조하면, 본 발명의 본 발명의 변형된 다른 실시예에 따른 비접촉 조작장치(1000)에서는, 도 10과 달리, 발광부(10)와 수광부(20)가 비접촉 센서 모듈(30)과 같은 하나의 모듈을 구성하지 않고 서로 이격되어 배치될 수 있다. 발광부(10)와 수광부(20)가 하나의 모듈을 구성하지 않으므로 비접촉 조작장치(1000) 내에서 발광부(10)와 수광부(20)는 독립적으로 자유롭게 배치될 수 있어, 배치 자유도가 높아지는 유리한 효과를 기대할 수 있다. 나아가, 도 10과 달리, 적어도 둘 이상의 수광부들(21)은 제 1 수광부(20-1)와 제 2 수광부(20-2)를 포함한다. 제 1 수광부(20-1)와 제 2 수광부(20-2)의 각각은 앞에서 상술한 수광부(20)와 동일하다. 이 경우, 대상물(S)에 대한 공간좌표 중 높이성분(H)은 제 1 수광부(20-1)와 제 2 수광부(20-2) 사이의 이격거리(D)와 제 1 수광부(20-1)와 제 2 수광부(20-2)에 각각 수광되는 반사광(R1, R2)의 수광각(∠θ1, ∠θ2, 단위:도(°))을 이용함으로써 동일한 수학식 1에 의하여 산출될 수 있다. 발광부(10) 및 복수의 수광부들(21)를 사용하여 대상물(S)의 위치 및/또는 대상물(S)의 움직임에 대응하여 광학신호를 검출하고 공간좌표를 산출하는 개념은 도 10과 동일하며, 마이크로컨트롤유닛(40)과 통신부(50)에 대한 설명도 도 10과 동일하므로, 여기에서는 생략한다. Referring to FIG. 12, in the non-contact manipulation apparatus 1000 according to another modified embodiment of the present invention, unlike FIG. 10, the light emitting unit 10 and the light receiving unit 20 may be connected to the non-contact sensor module 30. The modules may be spaced apart from each other without configuring the same single module. Since the light emitting unit 10 and the light receiving unit 20 do not constitute a single module, the light emitting unit 10 and the light receiving unit 20 may be freely disposed independently in the non-contact manipulation apparatus 1000, so that the degree of freedom of arrangement is increased. You can expect the effect. Furthermore, unlike FIG. 10, at least two light receiving units 21 include a first light receiving unit 20-1 and a second light receiving unit 20-2. Each of the first light receiving unit 20-1 and the second light receiving unit 20-2 is the same as the light receiving unit 20 described above. In this case, the height component H of the spatial coordinates of the object S is the separation distance D between the first light receiving unit 20-1 and the second light receiving unit 20-2 and the first light receiving unit 20-1. ) And the light receiving angles (∠θ 1 , ∠θ 2 , unit: degree (°)) of the reflected light R 1 , R 2 received at the second light receiving unit 20-2, respectively. Can be calculated. The concept of detecting an optical signal and calculating spatial coordinates in accordance with the position of the object S and / or the movement of the object S using the light emitter 10 and the plurality of light receivers 21 is the same as that of FIG. 10. Since the description of the microcontrol unit 40 and the communication unit 50 is also the same as in FIG. 10, it will be omitted here.
도 13a 및 도 13b는 본 발명의 또 다른 실시예에 따른 비접촉 조작장치에서 제 1 어레이부가 대상물의 움직임의 가로성분에 대한 광학신호를 검출하는 개념을 도해하는 도면이다. 구체적으로, 도 13a는 도 3에 개시된 제 1 어레이부(20a)의 변형된 실시예에 해당하며, 도 13b는 도 13a의 Q-Q 절단면을 나타내는 단면도이다. 13A and 13B illustrate a concept in which a first array unit detects an optical signal for a horizontal component of a movement of an object in a non-contact manipulation device according to still another embodiment of the present invention. Specifically, FIG. 13A corresponds to a modified embodiment of the first array unit 20a disclosed in FIG. 3, and FIG. 13B is a cross-sectional view illustrating the Q-Q cut plane of FIG. 13A.
제 1 포토 다이오드(PD1)는, 적어도 각도에 따라 빛의 통과량이 달라질 수 있는 높이(H)를 갖고, 제 1 방향으로 나란하게 설치되는 복수개의 제 1 슬릿(S1)을 갖는 제 1 격벽(W1)들을 이용하여 제 1 슬릿(S1)들 사이를 통과한 빛의 일측으로 치우쳐진 제 1 영역의 광량 및 타측으로 치우쳐진 제 2 영역의 광량을 감지할 수 있는 포토 다이오드일 수 있다. 도 13a 및 도 13b에 도시된 바와 같이, 제 1 포토 다이오드(PD1)는, 제 1 편심 어레이(PD1a) 및 제 2 편심 어레이(PD1b)를 포함할 수 있는데, 도 13a 및 도 13b에 도시된 제 1 편심 어레이(PD1a)는 도 3에 도시된 포토 다이오드(25a)에 대응하며, 도 13a 및 도 13b에 도시된 제 2 편심 어레이(PD1b)는 도 3에 도시된 포토 다이오드(25b)에 대응할 수 있다. The first photodiode PD1 has a height H at which the amount of light passage can vary according to at least an angle, and has a first partition W1 having a plurality of first slits S1 arranged side by side in the first direction. The photodiode may be a photodiode capable of detecting the light amount of the first region biased to one side of the light passing between the first slits S1 and the light amount of the second region biased to the other side. As shown in FIGS. 13A and 13B, the first photodiode PD1 may include a first eccentric array PD1a and a second eccentric array PD1b, the first shown in FIGS. 13A and 13B. The first eccentric array PD1a may correspond to the photodiode 25a shown in FIG. 3, and the second eccentric array PD1b shown in FIGS. 13A and 13B may correspond to the photodiode 25b shown in FIG. 3. have.
이러한, 상기 제 1 편심 어레이(PD1a)는, 제 1 격벽(W1)들의 하방에 설치되는 것으로서, 제 1 슬릿(S1)들 각각의 중심선을 기준으로 일측으로 치우쳐지게 설치되며, 광량에 따라서 다른 세기의 신호를 출력할 수 있다. 또한, 상기 제 2 편심 어레이(PD1b)는, 제 1 격벽(W1)들의 하방에 설치되고, 제 1 슬릿(S1)들 각각의 중심선을 기준으로 타측으로 치우쳐지게 설치되며, 광량에 따라서 다른 세기의 신호를 출력할 수 있다.The first eccentric array PD1a is installed below the first partition walls W1 and is installed to be biased to one side based on the center line of each of the first slits S1, and has different intensities according to the amount of light. Signal can be output. In addition, the second eccentric array PD1b is disposed below the first partition walls W1, and is disposed to be biased to the other side based on the center line of each of the first slits S1, and has a different intensity according to the amount of light. Can output a signal.
따라서, 도 3에 도시된 바와 같이, 대상물(S)로부터 반사된 반사광(L2)이 일측으로 치우쳐진 각도를 갖고 복수개의 제 1 슬릿(S1)들 사이를 통과하는 경우, 제 1 격벽(W1)들로 인해서 일측에 설치된 상기 제 1 편심 어레이(PD1a) 보다 타측에 설치된 상기 제 2 편심 어레이(PD1b)에 보다 상대적으로 많은 양의 빛이 도달될 수 있다. 즉, 대상물(S)로부터 반사된 반사광(L2)이 일측으로 치우쳐진 각도가 크면 클수록 제 1 편심 어레이(PD1a) 보다 제 2 편심 어레이(PD1b)에 상대적으로 보다 많은 양의 빛이 출력될 수 있다. Therefore, as shown in FIG. 3, when the reflected light L2 reflected from the object S passes through the plurality of first slits S1 at an angle biased to one side, the first partition wall W1. As a result, a greater amount of light may reach the second eccentric array PD1b installed on the other side than the first eccentric array PD1a installed on one side. That is, the greater the angle at which the reflected light L2 reflected from the object S is biased toward one side, the greater the amount of light may be output to the second eccentric array PD1b than the first eccentric array PD1a. .
도 13a 및 도 13b를 참조하면, 포토다이오드(25)가 가로축(x축)으로 어레이 배치된 제 1 어레이부(20a)는 세로축(y축)으로 신장하는 제 1 격벽(W1)들을 포함할 수 있으며, 이에 따라, 마이크로컨트롤유닛(40)은 제 1 편심 어레이(PD1a) 및 제 2 편심 어레이(PD1b)의 상대적인 전기적 신호의 출력 차이를 이용하여 대상물(S)의 X축 각도를 판단할 수 있다. 13A and 13B, the first array unit 20a having the photodiode 25 arrayed on the horizontal axis (x axis) may include first partition walls W1 extending along the vertical axis (y axis). Accordingly, the microcontrol unit 40 may determine the X-axis angle of the object S by using the output difference of the relative electrical signals of the first eccentric array PD1a and the second eccentric array PD1b. .
도면에는 도시하지 않았으나, 마찬가지 방식으로, 포토다이오드(25)가 세로축(y축)으로 어레이 배치된 제 2 어레이부(20b)는 가로축(x축)으로 신장하는 제 1 격벽(W1)들 사이에 상술한 제 1 편심 어레이(PD1a) 및 제 2 편심 어레이(PD1b)들이 배치되도록 구성되며, 이에 따라, 마이크로컨트롤유닛(40)은 제 1 편심 어레이(PD1a) 및 제 2 편심 어레이(PD1b)의 상대적인 전기적 신호의 출력 차이를 이용하여 대상물(S)의 Y축 각도를 판단할 수 있다. 이렇게 판단된 대상물(S)의 X축 각도 및 Y축 각도를 종합하여 최종적으로 대상물(S)의 각도를 산출할 수 있다.Although not shown in the drawing, in a similar manner, the second array portion 20b in which the photodiodes 25 are arranged in the vertical axis (y axis) is disposed between the first partition walls W1 extending along the horizontal axis (x axis). The first eccentric array PD1a and the second eccentric array PD1b described above are arranged so that the microcontrol unit 40 is relative to the first eccentric array PD1a and the second eccentric array PD1b. The Y-axis angle of the object S may be determined using the difference in output of the electrical signal. The angle of the object S can be finally calculated by combining the X-axis angle and the Y-axis angle of the object S thus determined.
본 발명의 일 실시예에 따른 비접촉 조작장치(1000)는 기존에 사용되는 이미지센서(카메라) 방식의 문제점을 개선하여, 저전력, 저비용이 가능한 동작 인식알고리즘을 통하여 사용자에게 새롭고 다양한 인터페이스를 제공할 수 있다. 기존에 사용되는 비접촉 제스쳐동작 인식 방식은 카메라 모듈방식으로 구현되었다. 카메라 모듈방식이란 시모스(CMOS) 카메라로 사용자의 움직임을 촬영하고 센서 집적회로(IC)가 촬영한 영상을 인식하는 방식이다. 시모스 카메라로 촬영한 영상을 센서 집적회로로 전송하고 동작을 인식, 검출하는 시간은 상대적으로 많이 소요되고 인식감도는 많이 떨어지는 단점이 있다. 또한, 인식감도가 많이 떨어지기 때문에 다양한 동작을 동시에 처리하기가 매우 어려운 단점도 있다. 나아가, 동작을 인식하기 위해 카메라 모듈을 동작시켜야 하기 때문에 전력소모량이 많은 단점도 있다. 또한, 카메라 모듈을 사용하기 때문에 제조단가도 매우 높은 단점이 있다. 이에 반하여, 본 발명의 실시예들에서는 적외선 발광 다이오드(IRED), 포토다이오드 및 마이크로컨트롤유닛을 이용하여 동작 인식을 하므로, 저전력, 빠른 동작 인식 알고리즘, 낮은 단가, 간단한 동작 인식 처리과정을 통하여 이러한 문제점들을 해결할 수 있다. The non-contact manipulation apparatus 1000 according to the embodiment of the present invention may improve the problem of the conventional image sensor (camera) method and provide a new and diverse interface to the user through a motion recognition algorithm capable of low power and low cost. have. The conventional non-contact gesture gesture recognition method is implemented by a camera module method. The camera module method is a method of capturing a user's movement with a CMOS camera and recognizing an image captured by a sensor integrated circuit (IC). The time taken to transfer the image taken by the CMOS camera to the sensor integrated circuit and to recognize and detect the motion is relatively high, and the recognition sensitivity is much lowered. In addition, there is a disadvantage that it is very difficult to process a variety of operations at the same time because the recognition sensitivity is much lower. Furthermore, since the camera module must be operated to recognize the operation, there is a disadvantage in that a lot of power consumption is required. In addition, since the camera module is used, manufacturing costs are also very high. On the contrary, in the embodiments of the present invention, since the motion recognition is performed by using an infrared light emitting diode (IRED), a photodiode, and a microcontrol unit, this problem is achieved through a low power, fast motion recognition algorithm, low cost, and simple motion recognition processing. Can solve them.
한편, 지금까지 상술한 본 발명의 기술적 사상은 이미지센서(카메라) 방식의 문제점을 개선하여, 저전력, 저비용이 가능한 위치 및/또는 동작 인식알고리즘을 통하여 사용자에게 새롭고 다양한 인터페이스를 제공한다는 점에서 다양한 제품에 적용이 가능하며, 이하에서는, 비접촉 조작장치(1000)가 적용된 전자기기(1120)의 양태를 설명한다. On the other hand, the technical idea of the present invention described above to improve the problem of the image sensor (camera) method, a variety of products in that a new and various interface to the user through a low power, low cost possible position and / or motion recognition algorithm It is applicable to the following, below, the aspect of the electronic device 1120 to which the non-contact operation device 1000 is applied will be described.
도 14는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 마우스의 구성을 도해하는 도면이다.14 is a diagram illustrating a configuration of a mouse to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
도 14를 참조하면, 마우스(1120) 내에 상술한 비접촉 조작장치(1000)가 내장될 수 있다. 특히, 서로 이격되어 배치되는 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2)로 이루어진 복수의 비접촉 센서 모듈(30)들은 마우스(1120)의 표면에 배치될 수 있다. Referring to FIG. 14, the non-contact manipulation apparatus 1000 described above may be embedded in the mouse 1120. In particular, the plurality of non-contact sensor modules 30 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other may be disposed on the surface of the mouse 1120. .
예를 들어, 사용자의 손을, 비접촉 조작장치(1000)와 연동된 마우스(1120)와 접촉하지 않고 이격하여, 좌측에서 우측으로 나아가는 경우, 비접촉 조작장치(1000)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐동작은 우측으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 마우스(1120)와 연결되는 전산장치에 송신하는 제어신호는 키보드의 우측 방향키에 대응하는 신호를 포함할 수 있다. For example, when the user's hand is separated from the left without contact with the mouse 1120 interlocked with the non-contact manipulation apparatus 1000 and moves from left to right, in the microcontrol unit 40 of the non-contact manipulation apparatus 1000. The determined gesture motion may be classified into a linear motion toward the right. Accordingly, the control signal transmitted to the computing device connected to the mouse 1120 may include a signal corresponding to the right direction key of the keyboard.
도 15는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 키보드의 구성을 도해하는 도면이다.15 is a diagram illustrating a configuration of a keyboard to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
도 15를 참조하면, 상술한 비접촉 조작장치(1000)의 적어도 일부는 키보드(1120)의 표면에 부착되거나 내측에 삽입되는 형태로 배치되어 제공될 수 있다. 특히, 서로 이격되어 배치되는 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2)로 이루어진 복수의 비접촉 센서 모듈(30)들은 키보드(1120)의 표면에 배치될 수 있다. 예를 들어, 비접촉 조작장치(1000)와 연동된 키보드(1120)에서 비접촉 센서 모듈(30)들은 키보드의 자판(124b)을 둘러싸는 프레임(124a)에 배치되어 구성될 수 있다. 본 발명의 일 실시예에 따른 비접촉 조작장치(1000)와 연동된 키보드(1120)는 손가락 등의 신체를 이용한 접촉 및 터치를 하지 않고 사용자의 동작을 감지하여 손쉽게 PC와 같은 전산장치 및 관련 소프트웨어를 제어를 할 수 있기 때문에 다양한 분야에 적용될 수 있다.Referring to FIG. 15, at least a part of the non-contact manipulation apparatus 1000 described above may be provided in a form of being attached to the surface of the keyboard 1120 or inserted into the inside thereof. In particular, the plurality of non-contact sensor modules 30 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other may be disposed on the surface of the keyboard 1120. . For example, in the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000, the non-contact sensor modules 30 may be arranged in a frame 124a surrounding the keyboard 124b of the keyboard. The keyboard 1120 interlocked with the non-contact manipulation apparatus 1000 according to an embodiment of the present invention detects a user's motion without touching and touching a body, such as a finger, to easily operate a computer device such as a PC and related software. Because it can be controlled, it can be applied to various fields.
도 16은 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 유에스비 허브의 구성을 도해하는 도면이다.16 is a diagram illustrating a configuration of a USB hub to which a non-contact manipulation device according to some embodiments of the present invention is applied.
도 16을 참조하면, 상술한 비접촉 조작장치(1000)의 적어도 일부는 멀티 유에스비 포트(122a)를 구비하는 유에스비 허브(1120)의 표면에 부착되거나 내측에 삽입되는 형태로 배치되어 제공될 수 있다. 특히, 서로 이격되어 배치되는 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2)로 이루어진 복수의 비접촉 센서 모듈(30)들은 유에스비 허브(1120)의 표면(122b)에 배치될 수 있다. 본 발명의 일 실시예에 따른 비접촉 조작장치(1000)와 연동된 유에스비 허브(1120)는 손가락 등의 신체를 이용한 접촉 및 터치를 하지 않고 사용자의 동작을 감지하여 손쉽게 PC와 같은 전산장치 및 관련 소프트웨어를 제어를 할 수 있기 때문에 다양한 분야에 적용될 수 있다. Referring to FIG. 16, at least a part of the non-contact manipulation apparatus 1000 described above may be provided to be attached to or inserted into the surface of the UBS hub 1120 having the multi UBS port 122a. In particular, the plurality of non-contact sensor modules 30 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other may be disposed on the surface 122b of the USB hub 1120. Can be deployed. The USB hub 1120 interlocked with the non-contact manipulation device 1000 according to an exemplary embodiment of the present invention detects a user's motion without touching and touching a body, such as a finger, and easily operates a computer device such as a PC and related software. It can be applied to various fields because it can control.
도 17은 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 헤드셋의 구성을 도해하는 도면이다.17 is a diagram illustrating a configuration of a headset to which a non-contact manipulation device is applied according to some embodiments of the present invention.
도 17을 참조하면, 헤드셋(1120)은 서로 대향하는 두 개의 스피커 유닛(126a), 마이크 유닛(126b), 두 개의 스피커 유닛(126a)을 연결하는 헤드밴드부(126c), 스피커 유닛(126a)의 외측에 형성된 하우징부(126d)를 포함한다. 서로 이격되어 배치되는 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2)로 이루어진 복수의 비접촉 센서 모듈(30)들 및/또는 마이크로컨트롤유닛(40)은 각각 스피커 유닛(126a), 마이크 유닛(126b), 헤드밴드부(126c), 및 하우징부(126d) 중의 어느 하나에 부착되거나 내측에 삽입되는 형태로 배치되어 제공될 수 있다. Referring to FIG. 17, the headset 1120 includes two speaker units 126a, a microphone unit 126b, and a headband unit 126c connecting the two speaker units 126a and the speaker unit 126a. It includes the housing portion 126d formed on the outside. The plurality of non-contact sensor modules 30 and / or the microcontrol unit 40 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other are each a speaker unit. 126a, the microphone unit 126b, the headband portion 126c, and the housing portion 126d may be disposed and provided in a form that is attached to or inserted into the inside.
상술한 동작인식 헤드셋(1120)은 발광부와 수광부를 이용한 비접촉 제스쳐 헤드셋으로서 손가락을 이용한 접촉 및 터치를 하지 않고 사용자의 동작을 인식하여 손쉽게 모바일 기기를 제어할 수 있다. The above-described gesture recognition headset 1120 is a non-contact gesture headset using a light emitting unit and a light receiving unit, and can easily control a mobile device by recognizing a user's motion without touching and touching a finger.
도 18은 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 모니터의 구성을 도해하는 도면이다.18 is a diagram illustrating a configuration of a monitor to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
도 18을 참조하면, 상술한 비접촉 조작장치(1000)의 적어도 일부는 모니터(1120)의 표면에 부착되거나 내측에 삽입되는 형태로 배치되어 제공될 수 있다. 특히, 서로 이격되어 배치되는 제 1 비접촉 센서 모듈(30-1) 및 제 2 비접촉 센서 모듈(30-2)로 이루어진 복수의 비접촉 센서 모듈(30)들은 모니터(1120)의 표면에 배치될 수 있다. 예를 들어, 비접촉 조작장치(1000)와 연동된 모니터(1120)에서 비접촉 센서 모듈(30)들은 모니터 받침대(125a), 모니터 기둥(125b), 모니터 프레임(125c) 및 모니터 화면(125d) 중에서 선택된 적어도 어느 하나에 배치되어 구성될 수 있다. 본 발명의 일 실시예에 따른 비접촉 조작장치(1000)와 연동된 모니터(1120)는 손가락 등의 신체를 이용한 접촉 및 터치를 하지 않고 사용자의 동작을 감지하여 손쉽게 PC와 같은 전산장치 및 관련 소프트웨어를 제어를 할 수 있기 때문에 다양한 분야에 적용될 수 있다.Referring to FIG. 18, at least a portion of the non-contact manipulation apparatus 1000 described above may be provided in a form of being attached to the surface of the monitor 1120 or inserted into the inside thereof. In particular, the plurality of non-contact sensor modules 30 including the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 spaced apart from each other may be disposed on the surface of the monitor 1120. . For example, the non-contact sensor modules 30 in the monitor 1120 interlocked with the non-contact manipulation device 1000 may be selected from a monitor pedestal 125a, a monitor pillar 125b, a monitor frame 125c, and a monitor screen 125d. It may be arranged and configured in at least one. The monitor 1120 interlocked with the non-contact manipulation apparatus 1000 according to an exemplary embodiment of the present invention detects a user's motion without touching and touching a body, such as a finger, to easily operate a computer device such as a PC and related software. Because it can be controlled, it can be applied to various fields.
도 19는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 스마트폰의 구성을 도해하는 도면이다.19 is a diagram illustrating a configuration of a smart phone to which a non-contact manipulation device according to some embodiments of the present invention is applied.
도 19를 참조하면, 상술한 비접촉 조작장치(1000)의 적어도 일부는 스마트폰(1120)의 표면에 부착되거나 내측에 삽입되는 형태로 배치되어 제공될 수 있다. 특히, 비접촉 조작장치(1000)의 일부를 구성하는 제 1 비접촉 센서 모듈(30-1)과 제 2 비접촉 센서 모듈(30-2)은 소정의 이격거리를 가지도록 서로 이격되어 배치될 수 있다. Referring to FIG. 19, at least a part of the non-contact manipulation apparatus 1000 described above may be provided to be attached to the surface of the smart phone 1120 or inserted into the inside. In particular, the first non-contact sensor module 30-1 and the second non-contact sensor module 30-2 constituting a part of the non-contact manipulation device 1000 may be spaced apart from each other to have a predetermined distance.
도 20은 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 전자기기의 외부에 배치되어 제공되는 구성을 도해하는 도면이다.20 is a diagram illustrating a configuration in which a non-contact manipulation device according to some embodiments of the present disclosure is disposed and provided outside of an electronic device.
도 20을 참조하면, 상술한 비접촉 조작장치(1000)는 전자기기(1120)와 별개의 장치로 제공될 수 있다. 비접촉 조작장치(1000)의 마이크로컨트롤유닛(40)에서 생성된 제어신호는 유선케이블(127a, 127b)을 통하여 전자기기(1120)로 유선송신되거나, 비접촉 조작장치(1000) 내에 배치된 무선통신부(52)를 통하여 전자기기(1120)로 무선송신될 수 있다. 이 경우, 전자기기(1120)는 컴퓨터, 노트북, 태블릿 피씨, 태블릿 이동통신기기, 스마트폰, 핸드폰, 스마트패드, 게임기기, 가상체험장치, 휴대용 멀티미디어 재생장치 및 전자북 중 적어도 어느 하나를 포함할 수 있다. Referring to FIG. 20, the non-contact manipulation apparatus 1000 described above may be provided as a separate device from the electronic device 1120. The control signal generated by the microcontrol unit 40 of the non-contact manipulation apparatus 1000 is wired to the electronic device 1120 through wired cables 127a and 127b, or is disposed in the non-contact manipulation apparatus 1000. 52 may be wirelessly transmitted to the electronic device 1120. In this case, the electronic device 1120 may include at least one of a computer, a laptop, a tablet PC, a tablet mobile communication device, a smartphone, a mobile phone, a smart pad, a game device, a virtual experience device, a portable multimedia playback device, and an electronic book. Can be.
도 21a 내지 도 21d는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 마우스 상에 제공될 수 있는 대상물의 예시적인 움직임을 도해하는 도면들이다. 21A-21D illustrate exemplary movements of an object that may be provided on a mouse to which a non-contact manipulation device is applied in accordance with some embodiments of the present invention.
예를 들어, 도 21a를 참조하면, 상술한 비접촉 조작장치(1000)와 연동된 마우스(1120) 상에서 사용자의 손(S)을 마우스와 접촉하지 않고 이격하여 좌측에서 우측으로 나아가는 경우, 비접촉 조작장치(1000)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐동작은 우측으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 마우스(1120)에 연결된 컴퓨터 등의 전산장치에 송신하는 제어신호는 키보드의 우측 방향키에 대응하는 신호일 수 있다. For example, referring to FIG. 21A, when the user's hand S moves from the left to the right without contacting the mouse on the mouse 1120 interlocked with the non-contact manipulation apparatus 1000 described above, the non-contact manipulation apparatus The gesture motion determined by the microcontrol unit 40 of FIG. 1000 may be classified into a linear motion toward the right. Accordingly, a control signal transmitted to a computing device such as a computer connected to the mouse 1120 may be transmitted to the right direction key of the keyboard. It may be a signal corresponding to.
또한, 예를 들어, 도 21b를 참조하면, 상술한 비접촉 조작장치(1000)와 연동된 마우스(1120) 상에서 사용자의 손(S)을 마우스와 접촉하지 않고 이격하여 하측에서 상측으로 나아가는 경우, 비접촉 조작장치(1000)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐동작은 상측으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 마우스(1120)에 연결된 컴퓨터 등의 전산장치에 송신하는 제어신호는 키보드의 상측 방향키에 대응하는 신호일 수 있다. For example, referring to FIG. 21B, when the user's hand S is moved away from the lower side without contacting the mouse on the mouse 1120 interlocked with the non-contact manipulation apparatus 1000 described above, the contactless state is not contacted. The gesture motion determined by the microcontrol unit 40 of the control device 1000 may be classified into a linear motion directed upward. Accordingly, a control signal transmitted to a computer device such as a computer connected to the mouse 1120 may be transmitted. It may be a signal corresponding to an up direction key.
또한, 예를 들어, 도 21c를 참조하면, 상술한 비접촉 조작장치(1000)와 연동된 마우스(1120) 상에서 사용자의 손(S)을 마우스와 접촉하지 않고 이격하여 높은 지점에서 낮은 지점으로 나아가는 경우, 비접촉 조작장치(1000)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐동작은 중력 방향으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 마우스(1120)에 연결된 컴퓨터 등의 전산장치에 송신하는 제어신호는 키보드의 엔터키나 마우스 버튼의 클릭에 대응하는 신호일 수 있다. For example, referring to FIG. 21C, when the user's hand S is separated from the high point to the low point without contacting the mouse on the mouse 1120 linked with the non-contact manipulation apparatus 1000 described above, for example. The gesture motion determined by the micro-control unit 40 of the non-contact manipulation device 1000 may be classified into a linear motion in the direction of gravity, and thus a control signal transmitted to a computer device such as a computer connected to the mouse 1120. May be a signal corresponding to a click of an enter key or a mouse button on the keyboard.
또한, 예를 들어, 도 21d를 참조하면, 상술한 비접촉 조작장치(1000)와 연동된 마우스(1120) 상에서 사용자의 손(S)을 마우스와 접촉하지 않고 이격하여 책상면과 기울이도록 움직이는 경우, 마우스(1120)에 연결된 컴퓨터 등의 전산장치에 송신하는 제어신호는 조이스틱에서 사용자측으로 당기는 방향에 대응하는 신호일 수 있다. For example, referring to FIG. 21D, when the user's hand S is tilted away from the desk without contacting the mouse on the mouse 1120 interlocked with the non-contact manipulation apparatus 1000 described above, The control signal transmitted to the computing device such as a computer connected to the mouse 1120 may be a signal corresponding to the direction in which the joystick is pulled toward the user.
물론, 앞에서 상술한 제스쳐동작과 이에 대응하는 제어신호 간의 관계는 마우스의 생산자나 사용자가 임의로 변경하여 설정할 수 있다. Of course, the relationship between the gesture operation described above and the control signal corresponding thereto may be arbitrarily changed and set by the producer or the user of the mouse.
도 22a 내지 도 22d는 본 발명의 일부 실시예들에 따른 비접촉 조작장치가 적용된 키보드 상에 제공될 수 있는 대상물의 예시적인 움직임을 도해하는 도면들이다. 22A-22D illustrate exemplary movements of an object that may be provided on a keyboard to which a non-contact manipulation device is applied according to some embodiments of the present disclosure.
예를 들어, 도 22a를 참조하면, 상술한 비접촉 조작장치(1000)와 연동된 키보드(1120) 상에서 사용자의 손(S)을 키보드(1120)와 접촉하지 않고 이격하여 좌측에서 우측으로 나아가는 경우, 비접촉 조작장치(1000)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐동작은 우측으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 키보드(1120)에 연결된 컴퓨터 등의 전산장치에 송신하는 제어신호는 키보드(1120)의 우측 방향키에 대응하는 신호일 수 있다. For example, referring to FIG. 22A, when the user's hand S is spaced apart from the keyboard 1120 without contacting the keyboard 1120 on the keyboard 1120 linked with the non-contact manipulation apparatus 1000, the user may move from left to right. The gesture motion determined by the micro-control unit 40 of the non-contact manipulation device 1000 may be classified into a linear motion toward the right. Accordingly, a control signal transmitted to a computing device such as a computer connected to the keyboard 1120 may be transmitted to the keyboard. It may be a signal corresponding to the right direction key of 1120.
또한, 예를 들어, 도 22b를 참조하면, 상술한 비접촉 조작장치(1000)와 연동된 키보드(1120) 상에서 사용자의 손(S)을 키보드(1120)와 접촉하지 않고 이격하여 키보드(1120)의 하측에서 키보드(1120)의 상측으로 나아가는 경우, 비접촉 조작장치(1000)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐동작은 상측으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 키보드(1120)에 연결된 컴퓨터 등의 전산장치에 송신하는 제어신호는 키보드(1120)의 상측 방향키에 대응하는 신호일 수 있다. For example, referring to FIG. 22B, the user's hand S may be spaced apart from the keyboard 1120 without touching the keyboard 1120 on the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000 described above. When moving downward from the lower side of the keyboard 1120, the gesture motion determined by the microcontrol unit 40 of the non-contact manipulation apparatus 1000 may be classified as a linear movement toward the upper side, and thus connected to the keyboard 1120. The control signal transmitted to the computing device such as a computer may be a signal corresponding to the upper direction key of the keyboard 1120.
또한, 예를 들어, 도 22c를 참조하면, 상술한 비접촉 조작장치(1000)와 연동된 키보드(1120) 상에서 사용자의 손(S)을 키보드(1120)와 접촉하지 않고 이격하여 높이 방향의 고점에서 저점으로 나아가는 경우, 비접촉 조작장치(1000)의 마이크로컨트롤유닛(40)에서 판별한 제스쳐동작은 중력 방향으로 향하는 직선운동으로 구분될 수 있으며, 이에 따라 키보드(1120)에 연결된 컴퓨터 등의 전산장치에 송신하는 제어신호는 키보드(1120)의 엔터(Enter)키나 마우스 버튼의 클릭에 대응하는 신호일 수 있다. For example, referring to FIG. 22C, the user's hand S may be spaced apart from the keyboard 1120 without touching the keyboard 1120 on the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000, at a high point in the height direction. In the case of moving to the low point, the gesture motion determined by the microcontrol unit 40 of the non-contact manipulation apparatus 1000 may be classified into a linear motion toward the gravity direction, and accordingly, the computing device such as a computer connected to the keyboard 1120 may be used. The control signal to be transmitted may be a signal corresponding to a click of an enter key or a mouse button of the keyboard 1120.
또한, 예를 들어, 도 22d를 참조하면, 상술한 비접촉 조작장치(1000)와 연동된 키보드(1120) 상에서 사용자의 손(S)을 키보드(1120)와 접촉하지 않고 이격하여 키보드의 자판면과 기울이도록 움직이는 경우, 키보드(1120)에 연결된 컴퓨터 등의 전산장치에 송신하는 제어신호는 조이스틱에서 사용자측으로 당기는 방향에 대응하는 신호일 수 있다. For example, referring to FIG. 22D, the user's hand S may be spaced apart from the keyboard 1120 without contacting the keyboard 1120 on the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000 described above. In the case of tilting, the control signal transmitted to the computing device such as a computer connected to the keyboard 1120 may be a signal corresponding to the direction in which the joystick is pulled toward the user.
물론, 앞에서 상술한 제스쳐동작과 이에 대응하는 제어신호 간의 관계는 마우스의 생산자나 사용자가 임의로 변경하여 설정할 수 있다. Of course, the relationship between the gesture operation described above and the control signal corresponding thereto may be arbitrarily changed and set by the producer or the user of the mouse.
비접촉 조작장치(1000)와 연동된 키보드(1120)는 프레임(124a), 기본입력키(124b), 특수기능키(124c), 스위치키(switch key, 124d), 및 표시창(124e)을 포함할 수 있다. 비접촉 조작장치(1000)와 연동된 키보드(1120)에서는, 기본입력키(124b)를 이용할 수 있는 제 1 상태와 비접촉 조작장치(1000)에 의하여 대상물(S)의 위치 및/또는 움직임을 파악할 수 있는 제 2 상태를 명확하게 구분하는 것이 필요할 수 있다. 상기 제 1 상태는 문자입력키, 숫자입력키, 엔터입력키, 스페이스입력키 등과 같은 일반적인 기본입력키(124b)를 이용하는 통상적인 키보드 사용 상태를 의미한다. 상기 제 2 상태는, 도 22a 내지 도 22d과 같이, 비접촉 조작장치(1000)에 의하여 대상물(S)의 위치 및/또는 움직임을 파악할 수 있는 상태를 의미한다. The keyboard 1120 interlocked with the non-contact manipulation apparatus 1000 may include a frame 124a, a basic input key 124b, a special function key 124c, a switch key 124d, and a display window 124e. Can be. In the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000, the position and / or the movement of the object S may be determined by the first state in which the basic input key 124b is available and the non-contact manipulation apparatus 1000. It may be necessary to clearly distinguish the second state. The first state refers to a general keyboard use state using a general basic input key 124b such as a character input key, a numeric input key, an enter input key, a space input key, and the like. The second state refers to a state in which the position and / or movement of the object S can be grasped by the non-contact manipulation apparatus 1000 as shown in FIGS. 22A to 22D.
예를 들어, 비접촉 조작장치(1000)와 연동된 키보드(1120)에서, 일반적인 입력키(124b)를 누르기 위하여 사용자가 손을 키보드에 근접하는 경우에도, 비접촉 조작장치(1000)가 활성화되어 사용자 손바닥의 움직임을 파악하고 이에 대응하는 제스쳐 동작을 판별하고 제어신호를 생성한다면 경우에 따라서는 통상적인 키보드 활용이 용이하지 않을 수도 있다. 이러한 문제점을 극복하기 위하여 키보드(1120)의 기본입력키(124b)를 이용할 수 있는 제 1 상태와 비접촉 센서 모듈(30) 및 마이크로컨트롤유닛(40)에 의하여 대상물(S)의 위치 또는 움직임을 파악할 수 있는 제 2 상태 중 어느 하나의 상태를 선택할 수 있는 스위치키(124d)를 기존의 기본입력키(124b)와 별개로 제공할 수 있다. 스위치키(124d)는 상기 제 1 상태와 상기 제 2 상태를 토글링(toggling)할 수 있는 토글키(toggle key)로 이해될 수 있다. 즉, 토글키(124d)를 순차적으로 누름에 따라서, 상기 제 1 상태는 활성화되고 상기 제 2 상태는 비활성화되는 제 1 단계, 상기 제 1 상태는 비활성화되고 상기 제 2 상태는 활성화되는 제 2 단계가 순차적으로 구현되도록 구성할 수 있다. For example, in the keyboard 1120 interlocked with the non-contact manipulation apparatus 1000, even when the user approaches the keyboard to press a general input key 124b, the non-contact manipulation apparatus 1000 is activated to hold the user's palm. In some cases, it may not be easy to use a conventional keyboard if the movement of the controller determines the movement of the gesture, the gesture action corresponding to the gesture, and the control signal is generated. In order to overcome this problem, the first state in which the primary input key 124b of the keyboard 1120 can be used and the position or movement of the object S can be determined by the non-contact sensor module 30 and the microcontrol unit 40. The switch key 124d for selecting any one of the second states may be provided separately from the existing basic input key 124b. The switch key 124d may be understood as a toggle key capable of toggling the first state and the second state. That is, as the toggle key 124d is sequentially pressed, the first step is activated and the second state is deactivated, and the second step is deactivated and the second state is activated. It can be configured to be implemented sequentially.
상술한 내용에 의하면, 키보드(1120)의 기본입력키(124b)를 이용할 수 있는 제 1 상태와 비접촉 센서 모듈(30) 및 마이크로컨트롤유닛(40)에 의하여 대상물(S)의 위치 또는 움직임을 파악할 수 있는 제 2 상태가 동시에 활성화되지 않도록 토글키(124d)를 구성하였으나, 본 발명의 변형된 실시예에서는 상기 제 1 상태와 상기 제 2 상태가 동시에 활성화되는 경우도 포함하도록 구성할 수 있다. 예를 들어, 시뮬레이션게임 등을 수행하는 과정에서 슈팅(shooting)을 위하여 키보드의 기본입력키인 엔터키를 입력하는 단계와 조이스틱을 대신하여 비접촉 조작장치(1000)에 의하여 대상물(S)의 위치 또는 움직임을 파악하는 단계가 동시에 수행되는 것이 필요할 수 있다. 이 경우 키보드의 기본입력키인 엔터키를 입력하는 사용자의 왼손과 가령, 우측으로 나아가는, 대상물(S)의 움직임을 표현하는 사용자의 오른손을 구분하기 위하여, 비접촉 센서 모듈(30)이 감지할 수 있는 영역의 범위와 마이크로컨트롤유닛(40)의 알고리즘 등을 세밀하게 조정할 수 있다. 따라서, 본 발명의 변형된 실시예에서는 토글키(124d)를 순차적으로 누름에 따라서, 상기 제 1 상태는 활성화되고 상기 제 2 상태는 비활성화되는 제 1 단계, 상기 제 1 상태는 비활성화되고 상기 제 2 상태는 활성화되는 제 2 단계, 상기 제 1 상태와 상기 제 2 상태가 동시에 활성화되는 제 3 단계가 순차적으로 구현되도록 구성할 수 있다. 물론 상기 단계들의 순서는 임의로 변경가능하다. According to the above description, the first state in which the basic input key 124b of the keyboard 1120 can be used and the position or movement of the object S can be determined by the non-contact sensor module 30 and the microcontrol unit 40. Although the toggle key 124d is configured to prevent the second state from being activated at the same time, the modified embodiment of the present invention may be configured to include the case where the first state and the second state are activated at the same time. For example, a step of inputting an enter key, which is a basic input key of a keyboard, for shooting in a process of performing a simulation game, etc. and the position of the object S by the non-contact manipulation apparatus 1000 instead of the joystick. It may be necessary for the steps to grasp the movement to be performed simultaneously. In this case, the non-contact sensor module 30 may detect the left hand of the user who inputs the enter key, which is the basic input key of the keyboard, and the right hand of the user who expresses the movement of the object S, for example, moving toward the right. The range of the area and the algorithm of the microcontrol unit 40 can be finely adjusted. Accordingly, in a modified embodiment of the present invention, as the toggle key 124d is sequentially pressed, the first state is activated and the second state is deactivated, and the first state is deactivated and the second is deactivated. The state may be configured to sequentially implement a second step of activating, and a third step of activating the first state and the second state simultaneously. Of course, the order of the steps can be arbitrarily changed.
또한, 도면에서는, 단수의 토글키(124d)를 순차적으로 누름에 따라 각 단계들이 순차적으로 구현될 수 있도록 구성하였으나, 본 발명의 다른 변형된 실시예에서는 두 개의 스위치키(124d)들이 제공될 수 있다. 즉, 상기 제 1 상태의 활성화와 비활성화가 순차적으로 토글링될 수 있는 제 1 스위치키와 상기 제 2 상태의 활성화와 비활성화가 순차적으로 토글링될 수 있는 제 2 스위치키를 제공할 수 있다. 따라서, 상기 제 1 스위치키와 상기 제 2 스위치키의 조합으로 상기 제 1 내지 제 3단계들을 각각 구현할 수 있다. In addition, in the drawing, each step is configured to be implemented sequentially by pressing a single toggle key 124d in sequence, but in another modified embodiment of the present invention, two switch keys 124d may be provided. have. That is, a first switch key for sequentially activating and deactivating the first state and a second switch key for sequentially activating and deactivating the second state can be provided. Accordingly, the first to third steps may be implemented by the combination of the first switch key and the second switch key.
한편, 키보드(1120)의 기본입력키(124b)를 이용할 수 있는 제 1 상태와 비접촉 센서 모듈(30) 및 마이크로컨트롤유닛(40)에 의하여 대상물(S)의 위치 또는 움직임을 파악할 수 있는 제 2 상태 간의 스위칭 기능을 부여할 수 있는 다른 구성도 충분히 가능하다. 예를 들어, 특수기능키(124c) 중에서 어느 하나에 상기 스위칭 기능을 부여할 수도 있다. 또한, 예를 들어, 키보드(1120)의 프레임(124a) 상에 별도의 스위칭 장치를 제공할 수 있다. 나아가, 이러한 하드웨어 스위치와 별도로 대상물(S)의 특정한 움직임에 대응하는 특정한 제스쳐 동작으로 상기 스위칭 기능을 구현하도록 구성할 수도 있다. Meanwhile, a first state in which the basic input key 124b of the keyboard 1120 is used and a second in which the position or movement of the object S can be detected by the non-contact sensor module 30 and the microcontrol unit 40 are used. Other configurations are also possible that can impart a switching function between states. For example, the switching function may be given to any one of the special function keys 124c. In addition, for example, a separate switching device may be provided on the frame 124a of the keyboard 1120. Furthermore, in addition to the hardware switch, the switching function may be configured by a specific gesture operation corresponding to a specific movement of the object S. FIG.
한편, 상기 제 1 상태 및/또는 상기 제 2 상태의 활성화 여부를 키보드(1120)의 사용자가 용이하게 파악할 수 있도록, 표시창(124e)에 활성화된 상태에 대한 정보가 나타날 수 있도록 구성할 수 있다. 즉, 키보드(1120)의 기본입력키(124b)를 이용할 수 있는 제 1 상태 및 비접촉 조작장치(1000)에 의하여 대상물(S)의 위치 또는 움직임을 파악할 수 있는 제 2 상태 중 선택된 적어도 어느 하나의 상태를 확인할 수 있는 표시창(124e)을 제공할 수 있다. 예를 들어, 표시창(124e)에 상기 제 1 상태가 활성화되어 있다고 표시된 경우, 상술한 토글키(124d)를 누름으로서 비접촉 조작장치(1000)를 활성화하여 대상물(S)의 위치 및/또는 움직임을 파악할 수 있다. 또한, 예를 들어, 표시창(124e)에 상기 제 2 상태가 활성화되어 있다고 표시된 경우, 상술한 토글키(124d)를 누름으로서 비접촉 조작장치(1000)를 비활성하여 통상적인 기본입력키(124b)를 이용할 수 있다. Meanwhile, information about the activated state may be displayed on the display window 124e so that the user of the keyboard 1120 may easily determine whether the first state and / or the second state are activated. That is, at least one selected from a first state capable of using the basic input key 124b of the keyboard 1120 and a second state capable of detecting the position or movement of the object S by the non-contact manipulation apparatus 1000. A display window 124e for checking the status may be provided. For example, when the display window 124e indicates that the first state is activated, the contactless operation device 1000 is activated by pressing the above-described toggle key 124d to adjust the position and / or movement of the object S. FIG. I can figure it out. For example, if the display window 124e indicates that the second state is activated, the non-contact manipulation device 1000 is deactivated by pressing the above-described toggle key 124d to disable the normal basic input key 124b. It is available.
기존의 일반적인 키보드는 트랙볼(track ball), 터치패드(touch pad), 포인팅 스틱(pointing stick)을 구비하여 다양한 사용자 인터페이스를 구현하고 있다. 트랙볼을 이용한 인터페이스는 가격이 저렴하지만 감도가 좋지 않은 경우가 많고 부피가 큰 문제점이 있으며, 일정 성능 이상의 감도를 획득하기 위해서는 상대적으로 높은 비용이 요구된다는 단점이 있다. 터치패드를 이용한 인터페이스는 열에 약해 오동작을 하는 단점과 포인터의 정확한 포착에 많은 문제점을 가지며, 또한 그림 등을 그릴 때에도 포인터의 위치선정에 많은 어려움이 있다는 단점이 있다. 포인팅 스틱을 이용한 인터페이스는 압력 센서로서 사용자가 누르는 압력에 비례하는 속도로 화면의 마우스 커서가 움직이는 방식을 이용하며 비교적 세밀한 조정이 가능하나 사용자의 다양한 움직임에 대응하기에 용이하지 않다는 단점이 있다. 따라서, 기존의 입력방식인 트랙볼, 터치패드, 포인팅스틱 들은 아직까지 세밀한 조정이나 빠른 대응 측면에서 마우스를 대체하기에는 많은 단점들이 존재한다. 본 발명의 실시예들에서는 앞에서 상술한 비접촉 조작장치(1000)와 연동된 키보드를 제공함으로써 이러한 단점들을 극복할 수 있다. Existing general keyboards are equipped with a track ball, a touch pad, and a pointing stick to implement various user interfaces. The interface using the trackball is inexpensive, but the sensitivity is often poor and there is a bulky problem, a relatively high cost is required to obtain a sensitivity over a certain performance. The interface using the touch pad is weak to heat and has a problem of malfunctioning and a problem of accurately capturing the pointer, and also has a disadvantage of difficulty in positioning the pointer even when drawing a picture. The interface using the pointing stick is a pressure sensor that uses the method of moving the mouse cursor on the screen at a speed proportional to the pressure that the user presses, and relatively fine adjustment is possible but it is not easy to cope with various movements of the user. Therefore, the existing input methods such as trackball, touch pad, and pointing stick have many disadvantages to replace the mouse in terms of fine adjustment or quick response. In the embodiments of the present invention can overcome these disadvantages by providing a keyboard interlocked with the non-contact operation apparatus 1000 described above.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments shown in the drawings, this is merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

Claims (14)

  1. 광을 방출할 수 있는 적어도 하나 이상의 발광부;At least one light emitting unit capable of emitting light;
    가로 및 세로로 각각 어레이 배열된 복수개의 광센서들을 포함하며, 상기 발광부를 광원으로 하여 대상물 모션에 의해 반사되는 광을 수용하며, 상기 수용되는 광의 세기 및 각도에 대한 정보를 가지는 상기 대상물 모션에 대한 광학신호를 전기신호로 변환할 수 있는, 적어도 하나 이상의 수광부; 및Comprising a plurality of optical sensors arranged in a horizontal and vertical array, respectively, receiving the light reflected by the object motion by using the light emitting unit as a light source, for the object motion having information on the intensity and angle of the received light At least one light receiving unit capable of converting an optical signal into an electrical signal; And
    상기 전기신호를 입력받아 상기 대상물에 대한 공간좌표를 산출하고, 상기 공간좌표를 이용하여 상기 대상물 모션에 대한 제스쳐동작을 판별하고, 상기 제스쳐동작에 대응하는 제어신호를 생성하는, 마이크로컨트롤유닛(MCU); The micro-control unit (MCU) receives the electrical signal to calculate a spatial coordinate for the object, uses the spatial coordinates to determine a gesture motion with respect to the object motion, and generates a control signal corresponding to the gesture motion. );
    을 구비하는, 비접촉 조작장치.Non-contact operation apparatus having a.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 수광부는, The light receiving unit,
    가로로 어레이 배열된 복수의 포토다이오드들로 구성된 제 1 어레이부; 및 세로로 어레이 배열된 복수의 포토다이오드들로 구성된 제 2 어레이부;를 포함하고, A first array unit including a plurality of photodiodes arranged horizontally; And a second array unit including a plurality of photodiodes arranged in a vertical array.
    상기 대상물 모션에 대한 광학신호는, The optical signal for the object motion,
    상기 제 1 어레이부에 의하여 검출된 상기 대상물 모션의 가로성분에 대한 광학신호; 상기 제 2 어레이부에 의하여 검출된 상기 대상물 모션의 세로성분에 대한 광학신호; 및 상기 제 1 어레이부 및 상기 제 2 어레이부에 의하여 검출된 상기 대상물 모션의 높이성분에 대한 광학신호;로 구분되는, An optical signal for a horizontal component of the object motion detected by the first array unit; An optical signal for a vertical component of the object motion detected by the second array unit; And an optical signal for a height component of the object motion detected by the first array unit and the second array unit.
    비접촉 조작장치.Contactless controls.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 제 1 어레이부와 상기 제 2 어레이부는 혼재되어 배치되지 않고 서로 구분되고 이격되어 개별적으로 배치되는, 비접촉 조작장치. And the first array portion and the second array portion are arranged separately from each other and spaced apart from each other without being mixed with each other.
  4. 제 1 항에 있어서,The method of claim 1,
    상기 제어신호를 컴퓨터, 노트북, 태블릿 피씨, 태블릿 이동통신기기, 스마트폰, 핸드폰, 스마트패드, 게임기기, 가상체험장치, 휴대용 멀티미디어 재생장치, 전자북, 유에스비 허브(USB HUB), 마우스, 키보드, 모니터 및 헤드셋 중 적어도 어느 하나를 포함하는 전자기기에 송신하는 통신부;를 더 포함하며,The control signal is a computer, a laptop, a tablet PC, a tablet mobile communication device, a smartphone, a mobile phone, a smart pad, a gaming device, a virtual experience device, a portable multimedia playback device, an electronic book, a USB hub, a mouse, a keyboard, Further comprising: a communication unit for transmitting to an electronic device including at least one of a monitor and a headset,
    상기 제어신호는 상기 전자기기를 구성하는 하드웨어 또는 상기 전자기기에 설치된 소프트웨어를 제어할 수 있는 신호를 포함하는,The control signal includes a signal for controlling the hardware constituting the electronic device or software installed in the electronic device,
    비접촉 조작장치.Contactless controls.
  5. 제 4 항에 있어서,The method of claim 4, wherein
    상기 통신부는 블루투스(Bluetooth) 통신 또는 지그비(Zigbee) 통신을 이용하는 무선통신부 및 USB(Universal Serial Bus) 케이블을 이용하는 유선통신부 중에서 적어도 어느 하나를 포함하는, 비접촉 조작장치.The communication unit includes at least any one of a wireless communication unit using Bluetooth communication or Zigbee communication and a wired communication unit using a universal serial bus (USB) cable.
  6. 제 4 항에 있어서,The method of claim 4, wherein
    상기 발광부, 상기 수광부, 상기 마이크로컨트롤유닛 및 상기 통신부 중 적어도 일부는 상기 전자기기에 내장되어 배치되는, 비접촉 조작장치.And at least some of the light emitting unit, the light receiving unit, the microcontrol unit, and the communication unit are disposed in the electronic device.
  7. 제 4 항에 있어서,The method of claim 4, wherein
    상기 발광부, 상기 수광부, 상기 마이크로컨트롤유닛 및 상기 통신부 중 적어도 일부는 상기 전자기기의 외부에 배치된, 비접촉 조작장치.And at least some of the light emitting unit, the light receiving unit, the microcontrol unit, and the communication unit are disposed outside the electronic device.
  8. 제 1 항에 있어서,The method of claim 1,
    상기 발광부 및 상기 수광부는 모듈화되지 않고 서로 이격되어 배치되는, 비접촉 조작장치.And the light emitting portion and the light receiving portion are disposed apart from each other without being modularized.
  9. 제 1 항에 있어서,The method of claim 1,
    상기 발광부 및 상기 수광부는 적어도 하나 이상의 비접촉 센서 모듈을 구성하는, 비접촉 조작장치.And the light emitting portion and the light receiving portion constitute at least one non-contact sensor module.
  10. 제 9 항에 있어서,The method of claim 9,
    상기 적어도 하나 이상의 비접촉 센서 모듈은 서로 이격된 제 1 비접촉 센서 모듈 및 제 2 비접촉 센서 모듈을 포함하고,The at least one non-contact sensor module includes a first non-contact sensor module and a second non-contact sensor module spaced apart from each other,
    상기 마이크로컨트롤유닛은, 상기 제 1 및 제 2 비접촉 센서 모듈들의 이격거리 및 상기 제 1 및 제 2 비접촉 센서 모듈들에 각각 구비된 상기 수광부에 수광되는 상기 반사광의 수광각을 이용하여 상기 대상물에 대한 공간좌표 중 높이성분을 산출하는, 비접촉 조작장치.The microcontrol unit may be configured based on a distance between the first and second non-contact sensor modules and a light-receiving angle of the reflected light received by the light-receiving unit provided in the first and second non-contact sensor modules, respectively. A non-contact operating device for calculating the height component in the spatial coordinates.
  11. 제 1 항에 있어서,The method of claim 1,
    상기 적어도 하나 이상의 수광부는 서로 이격된 제 1 수광부 및 제 2 수광부를 포함하고,The at least one light receiving unit includes a first light receiving unit and a second light receiving unit spaced apart from each other,
    상기 마이크로컨트롤유닛은, 상기 제 1 수광부와 상기 제 2 수광부 사이의 이격거리 및 상기 제 1 수광부 및 상기 제 2 수광부에 수광되는 상기 반사광의 수광각을 이용하여 상기 대상물에 대한 공간좌표 중 높이성분을 산출하는, 비접촉 조작장치.The microcontrol unit uses a separation distance between the first light receiving unit and the second light receiving unit and a light receiving angle of the reflected light received by the first light receiving unit and the second light receiving unit to determine a height component of the spatial coordinates of the object. Calculated, non-contact operation device.
  12. 제 1 항에 있어서,The method of claim 1,
    상기 발광부는 적외선 발광 다이오드(IRED)를 포함하고, 상기 수광부는 포토다이오드를 포함하는, 비접촉 조작장치.And the light emitting portion includes an infrared light emitting diode (IRED), and the light receiving portion includes a photodiode.
  13. 제 1 항 내지 제 12 항 중 어느 한 항의 상기 비접촉 조작장치와 연동되는, 전자기기.An electronic device interlocked with the non-contact manipulation device according to any one of claims 1 to 12.
  14. 제 13 항에 있어서,The method of claim 13,
    상기 전자기기는 컴퓨터, 노트북, 태블릿 피씨, 태블릿 이동통신기기, 스마트폰, 핸드폰, 스마트패드, 게임기기, 가상체험장치, 휴대용 멀티미디어 재생장치, 전자북, 유에스비 허브(USB HUB), 마우스, 키보드, 모니터 및 헤드셋 중 적어도 어느 하나를 포함하는, 전자기기. The electronic device includes a computer, a laptop, a tablet PC, a tablet mobile communication device, a smartphone, a mobile phone, a smart pad, a game device, a virtual experience device, a portable multimedia player, an electronic book, a USB hub, a mouse, a keyboard, An electronic device comprising at least one of a monitor and a headset.
PCT/KR2014/003086 2013-04-09 2014-04-09 Non-contact operation device and electronic device linked with same WO2014168416A1 (en)

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
KR1020130038416A KR101415931B1 (en) 2013-04-09 2013-04-09 Headset with recognition of gesture
KR1020130038417A KR101524050B1 (en) 2013-04-09 2013-04-09 Noncontact gesture operating apparatus
KR10-2013-0038416 2013-04-09
KR10-2013-0038417 2013-04-09
KR10-2013-0074878 2013-06-27
KR1020130074878A KR101471816B1 (en) 2013-06-27 2013-06-27 Noncontact operating apparatus with recognition of gesture
KR10-2013-0074877 2013-06-27
KR1020130074876A KR101469129B1 (en) 2013-06-27 2013-06-27 USB hub having noncontact operating apparatus with recognition of gesture
KR1020130074877A KR101469186B1 (en) 2013-06-27 2013-06-27 Mouse having noncontact operating apparatus with recognition of gesture
KR10-2013-0074876 2013-06-27
KR10-2013-0082215 2013-07-12
KR1020130082215A KR101504148B1 (en) 2013-07-12 2013-07-12 Non-contact operating apparatus
KR10-2013-0091493 2013-08-01
KR1020130091493A KR101460028B1 (en) 2013-08-01 2013-08-01 Keyboard having non-contact operating apparatus

Publications (1)

Publication Number Publication Date
WO2014168416A1 true WO2014168416A1 (en) 2014-10-16

Family

ID=51689763

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/003086 WO2014168416A1 (en) 2013-04-09 2014-04-09 Non-contact operation device and electronic device linked with same

Country Status (1)

Country Link
WO (1) WO2014168416A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113946219A (en) * 2021-10-25 2022-01-18 陈奕名 Control method and device of intelligent equipment, interactive equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100703199B1 (en) * 2005-02-17 2007-04-05 (주)모비솔 Keyboard and joystic with integrated pointing device
KR20100012422A (en) * 2008-07-29 2010-02-08 비에스엔텍(주) Optical pointing device and operation method
KR20110028922A (en) * 2009-09-14 2011-03-22 마루엘에스아이 주식회사 Proximity sensor
KR20110045330A (en) * 2009-10-26 2011-05-04 엘지전자 주식회사 Mobile terminal

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100703199B1 (en) * 2005-02-17 2007-04-05 (주)모비솔 Keyboard and joystic with integrated pointing device
KR20100012422A (en) * 2008-07-29 2010-02-08 비에스엔텍(주) Optical pointing device and operation method
KR20110028922A (en) * 2009-09-14 2011-03-22 마루엘에스아이 주식회사 Proximity sensor
KR20110045330A (en) * 2009-10-26 2011-05-04 엘지전자 주식회사 Mobile terminal

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113946219A (en) * 2021-10-25 2022-01-18 陈奕名 Control method and device of intelligent equipment, interactive equipment and storage medium

Similar Documents

Publication Publication Date Title
WO2013183938A1 (en) User interface method and apparatus based on spatial location recognition
WO2016028097A1 (en) Wearable device
WO2017119745A1 (en) Electronic device and control method thereof
WO2014073926A1 (en) Remote control device, display device, and method for controlling same
WO2020050636A1 (en) User intention-based gesture recognition method and apparatus
WO2016182181A1 (en) Wearable device and method for providing feedback of wearable device
WO2015126197A1 (en) Apparatus and method for remote control using camera-based virtual touch
WO2017126741A1 (en) Hmd device and method for controlling same
WO2012111862A1 (en) Information input device and method for performing auto switching between an information input mode using a touch panel and an information input mode using an ultrasonic signal
WO2016064073A1 (en) Smart glasses on which display and camera are mounted, and a space touch inputting and correction method using same
WO2015102175A1 (en) Ring type wireless controller device
WO2013027983A2 (en) Apparatus for driving electronic device and driving method thereof
WO2020242087A1 (en) Electronic device and method for correcting biometric data on basis of distance between electronic device and user, measured using at least one sensor
WO2013154268A1 (en) Method and apparatus for recognizing key input from virtual keyboard
JP2014209336A (en) Information processing device and input support method
KR20150145729A (en) Method for moving screen and selecting service through fingerprint input, wearable electronic device with fingerprint sensor and computer program
WO2014168416A1 (en) Non-contact operation device and electronic device linked with same
WO2018194227A1 (en) Three-dimensional touch recognition device using deep learning and three-dimensional touch recognition method using same
WO2022080549A1 (en) Motion tracking device of dual lidar sensor structure
KR101258969B1 (en) Input device using non-contact user interface
KR101460028B1 (en) Keyboard having non-contact operating apparatus
WO2016122153A1 (en) Display apparatus and control method thereof
WO2022086071A1 (en) Electronic device for controlling operation of electronic pen device, operation method in electronic device, and non-transitory storage medium
WO2021201645A1 (en) Electronic device, and function operating method for electronic device using contactless gesture
WO2013172560A1 (en) Direction input device and method for operating user interface using same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14782537

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14782537

Country of ref document: EP

Kind code of ref document: A1