WO2019168006A1 - 非接触入力装置 - Google Patents

非接触入力装置 Download PDF

Info

Publication number
WO2019168006A1
WO2019168006A1 PCT/JP2019/007495 JP2019007495W WO2019168006A1 WO 2019168006 A1 WO2019168006 A1 WO 2019168006A1 JP 2019007495 W JP2019007495 W JP 2019007495W WO 2019168006 A1 WO2019168006 A1 WO 2019168006A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input device
distance sensor
real image
contact input
Prior art date
Application number
PCT/JP2019/007495
Other languages
English (en)
French (fr)
Inventor
英俊 中居
Original Assignee
コイト電工株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コイト電工株式会社 filed Critical コイト電工株式会社
Priority to CN201980014006.5A priority Critical patent/CN111758083A/zh
Priority to US16/976,180 priority patent/US20200409507A1/en
Publication of WO2019168006A1 publication Critical patent/WO2019168006A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/144Beam splitting or combining systems operating by reflection only using partially transparent surfaces without spectral selectivity
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Definitions

  • the present invention relates to a non-contact input device that detects an operation on a spatially projected image.
  • Patent Document 1 describes a non-contact input device that forms an image of a display as an image in the air using a spatial projector and detects an operation of a finger or the like on the image.
  • the non-contact input device 300 described in Patent Document 1 includes a sheet-like optical sensor 311 that detects infrared rays on the surface of a display 310, and an image formation range by the spatial projector 320.
  • An infrared illuminator 340 that illuminates 330 is provided.
  • Infrared reflected light from a finger or the like operated within the image forming range 330 forms an image on the display 310 by the spatial projector 320. By detecting this position with the optical sensor 311, it can be recognized which position of the keyboard or the like has been operated.
  • the non-contact input device 300 described in Patent Document 1 detects reflected light imaged on the display 310, the detectable operation is limited to the touch operation on the surface of the image forming range 330. For this reason, it cannot be said that the diversity of non-contact operations is sufficient, and further diversity of detectable non-contact operations is desired.
  • an object of the present invention is to increase the diversity of non-contact operations that can be detected in a non-contact input device that detects an operation on a spatially projected image.
  • a non-contact input device includes a display unit that displays an image, a spatial projector that spatially projects a real image of the image, and a region where the real image is formed. And a distance sensor for measuring a distance from an object existing in the measurement range.
  • the operation response unit can perform illumination on / off control.
  • a mirror may be further provided, and the display unit, the space projector, and the distance sensor may be disposed on the back side of the mirror to form the real image on the surface side of the mirror.
  • the mirror includes a half mirror process in a region including between the spatial projector and the real image and between the distance sensor and the real image.
  • FIG. 1 is a diagram illustrating a configuration of a non-contact input device 100 according to the present embodiment.
  • the non-contact input device 100 includes a display unit 110, a light emitting unit 120, a spatial projector 130, a distance sensor 140, and an operation response unit 150.
  • Display unit 110 displays an image to be formed as an image.
  • the display unit 110 may perform static display such as a slide, or may perform dynamic display such as a liquid crystal display device.
  • the light emitting unit 120 is a light source for projecting an image of the display unit 110, and an LED or the like can be used. Note that the light emitting unit 120 may be omitted when the display unit 110 has sufficient external light or the like, or when the display unit 110 itself emits light.
  • the spatial projector 130 is a device that forms an incident image in the air.
  • a large number of first and second micro-reflecting surfaces intersecting each other in plan view are arranged in a standing manner on the same plane. It is possible to use a device that receives the first reflected light at the corresponding second minute reflecting surface to obtain the second reflected light. Alternatively, a micro lens array or the like may be used.
  • the light beam emitted from the image displayed on the display unit 110 is connected to the same position at the same distance on the opposite side by the spatial projector 130, and a real image 180 is formed. For this reason, the position and inclination of the display unit 110 and the space projector 130 are determined, so that the imaging position of the real image 180 is uniquely determined.
  • the measurement range of the distance sensor 140 is set so as to include a region where the real image 180 is formed, and the distance sensor 140 measures the distance to an object existing in the measurement range.
  • the distance sensor 140 is set so that the measurement range extends in the horizontal direction.
  • the measurement range may extend in an oblique direction.
  • the measurement method of the distance sensor 140 is not limited, and for example, an infrared method can be used.
  • the operation response unit 150 performs a response operation according to the measurement result of the distance sensor 140.
  • the operation response unit 150 can be, for example, a lighting device. In this case, the illumination can be switched on / off according to the measurement result of the distance sensor 140.
  • the operation response unit 150 may change the display content of the display unit 110 according to the measurement result of the distance sensor 140.
  • the distance L between the distance sensor 140 and the real image 180 is known and the measurement range of the distance sensor 140 includes a region where the real image 180 is formed, if the distance to the measured object is close to the distance L, the real image It can be detected that the operation is for 180.
  • the detection target is not limited to the touch operation on the real image 180, the variety of non-contact operations that can be detected can be increased without using a complicated configuration.
  • the switch button is spatially projected as a real image 180.
  • the operation response unit 150 can perform a response operation for switching the switch button on and off by detecting a pressing operation or the like on the real image 180 by the operator.
  • the operation response unit 150 may change the response control between when the switch button is pressed deeply and when it is pressed lightly.
  • the switch button can be used as a switch button for illumination, and bright lighting can be obtained when pressed deeply, and dim lighting can be achieved when pressed shallowly. Thereby, the diversity of the non-contact operation which can be detected can be improved further.
  • a real image 180 is displayed on the display unit 110 to display the real image. An operation on 180 may be detected.
  • the real image 180 of a certain image after receiving an operation on the real image 180 of a certain image, it may be displayed on another image display unit 110 for receiving the next operation, or displayed to indicate that the operation has been received.
  • the image may be changed. For example, when the real image 180 indicating the off state receives an operation, the image is switched to the real image 180 indicating the on state.
  • the non-contact input device 100 of this embodiment is arrange
  • the mirror 200 is configured by forming a reflective film 202 on one surface of a transparent plate 201 such as glass and further forming an opaque protective film 203, and sees the mirror image on the transparent plate 201 side.
  • the side that can be used is the surface.
  • a real image 180 is formed on the surface side of the mirror 200.
  • a partial region of the mirror 200 is a half mirror 210 that lacks the opaque protective film 203.
  • the area of the half mirror 210 has a minimum size necessary for transmitting the light from the spatial projector 130, the emission signal of the distance sensor 140, and the reflection signal from the object.
  • a transparent protective film may be formed in a region lacking the opaque protective film 203.
  • the distance sensor 140 and the reflective film 202 are brought into close contact with each other, and the outgoing light port and the light receiving port of the distance sensor 140 are separated by a partition or the like. It is preferable.
  • a part of the mirror 200 for transmitting the light from the spatial projector 130, the emission signal of the distance sensor 140, and the reflection signal from the object is divided into a reflective film 202 and an opaque protective film 203.
  • the transparent surface region 211 lacking may be used.
  • the real image 180 appears to be lifted from the mirror 200 without recognizing the non-contact input device 100 from a person viewing the mirror 200.
  • Non-contact input device 110
  • Display unit 120
  • Spatial projector 140
  • Distance sensor 150
  • Operation response unit 180
  • Real image 200
  • Mirror 201
  • Transparent plate 202
  • Reflective film 203
  • Opaque protective film 210

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

空間投影した像に対する操作を検出する非接触入力装置において、検出可能な非接触操作の多様性を高める。画像を表示する表示部と、画像の実像を空間投影する空間投影器と、実像が形成される領域を含むように測定範囲が設定され、測定範囲内に存在する物体との距離を測定する距離センサと、を備えた非接触入力装置。

Description

非接触入力装置
 本発明は、空間投影した像に対する操作を検出する非接触入力装置に関する。
 特許文献1には、空間投影器を用いてディスプレイの画像を空中に像として形成し、像に対する指等の操作を検出する非接触入力装置が記載されている。特許文献1に記載された非接触入力装置300は、図3に示すように、ディスプレイ310の表面に赤外線を検知するシート状の光センサ311が設けられ、また、空間投影器320による像形成範囲330を照らす赤外線の照明器340が設けられている。ディスプレイ310にキーボード等の画像を表示すると、空間投影器320によって像形成範囲330にキーボード等の実像が形成される。
 像形成範囲330内で操作する指等からの赤外線反射光は、空間投影器320により、ディスプレイ310上に結像する。この位置を光センサ311で検出することによりキーボード等のどの位置が操作されたかを認識することができるとされている。
特許第5957611号公報
 特許文献1に記載された非接触入力装置300は、ディスプレイ310上に結像した反射光を検出するため、検出可能な操作は、像形成範囲330面上でのタッチ操作に限られる。このため、非接触操作の多様性が十分とはいえず、検出可能な非接触操作の一層の多様性が望まれる。
 そこで、本発明は、空間投影した像に対する操作を検出する非接触入力装置において、検出可能な非接触操作の多様性を高めることを目的とする。
 上記課題を解決するため、本発明の1態様である非接触入力装置は、画像を表示する表示部と、前記画像の実像を空間投影する空間投影器と、前記実像が形成される領域を含むように測定範囲が設定され、前記測定範囲内に存在する物体との距離を測定する距離センサと、を備えることを特徴とする。
 ここで、前記距離センサの測定結果に応じた応答制御を行なう操作応答部をさらに備えていてもよい。
 このとき、前記操作応答部は、照明のオンオフ制御を行なうことができる。
 また、鏡をさらに備え、前記表示部と、前記空間投影器と、前記距離センサとが、前記鏡の裏面側に配置され、前記鏡の表面側に前記実像を形成するようにしてもよい。
 このとき、前記鏡は、前記空間投影器と前記実像との間および前記距離センサと前記実像との間を含む領域がハーフミラー加工されていることが好ましい。
 本発明によれば、空間投影した像に対する操作を検出する非接触入力装置において、検出可能な非接触操作の多様性を高めることができる。
本実施形態に係る非接触入力装置の構成を示す図である。 本実施形態に係る非接触入力装置の変形例を示す図である。 従来の非接触入力装置の構成を示す図である。
 図1は、本実施形態に係る非接触入力装置100の構成を示す図である。本図に示すように、非接触入力装置100は、表示部110、発光部120、空間投影器130、距離センサ140、操作応答部150を備えている。
 表示部110は、像として形成する画像を表示する。表示部110は、スライドのように静的表示を行なうものであってもよいし、液晶表示装置のように動的表示を行なうものであってもよい。発光部120は、表示部110の画像を投影するための光源であり、LED等を用いることができる。なお、表示部110に照射する外光等が十分であったり、表示部110自体が発光する場合等には発光部120は省いてもよい。
 空間投影器130は、入射した画像を空中に結象する装置である。例えば、特許文献1に記載されているような、平面視して交差する第1、第2の微小反射面がそれぞれ同一平面上に多数立設して配置され、各第1の微小反射面からの第1の反射光を、対応する第2の微小反射面で受けて第2の反射光とする装置を用いることができる。また、マイクロレンズアレイ等を利用したものであってもよい。
 表示部110に表示された画像が放つ光線は、空間投影器130により、反対側の同じ距離の同じ位置に結象し、実像180が形成される。このため、表示部110および空間投影器130の位置と傾きとが定まることで、実像180の結像位置が一意に定まることになる。
 距離センサ140は、実像180が形成される領域を含むように測定範囲が設定されており、測定範囲内に存在する物体との距離を測定する。本実施形態では、距離センサ140は、測定範囲が水平方向に延びるように設定されている。ただし、測定範囲が斜め方向に延びるようにしてもよい。距離センサ140の測定方式は問わず、例えば、赤外線方式を用いることができる。
 操作応答部150は、距離センサ140の測定結果に応じた応答動作を行なう。操作応答部150は、例えば、照明装置とすることができる。この場合、距離センサ140の測定結果に応じて照明のオンオフを切り換えることができる。操作応答部150は、距離センサ140の測定結果に応じて表示部110の表示内容を変更するようにしてもよい。
 距離センサ140と実像180との距離Lは既知であり、距離センサ140の測定範囲が、実像180が形成される領域を含むため、測定された物体までの距離が、距離Lに近ければ、実像180に対する操作であると検知することができる。この場合、検出対象は、実像180面上でのタッチ操作に限られないため、検出可能な非接触操作の多様性を複雑な構成を用いることなく高めることができる。
 例えば、表示部110にスイッチボタンの画像を表示することで、実像180としてスイッチボタンが空間投影される。このとき、操作者の実像180に対する押下操作等を検出することで、操作応答部150は、スイッチボタンのオンオフを切り換える応答動作を行なうことができるようになる。
 また、距離センサ140を用いていることから、実像180に対する奥行方向の操作を検出することができ、例えば、スイッチボタンの押し加減を複数段階で識別することができる。そこで、操作応答部150は、スイッチボタンが深く押された場合と、浅く押された場合とで応答制御を変えるようにしてもよい。例えば、スイッチボタンを照明のスイッチボタンとして用い、深く押された場合は明るい照明とし、浅く押された場合は薄暗い照明とすることができる。これにより、検出可能な非接触操作の多様性を一層高めることができる。
 あるいは、実像180に手を近づけるに従って照明が明るくなるようにし、実像180から手が離れるに従って照明が暗くなるようにするような応答動作も可能である。
 また、距離センサ140の測定範囲を遠距離まで広げることで、操作者が遠くから近づいていることを検知し、所定の距離まで近づいた場合に、表示部110に実像180を表示させて、実像180に対する操作を検出するようにしてもよい。
 さらに、ある画像の実像180に対する操作を受け付けた後に、次の操作を受け付けるための別の画像の表示部110に表示させるようにしてもよいし、操作を受け付けたことを示すために、表示させる画像を変更するようにしてもよい。例えば、オフ状態を示す画像の実像180が操作を受け付けると、オン状態を示す画像の実像180に切り換える等である。
 ところで、本実施形態の非接触入力装置100は、本図に示すように、鏡200の裏面側に配置している。ここで、鏡200は、ガラス等の透明板201の一方の面に反射膜202を形成し、さらに、不透明保護膜203を形成して構成されており、透明板201側、すなわち、鏡像を見ることができる側を表面とする。そして、鏡200の表面側に実像180が結象するようにしている。
 このとき、空間投影器130からの光、距離センサ140の出射信号、物体からの反射信号を透過させるために、鏡200の一部の領域を、不透明保護膜203を欠いたハーフミラー210としている。ハーフミラー210の領域は、空間投影器130からの光、距離センサ140の出射信号、物体からの反射信号を透過させるために必要最小限の大きさとすることが好ましい。不透明保護膜203を欠いた領域に透明保護膜を形成してもよい。
 また、反射膜202によって距離センサ140の測定精度が低下することを防ぐために、距離センサ140と反射膜202とを密着させるとともに、距離センサ140の出射光口と受光口とを仕切り等で分離することが好ましい。
 また、図2に示すように、空間投影器130からの光、距離センサ140の出射信号、物体からの反射信号を透過させるため鏡200の一部の領域を、反射膜202および不透明保護膜203を欠いた透明面領域211としてもよい。これにより、距離センサ140の出射信号、物体からの反射信号を一層透過させることが可能となる。
 このように、非接触入力装置100を鏡200の裏面側に配置することで、鏡200を見る者から非接触入力装置100を認識することなく、実像180が鏡200から浮き上がって見えることになり、実像表示における演出効果やデザイン性を高めることができる。
100 非接触入力装置
110 表示部
120 発光部
130 空間投影器
140 距離センサ
150 操作応答部
180 実像
200 鏡
201 透明板
202 反射膜
203 不透明保護膜
210 ハーフミラー

Claims (5)

  1.  画像を表示する表示部と、
     前記画像の実像を空間投影する空間投影器と、
     前記実像が形成される領域を含むように測定範囲が設定され、前記測定範囲内に存在する物体との距離を測定する距離センサと、
     を備えることを特徴とする非接触入力装置。
  2.  前記距離センサの測定結果に応じた応答動作を行なう操作応答部をさらに備えることを特徴とする請求項1に記載の非接触入力装置。
  3.  前記操作応答部は、照明のオンオフを切り換える応答動作を行なうことを特徴とする請求項2に記載の非接触入力装置。
  4.  鏡をさらに備え、
     前記表示部と、前記空間投影器と、前記距離センサとが、前記鏡の裏面側に配置され、
     前記鏡の表面側に前記実像を形成することを特徴とする請求項1~3のいずれか1項に記載の非接触入力装置。
  5.  前記鏡は、前記空間投影器と前記実像との間および前記距離センサと前記実像との間を含む領域がハーフミラー加工されていることを特徴とする請求項4に記載の非接触入力装置。
PCT/JP2019/007495 2018-02-28 2019-02-27 非接触入力装置 WO2019168006A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201980014006.5A CN111758083A (zh) 2018-02-28 2019-02-27 非接触输入装置
US16/976,180 US20200409507A1 (en) 2018-02-28 2019-02-27 Non-Contact Input Device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018034085A JP6712609B2 (ja) 2018-02-28 2018-02-28 非接触入力装置
JP2018-034085 2018-02-28

Publications (1)

Publication Number Publication Date
WO2019168006A1 true WO2019168006A1 (ja) 2019-09-06

Family

ID=67805970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/007495 WO2019168006A1 (ja) 2018-02-28 2019-02-27 非接触入力装置

Country Status (4)

Country Link
US (1) US20200409507A1 (ja)
JP (1) JP6712609B2 (ja)
CN (1) CN111758083A (ja)
WO (1) WO2019168006A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11852963B2 (en) * 2020-04-24 2023-12-26 Kohler Co. Systems and methods for controlling a plumbing fixture, smart mirror, and the like using projected images
CN112723064B (zh) * 2020-12-31 2023-03-14 广东伟邦科技股份有限公司 一种空中成像设备的操作方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (ja) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology 空中映像インタラクション装置及びそのプログラム
JP2013242850A (ja) * 2012-04-27 2013-12-05 Nitto Denko Corp 表示入力装置
JP2017062709A (ja) * 2015-09-25 2017-03-30 新光商事株式会社 ジェスチャー操作装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014127056A (ja) * 2012-12-27 2014-07-07 Funai Electric Co Ltd 入力装置及び画像表示装置
EP3051345B1 (en) * 2013-09-27 2019-12-18 Maxell, Ltd. Video projection device
JP2015158882A (ja) * 2014-02-25 2015-09-03 パナソニックIpマネジメント株式会社 情報表示装置
JP6364994B2 (ja) * 2014-06-20 2018-08-01 船井電機株式会社 入力装置
US9841844B2 (en) * 2014-06-20 2017-12-12 Funai Electric Co., Ltd. Image display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008123500A1 (ja) * 2007-03-30 2008-10-16 National Institute Of Information And Communications Technology 空中映像インタラクション装置及びそのプログラム
JP2013242850A (ja) * 2012-04-27 2013-12-05 Nitto Denko Corp 表示入力装置
JP2017062709A (ja) * 2015-09-25 2017-03-30 新光商事株式会社 ジェスチャー操作装置

Also Published As

Publication number Publication date
CN111758083A (zh) 2020-10-09
JP2019149065A (ja) 2019-09-05
US20200409507A1 (en) 2020-12-31
JP6712609B2 (ja) 2020-06-24

Similar Documents

Publication Publication Date Title
TWI571769B (zh) 非接觸輸入裝置及方法
JP5461470B2 (ja) 近接度検出器
TWI582661B (zh) 非接觸輸入裝置及方法
US20180284944A1 (en) Apparatus for contactlessly detecting indicated position on reproduced image
KR20110123257A (ko) 능동 디스플레이 피드백에 의한 터치 포인터 명확화
JPH113170A (ja) 光デジタイザ
TW201237715A (en) Interactive polarization-preserving projection display
JP6721875B2 (ja) 非接触入力装置
WO2019168006A1 (ja) 非接触入力装置
WO2018146867A1 (ja) 制御装置
JP2018088027A (ja) センサシステム
US20230033280A1 (en) Operation input device
CN109558002A (zh) 位置检测装置、位置检测系统和位置检测装置的控制方法
JP7097335B2 (ja) 非接触入力装置
JP3782983B2 (ja) ポインティングデバイス
JP2020024545A (ja) 非接触入力装置
JP2020024281A (ja) 空間投影装置、及び、それを備えた非接触入力装置
EP4134730B1 (en) Display device and spatial input device including the same
JP2021026044A (ja) レンズアレイユニット
JP2021026043A (ja) レンズアレイ
JP2023001954A (ja) 空中映像表示装置
JPWO2016132568A1 (ja) 非接触入力装置及び方法
JP2020024283A (ja) 空間投影装置
JPH1167031A (ja) タッチレススイッチ
JPH09120761A (ja) タッチレススイッチ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19760452

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19760452

Country of ref document: EP

Kind code of ref document: A1