WO2018216619A1 - 非接触入力装置 - Google Patents

非接触入力装置 Download PDF

Info

Publication number
WO2018216619A1
WO2018216619A1 PCT/JP2018/019317 JP2018019317W WO2018216619A1 WO 2018216619 A1 WO2018216619 A1 WO 2018216619A1 JP 2018019317 W JP2018019317 W JP 2018019317W WO 2018216619 A1 WO2018216619 A1 WO 2018216619A1
Authority
WO
WIPO (PCT)
Prior art keywords
input device
detection light
light
aerial image
detection
Prior art date
Application number
PCT/JP2018/019317
Other languages
English (en)
French (fr)
Inventor
佐野永悟
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2018549289A priority Critical patent/JP6721875B2/ja
Publication of WO2018216619A1 publication Critical patent/WO2018216619A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means

Definitions

  • the present invention relates to a non-contact input device that detects a specified position of an aerial image in a non-contact manner.
  • an aerial image display device in which a real image of an object is formed in the air using a special optical plate so that the observer can observe the real image (see, for example, Patent Document 1). Further, there is disclosed an apparatus that forms an aerial image using the optical plate and detects an indicated position on the aerial image plane in a non-contact manner using a transparent sheet that irregularly reflects infrared rays (for example, Patent Document 2). reference).
  • an input / output device equipped with such a non-contact interaction function it is possible to input a display surface such as a display without touching it directly with a pointing object. Hygiene information can be input.
  • Patent Document 2 a sheet that irregularly reflects infrared rays is arranged near the display, and an infrared surface emitting light source is created by irradiating the sheet with infrared light, and a real image of the surface emitting light source is formed in the air. Yes.
  • the pointing object blocks the infrared surface emitting surface formed in the air, infrared light is reflected on the surface of the pointing object, and the reflected light is photographed with an infrared camera to detect the pointing position.
  • the optical plate as in Patent Document 1 reflects in the optical plate when the light incident angle with respect to the optical plate is extremely different from a desired angle (specifically, 45 ° to 50 °). The efficiency is reduced, and there is a problem that an aerial image becomes dark or an image called a ghost other than a regular aerial image appears.
  • Patent Document 2 since the surface light source for detecting the indicated position is formed by an aerial image through the optical plate, the relative angle between the transparent sheet and the optical plate is the desired angle (specifically, Is 45 ° to 50 °), the aerial image of the surface light source becomes dark and the detection sensitivity of the pointing object decreases, or the infrared light emitted by the pointing object is not shown in the ghost image. Reflections can occur and cause false detections. Further, when the reflected light from the pointing object is photographed with a camera as in Patent Document 2, it is desirable that the camera is disposed at a position facing the aerial image.
  • an aerial image of a surface emitting light source formed in the vicinity of the aerial image (hereinafter referred to as a light source image) in order to detect with high resolution. ) Over the entire shooting range. That is, it is desirable to arrange the camera at a position facing the light source image. However, in order to reduce the size of the non-contact input device, it is difficult to arrange the optical plate because it is an obstacle. Therefore, an aerial image is taken from an oblique direction, and there is a problem that detection accuracy deteriorates.
  • the S / N ratio of the detection light needs to be high, but since the light source image is formed as an aerial image, the S / N ratio may be deteriorated.
  • the present invention has been made in view of the above-described background art, and does not depend on the image quality of the aerial image, reduces false detection of the indicated position of the aerial image, and detects the position of the indicated object with high accuracy.
  • An object is to provide an input device.
  • a non-contact input device reflecting one aspect of the present invention includes an optical plate having a plurality of reflecting surfaces orthogonal to each other in plan view, and includes light from an object. Are reflected by a plurality of reflecting surfaces and guided to the air opposite to the light incident side with respect to the optical plate, and an aerial image corresponding to the object is formed in the air.
  • a detection light emitting unit that emits detection light for detecting the detection light and a position indicated by the pointing object in a non-contact manner by detecting reflected light of the detection light on the surface of the pointing object when the pointing object blocks the detection light.
  • the detection light emitting unit irradiates the detection light along a plane parallel to the aerial image.
  • the pointing object is used to indicate a predetermined position of the aerial image, and means an object that blocks detection light such as a user's finger or pen.
  • FIG. 1A is a perspective view of the non-contact input device according to the first embodiment
  • FIG. 1B is a cross-sectional view illustrating the structure of the non-contact input device. It is a conceptual diagram explaining an optical plate.
  • 3A is a cross-sectional view taken along the detection surface of the sensing device
  • FIG. 3B is a cross-sectional view of the sensing device
  • FIGS. 3C and 3D are conceptual diagrams illustrating a method of detecting the indicated position by the pointing object. is there.
  • 5A to 5C are conceptual diagrams for explaining a method of detecting a designated position by the non-contact input device of FIG. It is sectional drawing explaining the non-contact input device of 3rd Embodiment. It is sectional drawing explaining the non-contact input device of 4th Embodiment.
  • 1A and 1B includes a display panel 20 including a display object to be visually recognized by a user, an optical plate 30 that forms an aerial image AM corresponding to the display panel 20 in the air, and an aerial image.
  • a sensing device 40 for detecting the position of a fingertip as an indicating object in the vicinity of the AM a housing 50 that supports the optical plate 30 and houses the display panel 20, a display circuit 61 for the display panel 20, And a control unit 90 that comprehensively manages the operating states of the display panel 20 and the sensing device 40.
  • the pointing object is used to indicate a predetermined position of the aerial image AM as described above, and means an object that blocks the detection light L1 such as a pen in addition to the user's finger.
  • the display panel 20 is a plate-like device and is fixed in an inclined state in the housing 50. Specifically, the display panel 20 is fixed so that the display surface 21 is appropriately tilted by rotation around the axis ⁇ with respect to a reference plane parallel to the XY plane in which the optical plate 30 extends. .
  • the axis ⁇ is parallel to the XY plane and forms, for example, the same angle with respect to the X axis and the Y axis.
  • the display panel 20 is a display element capable of two-dimensional drawing.
  • the display panel 20 includes a display unit such as an LCD and a light source unit that illuminates the display unit.
  • the display panel 20 is not limited to a transmissive element, but may be a reflective element such as LCOS or DMD.
  • a keyboard is displayed on the display panel 20, but a display screen of a tablet terminal can also be displayed.
  • the optical plate 30 is a rectangular plate-like device, and is fixed so as to cover the window 51 of the housing 50.
  • the optical plate 30 extends along a reference plane parallel to the XY plane.
  • FIG. 2 is an enlarged view for explaining a specific structure of the optical plate 30.
  • the optical plate 30 uses, for example, an aerial image display device described in International Publication No. 2017/014221.
  • the optical plate 30 is configured by bonding two flat optical panels 31 and 32 together.
  • the optical panels 31 on one side (specifically, the lower side and the incident side) are mutually in a plane (XY plane in the illustrated example) perpendicular to the stacking direction (Z direction in the illustrated example) of the optical panels 31 and 32. It is formed by arranging a plurality of mirror elements 31a in one direction (for example, the X direction) out of two perpendicular directions and bonding them with an adhesive.
  • the optical panel 32 on the other side is formed by arranging a plurality of mirror elements 32a in the other direction (for example, the Y direction) of the two directions and bonding them with an adhesive. Yes.
  • Mirror element 31a of one optical panel 31 has a rectangular parallelepiped transparent substrate 81a.
  • the transparent substrate 81a extends in the Y direction, and a reflective film 81b is formed by vapor deposition or the like on one or both of two opposing surfaces (for example, two surfaces along the YZ surface).
  • the mirror element 32a of the other optical panel 32 has a rectangular parallelepiped transparent substrate 82a.
  • the transparent substrate 82a extends in the X direction, and a reflective film 82b is formed by vapor deposition or the like on one or both of two opposing surfaces (for example, two surfaces along the XZ surface).
  • the plurality of reflection films 81b are arranged in the X direction at intervals corresponding to the width of the mirror element 31a in the X direction.
  • a plurality of reflection films 82b are arranged side by side in the Y direction at intervals corresponding to the width in the Y direction of the mirror elements 32a. .
  • the reflection film (reflection surface) 81b of each mirror element 31a and the reflection film (reflection surface) 82b of each mirror element 32a are viewed in a plan view (Z-axis direction).
  • the positions are orthogonal to each other, but are arranged in a shifted state in the Z-axis direction as in a torsional relationship.
  • an object OB an image displayed on the display panel 20 in the present embodiment
  • an object of hollow image formation on the lower side of the optical plate 30 is placed on the upper side of the optical plate 30. It can be projected as an aerial image AM which is a real image of the same magnification. That is, the optical plate 30 reflects the light from the object OB by the reflective films (reflective surfaces) 81b and 82b of the plurality of mirror elements 31a and 32a, and guides the light into the air opposite to the light incident side.
  • An aerial image AM of the object OB is formed in the air.
  • the plurality of light beams LB emitted from the point light source P on the object OB are reflected by reflection surfaces (reflection films 81b and 82b) parallel to the Z axis, and the point light source P with respect to the X axis. Is condensed at a position P ′ opposite to the point P (a position symmetrical with respect to the point light source P and the X axis). At this time, similar reflection occurs at a plurality of lattice point-like locations where the plurality of reflection films 81b and 82b arranged periodically intersect, and a real image of the point P is formed at the position P ′.
  • the object OB including the point light source P is an image displayed on the display surface 21 of the display panel 20 in the present embodiment. That is, the image displayed on the display surface 21 of the display panel 20 can be displayed as an aerial image AM inclined above the optical plate 30.
  • the sensing device 40 is an application of the optical proximity sensor described in, for example, US Patent Application Publication No. 2014/0364218, and is fixed to the outside of the window 51 of the housing 50 so as to be optical. An approaching action of a pointing object, that is, a fingertip, into the detection space DS adjacent to the aerial image AM formed by the plate 30 is detected.
  • the sensing device 40 is a rod-shaped device and extends along an axis ⁇ parallel to one side of the window 51 of the housing 50.
  • the aerial image AM is formed in a mirror image symmetry on the opposite side of the display panel 20 with the optical plate 30 in between.
  • the aerial image AM is arranged in a line-symmetric relationship obtained by rotating the display panel 20 by 180 ° around an axis of symmetry parallel to the axis ⁇ extending along the optical plate 30.
  • the sensing device 40 is arranged in a housing 40a so that a plurality of laser diodes (LD) 41 and a plurality of photodiodes 42 as photodetectors are alternately arranged in the direction of the axis ⁇ .
  • a lens array 45 having a structure and having a collimator lens 43 disposed in front of each laser diode 41 is provided.
  • the laser diode 41 and the lens array 45 function as a detection light emitting unit 141 that emits detection light L1 that detects the position of the fingertip that is the pointing object, and the photodiode 42 and the lens array 45 are the surface of the fingertip that is the pointing object.
  • the detection light emitting unit 141 and the indicated position detection unit 142 are arranged in the same housing 40 a of the sensing device 40. Thereby, compared with the case where the detection light emission part 141 and the instruction
  • the laser diode 41 emits infrared light that is invisible light
  • the photodiode 42 detects infrared light that is invisible light.
  • the detection light L1 is invisible light
  • the position of the pointing object can be detected with a good S / N ratio even in an environment where there is a lot of disturbance light such as general illumination or outdoors.
  • the pointing position detection unit 142 it is possible to detect the reflected light L2 on the pointing object while minimizing the influence of disturbance light.
  • the detection light L1 from the laser diode 41 is collimated by the collimator lens 43 and emitted in the front direction, and passes through the planar detection space DS shown in FIG. 1B in the horizontal direction. Illuminate from.
  • the detection space DS is a curtain-like or sheet-like irradiation region, and extends in parallel near the aerial image AM.
  • the detection space DS is for extracting an action of pointing the aerial image AM with a fingertip or moving the fingertip along the aerial image AM.
  • the detection light L1 from the laser diode 41 spreads in a direction parallel to the plane of the aerial image AM, but is almost in a direction perpendicular to the plane of the aerial image AM. It doesn't spread.
  • the detection light L1 can always be irradiated in the form of a thin curtain along the plane of the aerial image AM in the vicinity of the aerial image AM. The approach can be accurately detected.
  • the detection light emitter 141 is disposed on an extension of a plane parallel to the aerial image AM (detection space DS in which the detection light L1 is distributed).
  • positioning of the detection light emission part 141 is simple.
  • the pointing position detection unit 142 of the sensing device 40 detects reflected light L2 that is return light from the fingertip that is the pointing object FG.
  • the pointing position detection unit 142 of the sensing device 40 does not detect the reflected light L2.
  • the laser diodes 41 constituting the detection light emitting unit 141 are sequentially turned on in time to emit the detection light L1 in the front direction, and the photodiodes 42 constituting the pointing position detection unit 142 are arranged to move the lens array 45.
  • the reflected light L2 from the oblique direction is selectively detected by the collimator lens 43 that is configured.
  • a large number of photodiodes 42 arranged at equal intervals and a collimator lens 43 disposed so as to straddle between the pair of photodiodes 42 form a diagonal lattice-like or mesh-like detection point on the detection space DS. Therefore, it is possible to specify at which position on the two-dimensional detection space DS or the aerial image AM the fingertip that is the pointing object FG enters and moves from the combination of the photodiodes 42 that simultaneously detect the reflected light L2. it can.
  • the sensing device 40 includes a drive circuit that operates the detection light emitting unit 141 and the indicated position detection unit 142. All or part of such a drive circuit can be incorporated in the housing 50.
  • the display circuit 61 housed in the housing 50 together with the display panel 20 causes the display panel 20 to perform a display operation, and allows the display surface 21 to perform a two-dimensional display. Then, an image corresponding to the aerial image AM is formed on the display surface 21.
  • the control unit 90 causes the display panel 20 to perform a display operation via the display circuit 61, and appropriately operates the sensing device 40 so that the fingertip that is the pointing object FG is located on the detection space DS or the aerial image AM. It monitors whether it has entered. Thereby, when the aerial image AM is, for example, a keyboard, it is possible to determine which key constituting the virtual keyboard is pressed, and to receive the instruction content of the user who operates the non-contact input device 10. it can.
  • the control unit 90 can communicate with a computer or other external device 100 connected to the non-contact input device 10, and outputs the instruction content from the user acquired by the non-contact input device 10 to the external device 100.
  • the detection light emitting unit 141 directly irradiates the pointing object FG by irradiating the detection light L1 along a plane parallel to the aerial image AM. Since light is irradiated, erroneous detection can be reduced, and the position of the pointing object FG can be detected with high accuracy. Further, in detecting the position of the pointing object FG, the reflected light L2 on the surface of the pointing object FG when the pointing object FG passes through the curtain-shaped irradiation area is detected, so that it is possible to indicate the position without complicated processing. The position of the object FG can be detected.
  • the non-contact input device according to the second embodiment is a modification of the non-contact input device according to the first embodiment, and matters not specifically described are the same as those in the first embodiment.
  • the non-contact input device 10 of the second embodiment includes two sensing devices 40 ⁇ / b> A and 40 ⁇ / b> B arranged at different positions as the sensing device 40.
  • the two sensing devices 40A and 40B are fixed in place on the front side of the housing 50 in two layers. That is, the two sensing devices 40A and 40B are arranged in a direction perpendicular to the extended surface of the aerial image AM. Thereby, a plurality of detection regions or detection spaces DS for detecting the position of the pointing object FG can be provided.
  • the first sensing device 40A on the upper side and the second sensing device 40B on the lower side have the same structure, but share positions in the common detection space DS are different due to slight differences in position.
  • the first sensing device 40A detects the hovering state, and the pointing object FG is detected on the + Z ′ side of the detection space DS by the light DA propagating parallel to the aerial image AM or the X′Y ′ plane.
  • the second sensing device 40B detects the touch state, and detects the pointing object FG on the ⁇ Z ′ side of the detection space DS by the aerial image AM or the light DB propagating parallel to the X′Y ′ plane.
  • the control unit 90 When the first sensing device 40A detects the pointing object FG due to the movement of the pointing object FG as shown in FIGS. 5A to 5B, the control unit 90 is in a hovering state in which the pointing object FG approaches the aerial image AM by a predetermined amount or more. It is judged that. 5B to 5C, when the second sensing device 40B detects the pointing object FG due to the movement of the pointing object FG, the control unit 90 is in a touch state in which the pointing object FG contacts the aerial image AM. It is judged that.
  • the control unit 90 can change the image displayed on the display surface 21 of the display panel 20 via the display circuit 61 when the hovering state shown in FIG. Specifically, when the image displayed on the display surface 21 is a keyboard, it is possible to perform processing such as brightly displaying a key approaching the fingertip that is the pointing object FG. Further, the control unit 90 can change the image displayed on the display surface 21 of the display panel 20 via the display circuit 61 even when the touch state shown in FIG. Specifically, when the image displayed on the display surface 21 is a keyboard, it is possible to perform a process of blinking the key that is touched by the fingertip that is the pointing object FG.
  • the method of changing the image displayed on the display surface 21 of the display panel 20 is not limited to the above, and various methods are possible.
  • the display panel 20 enables three-dimensional display, it is possible to perform processing such as depression of the key touched by the fingertip that is the pointing object FG.
  • the non-contact input device according to the third embodiment is a modification of the non-contact input device according to the first embodiment, and matters not specifically described are the same as those in the first embodiment.
  • the non-contact input device 10 includes an arrangement changing device 71 that changes the installation position of the display panel 20 in the housing 50.
  • the control unit 90 adjusts the display surface 21 of the display panel 20 to a desired position and tilt state via the arrangement changing device 71. Thereby, the display panel 20 can be displaced to the position of the display panel 20 '.
  • the non-contact input device 10 includes, as the sensing device 40, an arrangement changing unit 44 that changes the posture or the like of the sensing device body 140.
  • the control unit 90 adjusts the sensing device main body 140 to a desired tilt state in synchronization with the operation of the arrangement changing device 71. Thereby, the sensing device body 140 can be displaced to the position of the sensing device body 140 '.
  • the aerial image AM is displaced from the original position to the position of the aerial image AM'.
  • the sensing device main body 140 is displaced from the original position to the position of the sensing device main body 140 ′, so that the detection space DS corresponding to the original aerial image AM corresponds to the changed aerial image AM ′.
  • the detection space DS ′ is changed. As a result, not only can the position of the aerial image AM be changed, but also the detection space DS can be made to correspond to the changed aerial image AM ′.
  • the position and inclination of the aerial image AM vary depending on the height of the user and the posture when inputting (whether the input is standing or sitting). As in the present embodiment, by moving the detection light emitting unit 141 according to a change in the position of the aerial image AM, light can always be irradiated along the plane of the aerial image AM.
  • the non-contact input device of the fourth embodiment is a modification of the non-contact input device of the first embodiment, and matters that are not particularly described are the same as those of the first embodiment.
  • the sensing device 440 is separated into a detection light emitting unit 141 and an indicated position detection unit 142, and is arranged at another position.
  • the detection light emitting unit 141 has a structure similar to that of the sensing device 40 shown in FIG. 3A, but the photodiode 42 is omitted.
  • the detection light L1 which is invisible light from the detection light emission part 141 can be projected on the detection space DS which is a curtain-shaped irradiation area.
  • the pointing position detection unit 142 is a camera that can capture reflected light from the detection space DS, that is, an invisible light image formed in the detection space DS, and can detect the pointing object FG that has entered the detection space DS. it can.
  • the detection light intensity is set strongly by disposing the detection light emitting unit 141 and the pointing position detection unit 142 at different positions and using the pointing position detection unit 142 as an imaging camera. can do.
  • the detection light intensity is set strongly by disposing the detection light emitting unit 141 and the pointing position detection unit 142 at different positions and using the pointing position detection unit 142 as an imaging camera. can do.
  • by capturing the reflected light L2 with an imaging camera having a two-dimensional sensor it is possible to accurately grasp the two-dimensional designated position.
  • the non-contact input device 10 as a specific embodiment has been described above, the non-contact input device according to the present invention is not limited to the above.
  • the second embodiment two sensing devices 40 are disposed, but three or more sensing devices 40 may be disposed.
  • the sensing device 40 of the first embodiment and the sensing device 440 of the fourth embodiment may be combined.
  • the sensing devices 40 and 440 can appropriately change the configuration of the optical system and the like according to the purpose.
  • the display panel 20 is disposed as the object OB.
  • an object such as a keyboard may be disposed. In this case, it is necessary to irradiate the object OB directly with illumination light.
  • a mirror may be provided between the detection light emitting unit 141 or the sensing device 40 and the aerial image AM. Thereby, the optical path between the detection light emission part 141 and the aerial image AM can be bent, and a device can be reduced in size.
  • the detection light L1 is invisible, but visible light that is not used in the display panel 20 may be used.
  • the laser diode 41 is used as the detection light emitting unit 141, but other light sources such as LEDs may be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Optical Elements Other Than Lenses (AREA)

Abstract

空中像の映像品質に依存せず、空中像の指示位置の誤検知を低減し、指示物体の位置を高精度に検出する非接触入力装置を提供する。平面視で互いに直交する複数の反射面を有する光学プレート30を備え、対象物OBからの光を複数の反射面で反射させて、光学プレート30に対して光の入射側とは反対側の空中に導き、対象物OBに対応する空中像AMを空中に結像させる非接触入力装置10であって、指示物体FGの位置を検出する検出光L1を発光する検出光発光部141と、検出光L1を指示物体FGが遮る際に、指示物体FGの表面での検出光L1の反射光L2を検出することで指示物体FGが指示する位置を非接触で検出する指示位置検出部142とを備え、検出光発光部141は、空中像AMと平行な平面に沿うように検出光L1を照射する。

Description

非接触入力装置
 本発明は、空中像の指示位置を非接触で検知する非接触入力装置に関するものである。
 近年、特殊な光学プレートを使用して対象物の実像を空中に結像させ、その実像を観察者が観察できるようにした空中映像表示装置が提案されている(例えば、特許文献1参照)。また、上記光学プレートを用いて空中像を形成するとともに、赤外線を乱反射する透明シートを用いて、空中像面上の指示位置を非接触で検知する装置が開示されている(例えば、特許文献2参照)。このような非接触インタラクション機能を搭載した入出力機器を使用することで、ディスプレイ等の表示面を直接指示物体で触れることなく入力することができるので、例えば食品加工現場や医療の現場等で、衛生的な情報入力が可能となる。特許文献2では、ディスプレイ近傍に赤外線を乱反射するようなシートを配置し、そのシートに赤外光を照射することで赤外線の面発光光源を作り出し、その面発光光源の実像を空中に形成している。その空中に形成された赤外線の面発光面を指示物体が遮ることで、指示物体表面で赤外光が反射し、その反射光を赤外カメラで撮影することで指示位置を検出している。
 一方、特許文献1にあるような光学プレートは、光学プレートに対しての光線入射角度が所望の角度(具体的には、45°~50°)から極端に乖離すると、光学プレート内での反射の効率が低下し、空中像が暗くなってしまったり、正規の空中像以外にゴーストと呼ばれる像が見えてしまったりといった不具合が生じるという問題がある。
 また、特許文献2では、指示位置を検出するための面光源を、光学プレートを介した空中像で形成しているため、透明シートと光学プレートとの相対角度が上記所望の角度(具体的には、45°~50°)と乖離していると、面光源の空中像が暗くなり指示物体の検出感度が低下したり、ゴースト像によって本来指示していない部分で指示物体による赤外光の反射が起きてしまい、誤検出を引き起こしてしまったりする可能性がある。また、特許文献2のように指示物体による反射光をカメラで撮影して行う場合には、カメラは空中像と正対した位置に配置されることが望ましい。さらに、指示物体表面での検出光の反射光をカメラで撮影しようとした場合、高分解能で検出するためには、空中像近傍に形成された面発光光源の空中像(以下、光源像と呼ぶ)を撮影範囲全体に撮影することが望ましい。つまり、カメラを光源像と正対する位置に配置するのが望ましいが、非接触入力装置を小型化するためには、光学プレートが邪魔となり配置することが困難となる。そのため、空中像を斜め方向から撮影することになり、検出精度が悪化するという問題がある。ここで、検出光のS/N比は高くしておく必要があるが、光源像を空中像で形成しているため、S/N比が悪くなってしまうおそれがある。
特開2012-14194号公報 国際公開第2014/196088号
 本発明は、上記背景技術に鑑みてなされたものであり、空中像の映像品質に依存せず、空中像の指示位置の誤検知を低減し、指示物体の位置を高精度に検出する非接触入力装置を提供することを目的とする。
 上記した目的のうち少なくとも一つを実現するために、本発明の一側面を反映した非接触入力装置は、平面視で互いに直交する複数の反射面を有する光学プレートを備え、対象物からの光を複数の反射面で反射させて、光学プレートに対して光の入射側とは反対側の空中に導き、対象物に対応する空中像を空中に結像させるものであって、指示物体の位置を検出する検出光を発光する検出光発光部と、検出光を指示物体が遮る際に、指示物体の表面での検出光の反射光を検出することで指示物体が指示する位置を非接触で検出する指示位置検出部とを備え、検出光発光部は、空中像と平行な平面に沿うように検出光を照射する。ここで、指示物体とは、空中像の所定の位置を示す際に用いられるものであって、ユーザーの指やペン等の検出光を遮るものを意味する。
図1Aは、第1実施形態の非接触入力装置の斜視図であり、図1Bは、非接触入力装置の構造等を説明する断面図である。 光学プレートを説明する概念図である。 図3Aは、センシング装置の検出面に沿った断面図であり、図3Bは、センシング装置の横断面図であり、図3C及び3Dは、指示物体による指示位置の検出方法を説明する概念図である。 第2実施形態の非接触入力装置を説明する断面図である。 図5A~5Cは、図4の非接触入力装置による指示位置の検出方法を説明する概念図である。 第3実施形態の非接触入力装置を説明する断面図である。 第4実施形態の非接触入力装置を説明する断面図である。
 〔第1実施形態〕
 以下、図1A及び1B等を参照して、本発明の第1実施形態に係る非接触入力装置について説明する。
 図1A及び1Bに示す非接触入力装置10は、ユーザーに視認させる表示の対象物を含む表示パネル20と、表示パネル20に対応する空中像AMを空中に結像させる光学プレート30と、空中像AMの近傍における指示物体としての指先の位置を検出するためのセンシング装置40と、光学プレート30を支持して表示パネル20を収納する筐体50と、表示パネル20のための表示回路61と、表示パネル20及びセンシング装置40の動作状態を統括的に管理する制御部90とを備える。ここで、指示物体は、既述のような空中像AMの所定の位置を示す際に用いられるものであって、ユーザーの指以外に、ペン等の検出光L1を遮るものを意味する。
 非接触入力装置10において、表示パネル20は、板状の装置であり、筐体50中に傾斜した状態で固定されている。具体的には、表示パネル20は、その表示面21が光学プレート30の延びるXY平面に平行な基準面に対して軸αの周りの回転によって適宜傾斜させた状態となるように固定されている。ここで、軸αは、XY平面に平行であり、X軸及びY軸に対して例えば同一の角度を成している。表示パネル20は、2次元的な描画が可能な表示素子であり、図示を省略するが、例えばLCD等の表示部と表示部を照明する光源部とを有する。表示パネル20は、透過型の素子に限らず、LCOSやDMD等の反射型の素子で構成されるものであってもよい。表示パネル20には、例えばキーボードが表示されるが、タブレット端末の表示画面のようなものを表示することもできる。
 光学プレート30は、矩形板状の装置であり、筐体50の窓51を覆うように固定されている。光学プレート30は、XY平面に平行な基準面に沿って延びている。
 図2は、光学プレート30の具体的構造を説明する拡大図である。光学プレート30は、例えば国際公開第2017/014221号明細書に記載の空中映像表示デバイスを利用したものである。光学プレート30は、2枚の平板状の光学パネル31,32を貼り合わせて構成されている。一方(具体的には下側で入射側)の光学パネル31は、両光学パネル31,32の積層方向(図示の例ではZ方向)に垂直な面(図示の例ではXY平面)内で互いに垂直な2方向のうちの一方向(例えばX方向)に、複数のミラー素子31aを並べて接着剤で接着することによって形成されている。他方(具体的には上側で射出側)の光学パネル32は、上記2方向のうちの他の方向(例えばY方向)に、複数のミラー素子32aを並べて接着剤で接着することによって形成されている。
 一方の光学パネル31のミラー素子31aは、直方体状の透明基板81aを有している。透明基板81aは、Y方向に延びており、対向する2面(例えばYZ面に沿った2面)のうちの一方の面又は双方の面に、反射膜81bが蒸着等によって形成されている。他方の光学パネル32のミラー素子32aは、直方体状の透明基板82aを有している。透明基板82aは、X方向に延びており、対向する2面(例えばXZ面に沿った2面)のうちの一方の面又は双方の面に、反射膜82bが蒸着等によって形成されている。
 Y方向に延びる複数のミラー素子31aをX方向に隣接して並べることにより、複数の反射膜81bが、ミラー素子31aのX方向の幅に応じた間隔でX方向に並んで位置する。同様に、X方向に延びる複数のミラー素子32aをY方向に隣接して並べることにより、複数の反射膜82bが、ミラー素子32aのY方向の幅に応じた間隔でY方向に並んで位置する。このような複数のミラー素子31a,32aの配置により、各ミラー素子31aの反射膜(反射面)81bと、各ミラー素子32aの反射膜(反射面)82bとは、平面視で(Z軸方向から見て)互いに直交する位置関係となるが、ねじれの関係のようにZ軸方向にずれて配置された状態となっている。
 図2のような光学プレート30により、光学プレート30の下側にある中空像形成の対象である対象物OB(本実施形態では、表示パネル20に表示される画像)を光学プレート30の上側に等倍の実像である空中像AMとして投影することができる。つまり、光学プレート30は、対象物OBからの光を複数のミラー素子31a,32aの反射膜(反射面)81b,82bで反射させて、光の入射側とは反対側の空中に導き、対象物OBの空中像AMを空中に結像させる。具体的には、対象物OB上の点光源Pから発せられた複数の光線LBは、Z軸に平行な反射面(反射膜81b,82b)でそれぞれ反射され、X軸に対して点光源Pとは反対側の位置P’(点光源PとX軸に対して対称な位置)に集光する。この際、周期的に並ぶ複数の反射膜81b,82bが交差する格子点状の複数箇所で同様の反射が生じ、位置P’に点Pの実像が結像される。ここで、点光源Pを含む対象物OBは、本実施形態の場合、表示パネル20の表示面21に表示される画像である。つまり、表示パネル20の表示面21に表示される画像を光学プレート30上方に傾斜した空中像AMとして表示することができる。
 図1に戻って、センシング装置40は、例えば米国特許出願公開第2014/0364218号明細書に記載の光近接センサーを応用したものであり、筐体50の窓51の外側に固定されて、光学プレート30によって形成される空中像AMに隣接する検出空間DSへの指示物体つまり指先の進入動作を検出する。センシング装置40は、棒状の装置であり、筐体50の窓51の一辺に平行な軸αに沿って延びる。
 ここで、空中像AMは、光学プレート30を挟んで表示パネル20の反対側に鏡像対称に形成される。つまり、空中像AMは、光学プレート30に沿って延びる軸βに平行な対称軸の周りに表示パネル20を180°回転させた線対称な関係で配置されている。
 図3A及び3Bに示すように、センシング装置40は、筐体40a内に複数のレーザーダイオード(LD)41とフォトディテクターとして複数のフォトダイオード42とを軸αの方向に交互に並べるように配置した構造を有し、各レーザーダイオード41の正面にコリメーターレンズ43を配置したレンズアレイ45を備える。レーザーダイオード41及びレンズアレイ45は、指示物体である指先の位置を検出する検出光L1を発光する検出光発光部141として機能し、フォトダイオード42及びレンズアレイ45は、指示物体である指先の表面での検出光L1の反射光L2を検出することで指先が指示する位置を非接触で検出する指示位置検出部142として機能する。つまり、本実施形態のセンシング装置40において、検出光発光部141及び指示位置検出部142はセンシング装置40の同一筐体40a内に配置されている。これにより、検出光発光部141及び指示位置検出部142を別々に配置する場合に比べて装置を小型化することができる。なお、レーザーダイオード41は不可視光である赤外光を射出し、フォトダイオード42は不可視光である赤外光を検出する。検出光L1が不可視光であることにより、一般の照明や屋外等の外乱光が多く存在するような環境下でも、良好なS/N比で指示物体の位置を検出することができる。具体的には、指示位置検出部142において不可視光のみを検知することにより、外乱光の影響を最小限にしたまま指示物体での反射光L2を検知することができる。
 センシング装置40の動作の一例について簡単に説明すると、レーザーダイオード41からの検出光L1は、コリメーターレンズ43によってコリメートされて正面方向に射出され、図1Bに示す面状の検出空間DSを横方向から照明する。ここで、検出空間DSは、カーテン状又はシート状の照射領域であり、空中像AMに近接して平行に延びる。検出空間DSは、空中像AMを指先で指示したり空中像AMに沿って指先を移動させる行為を抽出するためのものとなっている。検出光発光部141を構成するレンズアレイ45は、レーザーダイオード41からの検出光L1が空中像AMの平面と平行な方向へは光が広がるが、空中像AMの平面と垂直な方向へはほとんど広がらないようにしている。検出光L1の照射領域又は検出空間DSの範囲を制限することで、常に空中像AM近傍に空中像AMの平面に沿うように薄いカーテン状に検出光L1を照射することができ、指示物体の進入を正確に検出することができる。検出光発光部141は、空中像AMと平行な平面(検出光L1が分布する検出空間DS)の延長上に配置されている。このように、本実施形態では、検出光発光部141の配置が簡易なものとなっている。図3Dに示すように、指示物体FGである指先が検出空間DSに進入した場合、センシング装置40の指示位置検出部142は、指示物体FGである指先からの戻り光である反射光L2を検出し、図3Cに示すように、指示物体FGである指先が検出空間DSから後退した場合、センシング装置40の指示位置検出部142は、反射光L2を検出しなくなる。この際、検出光発光部141を構成するレーザーダイオード41は、時間的に順次点灯して検出光L1を正面方向に射出し、指示位置検出部142を構成するフォトダイオード42は、レンズアレイ45を構成するコリメーターレンズ43によって斜め方向からの反射光L2を選択的に検出する。等間隔で配列された多数のフォトダイオード42と、一対のフォトダイオード42間に跨るように配置されたコリメーターレンズ43とによって、検出空間DS上に斜格子状又は網目状の検出点が形成されるので、反射光L2を同時に検出したフォトダイオード42の組み合わせから2次元的な検出空間DS上又は空中像AM上のどの位置に指示物体FGである指先が進入し移動したかを特定することができる。
 なお、センシング装置40は、図示を省略するが、検出光発光部141や指示位置検出部142を動作させる駆動回路を内蔵している。このような駆動回路の全部又は一部は、筐体50に組み込むこともできる。
 図1に戻って、筐体50中に表示パネル20ともに収納された表示回路61は、表示パネル20に表示動作を行わせるものであり、表示面21に2次元的な表示を行わせることで、表示面21上に空中像AMに対応する画像を形成させる。
 制御部90は、表示回路61を介して表示パネル20に表示動作を行わせるとともに、センシング装置40を適宜動作させて検出空間DS上又は空中像AM上のどの位置に指示物体FGである指先が進入したかを監視している。これにより、空中像AMが例えばキーボードである場合、この仮想的なキーボードを構成するどのキーが押されたかを判定することができ、非接触入力装置10を操作するユーザーの指示内容を受け取ることができる。制御部90は、非接触入力装置10に接続されたコンピューターその他の外部装置100と通信可能になっており、非接触入力装置10によって取得したユーザーからの指示内容を外部装置100に出力する。
 以上説明した第1実施形態の非接触入力装置10によれば、検出光発光部141が空中像AMと平行な平面に沿うように検出光L1を照射することにより、指示物体FGに向けて直接光が照射されることとなり、誤検知を低減させ、指示物体FGの位置を高精度に検出することができる。また、指示物体FGの位置検出において、カーテン状の照射領域を指示物体FGが通過するときの指示物体FG表面での反射光L2を検知するようにすることで、複雑な処理を必要とせず指示物体FGの位置を検出することができる。
〔第2実施形態〕
 以下、第2実施形態に係る非接触入力装置について説明する。なお、第2実施形態の非接触入力装置は第1実施形態の非接触入力装置を変形したものであり、特に説明しない事項は第1実施形態と同様である。
 図4に示すように、第2実施形態の非接触入力装置10は、センシング装置40として、異なる位置に配置される2つのセンシング装置40A,40Bを備える。具体的には、2つのセンシング装置40A,40Bは、2段重ねにして筐体50の表側の適所に固定されている。つまり、2つのセンシング装置40A,40Bは、空中像AMの延長面に対して垂直方向に配置されている。これにより、指示物体FGの位置を検出する検出領域又は検出空間DSを複数設けることができる。上側の第1センシング装置40Aと下側の第2センシング装置40Bとは、同じ構造を有しているが、位置の僅かな違いに起因して、共通の検出空間DS内での分担位置が異なるものとなっている。具体的には、第1センシング装置40Aは、ホバリング状態を検出するものであり、空中像AM又はX’Y’面に平行に伝搬する光DAによって検出空間DSの+Z’側で指示物体FGを検出し、第2センシング装置40Bは、タッチ状態を検出するものであり、空中像AM又はX’Y’面に平行に伝搬する光DBによって検出空間DSの-Z’側で指示物体FGを検出する。なお、第1及び第2センシング装置40A,40Bにおいて、それぞれに設けられる検出光発光部141は、両者の検出空間DSの干渉を防ぐため、タイミングをずらして発光させることが望ましい。
 図5Aから図5Bに示すように指示物体FGが移動することによって第1センシング装置40Aが指示物体FGを検出した場合、制御部90は、指示物体FGが空中像AMに所定以上近づいたホバリング状態であると判断する。また、図5Bから図5Cに示すように指示物体FGが移動することによって第2センシング装置40Bが指示物体FGを検出した場合、制御部90は、指示物体FGが空中像AMに接触したタッチ状態であると判断する。
 制御部90は、図5Bに示すホバリング状態となった場合、表示回路61を介して表示パネル20の表示面21に表示される画像を変化させることができる。具体的には、表示面21に表示される画像がキーボードである場合、指示物体FGである指先が近づくキーを明るく表示するといった処理が可能である。また、制御部90は、図5Cに示すタッチ状態となった場合も、表示回路61を介して表示パネル20の表示面21に表示される画像を変化させることができる。具体的には、表示面21に表示される画像がキーボードである場合、指示物体FGである指先が接触したキーを点滅させるといった処理が可能である。なお、表示パネル20の表示面21に表示される画像を変化させる手法は上記に限られるものではなく、様々な手法が可能である。例えば表示パネル20が立体的な表示を可能にするものである場合、指示物体FGである指先が接触したキーを窪ませるといった処理が可能である。
〔第3実施形態〕
 以下、第3実施形態に係る非接触入力装置について説明する。なお、第3実施形態の非接触入力装置は第1実施形態の非接触入力装置を変形したものであり、特に説明しない事項は第1実施形態と同様である。
 図6に示すように、第3実施形態の非接触入力装置10は、筐体50内での表示パネル20の設置位置を変化させる配置変更装置71を有する。制御部90は、配置変更装置71を介して表示パネル20の表示面21を所望の位置及び傾斜状態に調整する。これにより、表示パネル20を表示パネル20’の位置に変位させることができる。非接触入力装置10は、センシング装置40として、センシング装置本体140の姿勢等を変化させる配置変更部44を有する。制御部90は、配置変更装置71の動作と同期させて、センシング装置本体140を所望の傾斜状態に調整する。これにより、センシング装置本体140をセンシング装置本体140’の位置に変位させることができる。
 表示パネル20を元の位置から表示パネル20’の位置に変位させることで、空中像AMを元の位置から空中像AM’の位置に変位させることになる。これに対応させて、センシング装置本体140を元の位置からセンシング装置本体140’の位置に変位させることで、元の空中像AMに対応する検出空間DSを変化後の空中像AM’に対応する検出空間DS’に変化させることになる。この結果、空中像AMの位置を変化させることができるだけでなく、検出空間DSを変化後の空中像AM’に対応するものとできる。
 空中像AMの位置や傾きはユーザーの身長や入力する際の姿勢(立って入力するのか、座って入力するのか)によって最適値が変化する。本実施形態のように、検出光発光部141を空中像AMの位置の変化に応じて動かすことにより、常に空中像AMの平面に沿って光を照射することができる。
〔第4実施形態〕
 以下、第4実施形態に係る非接触入力装置について説明する。なお、第4実施形態の非接触入力装置は第1実施形態の非接触入力装置を変形したものであり、特に説明しない事項は第1実施形態と同様である。
 図7に示すように、第4実施形態の非接触入力装置10では、センシング装置440が検出光発光部141と指示位置検出部142とに分離され、別の位置に配置されている。検出光発光部141は、図3Aに示すセンシング装置40と類似する構造を有するが、フォトダイオード42が省略されている。これにより、検出光発光部141からの不可視光である検出光L1をカーテン状の照射領域である検出空間DSに投光することができる。また、指示位置検出部142は、検出空間DSからの反射光、つまり検出空間DSに形成される不可視光像を撮影可能なカメラであり、検出空間DSに進入した指示物体FGを検出することができる。
 本実施形態の非接触入力装置10では、検出光発光部141と指示位置検出部142とを別の位置に配置し、指示位置検出部142を撮像カメラとすることにより、検出光強度を強く設定することができる。また、反射光L2を2次元センサーを持つ撮像カメラで撮像することで、正確に2次元的な指示位置を把握することができる。
 以上では、具体的な実施形態としての非接触入力装置10について説明したが、本発明に係る非接触入力装置は、上記のものには限られない。例えば、第2実施形態において、センシング装置40を2つ配置したが、3つ以上配置してもよい。
 また、上記実施形態において、第1実施形態のセンシング装置40と第4実施形態のセンシング装置440とを組み合わせてもよい。また、センシング装置40,440は、目的に応じて光学系等の構成を適宜変更することができる。
 また、上記実施形態において、対象物OBとして表示パネル20を配置したが、キーボード等の物体そのものを配置してもよい。この場合、当該対象物OBに直接照明光を照射する必要がある。
 また、上記実施形態において、検出光発光部141又はセンシング装置40と空中像AMとの間にミラーを設けてもよい。これにより、検出光発光部141と空中像AMとの間の光路を折り曲げることができ、装置を小型にすることができる。
 また、上記実施形態において、検出光L1を不可視光としたが、表示パネル20で使用していない可視光を用いてもよい。
 また、上記実施形態において、検出光発光部141としてレーザーダイオード41を用いたが、例えばLED等の他の光源を用いてもよい。

Claims (9)

  1.  平面視で互いに直交する複数の反射面を有する光学プレートを備え、対象物からの光を前記複数の反射面で反射させて、前記光学プレートに対して前記光の入射側とは反対側の空中に導き、前記対象物に対応する空中像を前記空中に結像させる非接触入力装置であって、
     指示物体の位置を検出する検出光を発光する検出光発光部と、
     前記検出光を前記指示物体が遮る際に、前記指示物体の表面での検出光の反射光を検出することで前記指示物体が指示する位置を非接触で検出する指示位置検出部と、
    を備え、
     前記検出光発光部は、前記空中像と平行な平面に沿うように前記検出光を照射する、非接触入力装置。
  2.  前記検出光発光部は、前記検出光が前記空中像の平面と平行な方向へは光が広がるが、垂直な方向へは広がらないようにコリメートするコリメーターレンズを有する、請求項1に記載の非接触入力装置。
  3.  前記検出光発光部は、前記空中像と平行な平面の延長上に配置される、請求項1及び2のいずれか一項に記載の非接触入力装置。
  4.  前記検出光は、不可視光である、請求項1~3のいずれか一項に記載の非接触入力装置。
  5.  前記検出光発光部と前記指示位置検出部とは、同一筐体内に配置されるセンシング装置である、請求項1~4のいずれか一項に記載の非接触入力装置。
  6.  前記センシング装置は、異なる位置に2つ以上配置される、請求項5に記載の非接触入力装置。
  7.  前記センシング装置は、前記空中像に対して垂直方向に2つ以上配置される、請求項6に記載の非接触入力装置。
  8.  前記検出光発光部と前記指示位置検出部とは、別の位置に配置され、
     前記指示位置検出部は、前記反射光を撮影する撮像カメラである、請求項1~4のいずれか一項に記載の非接触入力装置。
  9.  前記検出光発光部は、前記空中像の位置の変化に応じて設置位置を変更する構造を有する、請求項1~8のいずれか一項に記載の非接触入力装置。
PCT/JP2018/019317 2017-05-26 2018-05-18 非接触入力装置 WO2018216619A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018549289A JP6721875B2 (ja) 2017-05-26 2018-05-18 非接触入力装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017104180 2017-05-26
JP2017-104180 2017-05-26

Publications (1)

Publication Number Publication Date
WO2018216619A1 true WO2018216619A1 (ja) 2018-11-29

Family

ID=64396435

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/019317 WO2018216619A1 (ja) 2017-05-26 2018-05-18 非接触入力装置

Country Status (2)

Country Link
JP (1) JP6721875B2 (ja)
WO (1) WO2018216619A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3719619A1 (en) * 2019-04-02 2020-10-07 Funai Electric Co., Ltd. Input device
WO2022080173A1 (ja) * 2020-10-12 2022-04-21 凸版印刷株式会社 空中表示装置
US11455062B2 (en) 2020-05-27 2022-09-27 Gtt Co., Ltd. Non-contact type touch panel system, method of controlling same, and non-contact type input device mountable on existing touch screen
US11733808B2 (en) 2012-10-14 2023-08-22 Neonode, Inc. Object detector based on reflected light
US11842014B2 (en) 2019-12-31 2023-12-12 Neonode Inc. Contactless touch input system
WO2024090130A1 (ja) * 2022-10-27 2024-05-02 Toppanホールディングス株式会社 空中表示装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348817A (ja) * 1993-06-01 1994-12-22 Fujita Corp 表示装置
WO2014196088A1 (ja) * 2013-06-07 2014-12-11 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置
JP2015158882A (ja) * 2014-02-25 2015-09-03 パナソニックIpマネジメント株式会社 情報表示装置
JP2016009396A (ja) * 2014-06-25 2016-01-18 船井電機株式会社 入力装置
WO2016170804A1 (ja) * 2015-04-21 2016-10-27 株式会社村田製作所 ユーザインタフェース装置及びユーザインタフェースシステム
JP2016201002A (ja) * 2015-04-10 2016-12-01 船井電機株式会社 位置検出装置及び空間入力装置
JP2017073128A (ja) * 2015-10-08 2017-04-13 船井電機株式会社 空間入力装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06348817A (ja) * 1993-06-01 1994-12-22 Fujita Corp 表示装置
WO2014196088A1 (ja) * 2013-06-07 2014-12-11 株式会社アスカネット 再生画像の指示位置を非接触で検知する方法及び装置
JP2015158882A (ja) * 2014-02-25 2015-09-03 パナソニックIpマネジメント株式会社 情報表示装置
JP2016009396A (ja) * 2014-06-25 2016-01-18 船井電機株式会社 入力装置
JP2016201002A (ja) * 2015-04-10 2016-12-01 船井電機株式会社 位置検出装置及び空間入力装置
WO2016170804A1 (ja) * 2015-04-21 2016-10-27 株式会社村田製作所 ユーザインタフェース装置及びユーザインタフェースシステム
JP2017073128A (ja) * 2015-10-08 2017-04-13 船井電機株式会社 空間入力装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11733808B2 (en) 2012-10-14 2023-08-22 Neonode, Inc. Object detector based on reflected light
EP3719619A1 (en) * 2019-04-02 2020-10-07 Funai Electric Co., Ltd. Input device
JP2020170302A (ja) * 2019-04-02 2020-10-15 船井電機株式会社 入力装置
US11194406B2 (en) 2019-04-02 2021-12-07 Funai Electric Co., Ltd. Non-contact input device
US11842014B2 (en) 2019-12-31 2023-12-12 Neonode Inc. Contactless touch input system
US11455062B2 (en) 2020-05-27 2022-09-27 Gtt Co., Ltd. Non-contact type touch panel system, method of controlling same, and non-contact type input device mountable on existing touch screen
WO2022080173A1 (ja) * 2020-10-12 2022-04-21 凸版印刷株式会社 空中表示装置
TWI792601B (zh) * 2020-10-12 2023-02-11 日商凸版印刷股份有限公司 空中顯示裝置
WO2024090130A1 (ja) * 2022-10-27 2024-05-02 Toppanホールディングス株式会社 空中表示装置

Also Published As

Publication number Publication date
JP6721875B2 (ja) 2020-07-15
JPWO2018216619A1 (ja) 2019-06-27

Similar Documents

Publication Publication Date Title
WO2018216619A1 (ja) 非接触入力装置
JP2010277122A (ja) 光学式位置検出装置
TWI571769B (zh) 非接觸輸入裝置及方法
WO2013035553A1 (ja) ユーザインタフェース表示装置
US8922526B2 (en) Touch detection apparatus and touch point detection method
KR20110022696A (ko) 터치면 상의 복수의 오브젝트의 위치 검출
KR20080044017A (ko) 터치 스크린
CN102792249A (zh) 使用光学部件在图像传感器上成像多个视场的触摸系统
JP2011070625A (ja) 光学式タッチ制御システム及びその方法
CN108762585A (zh) 非接触地检测再现图像的指示位置的方法及装置
JP2019074933A (ja) 非接触入力装置
JP2012173029A (ja) 光学式位置検出装置および入力機能付き表示システム
US9471180B2 (en) Optical touch panel system, optical apparatus and positioning method thereof
JP5493702B2 (ja) 位置検出機能付き投射型表示装置
JP5368731B2 (ja) タッチパネル
JP2019133284A (ja) 非接触式入力装置
CN102063228B (zh) 光学侦测系统及应用该光学侦测系统的触摸屏
WO2024079832A1 (ja) インタフェース装置
WO2003063069A2 (en) Touch screen
RU95142U1 (ru) Мультисенсорное дисплейное устройство
JP2012173138A (ja) 光学式位置検出装置
JP6315127B2 (ja) 入力装置、空中像インタラクションシステム、及び入力方法
JP2011096834A (ja) 光学式反射物体検出装置及びタッチパネル
US9189106B2 (en) Optical touch panel system and positioning method thereof
JP2011123584A (ja) 光学式位置検出装置および位置検出機能付き表示装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2018549289

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18805449

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18805449

Country of ref document: EP

Kind code of ref document: A1