WO2020012711A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2020012711A1
WO2020012711A1 PCT/JP2019/009777 JP2019009777W WO2020012711A1 WO 2020012711 A1 WO2020012711 A1 WO 2020012711A1 JP 2019009777 W JP2019009777 W JP 2019009777W WO 2020012711 A1 WO2020012711 A1 WO 2020012711A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
light
input device
user
guide plate
Prior art date
Application number
PCT/JP2019/009777
Other languages
English (en)
French (fr)
Inventor
篠原 正幸
靖宏 田上
智和 北村
裕都 森
Original Assignee
オムロン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to US17/253,644 priority Critical patent/US20210263612A1/en
Priority to DE112019003490.1T priority patent/DE112019003490T5/de
Priority to CN201980039113.3A priority patent/CN112262451B/zh
Publication of WO2020012711A1 publication Critical patent/WO2020012711A1/ja
Priority to US18/169,236 priority patent/US20230205369A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/0202Constructional details or processes of manufacture of the input device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/10Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings of the optical waveguide type
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup

Definitions

  • the present invention relates to an input device that forms an image in a space and detects an input by a user to the image.
  • Patent Document 1 discloses an apparatus that forms an image in a space and detects an object in the space. According to such an apparatus, a user can perform an input operation by virtually touching a button image displayed three-dimensionally in space in the air.
  • Patent Literature 1 since a sensor for detecting an input by a user is arranged on the light emission surface side of the light guide plate, it is necessary to install the sensor on the user side of the light guide plate. . Therefore, there is a problem that the space on the user side becomes more complicated than the light guide plate.
  • One object of one embodiment of the present invention is to realize an input device capable of simplifying a structure of a space on a user side than a light guide plate.
  • an input device guides light incident from a light source, emits the light from a light emission surface, and connects an image to be input by a user to a space.
  • a light guide plate to be imaged a sensor for detecting an object used by the user for the input operation, an input detection unit for detecting an input by the user based on a detection result of the object by the sensor, and the input detection unit
  • a notifying unit for notifying the user of the detection when an input by the user is detected, wherein the sensor is disposed in a space of the light guide plate opposite to the light exit surface.
  • the structure of the space on the user side can be simpler than that of the light guide plate.
  • FIG. 2 is a side view of the input device according to the first embodiment of the present invention. It is a block diagram of the above-mentioned input device. It is a perspective view of a three-dimensional image display part with which the input device is provided.
  • FIG. 3 is a diagram illustrating the input device before accepting a user input. It is a figure showing signs that a user's input in the above-mentioned input device is received.
  • FIG. 3 is a diagram illustrating a range in which a position detection sensor included in the input device detects an object.
  • FIG. 3 is a block diagram illustrating a main configuration of the input device when used as a switch.
  • FIG. 11 is a diagram illustrating a structure of an input device as a further modified example of the input device.
  • FIG. 11 is a diagram illustrating a configuration of an input device as a further modified example of the input device.
  • (A) And (b) is a figure which shows an example of the stereo image formed by the stereo image display part with which the said input device is provided.
  • FIG. 3 is a cross-sectional view illustrating a structure of a switch according to one embodiment of the present invention. It is a block diagram of an input device as a further modification of the above-mentioned input device.
  • FIG. 7 is a perspective view of a stereoscopic image display unit as a modification of the stereoscopic image display unit according to the first embodiment. It is sectional drawing which shows the structure of the said three-dimensional image display part.
  • FIG. 3 is a plan view illustrating a configuration of the stereoscopic image display unit.
  • FIG. 3 is a perspective view illustrating a configuration of an optical path changing unit provided in the stereoscopic image display unit. It is a perspective view showing arrangement of the above-mentioned optical path change part.
  • FIG. 4 is a perspective view illustrating a method of forming a stereoscopic image by the stereoscopic image display unit. It is a perspective view of a three-dimensional image display as a further modification of the three-dimensional image display in Embodiment 1. It is sectional drawing which shows the structure of the said three-dimensional image display part.
  • (A) and (b) are perspective views showing an example of a gaming machine to which the input device is applied.
  • FIG. 6 is a diagram illustrating a state in which a user input on the input device 1A is received.
  • the input device 1A is a device that is applied to an operation unit, a switch, or the like of a device and receives a user input to the device. As shown in FIG. 6, the input device 1A includes a stereoscopic image display unit 10 and a position detection sensor 2.
  • the three-dimensional image display unit 10 forms a three-dimensional image I, which is a target of a user's input operation, in space.
  • the stereoscopic image I has a trapezoidal frustum shape in which the height direction is the front-back direction (the direction perpendicular to the light guide plate 11), and has a shape imitating a switch.
  • the user moves the finger F in a direction perpendicular to the emission surface 11a of the light guide plate 11, toward the emission surface 11a, and moves the finger F to the front AF.
  • the position detection sensor 2 is configured to detect an object existing in a range A1 on the front AF side of the stereoscopic image I by a predetermined distance from the stereoscopic image I in a direction perpendicular to the emission surface 11a of the light guide plate 11. It has become.
  • the position detection sensor 2 is disposed in a space on the opposite side of the light guide plate 11 from the emission surface 11a.
  • the position detection sensor 2 is disposed on the side opposite to the emission surface 11a, the structure of the space on the user side with respect to the light guide plate 11 can be simplified.
  • FIG. 1 is a side view of the input device 1A according to the present embodiment.
  • FIG. 2 is a block diagram of the input device 1A.
  • the input device 1A includes a stereoscopic image display unit 10, a position detection sensor 2 (sensor), an audio output unit 3 (audio output device), and a control unit 30.
  • the + X direction is the forward direction
  • the -X direction is the backward direction
  • the + Y direction is the upward direction
  • the -Y direction is the downward direction
  • the + Z direction is the right direction
  • the -Z direction is the left direction in FIG. In some cases.
  • the three-dimensional image display unit 10 and the position detection sensor 2 are stored inside a casing (not shown). However, an emission surface 11a of the light guide plate 11 described below is exposed from the housing.
  • the three-dimensional image display unit 10 forms the three-dimensional image I visually recognized by the user in a space without a screen.
  • FIG. 3 is a perspective view of the three-dimensional image display unit 10.
  • the three-dimensional image display unit 10 displays, as an example of the three-dimensional image I, a three-dimensional image I having a button shape (a shape protruding in the + X-axis direction) on which a character “ON” is displayed. Is shown.
  • the stereoscopic image display unit 10 includes a light guide plate 11 and a light source 12.
  • the light guide plate 11 has a rectangular parallelepiped shape, and is formed of a resin material having transparency and a relatively high refractive index.
  • the material forming the light guide plate 11 may be, for example, a polycarbonate resin, a polymethyl methacrylate resin, glass, or the like.
  • the light guide plate 11 includes an emission surface 11a (light emission surface) from which light is emitted, a back surface 11b (opposite surface) opposite to the emission surface 11a, and end surfaces 11c, 11d, 11e which are four end surfaces. End face 11f.
  • the end surface 11c is an incident surface where the light projected from the light source 12 enters the light guide plate 11.
  • the end face 11d is a face opposite to the end face 11c.
  • the end face 11e is a face opposite to the end face 11f.
  • the light guide plate 11 guides the light from the light source 12 by spreading it on a surface parallel to the emission surface 11a.
  • the light source 12 is, for example, an LED (Light Emitting Diode) light source.
  • the light guide plate 11 is arranged such that the emission surface 11a is parallel to the vertical direction. Note that, in one embodiment of the present invention, the light guide plate 11 may be installed such that the emission surface 11a has a predetermined angle with respect to the vertical direction.
  • a plurality of optical path changing units including an optical path changing unit 13a, an optical path changing unit 13b, and an optical path changing unit 13c are formed on the back surface 11b of the light guide plate 11.
  • the optical path changing portion is formed substantially continuously in the Z-axis direction.
  • the plurality of optical path changing portions are formed along a predetermined line in a plane parallel to the emission surface 11a.
  • Light projected from the light source 12 and guided by the light guide plate 11 enters each position in the Z-axis direction of the optical path changing unit.
  • the light path changing unit substantially converges light incident on each position of the light path changing unit to a fixed point corresponding to each light path changing unit.
  • optical path changing unit 13a particularly shows an optical path changing unit 13a, an optical path changing unit 13b, and an optical path changing unit 13c as a part of the optical path changing unit, and each of the optical path changing unit 13a, the optical path changing unit 13b, and the optical path changing unit 13c.
  • 2 shows a state in which a plurality of lights emitted from each of the optical path changing unit 13a, the optical path changing unit 13b, and the optical path changing unit 13c converge.
  • the optical path changing unit 13a corresponds to the fixed point PA of the stereoscopic image I. Light from each position of the optical path changing unit 13a converges on the fixed point PA. Therefore, the wavefront of the light from the optical path changing unit 13a is a wavefront of light emitted from the fixed point PA.
  • the optical path changing unit 13b corresponds to a fixed point PB on the stereoscopic image I. Light from each position of the optical path changing unit 13b converges on the fixed point PB. As described above, light from each position of the arbitrary optical path changing unit 13 substantially converges to a fixed point corresponding to each optical path changing unit 13.
  • a wavefront of light such that light is emitted from a corresponding fixed point can be provided by an arbitrary optical path changing unit 13.
  • the fixed points corresponding to the respective optical path changing units 13 are different from each other, and the collection of a plurality of fixed points respectively corresponding to the optical path changing units 13 allows the user to set a space (more specifically, on the space from the light guide plate 11 to the emission surface 11a).
  • the stereoscopic image I recognized by is formed.
  • the optical path changing unit 13a, the optical path changing unit 13b, and the optical path changing unit 13c are formed along the lines La, Lb, and Lc, respectively.
  • the lines La, Lb, and Lc are straight lines that are substantially parallel to the Z-axis direction.
  • the optional optical path changing unit 13 is formed substantially continuously along a straight line parallel to the Z-axis direction.
  • the light guide plate 11 preferably has a haze value, which indicates the ratio of diffused light to total transmitted light, set by the user to a predetermined numerical value or less (for example, 28% or less). Thereby, the light emitted from the position detection sensor 2 does not diffuse, or even if it diffuses, the amount can be made small.
  • the optical path changing unit includes a reflection surface that reflects the light guided through the light guide plate 11 toward the emission surface 11a.
  • the surface density of the reflection surface with respect to the back surface 11b is preferably 30% or less. .
  • the position detection sensor 2 is a sensor that detects an object located in a space including the imaging position of the stereoscopic image I formed by the stereoscopic image display unit 10.
  • the position detection sensor 2 in the present embodiment is a limited reflection sensor.
  • the position detection sensor 2 includes a light emitting element (not shown) and a light receiving element (not shown).
  • the position detection sensor 2 detects an object located at a specific position by receiving, by the light receiving element, light emitted from the light emitting element and reflected regularly by the detected object.
  • the position detection sensor 2 outputs a detection result to an input detection unit 31 described later.
  • the position detection sensor 2 is located at the rear side ( ⁇ X axis direction side) of the three-dimensional image display unit 10 and at a position where the three-dimensional image I is formed in the vertical direction.
  • the position detection sensor 2 is arranged in a space on the opposite side of the light guide plate 11 from the emission surface 11a.
  • the position detection sensor 2 may detect an object using a sensor other than the limited reflection sensor.
  • a time-of-flight (TOF) sensor may be used as the position detection sensor 2.
  • a sensor combining an LED and a photodiode may be used.
  • the audio output unit 3 outputs an audio in response to an instruction from the notification control unit 33 described later.
  • the control unit 30 controls each unit of the input device 1A as a whole.
  • the control unit 30 includes an input detection unit 31, an image control unit 32 (notification unit), and a notification control unit 33 (notification unit), as shown in FIG.
  • the input detection unit 31 detects a user's input based on the detection result of the object by the position detection sensor 2. When detecting the user's input, the input detection unit 31 outputs the information to the image control unit 32 and the notification control unit 33.
  • the image controller 32 controls the stereoscopic image I displayed by the input device 1A. Specifically, the image control unit 32 switches the image displayed by the input device 1A when the input detection unit 31 acquires the information that the input of the user is detected. Details will be described later.
  • the notification control unit 33 controls the operation of the audio output unit 3. Specifically, the notification control unit 33 instructs the voice output unit 3 to output a voice when the input detection unit 31 acquires information that the user input has been detected.
  • FIG. 4 is a diagram showing the input device 1A before accepting a user input.
  • FIG. 5 is a diagram illustrating a state in which a user's input on the input device 1A is accepted.
  • the image control unit 32 controls the light source 12 of the stereoscopic image display unit 10 to be turned on in a state of waiting for an input by the user.
  • the stereoscopic image I is in an image-formed state.
  • the three-dimensional image display unit 10 has a trapezoidal frustum shape in which the height direction is the front-back direction (the direction perpendicular to the light guide plate 11) as the three-dimensional image I, and the shape imitates a switch.
  • the front surface AF the surface of the stereoscopic image I farthest from the light guide plate 11 (the surface corresponding to the upper surface of the trapezoidal frustum shape) is referred to as the front surface AF.
  • an image is formed such that the height direction of the trapezoidal frustum as the stereoscopic image I is perpendicular to the emission surface 11 a of the light guide plate 11. ing.
  • the user moves the finger F (object) in a direction perpendicular to the emission surface 11a of the light guide plate 11 and toward the emission surface 11a. Then, the finger F is moved to the front AF.
  • FIG. 6 is a diagram showing a range A1 in which the position detection sensor 2 detects an object.
  • the position detection sensor 2 in the present embodiment is located on the front AF side of the stereoscopic image I, and a predetermined distance ahead of the stereoscopic image I in a direction perpendicular to the emission surface 11 a of the light guide plate 11.
  • the object existing in the range A1 is detected.
  • the position detection sensor 2 is located in a region away from the position where the stereoscopic image I is formed in the direction in which the user performs the input operation by a predetermined distance in a direction opposite to the direction in which the input operation is performed.
  • the position of the finger F is detected.
  • the position detection sensor 2 can detect the user's finger F before the user's finger F reaches the stereoscopic image I. Then, the position detection sensor 2 outputs information indicating that the user's finger F has been detected to the input detection unit 31.
  • the input detection unit 31 acquires information indicating that the user's finger has been detected from the position detection sensor 2, the input detection unit 31 detects that the user has input to the input device 1A. When detecting an input by the user, the input detection unit 31 outputs the information to the image control unit 32 and the notification control unit 33.
  • the image control unit 32 turns off the light source 12 of the three-dimensional image display unit 10 when acquiring the information that detects the input of the user. As a result, the stereoscopic image I is not formed. In other words, the image control unit 32 changes the display state of the stereoscopic image I. Thereby, it is possible to notify the user that the input device 1A has accepted the operation on the input device 1A.
  • the information control unit 33 obtains information indicating that the user's finger has been detected from the position detection sensor 2, it issues an instruction to the audio output unit 3 to output audio.
  • the sound output unit 3 outputs a sound such as “input has been accepted”. Thereby, it is possible to notify the user that the input device 1A has accepted the operation on the input device 1A.
  • the position detection sensor 2 is disposed in the space on the opposite side of the light guide plate 11 from the emission surface 11a.
  • the position detection sensor 2 is disposed on the side opposite to the emission surface 11a, the structure of the space on the user side with respect to the light guide plate 11 can be simplified.
  • the light guide plate 11 has translucency. Therefore, the detection light emitted from the position detection sensor 2 for detecting the object easily passes through the light guide plate 11.
  • the position detection sensor detects the user's input by detecting that the user's finger is located at the position where the stereoscopic image is formed.
  • the user takes a long time to recognize that the input device has detected his / her input operation, and there is a problem that the user may be unsure whether the input device is correctly detecting the user's input. .
  • the position detection sensor 2 detects an object existing in the range A1 on the front side by a predetermined distance from the stereoscopic image I in a direction perpendicular to the emission surface 11a of the light guide plate 11. It is supposed to. Therefore, it is possible to notify the user that the input device 1A has received the user's input earlier than before. Thereby, it is possible to give the user a good operational feeling for the input device 1A.
  • a range that is a predetermined distance before the position where the stereoscopic image I is formed in the direction perpendicular to the emission surface 11a of the light guide plate 11 (B) The area where the stereoscopic image is formed (C) A range rearward by a predetermined distance from a position where the stereoscopic image I is formed in a direction perpendicular to the emission surface 11a of the light plate 11.
  • the distance between the front surface AF of the stereoscopic image I and the range A1 which is the area detected by the position detection sensor 2 in the front-rear direction is 5 to 35 cm. This makes it possible to more reliably give the user a feeling of operation.
  • the position detection sensor 2 detects an object existing in a range A1 on the front side by a predetermined distance from the stereoscopic image I in a direction perpendicular to the emission surface 11a of the light guide plate 11.
  • the input device of the present invention is not limited to this. That is, in one embodiment of the present invention, the position detection sensor 2 may form a stereoscopic image I at or near a position where an object used by the user for an input operation is detected.
  • the input device 1A includes, for example, an operation unit of a hot water flush toilet seat, an operation unit of an elevator, a lighting switch of a vanity, an operation switch of a faucet, an operation switch of a range hood, an operation switch of a dishwasher, an operation switch of a refrigerator, and a microwave oven. , An IH cooking heater operation switch, an electrolyzed water generation device operation switch, an intercom operation switch, a corridor lighting switch, or a compact stereo system operation switch.
  • the operation units or switches have no irregularities, so that they are easy to clean, and (ii) a stereoscopic image can be displayed only when necessary, thereby improving the design.
  • FIG. 7 is a block diagram showing a main configuration of the input device 1A when used as a switch.
  • a relay R may be incorporated in the input device 1A.
  • the input device 1A may function as a momentary type switch that is turned on while the position detection sensor 2 detects an object in the range A1.
  • the input device 1A displays a stereoscopic image indicating that the switch is on only while the position detection sensor 2 detects an object in the range A1.
  • the position detection sensor 2 detects an object in the range A1
  • the input device 1A turns on the switch. After that, the position detection sensor 2 stops detecting the object in the range A1.
  • the input device 1A may function as an alternate type switch that keeps the switch on until an object is detected.
  • the input device 1A is in a state where the switch is turned on from the time when the position detection sensor 2 detects an object in the range A1 to the time when the position detection sensor again detects the object in the range A1. Is displayed. That is, the input device 1A includes the relay R, and can be used as a switch by controlling the opening and closing of the relay R according to the detection state of the input of the user by the input detection unit 31.
  • FIGS. 8A and 8B are diagrams illustrating an example of the configuration of the input device 1Aa.
  • the input device 1Aa includes two stereoscopic image display units 10.
  • the stereoscopic image display unit 10A includes a light guide plate 11A and a light source 12A.
  • the stereoscopic image display unit 10B includes a light guide plate 11B and a light source 12B.
  • the stereoscopic image display unit 10A and the stereoscopic image display unit 10B form different stereoscopic images I1 and I2 in space by turning on the light sources 12A and 12B, respectively.
  • FIGS. 9A to 9E are diagrams for explaining the operation of the input device 1Aa.
  • the image controller 32 controls the light source 12A of the stereoscopic image display unit 10A to be turned on in a state of waiting for an input by the user.
  • the stereoscopic image I1 is formed by the stereoscopic image display unit 10A.
  • the switch is assumed to be off.
  • the user positions the finger F at a position where the stereoscopic image I1 is formed.
  • the input detection unit 31 detects a user input
  • the input device 1Aa switches the switch to an ON state.
  • the image control unit 32 turns off the light source 12A and turns on the light source 12B.
  • the stereoscopic image I2 is formed instead of the stereoscopic image I1.
  • the user positions the finger F at a position where the stereoscopic image I2 is formed.
  • the input detection unit 31 detects a user input
  • the input device 1Aa switches the switch to an off state.
  • the image control unit 32 turns off the light source 12B and turns on the light source 12A.
  • the stereoscopic image I1 is formed instead of the stereoscopic image I2.
  • the stereoscopic image I has a trapezoidal frustum shape in which the height direction is the front-back direction (the direction perpendicular to the light guide plate 11). In this configuration, the finger F is moved in a direction perpendicular to the emission surface 11a.
  • the input device of the present invention is not limited to this.
  • the stereoscopic image I has a trapezoidal frustum shape in which the height direction is a vertical direction (a direction parallel to the light guide plate 11).
  • the finger F may be moved in the vertical direction.
  • the height direction may be a trapezoidal frustum shape having an angle with respect to the vertical direction, and the user may move the finger F obliquely with respect to the emission surface 11 a of the light guide plate 11.
  • the detection position of the position detection sensor 2 is changed to a position away from the emission surface 11a of the light guide plate 11.
  • a chattering phenomenon which is a phenomenon in which the switch is repeatedly turned on and off in a very short time, occurs.
  • the detection position of the position detection sensor 2 is changed to a position away from the emission surface 11a of the light guide plate 11.
  • This configuration is particularly effective when the input device functions as the above-mentioned momentary type switch. That is, in the case of the momentary type switch, it is necessary to keep the finger F in the space while the user wants to keep the switch on. At this time, it is assumed that the position of the finger F becomes unstable. However, according to the above configuration, the occurrence of the chattering phenomenon can be suppressed.
  • the input device of one embodiment of the present invention may include a plurality of stereoscopic image display units 10 and a plurality of position detection sensors 2 corresponding to the plurality of stereoscopic image display units 10.
  • a user it is possible to provide an input device that supports a plurality of types of inputs by a user.
  • Such an input device can be suitably applied to, for example, an operation panel of a factory automation (FA), a home appliance, and the like.
  • FA factory automation
  • the stereoscopic image display unit 10 and the position detection sensor 2 are stored inside the housing, but the input device of the present invention is not limited to this.
  • the three-dimensional image display unit 10 and the position detection sensor 2 may not be stored in the same housing, and may have a structure separated from each other.
  • FIG. 10 is a diagram illustrating an example of the input device 1A according to the first embodiment.
  • the three-dimensional image display unit 10 and the position detection sensor 2 can be separated from each other at a section indicated by a dotted line in FIG.
  • the position detection sensor 2 is embedded in a wall or the like.
  • the size standards that can be embedded in the wall vary from country to country.
  • the size of the position detection sensor 2 may be set to a size conforming to the above standard, embedded in a wall, and then the three-dimensional image display unit 10 may be installed. it can.
  • the stereoscopic image display unit 10 can be installed in accordance with the detection position of the sensor. Further, the design of the stereoscopic image display unit 10 can be easily changed.
  • FIG. 11 is a perspective view showing the configuration of the light guide plate 11A. As shown in FIG. 11, an opening 15 is formed in the light guide plate 11A.
  • the opening 15 is an opening through which light for detecting an object by the position detection sensor 2 passes.
  • the contour of the stereoscopic image I and the outer peripheral portion of the opening 15 are the same or substantially the same.
  • the opening 15 is formed.
  • the opening 15 can be used as a reference surface.
  • the stereoscopic effect of the stereoscopic image I can be improved.
  • the design of the input device 1A can be improved.
  • FIG. 12 is a side view showing the configuration of the input device 1B.
  • the position where the position detection sensor 2 is arranged is different from the input device 1A in the first embodiment.
  • the position detection sensor 2 is located on the front side (+ X axis side) of the stereoscopic image display unit 10 and the input device 1A is viewed from the front side (from a direction perpendicular to the emission surface 11a). When installed, it is installed outside the light guide plate 11. Further, the position detection sensor 2 detects an object existing in a range A1 on the front side by a predetermined distance from the stereoscopic image I in a direction perpendicular to the emission surface 11a of the light guide plate 11.
  • the position detection sensor 2 is provided outside the light guide plate 11 when the input device 1A is viewed from the front side (from a direction perpendicular to the emission surface 11a). Thereby, even if the light guide plate 11 has transparency, it is possible to prevent the user from recognizing the position detection sensor 2 when viewing the stereoscopic image I.
  • FIG. 13 is a diagram showing the structure of the input device 1C. As shown in FIG. 13, the input device 1C includes a sheet 8 in addition to the configuration of the input device 1A in the first embodiment.
  • the sheet 8 is provided between the light guide plate 11 and the position detection sensor 2. On the front side of the sheet 8, for example, a design such as woodgrain is printed (formed). Further, as described above, the light guide plate 11 has a light transmitting property. According to the above configuration, when the user performs an input operation on the input device 1A, the user can see the design printed on the front surface of the sheet. Thereby, the design of the input device 1C can be improved.
  • the sheet 8 is formed with a slit 8a for passing the light emitted from the position detection sensor 2.
  • the slit 8a is preferably formed at an end of the sheet 8 so as not to be recognized by the user.
  • the sheet 8 may be paper on which the design is printed, or may be a plate on which the design is printed. Further, if the sheet 8 can transmit light emitted from the position detection sensor 2, there is no need to provide the slit 8a.
  • FIG. 14 is a diagram showing a configuration of the input device 1D.
  • the input device 1D includes a two-dimensional image display unit 20 in the configuration of the input device 1A in the first embodiment.
  • the two-dimensional image display unit 20 is provided between the light guide plate 11 and the position detection sensor 2.
  • the two-dimensional image display unit 20 is a display device that displays an image such as an LCD (liquid crystal display) or an OLED (organic light emitting diode).
  • the stereoscopic image display unit 10 can display a plurality of stereoscopic images I.
  • This configuration can be realized, for example, by providing the input device 1D with a plurality of light sources 12 corresponding to the plurality of stereoscopic images I, and forming optical path changing portions corresponding to the respective light sources 12 on the light guide plate 11. .
  • FIGS. 15A and 15B are diagrams illustrating an example of a stereoscopic image I formed by the stereoscopic image display unit 10 according to the present modification.
  • the three-dimensional image display unit 10 in this modification may form a three-dimensional image of a lattice-like design as shown in FIG. 15A, or a plurality of three-dimensional images as shown in FIG.
  • the button-shaped three-dimensional image may be formed.
  • the two-dimensional image display unit 20 displays an image at a position corresponding to each stereoscopic image.
  • the two-dimensional image display unit 20 displays, at a position corresponding to each stereoscopic image, a character to be subjected to an input operation on the stereoscopic image (for example, when the input device is used as an operation unit of an elevator, a destination Floor number). This allows the user to recognize which operation the user is trying to input.
  • the two-dimensional image display unit 20 can change the image to be displayed. As a result, the menu that is the target of the input operation by the user can be appropriately changed.
  • FIG. 16 is a cross-sectional view illustrating the structure of the switch 40 according to the present modification.
  • the switch 40 includes an input device 1E, a push-type switch 41, and a cover 42. Since a general switch can be applied as the push switch 41, the push switch 41 is simplified in FIG.
  • the push switch 41 includes a pressed member 41a.
  • the push-type switch 41 switches on and off when the pressed member 41a is pressed downward in FIG.
  • the input device 1E includes a light guide plate 16 instead of the light guide plate 11 of the input device 1A according to the first embodiment.
  • the light guide plate 16 has a U-shaped cross section perpendicular to the vertical direction in FIG.
  • the light source 12 is provided at the end of the light guide plate 16, and the light emitted from the light source 12 is guided while being reflected inside the light guide plate 16. Then, the guided light is changed in optical path by an optical path changing portion (not shown) formed on the facing surface 16b of the light guide plate 16 facing the emitting surface 16a, and is emitted from the emitting surface 16a to form a three-dimensional image I. Image.
  • the cover 42 is a cover for preventing a user's finger from contacting the light guide plate 16 and has a light transmitting property.
  • the switch 40 can detect a user operation by the following two methods. One is a method of detecting when the user's finger F is located at a position separated from the emission surface 16a of the light guide plate 16 by a predetermined distance as described in the first embodiment.
  • Another method is a method of detecting that the user has physically pressed the pressed member 41a of the pressing switch 41. In this case, the user presses the cover 42 downward, so that the cover 42 moves downward. Next, the light guide plate 16 moves downward by the cover 42 pressing the light guide plate 16 downward. The pressed member 41a of the push switch 41 is moved downward by the light guide plate 16 to detect a user operation.
  • the switch 40 has a function as a push button type switch and a function as a non-contact type switch.
  • FIG. 17 is a block diagram of an input device 1F according to the present modification.
  • the input device 1F includes an ultrasonic wave generator 6 (tactile stimulus device) instead of the audio output unit 3 in the first embodiment.
  • the ultrasonic generator 6 generates an ultrasonic wave in response to an instruction from the notification control unit 33.
  • the ultrasonic generator 6 includes an ultrasonic transducer array (not shown) in which a number of ultrasonic transducers are arranged in a grid.
  • the ultrasonic generator 6 generates an ultrasonic wave from the ultrasonic transducer array, and creates a focal point of the ultrasonic wave at an arbitrary position in the air.
  • a static pressure (called acoustic radiation pressure) is generated at the focal point of the ultrasonic wave.
  • a human body for example, a user's finger
  • a pressing force is applied to the object by the static pressure.
  • the ultrasonic generator 6 can remotely provide a stimulus to the tactile sensation of the user's finger.
  • the input control unit 33 when the notification control unit 33 acquires information indicating that the user's finger has been detected from the position detection sensor 2, the input control unit 33 instructs the ultrasonic generation device 6 to generate an ultrasonic wave. This allows the user to be notified that the input device 1F has accepted the user's input.
  • the stereoscopic image display unit 10 in the input device 1A can be replaced with a stereoscopic image display unit 60 described below.
  • FIG. 18 is a perspective view of the stereoscopic image display unit 60.
  • FIG. 19 is a cross-sectional view illustrating the configuration of the stereoscopic image display unit 60.
  • FIG. 20 is a plan view showing the configuration of the stereoscopic image display unit 60.
  • FIG. 21 is a perspective view showing the configuration of the optical path changing unit 63 provided in the stereoscopic image display unit 60.
  • the stereoscopic image display unit 60 includes a light guide plate 61 and a light source 62.
  • the light guide plate 61 is a member that guides light (incident light) incident from the light source 62.
  • the light guide plate 61 is formed of a transparent resin material having a relatively high refractive index.
  • a material for forming the light guide plate 61 for example, a polycarbonate resin, a polymethyl methacrylate resin, or the like can be used.
  • the light guide plate 61 is formed of polymethyl methacrylate resin.
  • the light guide plate 61 includes an emission surface 61a (light emission surface), a back surface 61b, and an incidence surface 61c.
  • the emission surface 61a is a surface that guides light inside the light guide plate 61 and emits light whose optical path has been changed by an optical path changing unit 63 described later.
  • the emission surface 61a forms the front surface of the light guide plate 61.
  • the back surface 61b is a surface parallel to the emission surface 61a and a surface on which an optical path changing unit 63 described later is arranged.
  • the incident surface 61c is a surface on which light emitted from the light source 62 enters the inside of the light guide plate 61.
  • Light emitted from the light source 62 and incident on the light guide plate 61 from the incident surface 61c is totally reflected by the emission surface 61a or the back surface 61b, and is guided inside the light guide plate 61.
  • the light path changing portion 63 is formed on the back surface 61b inside the light guide plate 61, and changes the light path of light guided inside the light guide plate 61 and emits the light from the emission surface 61a. It is a member.
  • a plurality of optical path changing parts 63 are provided on the back surface 61 b of the light guide plate 61.
  • the optical path changing unit 63 is provided along a direction parallel to the incident surface 61c, as shown in FIG. As shown in FIG. 21, the optical path changing unit 63 has a triangular pyramid shape, and includes a reflecting surface 63a that reflects (totally reflects) incident light.
  • the light path changing portion 63 may be, for example, a concave portion formed on the back surface 61 b of the light guide plate 61.
  • the optical path changing unit 63 is not limited to a triangular pyramid shape. As shown in FIG. 20, on the back surface 61b of the light guide plate 61, a plurality of optical path changing unit groups 64a, 64b, 64c...
  • FIG. 22 is a perspective view showing an arrangement of the optical path changing unit 63.
  • the reflecting surfaces 63a of the plurality of optical path changing units 63 are arranged on the back surface 61b of the light guide plate 61 such that the angles with respect to the light incident direction are different from each other. Have been.
  • each of the optical path changing unit groups 64a, 64b, 64c,... Changes the optical path of the incident light and emits the light from the emission surface 61a in various directions.
  • FIG. 23 is a perspective view showing a method of forming a stereoscopic image I by the stereoscopic image display unit 60.
  • description will be given of the case where a ring mark with oblique lines is formed as a stereoscopic image I on the stereoscopic image forming plane P.
  • the line image LI which is a part of the stereoscopic image I is formed on the stereoscopic image forming plane P.
  • the line image LI is a line image parallel to the YZ plane.
  • the light from the many light path changing units 63 belonging to the light path changing unit group 64a forms the line images LI of the lines La1 and La2.
  • the light that forms the images of the line La1 and the line La2 only needs to be provided by at least two optical path changing units 63 in the optical path changing unit group 64a.
  • each light path changing unit 63 of the light path changing unit group 64b intersects the stereoscopic image imaging plane P with lines Lb1, Lb2, and Lb3.
  • the line image LI which is a part of the stereoscopic image I is formed on the stereoscopic image forming plane P.
  • the positions of the line images LI formed by the optical path changing unit groups 64a, 64b, 64c,... In the X-axis direction are different from each other.
  • the distance between the optical path changing unit groups 64a, 64b, 64c,. The distance can be reduced.
  • the three-dimensional image display unit 60 substantially integrates a plurality of line images LI formed by the light beams whose light paths have been changed by the light path changing units 63 of the light path changing unit groups 64a, 64b, 64c.
  • the stereoscopic image I which is a plane image, is formed on the stereoscopic image plane P.
  • the stereoscopic image plane P may be a plane perpendicular to the X axis, a plane perpendicular to the Y axis, or a plane perpendicular to the Z axis. Further, the stereoscopic image imaging plane P may be a plane that is not perpendicular to the X axis, the Y axis, or the Z axis. Further, the stereoscopic image imaging plane P may be a curved surface instead of a plane. That is, the three-dimensional image display unit 60 can form the three-dimensional image I on an arbitrary surface (a flat surface and a curved surface) in space by the optical path changing unit 63. Further, by combining a plurality of plane images, a three-dimensional image can be formed.
  • the stereoscopic image display unit 10 in the input device 1A can be replaced with a stereoscopic image display unit 80 described below.
  • FIG. 24 is a perspective view of the three-dimensional image display unit 80.
  • FIG. 25 is a cross-sectional view illustrating the configuration of the stereoscopic image display unit 80.
  • the stereoscopic image display unit 80 includes an image display device 81, an imaging lens 82, a collimating lens 83, a light guide plate 84, and a mask 85.
  • the image display device 81, the imaging lens 82, the collimating lens 83, and the light guide plate 84 are sequentially arranged along the Y-axis direction. Further, the light guide plate 84 and the mask 85 are arranged in this order along the X-axis direction.
  • the image display device 81 displays a two-dimensional image projected in the air by the three-dimensional image display unit 80 on a display area according to a video signal received from a control device (not shown).
  • the image display device 81 is, for example, a general liquid crystal display that can output image light by displaying an image in a display area.
  • the display area of the image display device 81 and the incident surface 84a of the light guide plate 84 facing the display area are both arranged so as to be parallel to the XZ plane.
  • the back surface 84b of the light guide plate 84 on which the prism 141 described later is disposed, and the emission surface 84c (light emission surface) that emits light to the mask 85 and faces the back surface 84b are both YZ planes. They are arranged so as to be parallel. Further, a surface of the mask 85 on which a slit 151 described later is provided is also arranged so as to be parallel to the YZ plane.
  • the display area of the image display device 81 and the incident surface 84a of the light guide plate 84 may be arranged to face each other, or the display area of the image display device 81 may be arranged to be inclined with respect to the incident surface 84a. Good.
  • the imaging lens 82 is disposed between the image display device 81 and the incident surface 84a.
  • the imaging lens 82 converts the image light output from the display area of the image display device 81 into a convergent light on a YZ plane parallel to the longitudinal direction of the incident surface 84a, and then emits the image light to the collimator lens 83.
  • the imaging lens 82 may be any type as long as the image light can be converged.
  • the imaging lens 82 may be a bulk lens, a Fresnel lens, a diffractive lens, or the like. Further, the imaging lens 82 may be a combination of a plurality of lenses arranged along the Z-axis direction.
  • the collimator lens 83 is disposed between the image display device 81 and the incident surface 84a.
  • the collimator lens 83 converts the image light converged by the imaging lens 82 into parallel light on an XY plane orthogonal to the longitudinal direction of the incident surface 84a.
  • the collimator lens 83 emits the parallel image light to the incident surface 84a of the light guide plate 84.
  • the collimating lens 83 may be a bulk lens and a Fresnel lens, like the imaging lens 82. Note that the arrangement order of the imaging lens 82 and the collimating lens 83 may be reversed. Further, the functions of the imaging lens 82 and the collimating lens 83 may be realized by one lens, or may be realized by a combination of many lenses. That is, if the image light output from the display area by the image display device 81 can be converged on the YZ plane and parallelized on the XY plane, the combination of the imaging lens 82 and the collimating lens 83 ,
  • the light guide plate 84 is made of a transparent member, receives the image light collimated by the collimator lens 83 on the incident surface 84a, and emits the image light from the emission surface 84c.
  • the light guide plate 84 has a rectangular parallelepiped outer shape formed in a flat shape, and a surface facing the collimator lens 83 and parallel to the XZ plane is defined as an incident surface 84a.
  • a surface parallel to the YZ plane and on the negative side of the X axis is defined as a back surface 84b, and a surface parallel to the YZ plane and opposed to the back surface 84b is defined as an emission surface 84c.
  • the light guide plate 84 includes a plurality of prisms (emission structure unit, optical path changing unit) 141.
  • the plurality of prisms 141 reflect the image light incident from the incident surface 84a of the light guide plate 84.
  • the prism 141 is provided on the back surface 84b of the light guide plate 84 so as to protrude from the back surface 84b toward the emission surface 84c.
  • the plurality of prisms 141 are arranged at a predetermined interval (for example, 1 mm) in the Y-axis direction and have a predetermined width (for example, 1 mm) in the Y-axis direction. 10 ⁇ m).
  • the prism 141 includes a reflection surface 141a that is a surface of the optical surface of the prism 141 that is closer to the incident surface 84a with respect to the light guide direction (+ Y axis direction) of the image light.
  • the plurality of prisms 141 are provided on the back surface 84b in parallel with the Z axis.
  • the image light incident from the incident surface 84a propagating in the Y-axis direction is reflected by the reflecting surfaces 141a of the plurality of prisms 141 provided in parallel with the Z-axis orthogonal to the Y-axis.
  • Each of the plurality of prisms 141 directs image light emitted from a position different from each other in the X-axis direction orthogonal to the longitudinal direction of the incident surface 84 a in the display area of the image display device 81 toward the predetermined viewpoint 100.
  • the light is emitted from the emission surface 84c which is one surface. The details of the reflection surface 141a will be described later.
  • the mask 85 is made of a material that is opaque to visible light, and has a plurality of slits 151.
  • the mask 85 can transmit, using the plurality of slits 151, only the light that goes to the imaging point 101 on the plane 102 among the light emitted from the emission surface 84c of the light guide plate 84.
  • the plurality of slits 151 transmit only the light that goes to the imaging point 101 on the plane 102 among the light emitted from the emission surface 84c of the light guide plate 84.
  • the plurality of slits 151 are provided so as to be parallel to the Z axis.
  • Each slit 151 corresponds to one of the plurality of prisms 141.
  • the three-dimensional image display unit 80 forms an image of the image displayed on the image display device 81 on a virtual plane 102 outside the three-dimensional image display unit 80, and projects the image. Specifically, first, the image light emitted from the display area of the image display device 81 passes through the imaging lens 82 and the collimator lens 83, and then enters the incident surface 84a, which is the end surface of the light guide plate 84. Next, the image light incident on the light guide plate 84 propagates inside the light guide plate 84 and reaches the prism 141 provided on the back surface 84b of the light guide plate 84.
  • the image light that has reached the prism 141 is reflected in the positive direction of the X axis by the reflection surface 141a of the prism 141, and is emitted from the emission surface 84c of the light guide plate 84 that is arranged so as to be parallel to the YZ plane. . Then, of the image light emitted from the emission surface 84c, the image light that has passed through the slit 151 of the mask 85 forms an image at an imaging point 101 on the plane 102. That is, the image light emitted from each point in the display area of the image display device 81 is converted into convergent light in the YZ plane, converted into parallel light in the XY plane, and then projected onto the image forming point 101 on the plane 102.
  • the stereoscopic image display unit 80 can project the image output to the display area of the image display device 81 onto the plane 102.
  • the plane 102 is a virtual plane on which the projected image is formed, a screen or the like may be arranged to improve visibility.
  • an image is formed by image light transmitted through the slit 151 of the mask 85 among image light emitted from the emission surface 84c.
  • a configuration without the mask 85 and the slit 151 may be used as long as the image light can be imaged at the imaging point 101 on the virtual plane 102.
  • each prism 141 and the back surface 84b For example, by setting the angle between the reflecting surface of each prism 141 and the back surface 84b to be greater as the distance from the incident surface 84a increases, the image light is imaged at the image forming point 101 on the virtual plane 102. be able to. It is preferable that the angle is set so that even the prism 141 farthest from the incident surface 84a can totally reflect the light from the image display device 81.
  • the light emitted from a point at which the position in the X-axis direction on the display area of the image display device 81 is closer to the back surface 84b ( ⁇ X-axis direction side) and heading toward a predetermined viewpoint is more likely to be emitted.
  • the present invention is not limited to this, and it is only necessary that the position in the X-axis direction on the display area of the image display device 81 and the prism 141 correspond one-to-one.
  • the light reflected by the prism 141 farther from the incident surface 84a is directed toward the incident surface 84a, while light reflected by the prism 141 closer to the incident surface 84a is directed further away from the incident surface 84a. Therefore, even if the mask 85 is omitted, the light from the image display device 81 can be emitted toward a specific viewpoint.
  • the light emitted from the light guide plate 84 forms an image on a plane on which an image is projected in the Z-axis direction, and diffuses away from the plane. Therefore, parallax can be given in the Z-axis direction, and the projected image can be three-dimensionally observed by arranging the observer's eyes along the Z-axis direction.
  • each prism 141 and directed to the viewpoint since light reflected by each prism 141 and directed to the viewpoint is not blocked, the observer can move the viewpoint along the Y-axis direction even if the observer moves the viewpoint. An image displayed at 81 and projected in the air can be observed.
  • the angle formed between the light beam from each prism 141 toward the viewpoint and the reflection surface of each prism 141 changes along the position of the viewpoint in the Y-axis direction
  • the image display device 81 corresponding to the light beam is accordingly changed.
  • the position of the upper point also changes.
  • light from each point on the image display device 81 is also imaged to some extent in the Y-axis direction by each prism 141. Therefore, the observer can observe a three-dimensional image even if both eyes are arranged along the Y-axis direction.
  • the mask 85 since the mask 85 is not used, the amount of lossy light is reduced, so that the stereoscopic image display unit can project a brighter image into the air. Further, since the mask is not used, the three-dimensional image display unit allows the observer to visually recognize both the object (not shown) behind the light guide plate 84 and the projected image.
  • the stereoscopic image display unit 10 may form images for a plurality of viewpoints separately.
  • the three-dimensional image display unit may include a right-eye display pattern that forms a right-eye image and a left-eye display pattern that forms a left-eye image.
  • the three-dimensional image display unit 10 can form an image having a three-dimensional effect.
  • the stereoscopic image display unit 1 may separately form images for three or more viewpoints.
  • the stereoscopic image display unit 10 may emit light from an optical element using light emitted from an object serving as an original image of the stereoscopic image or the reference image, and may form a stereoscopic image or a reference image.
  • a display device that emits light from an optical element using light emitted from an object serving as an original image to form a stereoscopic image or a reference image for example, (1) mirror elements orthogonal to each other are optically coupled elements There are a display device using a two-surface reflector array structure arranged in a plurality of planes, and (2) a display device called a so-called Pepper's ghost using a half mirror.
  • FIGS. 26A and 26B are perspective views showing an example of a gaming machine to which the input device 1A is applied.
  • the illustration of the input device 1A is omitted.
  • the stereoscopic image I is connected by the input device 1A as at least one of a plurality of switches operated by the user. It may be imaged.
  • a stereoscopic image I as a switch to be operated by the user is formed so as to be superimposed on a screen on which an effect image for the user is displayed in the gaming machine M2.
  • the image may be formed by the apparatus 1A.
  • the input device 1 ⁇ / b> A may display the stereoscopic image I only when it is necessary for producing the stereoscopic image I.
  • An input device is a light guide plate that guides light incident from a light source, emits the light from a light emission surface, and forms an image to be subjected to an input operation of a user in a space, and A sensor that detects an object used for an input operation, an input detection unit that detects an input by a user based on a detection result of the object by the sensor, and when the input detection unit detects an input by a user, A notification unit that notifies the user of the detection, wherein the sensor is disposed in a space of the light guide plate opposite to the light emission surface.
  • the senor is arranged on the side opposite to the light exit surface of the light guide plate, it is possible to simplify the structure of the space on the user side as compared with the light guide plate.
  • the light guide plate has a light-transmitting configuration.
  • a configuration can be adopted in which the detection light emitted from the sensor for detecting an object is easily transmitted through the light guide plate.
  • a reflection surface that reflects light guided through the light guide plate toward the light emission surface is provided on a surface of the light guide plate that faces the light emission surface.
  • a plurality of optical path changing portions are formed, and a surface density of the reflection surface with respect to the facing surface is 30% or less.
  • the attenuation of the detection light by the light guide plate can be suppressed.
  • the input device includes a plurality of the light guide plates, and the plurality of the light guide plates form different images in a space, and the notification unit detects the input. In some cases, the image may be switched.
  • the light guide plate may be configured to form the image at or near a position where the sensor detects the object.
  • An input device is a light guide plate that guides light incident from a light source, emits the light from a light emission surface, and forms an image to be subjected to an input operation of a user in a space, and A sensor that detects an object used for an input operation, an input detection unit that detects an input by a user based on a detection result of the object by the sensor, and when the input detection unit detects an input by a user, A notification unit that notifies the user of the detection, wherein the light guide plate forms the image at or near a position where the sensor detects the object.
  • the input detection unit may be located in a direction opposite to a direction in which the input operation is performed, from a position where the image is formed in a direction in which the input operation is performed.
  • the input may be detected when the sensor detects that the object is located in a region separated by a predetermined distance.
  • the input of the user is detected before the object reaches the position where the image is formed. Therefore, it is possible to notify the user that the input device has received the user's input earlier than before. Thereby, it is possible to give the user a good operational feeling for the input device.
  • the notification unit may change a display state of the image when the input detection unit detects an input by a user.
  • the notification unit may further include a sound output device that outputs a sound when the input detection unit detects an input by a user.
  • the user can be notified by voice that the operation on the input device has been received by the input device.
  • the notification unit may further include a tactile stimulation device that remotely stimulates a tactile sense of a human body as the object.
  • the light guide plate has an opening through which light for allowing the sensor to detect the object is formed, and the image is perpendicular to the light exit surface.
  • the configuration may be such that the outline of the image and the outer peripheral portion of the opening have the same or substantially the same shape.
  • the opening when the user recognizes an image, the opening can be used as a reference surface. Thereby, the stereoscopic effect of the image can be improved. Further, the design of the input device can be improved.
  • a configuration may be employed in which a sheet on which a design corresponding to the image is formed is provided on a side of the light guide plate opposite to the light exit surface.
  • the user when the user performs an input operation on the input device, the user can see the design formed on the front surface of the sheet.
  • the design of the input device can be improved.
  • the input device further includes a two-dimensional image display unit that displays a two-dimensional image on a side opposite to the light emission surface, and the light guide plate forms a plurality of the images.
  • the two-dimensional image display unit may display the two-dimensional images corresponding to a plurality of the images.
  • the user can be made to recognize which operation the user is trying to input.
  • the two-dimensional image display unit may be configured to change a two-dimensional image to be displayed.
  • the menu that is the target of the input operation by the user can be appropriately changed.
  • the senor is configured to, when detecting the object, change a region where the object is detected to a region further away from the predetermined distance. Is also good.
  • the input device may further include a relay, and control the opening and closing of the relay according to a detection state of a user input by the input detection unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Switches Operated By Changes In Physical Conditions (AREA)
  • Push-Button Switches (AREA)

Abstract

導光板よりもユーザ側の空間の構造をシンプルにする。入力装置(1A)は、光源からの光を導光して出射面(11a)から出射させ、ユーザの入力動作の対象となる立体画像(I)を結像する導光板(11)と、ユーザが入力動作のために使用する指(F)を検出する位置検出センサ(2)と、ユーザによる入力を検知する入力検知部と、ユーザの入力を検知したことを報知する報知部とを備える。位置検出センサ(2)は、出射面(11a)とは反対側の空間に配置されている。

Description

入力装置
 本発明は、空間に画像を結像させるとともに、当該画像に対するユーザによる入力を検知する入力装置に関する。
 従来、導光板の光出射面から光を出射させて空間に像を形成するとともに、導光板の出射面側に位置する物体を検出する入力装置が知られている。例えば、特許文献1には、空間に像を結像させるとともに、空間において物体を検知する装置が開示されている。このような装置によれば、ユーザは、空間に立体的に表示されているボタン画像を空中で仮想的に触れることによって入力動作を行うことができる。
日本国特許公報「特開2014-67071号公報」
 しかしながら、特許文献1に開示された技術では、ユーザの入力を検知するためのセンサが導光板の光出射面側に配置されているため、導光板よりもユーザ側にセンサを設置する必要がある。よって、導光板よりもユーザ側の空間が煩雑になるという問題があった。
 本発明の一態様は、導光板よりもユーザ側の空間の構造をシンプルにすることが可能な入力装置を実現することを目的とする。
 上記の課題を解決するために、本発明の一態様に係る入力装置は、光源から入射した光を導光して光出射面から出射させ、ユーザの入力動作の対象となる画像を空間に結像させる導光板と、ユーザが前記入力動作のために使用する物体を検出するセンサと、前記センサによる前記物体の検出結果に基づいてユーザによる入力を検知する入力検知部と、前記入力検知部がユーザによる入力を検知したときに、検知したことをユーザに報知する報知部と、を備え、前記センサは、前記導光板の前記光出射面とは反対側の空間に配置されている。
 本発明の一態様によれば、導光板よりもユーザ側の空間の構造をシンプルにすることができる。
本発明の実施形態1に係る入力装置の側面図である。 上記入力装置のブロック図である。 上記入力装置が備える立体画像表示部の斜視図である。 ユーザの入力を受け付ける前の上記入力装置を示す図である。 上記入力装置におけるユーザの入力を受け付ける様子を示す図である。 上記入力装置が備える位置検出センサが物体を検知する範囲を示す図である。 スイッチとして用いる場合における上記入力装置の要部構成を示すブロック図である。 (a)および(b)は、上記入力装置がオルタネートタイプのスイッチとして機能する入力装置の構成の一例を示す図である。 (a)~(e)は、上記入力装置の動作を説明するための図である。 上記入力装置の一例を示す図である。 上記入力装置が備える導光板の変形例としての導光板の構成を示す斜視図である。 上記入力装置の変形例としての入力装置の構成を示す側面図である。 上記入力装置のさらなる変形例としての入力装置の構造を示す図である。 上記入力装置のさらなる変形例としての入力装置の構成を示す図である。 (a)および(b)は、上記入力装置が備える立体画像表示部によって結像される立体画像の一例を示す図である。 本発明の一態様に係るスイッチの構造を示す断面図である。 上記入力装置のさらなる変形例としての入力装置のブロック図である。 実施形態1における立体画像表示部の変形例としての立体画像表示部の斜視図である。 上記立体画像表示部の構成を示す断面図である。 上記立体画像表示部の構成を示す平面図である。 上記立体画像表示部が備える光路変更部の構成を示す斜視図である。 上記光路変更部の配列を示す斜視図である。 上記立体画像表示部による立体画像の結像方法を示す斜視図である。 実施形態1における立体画像表示部のさらなる変形例としての立体画像表示部の斜視図である。 上記立体画像表示部の構成を示す断面図である。 (a)および(b)は、上記入力装置が適用された遊技機の一例を示す斜視図である。
 〔実施形態1〕
 以下、本発明の一側面に係る実施の形態(以下、「本実施形態」とも表記する)を、図面に基づいて説明する。ただし、以下で説明する本実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。
 §1 適用例
 まず、図6を用いて、本発明が適用される場面の一例について説明する。図6は、入力装置1Aにおけるユーザの入力を受け付ける様子を示す図である。
 本発明の一態様の入力装置1Aは、機器の操作部やスイッチなどに適用され、当該機器に対するユーザの入力を受け付ける装置である。図6に示すように、入力装置1Aは、立体画像表示部10と、位置検出センサ2とを備えている。
 入力装置1Aでは、図6に示すように、立体画像表示部10が、ユーザの入力動作の対象となる立体画像Iを空間に結像させる。立体画像Iは、高さ方向が前後方向(導光板11に垂直な方向)となる台形錐台形状をしており、スイッチを模した形状となっている。ユーザは、入力装置1Aに対する入力動作として、導光板11の出射面11aに対して垂直方向であり、出射面11aに向かう向きに指Fを移動させ、前面AFまで指Fを移動させる。位置検出センサ2は、立体画像Iの前面AF側であって、導光板11の出射面11aに垂直な方向において立体画像Iよりも所定の距離だけ前側の範囲A1に存在する物体を検知するようになっている。
 図6に示すように、位置検出センサ2は、導光板11の出射面11aとは反対側の空間に配置されている。これにより、位置検出センサ2が出射面11aとは反対側に配置されているため、導光板11よりもユーザ側の空間の構造をシンプルにすることが可能となる。
 §2 構成例
 以下、本発明の入力装置の構成例を、図面を参照して説明する。図1は、本実施形態における入力装置1Aの側面図である。図2は、入力装置1Aのブロック図である。
 図1および図2に示すように、入力装置1Aは、立体画像表示部10と、位置検出センサ2(センサ)と、音声出力部3(音声出力装置)と、制御部30とを備えている。なお、以降では、説明の便宜上、図1における+X方向を前方向、-X方向を後方向、+Y方向を上方向、-Y方向を下方向、+Z方向を右方向、-Z方向を左方向として説明する場合がある。なお、本実施形態では、立体画像表示部10および位置検出センサ2は、図示しない筐体の内部に格納されている。ただし、後述する導光板11の出射面11aは、上記筐体から露出されている。
 立体画像表示部10は、ユーザにより視認される立体画像Iをスクリーンのない空間に結像する。
 図3は、立体画像表示部10の斜視図である。なお、図3では、説明の便宜上、立体画像表示部10が立体画像Iの一例として、「ON」の文字が表示されたボタン形状(+X軸方向に突出した形状)の立体画像Iを表示している様子を示している。図3に示すように、立体画像表示部10は、導光板11と、光源12とを備えている。
 導光板11は、直方体形状しており、透明性および比較的高い屈折率を有する樹脂材料で成形されている。導光板11を形成する材料は、例えばポリカーボネイト樹脂、ポリメチルメタクリレート樹脂、ガラスなどであってよい。導光板11は、光を出射する出射面11a(光出射面)と、出射面11aとは反対側の背面11b(対向面)と、四方の端面である、端面11c、端面11d、端面11eおよび端面11fとを備えている。端面11cは、光源12から投射された光が導光板11に入射する入射面である。端面11dは、端面11cとは反対側の面である。端面11eは、端面11fとは反対側の面である。導光板11は、光源12からの光を出射面11aに平行な面内で面上に広げて導く。光源12は、例えばLED(Light Emitting diode)光源である。本実施形態では、出射面11aが鉛直方向に平行になるように導光板11が配置されている。なお、本発明の一態様では、出射面11aが鉛直方向に対して所定の角度を有するように導光板11が設置されてもよい。
 導光板11の背面11bには、光路変更部13a、光路変更部13b、および光路変更部13cを含む複数の光路変更部が形成されている。光路変更部は、Z軸方向に実質的に連続して形成されている。換言すれば、複数の光路変更部は、出射面11aに平行な面内でそれぞれ予め定められた線に沿って形成されている。光路変更部のZ軸方向の各位置には、光源12から投射され導光板11によって導光されている光が入射する。光路変更部は、光路変更部の各位置に入射した光を、各光路変更部にそれぞれ対応する定点に実質的に収束させる。図3には、光路変更部の一部として、光路変更部13a、光路変更部13b、および光路変更部13cが特に示され、光路変更部13a、光路変更部13b、および光路変更部13cのそれぞれにおいて、光路変更部13a、光路変更部13b、および光路変更部13cのそれぞれから出射された複数の光が収束する様子が示されている。
 具体的には、光路変更部13aは、立体画像Iの定点PAに対応する。光路変更部13aの各位置からの光は、定点PAに収束する。したがって、光路変更部13aからの光の波面は、定点PAから発するような光の波面となる。光路変更部13bは、立体画像I上の定点PBに対応する。光路変更部13bの各位置からの光は、定点PBに収束する。このように、任意の光路変更部13の各位置からの光は、各光路変更部13に対応する定点に実質的に収束する。これにより、任意の光路変更部13によって、対応する定点から光が発するような光の波面を提供できる。各光路変更部13が対応する定点は互いに異なり、光路変更部13にそれぞれ対応する複数の定点の集まりによって、空間上(より詳細には、導光板11から出射面11a側の空間上)にユーザにより認識される立体画像Iが結像される。
 図3に示すように、光路変更部13a、光路変更部13b、および光路変更部13cは、線La、線Lbおよび線Lcに沿ってそれぞれ形成されている。ここで、線La、線Lbおよび線Lcは、Z軸方向に略平行な直線である。任意の光路変更部13は、Z軸方向に平行な直線に沿って実質的に連続的に形成される。
 なお、導光板11は、全透過光に対する拡散光の割合を表すヘイズ値が、ユーザが、所定の数値以下(例えば、28%以下)であることが好ましい。これにより、位置検出センサ2から照射される光が拡散しない、または、拡散してもわずかな量とすることができる。
 上記光路変更部は、導光板11を導光された光を出射面11aへ向けて反射する反射面を備えている。背面11bに対する上記反射面の面密度(換言すれば、出射面11aに垂直な方向から見たときにおける、背面11bの面積に対する上記反射面の面積の割合)は、30%以下であることが好ましい。これにより、背面11b側の空間に位置検出センサ2を設けても、導光板11を透過する検出光によって物体を検出することができる。
 位置検出センサ2は、立体画像表示部10によって結像される立体画像Iの結像位置を含む空間に位置する物体を検出するセンサである。本実施形態における位置検出センサ2は、限定反射センサである。位置検出センサ2は、発光素子(不図示)と受光素子(不図示)とを備えている。位置検出センサ2は、上記発光素子から照射され、検出物体により正反射された光を上記受光素子によって受光することにより、特定の位置に位置する物体を検出する。位置検出センサ2は、検出結果を後述する入力検知部31に出力する。
 位置検出センサ2は、立体画像表示部10の後側(-X軸方向側)であって、上下方向において立体画像Iが結像される位置に設置されている。位置検出センサ2は、導光板11の出射面11aとは反対側の空間に配置されている。
 なお、本発明の入力装置では、位置検出センサ2は、限定反射センサ以外のセンサを用いて物体を検出してもよい。本発明の一態様の入力装置では、位置検出センサ2として、TOF(time of flight)方式のセンサ、測距センサ、静電容量型センサ、位置センサ、またはジェスチャーセンサを用いてよいし、砲弾型LEDとフォトダイオードとを組み合わせたセンサを用いてもよい。
 音声出力部3は、後述する報知制御部33からの指示を受けて音声を出力する。
 制御部30は、入力装置1Aの各部を統括的に制御する。制御部30は、図2に示すように、入力検知部31と、画像制御部32(報知部)と、報知制御部33(報知部)とを備えている。
 入力検知部31は、位置検出センサ2による物体の検知結果に基づいて、ユーザの入力を検知する。入力検知部31は、ユーザの入力を検知した場合、その情報を画像制御部32および報知制御部33に出力する。
 画像制御部32は、入力装置1Aによって表示される立体画像Iを制御する。具体的には、画像制御部32は、入力検知部31がユーザの入力を検知した情報を取得した場合に、入力装置1Aによって表示される画像を切り替える。詳細については、後述する。
 報知制御部33は、音声出力部3の動作を制御する。具体的には、報知制御部33は、入力検知部31がユーザの入力を検知した情報を取得した場合に、音声出力部3に対して音声を出力するよう指示を出す。
 §3 動作例
 次に、入力装置1Aの動作例について図面を参照しながら説明する。図4は、ユーザの入力を受け付ける前の入力装置1Aを示す図である。図5は、入力装置1Aにおけるユーザの入力を受け付ける様子を示す図である。
 入力装置1Aでは、ユーザによる入力を待機している状態においては、画像制御部32が立体画像表示部10の光源12を点灯させるように制御する。これにより、図4に示すように、立体画像Iが結像された状態となっている。なお、本動作例では、立体画像表示部10が、立体画像Iとして、高さ方向が前後方向(導光板11に垂直な方向)となる台形錐台形状をしており、スイッチを模した形状となっている立体画像を結像する例について説明する。以降では、立体画像Iにおける導光板11から最も遠い面(台形錐台形状の上面にあたる面)を前面AFと呼称する。
 図4に示すように、ユーザによる入力を待機している状態においては、立体画像Iとしての台形錐台の高さ方向が導光板11の出射面11aに対して垂直になるように結像されている。この場合、図5に示すように、ユーザは、入力装置1Aに対する入力動作として、導光板11の出射面11aに対して垂直方向であり、出射面11aに向かう向きに指F(物体)を移動させ、前面AFまで指Fを移動させる。
 図6は、位置検出センサ2が物体を検知する範囲A1を示す図である。図6に示すように、本実施形態における位置検出センサ2は、立体画像Iの前面AF側であって、導光板11の出射面11aに垂直な方向において立体画像Iよりも所定の距離だけ前側の範囲A1に存在する物体を検知するようになっている。換言すれば、位置検出センサ2は、ユーザの入力動作が行われる方向において立体画像Iが結像されている位置よりも入力動作が行われる向きとは反対向きに所定の距離離れた領域に、指Fが位置したことを検知するようになっている。
 上記の構成によれば、位置検出センサ2は、ユーザの指Fが立体画像Iに到達する前に、ユーザの指Fを検知することができる。そして、位置検出センサ2は、ユーザの指Fを検知した旨の情報を入力検知部31に出力する。
 入力検知部31は、位置検出センサ2からユーザの指を検知した旨の情報を取得すると、入力装置1Aに対してユーザが入力したことを検知する。入力検知部31は、ユーザの入力を検知した場合、その情報を画像制御部32および報知制御部33へ出力する。
 画像制御部32は、ユーザの入力を検知した情報を取得した場合、立体画像表示部10の光源12を消灯させる。これにより、立体画像Iが結像されない状態となる。換言すれば、画像制御部32は、立体画像Iの表示状態を変化させる。これにより、入力装置1Aに対する操作を入力装置1Aが受け付けたことをユーザに対して報知することができる。
 また、報知制御部33は、位置検出センサ2からユーザの指を検知した旨の情報を取得すると、音声出力部3に対して音声を出力するよう指示を出す。音声出力部3は、例えば、「入力を受け付けました。」などの音声を出力する。これにより、入力装置1Aに対する操作を入力装置1Aが受け付けたことをユーザに対して報知することができる。
 以上のように、入力装置1Aでは、位置検出センサ2が、導光板11の出射面11aとは反対側の空間に配置されている。これにより、位置検出センサ2が出射面11aとは反対側に配置されているため、導光板11よりもユーザ側の空間の構造をシンプルにすることが可能となる。
 また、上述したように、導光板11が透光性を有している。そのため、位置検出センサ2から出射され物体を検出するための検出光が導光板11を透過しやすくなっている。
 また、従来では、位置検出センサが、立体画像が結像している位置にユーザの指が位置したことを検知することによりユーザの入力を検知する構成であった。そのため、ユーザは自分の入力動作を入力装置が検知したことを認識するまでの時間が長くなり、入力装置がユーザの入力を的確に検知しているのかが不安になってしまうという問題があった。
 これに対して、本実施形態における入力装置1Aでは、位置検出センサ2が導光板11の出射面11aに垂直な方向において立体画像Iよりも所定の距離だけ前側の範囲A1に存在する物体を検知するようになっている。このため、入力装置1Aがユーザの入力を受け付けたことを、従来よりも早くユーザに報知することができる。これにより、入力装置1Aに対する良好な操作感をユーザに与えることができる。
 なお、位置検出センサ2の検出位置を、以下の(A)~(C)としたときにおける入力装置1Aに対する操作感について、3人の被験者にアンケートを行った。
 (A)導光板11の出射面11aに垂直な方向において立体画像Iが結像されている位置よりも所定の距離だけ前側の範囲
 (B)立体画像が結像されている領域
 (C)導光板11の出射面11aに垂直な方向において立体画像Iが結像されている位置よりも所定の距離だけ後側の範囲。
 その結果、すべての被験者の回答が、(A)の場合に最も操作感を得られ、(C)の場合に最も操作感が得られないという回答であった。
 なお、立体画像Iの前面AFと、位置検出センサ2が検知する領域である範囲A1の前後方向の距離は、5~35cmであることが好ましい。これにより、ユーザに対してより確実に操作感を与えることができる。
 なお、本実施形態における入力装置1Aでは、位置検出センサ2が導光板11の出射面11aに垂直な方向において立体画像Iよりも所定の距離だけ前側の範囲A1に存在する物体を検出する態様であったが、本発明の入力装置は、これに限られない。すなわち、本発明の一態様では、位置検出センサ2が、ユーザが入力動作のために使用する物体を検出する位置またはその近傍に立体画像Iを結像させる態様であってもよい。
 入力装置1Aは、例えば、温水洗浄便座の操作部、エレベータの操作部、洗面化粧台の照明スイッチ、蛇口の操作スイッチ、レンジフードの操作スイッチ、食器洗い機の操作スイッチ、冷蔵庫の操作スイッチ、電子レンジの操作スイッチ、IHクッキングヒータの操作スイッチ、電解水生成装置の操作スイッチ、インターホンの操作スイッチ、廊下の照明スイッチ、またはコンパクトステレオシステムの操作スイッチなどに適用可能である。これらの操作部またはスイッチに入力装置1Aを適用することで、(i)操作部またはスイッチに凹凸がなくなるため掃除しやすい、(ii)必要時のみ立体画像を表示できるためデザイン性が向上する、(iii)スイッチに接触する必要がなくなるため衛生的である、(iv)可動部がなくなるため壊れにくくなる、といった利点が生じる。
 図7は、スイッチとして用いる場合における入力装置1Aの要部構成を示すブロック図である。図7に示すように、入力装置1Aをスイッチとして用いる場合には、入力装置1AにリレーRを組み込めばよい。入力装置1Aをスイッチとして用いる場合には、入力装置1Aは、位置検出センサ2が範囲A1に物体を検出している間はスイッチがオンの状態となるモーメンタリタイプのスイッチとして機能してもよい。この場合には、入力装置1Aは、位置検出センサ2が範囲A1に物体を検出している間のみスイッチがオンの状態となっていることを示す立体画像を表示する。また、入力装置1Aは、位置検出センサ2が範囲A1に物体を検出するとスイッチをオンの状態とし、その後、位置検出センサ2が範囲A1に物体を検出しなくなり、再び位置検出センサが範囲A1に物体を検出するまでスイッチをオンの状態とするオルタネートタイプのスイッチとして機能してもよい。この場合には、入力装置1Aは、位置検出センサ2が範囲A1に物体を検出してから、再び位置検出センサが範囲A1に物体を検出するまで間、スイッチがオンの状態となっていることを示す立体画像を表示する。すなわち、入力装置1Aは、リレーRを備え、入力検知部31によるユーザの入力の検知状態に応じて、リレーRの開閉を制御することにより、スイッチとして用いることができる。
 ここで、オルタネートタイプのスイッチとして機能する入力装置1Aaの構成例について説明する。図8の(a)および(b)は、入力装置1Aaの構成の一例を示す図である。図8の(a)および(b)に示すように、入力装置1Aaは、立体画像表示部10を2つ備えている。ここでは、それぞれの立体画像表示部10を区別するために、立体画像表示部10Aおよび立体画像表示部10Bと称する。図8の(a)および(b)に示すように、立体画像表示部10Aは、導光板11Aと、光源12Aとを備えている。また、立体画像表示部10Bは、導光板11Bと、光源12Bとを備えている。立体画像表示部10Aおよび立体画像表示部10Bは、光源12Aおよび光源12Bをそれぞれ点灯することにより、それぞれ異なる立体画像I1、I2を空間に結像する。
 図9の(a)~(e)は、入力装置1Aaの動作を説明するための図である。入力装置1Aaでは、ユーザによる入力を待機している状態においては、画像制御部32が立体画像表示部10Aの光源12Aを点灯させるように制御する。これにより、図9の(a)に示すように、立体画像表示部10Aにより立体画像I1が結像された状態となっている。このとき、上記スイッチは、オフの状態であるとする。
 次に、ユーザは、指Fを立体画像I1が結像されている位置に位置させる。そして、入力検知部31がユーザの入力を検知すると、入力装置1Aaは、スイッチをオンの状態に切り替える。また、このとき、画像制御部32は、光源12Aを消灯させるとともに、光源12Bを点灯させる。これにより、立体画像I1に代わって立体画像I2が結像される。
 次に、ユーザが指Fをスイッチから遠ざける。このとき、上記スイッチはオンのままであり、かつ、図9の(c)に示すように、立体画像I2が結像されたままの状態となる。
 次に、図9の(d)に示すように、ユーザが指Fを立体画像I2が結像されている位置に位置させる。
 そして、入力検知部31がユーザの入力を検知すると、入力装置1Aaは、スイッチをオフの状態に切り替える。また、このとき、画像制御部32は、光源12Bを消灯させるとともに、光源12Aを点灯させる。これにより、図9の(e)に示すように、立体画像I2に代わって立体画像I1が結像される。
 なお、本実施形態における入力装置1Aでは、立体画像Iが、高さ方向が前後方向(導光板11に垂直な方向)となる台形錐台形状であり、ユーザが導光板11の出射面11aに対して垂直方向であり、出射面11aに向かう向きに指Fを移動させる構成であった。しかしながら、本発明の入力装置はこれに限られない。本発明の一態様の入力装置では、立体画像Iが、高さ方向が上下方向(導光板11に平行な方向)となる台形錐台形状であり、ユーザが導光板11の出射面11aに対して上下方向に指Fを移動させる構成であってもよい。また、高さ方向が上下方向に対して角度を有する台形錐台形状であり、ユーザが導光板11の出射面11aに対して斜め方向に指Fを移動させる構成であってもよい。
 また、本発明の一態様の入力装置では、入力検知部31がユーザの入力を検知した場合に、位置検出センサ2の検出位置を導光板11の出射面11aから遠ざかる位置に変更する態様であってもよい。ここで、空間においてユーザの指Fを検知する場合、指Fの位置が不安定となってしまい、スイッチのオンとオフとがごく短時間で繰り返される現象であるチャタリング現象が発生してしまうことが考えられる。上記の構成によれば、入力検知部31がユーザの入力を検知した場合に、位置検出センサ2の検出位置を導光板11の出射面11aから遠ざかる位置に変更する。これにより、入力検知部31がユーザの入力を検知した後に、指Fの位置が不安定になったとしても、位置検出センサ2が指Fを検知している状態を保持することができる。その結果、チャタリング現象が起こることを防止することができる。
 当該構成は、特に、入力装置が上記のモーメンタリタイプのスイッチとして機能する場合に有効である。つまり、モーメンタリタイプのスイッチの場合、ユーザがスイッチをオンにしておきたい期間において指Fを空間に保持し続ける必要がある。このときに、指Fの位置が不安定になることが想定されるが、上記の構成によればチャタリング現象の発生を抑制することができる。
 また、本発明の一態様の入力装置では、複数の立体画像表示部10および複数の立体画像表示部10に対応する複数の位置検出センサ2を備える態様であってもよい。上記の構成によれば、ユーザの複数種類の入力に対応した入力装置とすることができる。このような入力装置は、例えば、FA(factory automation)の操作盤、家電などに好適に適用することができる。
 なお、本実施形態では、立体画像表示部10および位置検出センサ2が筐体の内部に格納されている態様であったが、本発明の入力装置はこれに限られない。本発明の一態様の入力装置では、立体画像表示部10と位置検出センサ2とが同一の筐体に格納されておらず、互いに分離した構造であってもよい。図10は、実施形態1における入力装置1Aの一例を示す図である。例えば、図10の点線で示す断面で、立体画像表示部10と位置検出センサ2と分離することができる。
 ここで、例えば、入力装置1Aを建物の照明のスイッチとして使用する場合、位置検出センサ2を壁などに埋め込む。しかし、壁に埋め込むことができるサイズの規格が国によって異なっている。立体画像表示部10と位置検出センサ2と互いに分離した構造である場合、位置検出センサ2のサイズを前記規格に合わせたサイズにして壁に埋め込み、その後、立体画像表示部10を設置することができる。これにより、センサの検出位置に合わせて立体画像表示部10を設置することができる。また、立体画像表示部10のデザインを変更しやすくなる。
 §4 変形例
 以上、本発明の実施の形態を詳細に説明してきたが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
 <4.1>
 次に、導光板11の変形例としての導光板11Aについて説明する。
 図11は、導光板11Aの構成を示す斜視図である。図11に示すように、導光板11Aには、開口部15が形成されている。
 開口部15は、位置検出センサ2によって物体を検出するための光を通過させる開口部である。本変形例における入力装置1Aでは、入力装置1Aを前側から(出射面11aに垂直な方向から)見たときに、立体画像Iの輪郭と、開口部15の外周部とが同一または略同一になるように、開口部15が形成されている。
 上記の構成によれば、ユーザが立体画像Iを認識する際に、開口部15を参照面とすることができる。これにより、立体画像Iの立体感を向上させることができる。また、入力装置1Aの意匠性を向上させることができる。
 <4.2>
 次に、入力装置1Aの変形例としての入力装置1Bについて説明する。
 図12は、入力装置1Bの構成を示す側面図である。図12に示すように入力装置1Bでは、位置検出センサ2が配置される位置が実施形態1における入力装置1Aと異なっている。具体的には、入力装置1Bでは、位置検出センサ2が、立体画像表示部10よりも前側(+X軸側)であって、入力装置1Aを前側から(出射面11aに垂直な方向から)見たときに導光板11の外側に設置されている。また、位置検出センサ2は、導光板11の出射面11aに垂直な方向において立体画像Iよりも所定の距離だけ前側の範囲A1に存在する物体を検知するようになっている。
 上記の構成によれば、実施形態1における入力装置1Aと同様に、入力装置1Aがユーザの入力を受け付けたことを、従来よりも早くユーザに報知することができる。これにより、入力装置1Aに対する良好な操作感をユーザに与えることができる。
 また、位置検出センサ2が、入力装置1Aを前側から(出射面11aに垂直な方向から)見たときに導光板11の外側に設置されている。これにより、導光板11が透明性を有していても、ユーザが立体画像Iを見るときに、ユーザが位置検出センサ2を認識しないようにすることができる。
 <4.3>
 次に、入力装置1Aのさらなる変形例としての入力装置1Cについて説明する。
 図13は、入力装置1Cの構造を示す図である。図13に示すように、入力装置1Cは、実施形態1における入力装置1Aの構成に加えてシート8を備えている。
 シート8は、導光板11と位置検出センサ2との間に設置されている。シート8は、シート8の前面側には、例えば、木目調などのデザインが印刷(形成)されている。また、上述したように、導光板11は透光性を有している。上記の構成によれば、ユーザが入力装置1Aに対して入力動作を行うときに、ユーザに対してシートの前面に印刷されたデザインを見せることができる。これにより、入力装置1Cのデザイン性を向上させることができる。
 また、シート8は、位置検出センサ2から出射される光を通過させるためのスリット8aが形成されている。スリット8aは、ユーザに認識されないように、シート8の端部に形成されていることが好ましい。
 なお、シート8は、上記デザインが印刷された紙であってもよいし、上記デザインが印刷された板であってもよい。また、シート8が位置検出センサ2から出射される光を透過させることができるのであれば、スリット8aを設ける必要はない。
 <4.4>
 次に、入力装置1Aのさらなる変形例としての入力装置1Dについて説明する。
 図14は、入力装置1Dの構成を示す図である。図14に示すように、入力装置1Dは、実施形態1における入力装置1Aの構成に2次元画像表示部20を備えている。
 2次元画像表示部20は、導光板11と位置検出センサ2との間に設置されている。2次元画像表示部20は、例えば、LCD(liquid crystal display)やOLED(organic light emitting diode)などの画像を表示する表示装置である。
 なお、入力装置1Dでは、立体画像表示部10が複数の立体画像Iを表示できるようになっている。当該構成は、例えば、入力装置1Dに複数の立体画像Iに対応する複数の光源12を備えさせ、それぞれの光源12に対応する光路変更部を導光板11に形成することにより実現することができる。
 図15の(a)および(b)は、本変形例における立体画像表示部10によって結像される立体画像Iの一例を示す図である。本変形例における立体画像表示部10は、図15の(a)に示すように、格子状のデザインの立体画像を結像してもよいし、図15の(b)に示すように、複数のボタン形状の立体画像を結像してもよい。
 本変形例における入力装置1Dでは、2次元画像表示部20が、各立体画像に対応する位置にそれぞれ画像を表示する。例えば、2次元画像表示部20は、各立体画像に対応する位置に、その立体画像に対する入力動作の対象となる文字(例えば、入力装置がエレベータの操作部として使用される場合には、行き先の階を示す数字など)を表示する。これにより、ユーザに対して、ユーザが入力しようとしている動作がどの動作であるのかを認識させることができる。
 さらに、2次元画像表示部20は、表示する画像を変更できるようになっている。これにより、ユーザによる入力動作の対象となるメニューを適宜変更することができるようになっている。
 <4.5>
 次に、本発明の入力装置と一般的な押圧型のスイッチ(押ボタン型スイッチ)とを組み合わせたスイッチについて説明する。
 図16は、本変形例におけるスイッチ40の構造を示す断面図である。図16に示すように、スイッチ40は、入力装置1Eと、押圧型スイッチ41、カバー42とを備えている。なお、押圧型スイッチ41として一般的なスイッチを適用することができるため、図16においては、押圧型スイッチ41を簡素化して図示している。
 押圧型スイッチ41は、被押圧部材41aを備えている。押圧型スイッチ41は、被押圧部材41aが図16における下方向に押圧されることによりスイッチのオン/オフが切り替わるようになっている。
 入力装置1Eは、実施形態1における入力装置1Aの導光板11に代えて導光板16を備えている。導光板16は、図16における上下方向に垂直な断面がU字状となっている。入力装置1Eでは、光源12が導光板16の端部に設置されており、光源12から出射された光が導光板16の内部を反射されながら導光される。そして、導光された光が、導光板16の出射面16aに対向する対向面16bに形成された光路変更部(不図示)によって光路変更され、出射面16aから出射し、立体画像Iを結像する。
 カバー42は、ユーザの指が導光板16に接触することを防ぐためのカバーであり、透光性を有している。
 スイッチ40では、ユーザの操作を以下の2つの方法により検知することができる。1つは、実施形態1にて説明したように、導光板16の出射面16aから所定の距離離れた位置にユーザの指Fが位置したときに検知する方法である。
 もう1つの方法は、ユーザが押圧型スイッチ41の被押圧部材41aを物理的に押しこんだことを検知する方法である。この場合、ユーザは、カバー42を下方向に押圧することにより、カバー42が下方向に移動する。次に、カバー42が導光板16を下方向に押圧することにより、導光板16が下方向に移動する。そして、導光板16により押圧型スイッチ41の被押圧部材41aが下方向に移動することにより、ユーザの操作を検知する。
 以上のように、スイッチ40は、押ボタン型のスイッチとしての機能と、非接触式のスイッチとしての機能とを有する。
 <4.6>
 次に、入力装置1Aのさらなる変形例としての入力装置1Fについて説明する。図17は、本変形例における入力装置1Fのブロック図である。
 図17に示すように、入力装置1Fは、実施形態1における音声出力部3に代えて超音波発生装置6(触覚刺激装置)を備えている。
 超音波発生装置6は、報知制御部33からの指示を受けて超音波を発生させる。超音波発生装置6は、多数の超音波振動子を格子状に並べた超音波振動子アレー(不図示)を備えている。超音波発生装置6は、上記超音波振動子アレーから超音波を発生させ、空中の任意の位置に超音波の焦点を作り出す。上記超音波の焦点では、静的な圧力(音響放射圧と呼ばれる)が発生する。上記超音波の焦点位置に人体(例えば、ユーザの指)が存在すると、上記静的な圧力によって物体に対して押圧力が印加される。これにより、超音波発生装置6は、ユーザの指の触覚に対して遠隔で刺激を与えることができる。
 入力装置1Fでは、報知制御部33が位置検出センサ2からユーザの指を検知した旨の情報を取得すると、超音波発生装置6に対して超音波を発生するよう指示を出す。これにより、ユーザに対して入力装置1Fがユーザの入力を受け付けたことを報知することができる。
 <4.7>
 入力装置1Aにおける立体画像表示部10は、以下に説明する立体画像表示部60と置き換えることができる。
 図18は、立体画像表示部60の斜視図である。図19は、立体画像表示部60の構成を示す断面図である。図20は、立体画像表示部60の構成を示す平面図である。図21は、立体画像表示部60が備える光路変更部63の構成を示す斜視図である。
 図18および図19に示すように、立体画像表示部60は、導光板61と、光源62を備えている。
 導光板61は、光源62から入射された光(入射光)を導光する部材である。導光板61は、透明で屈折率が比較的高い樹脂材料で成形される。導光板61を形成する材料としては、例えばポリカーボネイト樹脂、ポリメチルメタクリレート樹脂などを使用することができる。本変形例では、導光板61は、ポリメチルメタクリレート樹脂によって成形されている。導光板61は、図19に示すように、出射面61a(光出射面)と、背面61bと、入射面61cとを備えている。
 出射面61aは、導光板61の内部を導光され、後述する光路変更部63により光路変更された光を出射する面である。出射面61aは、導光板61の前面を構成している。背面61bは、出射面61aと互いに平行な面であり、後述する光路変更部63が配置される面である。入射面61cは、光源62から出射された光が導光板61の内部に入射される面である。
 光源62から出射され入射面61cから導光板61に入射した光は、出射面61aまたは背面61bで全反射され、導光板61内を導光される。
 図19に示すように、光路変更部63は、導光板61の内部において背面61bに形成されており、導光板61内を導光された光を光路変更して出射面61aから出射させるための部材である。光路変更部63は、導光板61の背面61bに複数設けられている。
 光路変更部63は、図20に示すように、入射面61cに平行な方向に沿って設けられている。図21に示すように、光路変更部63は、三角錐形状となっており、入射した光を反射(全反射)する反射面63aを備えている。光路変更部63は、例えば、導光板61の背面61bに形成された凹部であってもよい。なお、光路変更部63は、三角錐形状に限られるものではない。導光板61の背面61bには、図20に示すように、複数の光路変更部63からなる複数の光路変更部群64a、64b、64c…が形成されている。
 図22は、光路変更部63の配列を示す斜視図である。図22に示すように、各光路変更部群64a、64b、64c…では、複数の光路変更部63の反射面63aが光の入射方向に対する角度が互いに異なるように導光板61の背面61bに配置されている。これにより、各光路変更部群64a、64b、64c…は、入射光を光路変更して、出射面61aから様々な方向へ出射させる。
 次に、立体画像表示部60による立体画像Iの結像方法について、図23を参照しながら説明する。ここでは、導光板61の出射面61aに垂直な面である立体画像結像面Pに、光路変更部63により光路変更された光によって面画像としての立体画像Iを結像する場合について説明する。
 図23は、立体画像表示部60による立体画像Iの結像方法を示す斜視図である。なお、ここでは、立体画像結像面Pに立体画像Iとして斜め線入りリングマークを結像することについて説明する。
 立体画像表示部60では、図23に示すように、例えば、光路変更部群64aの各光路変更部63によって光路変更された光は、立体画像結像面Pに線La1および線La2で交差する。これにより、立体画像結像面Pに立体画像Iの一部である線画像LIを結像させる。線画像LIは、YZ平面に平行な線画像である。このように、光路変更部群64aに属する多数の光路変更部63からの光によって、線La1および線La2の線画像LIが結像される。なお、線La1および線La2の像を結像する光は、光路変更部群64aにおける少なくとも2つの光路変更部63によって提供されていればよい。
 同様に、光路変更部群64bの各光路変更部63によって光路変更された光は、立体画像結像面Pに線Lb1、線Lb2および線Lb3で交差する。これにより、立体画像結像面Pに立体画像Iの一部である線画像LIを結像させる。
 また、光路変更部群64cの各光路変更部63によって光路変更された光は、立体画像結像面Pに線Lc1および線Lc2で交差する。これにより、立体画像結像面Pに立体画像Iの一部である線画像LIを結像させる。
 各光路変更部群64a、64b、64c…によって結像される線画像LIのX軸方向の位置は互いに異なっている。立体画像表示部60では、光路変更部群64a、64b、64c…間の距離を小さくすることによって、各光路変更部群64a、64b、64c…によって結像される線画像LIのX軸方向の距離を小さくすることができる。その結果、立体画像表示部60では、光路変更部群64a、64b、64c…の各光路変更部63によって光路変更された光によって結像された複数の線画像LIを集積することにより、実質的に、面画像である立体画像Iを立体画像結像面Pに結像する。
 なお、立体画像結像面Pは、X軸に垂直な平面であってもよく、Y軸に垂直な平面であってもよく、またZ軸に垂直な平面であってもよい。また、立体画像結像面Pは、X軸、Y軸、またはZ軸に垂直でない平面であってもよい。さらに、立体画像結像面Pは、平面ではなく曲面であってもよい。すなわち、立体画像表示部60は、光路変更部63によって空間上の任意の面(平面および曲面)上に立体画像Iを結像させることができる。また、面画像を複数組み合わせることにより、3次元の画像を結像することができる。
 <4.8>
 入力装置1Aにおける立体画像表示部10は、以下に説明する立体画像表示部80と置き換えることができる。
 図24は、立体画像表示部80の斜視図である。図25は、立体画像表示部80の構成を示す断面図である。
 立体画像表示部80は、図24および図25に示すように、画像表示装置81と、結像レンズ82と、コリメートレンズ83と、導光板84と、マスク85とを備えている。なお、Y軸方向に沿って、画像表示装置81、結像レンズ82、コリメートレンズ83、および導光板84が順番に配置されている。また、X軸方向に沿って、導光板84およびマスク85が、この順番で配置されている。
 画像表示装置81は、制御装置(不図示)から受信した映像信号に応じて、立体画像表示部80により空中に投影される2次元画像を表示領域に表示する。画像表示装置81は、表示領域に画像を表示することによって、画像光を出力することができる、例えば一般的な液晶ディスプレイである。なお、図示の例において、画像表示装置81の表示領域、および当該表示領域に対向する、導光板84の入射面84aは、ともにXZ平面と平行となるように配置されている。また、導光板84の、後述するプリズム141が配置されている背面84b、および当該背面84bに対向する、マスク85に対して光を出射する出射面84c(光出射面)は、ともにYZ平面と平行となるように配置されている。さらに、マスク85の、後述するスリット151が設けられている面も、YZ平面と平行になるように配置されている。なお、画像表示装置81の表示領域と導光板84の入射面84aとは、対向して配置されてもよいし、画像表示装置81の表示領域が入射面84aに対して傾けて配置されてもよい。
 結像レンズ82は、画像表示装置81と入射面84aとの間に配置されている。結像レンズ82は、画像表示装置81の表示領域から出力された画像光を、入射面84aの長手方向と平行なYZ平面において収束光化した後、コリメートレンズ83へ出射する。結像レンズ82は、画像光を収束光化できるのであれば、どのようなものであってもよい。例えば、結像レンズ82は、バルクレンズ、フレネルレンズ、または回折レンズなどであってもよい。また、結像レンズ82は、Z軸方向に沿って配置された複数のレンズの組み合わせであってもよい。
 コリメートレンズ83は、画像表示装置81と入射面84aとの間に配置されている。コリメートレンズ83は、結像レンズ82にて収束光化された画像光を、入射面84aの長手方向と直交するXY平面において平行光化する。コリメートレンズ83は、平行光化した画像光について、導光板84の入射面84aに対して出射する。コリメートレンズ83は、結像レンズ82と同様に、バルクレンズおよびフレネルレンズであってもよい。なお、結像レンズ82とコリメートレンズ83とは、その配置順が逆であってもよい。また、結像レンズ82とコリメートレンズ83の機能について、1つのレンズによって実現してもよいし、多数のレンズの組み合わせによって実現してもよい。すなわち、画像表示装置81が表示領域から出力した画像光を、YZ平面においては収束光化し、XY平面においては平行光化することができるのであれば、結像レンズ82およびコリメートレンズ83の組み合わせは、どのようなものであってもよい。
 導光板84は、透明な部材によって構成されており、コリメートレンズ83によって平行光化された画像光を入射面84aにて受光し、出射面84cから出射する。図示の例において、導光板84は平板状に形成された直方体の外形を備えており、コリメートレンズ83に対向する、XZ平面と平行な面を入射面84aとする。また、YZ平面と平行かつX軸の負方向側に存在する面を背面84bとし、YZ平面と平行かつ背面84bに対向する面を出射面84cとする。導光板84は、複数のプリズム(出射構造部、光路変更部)141を備えている。
 複数のプリズム141は、導光板84の入射面84aから入射した画像光を反射する。プリズム141は、導光板84の背面84bに、背面84bから出射面84cへ向けて突出して設けられている。複数のプリズム141は、例えば、画像光の伝搬方向がY軸方向であるときに、当該Y軸方向に所定の間隔(例えば、1mm)で配置された、Y軸方向に所定の幅(例えば、10μm)を有する略三角形状の溝である。プリズム141は、プリズム141が有する光学面のうち、画像光の導光方向(+Y軸方向)に対して入射面84aから近い側の面である反射面141aを備えている。図示の例において、複数のプリズム141は、背面84b上に、Z軸と平行に設けられている。これにより、Y軸方向に伝搬する入射面84aから入射した画像光が、Y軸に直交するZ軸と平行に設けられた複数のプリズム141の反射面141aによって反射させられる。複数のプリズム141のそれぞれは、画像表示装置81の表示領域で入射面84aの長手方向と直交するX軸方向において互いに異なる位置から発した画像光を、所定の視点100へ向けて導光板84の一方の面である出射面84cから出射させる。反射面141aの詳細については後述する。
 マスク85は、可視光に対して不透明な材料にて構成され、複数のスリット151を備えている。マスク85は、導光板84の出射面84cから出射された光のうち、平面102上の結像点101へ向かう光のみを、複数のスリット151を用いて透過させることができる。
 複数のスリット151は、導光板84の出射面84cから出射された光のうち、平面102上の結像点101へ向かう光のみを透過させる。図示の例において、複数のスリット151は、Z軸と平行となるように設けられている。また、個々のスリット151は、複数のプリズム141のうち、いずれかのプリズム141と対応している。
 以上の構成を有することにより、立体画像表示部80は、画像表示装置81に表示された画像を、当該立体画像表示部80の外部の仮想の平面102上に結像させ、投影する。具体的には、まず、画像表示装置81の表示領域から出射された画像光は、結像レンズ82およびコリメートレンズ83を通した後、導光板84の端面である、入射面84aへ入射する。次に、導光板84へ入射した画像光は、当該導光板84の内部を伝搬し、導光板84の背面84bに設けられたプリズム141に到達する。プリズム141に到達した画像光は、当該プリズム141の反射面141aによってX軸の正方向へ反射させられ、YZ平面と平行となるように配置された、導光板84の出射面84cから出射される。そして、出射面84cから出射した画像光のうち、マスク85のスリット151を通過した画像光は、平面102上の結像点101にて結像する。すなわち、画像表示装置81の表示領域の個々の点から発した画像光について、YZ平面においては収束光化し、XY平面においては平行光化した後、平面102上の結像点101に投影することができる。表示領域の全ての点に対して前記の処理を行うことにより、立体画像表示部80は、画像表示装置81の表示領域に出力された画像を、平面102上に投影することができる。これにより、ユーザは、視点100から仮想の平面102を見たときに、空中に投影された画像を視認することができる。なお、平面102は、投影された画像が結像する仮想的な平面であるが、視認性を向上させるためにスクリーンなどを配置してもよい。
 なお、本実施形態における立体画像表示部80では、出射面84cから出射した画像光のうち、マスク85が備えるスリット151を透過した画像光によって画像を結像する構成であった。しかしながら、仮想の平面102上の結像点101にて画像光を結像させることができるのであれば、マスク85およびスリット151を備えない構成であってもよい。
 例えば、各プリズム141の反射面と背面84bとのなす角度が、入射面84aから遠くなるほど大きくなるように設定することによって、仮想の平面102上の結像点101にて画像光を結像させることができる。なお、上記角度は、入射面84aから最も遠いプリズム141でも、画像表示装置81からの光を全反射できる角度となるように設定されることが好ましい。
 上記のように上記角度を設定した場合、画像表示装置81の表示領域上のX軸方向の位置がより背面84b側(-X軸方向側)となる点から発して所定の視点へ向かう光ほど、入射面84aから遠いプリズム141にて反射される。ただし、これに限られず、画像表示装置81の表示領域上のX軸方向の位置と、プリズム141とが1対1に対応していればよい。また、入射面84aから遠いプリズム141で反射される光ほど、入射面84a側へ向かい、一方、入射面84aに近いプリズム141で反射される光ほど、入射面84aから遠ざかる方向へ向かう。そのため、マスク85が省略されても、画像表示装置81からの光を、特定の視点へ向けて出射させることができる。また、導光板84から出射した光は、Z軸方向に関して、画像が投影される面上で結像し、その面から離れるにしたがって拡散する。そのため、Z軸方向に関して視差を与えることができるので、観察者が両眼をZ軸方向に沿って並ぶようにすることで、投影された画像を立体的に観察できる。
 また、上記の構成によれば、各プリズム141で反射され、その視点へ向かう光は遮られないので、観察者は、Y軸方向に沿って観察者が視点を移動させても、画像表示装置81に表示され、かつ、空中に投影された像を観察できる。ただし、各プリズム141から視点へ向かう光線と各プリズム141の反射面とのなす角度が、Y軸方向における視点の位置に沿って変化するので、これに伴い、その光線に対応する画像表示装置81上の点の位置も変化する。またこの例では、画像表示装置81上の各点からの光は、各プリズム141により、Y軸方向に関してもある程度結像される。そのため、観察者は、両眼をY軸方向に沿って並ぶようにしても、立体的な像を観察できる。
 さらに、上記の構成によれば、マスク85が使用されないため、ロスとなる光の量が少なくなるので、立体画像表示部は、より明るい像を空中に投影できる。また、マスクが使用されないため、立体画像表示部は、導光板84の背後にある物体(図示せず)と投影された画像の両方を観察者に視認させることができる。
 <4.9>
 入力装置1Aにおいて、立体画像表示部10は、複数の視点用の画像を別個に結像させてもよい。例えば立体画像表示部は、右目用画像を結像させる右目用表示パターンと、左目用画像を結像させる左眼用表示パターンとを含んでいてよい。この場合、立体画像表示部10は、立体感のある画像を結像させることができる。なお、立体画像表示部1は、3以上の視点用の画像を別個に結像させてよい。
 また、立体画像表示部10は、立体画像または参照画像の元画像となる物体から出射された光を用いて、光学素子から光を出射し、立体画像または参照画像を結像させてもよい。元画像となる物体から出射された光を用いて、光学素子から光を出射し、立体画像または参照画像を結像させる表示装置として、例えば、(1)互いに直交する鏡面要素が、光学結合素子面内に複数配置される2面リフレクタアレイ構造を用いる表示装置や、(2)ハーフミラーを利用したいわゆるペッパーズゴーストと呼ばれる表示装置がある。
 <4.10>
 次に、入力装置1Aを遊技機Mに適用した適用例について説明する。
 図26の(a)および(b)は、入力装置1Aが適用された遊技機の一例を示す斜視図である。なお、図26の(a)および(b)では、入力装置1Aの図示は省略している。
 図26の(a)に示すように、遊技機M1に対してユーザが操作する操作盤において、ユーザが操作する複数のスイッチのうちの少なくとも1つのスイッチとして、立体画像Iを入力装置1Aによって結像させてもよい。
 また、図26の(b)に示すように、遊技機M2においてユーザに対する演出画像が表示される画面に重ねるように結像され、かつ、ユーザの操作対象となるスイッチとしての立体画像Iを入力装置1Aによって結像させてもよい。この場合、入力装置1Aは、立体画像Iを演出上必要な場合にのみ立体画像Iを表示させてもよい。
 〔まとめ〕
 本発明の一態様に係る入力装置は、光源から入射した光を導光して光出射面から出射させ、ユーザの入力動作の対象となる画像を空間に結像させる導光板と、ユーザが前記入力動作のために使用する物体を検出するセンサと、前記センサによる前記物体の検出結果に基づいてユーザによる入力を検知する入力検知部と、前記入力検知部がユーザによる入力を検知したときに、検知したことをユーザに報知する報知部と、を備え、前記センサは、前記導光板の前記光出射面とは反対側の空間に配置されている。
 上記の構成によれば、センサが導光板の光出射面とは反対側に配置されているため、導光板よりもユーザ側の空間の構造をシンプルにすることが可能となる。
 また、本発明の一態様に係る入力装置において、前記導光板は、透光性を有する構成であることが好ましい。
 上記の構成によれば、センサから出射され物体を検出するための検出光が導光板を透過しやすい構成とすることができる。
 また、本発明の一態様に係る入力装置において、前記導光板における前記光出射面と対向する対向面に、当該導光板を導光された光を前記光出射面へ向けて反射する反射面を有する複数の光路変更部が形成されており、前記対向面に対する前記反射面の面密度が30%以下であることが好ましい。
 上記の構成によれば、対向面側の空間にセンサを設けても、導光板による検出光の減衰を抑制することができる。
 また、本発明の一態様に係る入力装置において、前記導光板を複数備えており、複数の前記導光板は、それぞれ異なる前記画像を空間に結像させ、前記報知部は、前記入力を検知したときに、前記画像を切り替える構成であってもよい。
 また、本発明の一態様に係る入力装置において、前記導光板は、前記画像を前記センサが前記物体を検出する位置またはその近傍に前記画像を結像させる構成であってもよい。
 本発明の一態様に係る入力装置は、光源から入射した光を導光して光出射面から出射させ、ユーザの入力動作の対象となる画像を空間に結像させる導光板と、ユーザが前記入力動作のために使用する物体を検出するセンサと、前記センサによる前記物体の検出結果に基づいてユーザによる入力を検知する入力検知部と、前記入力検知部がユーザによる入力を検知したときに、検知したことをユーザに報知する報知部と、を備え、前記導光板は、前記センサが前記物体を検出する位置またはその近傍に前記画像を結像させる。
 ここで、従来では、ユーザが入力装置に対する操作感を感じにくいという問題があった。これに対して、上記の構成よれば、ユーザが、画像が結像されている位置またはその近傍に入力動作を行うための物体を位置させたときに、入力装置が上記物体を検知したことを報知することができる。これにより、入力装置に対する操作感をユーザに与えることができる。
 また、本発明の一態様に係る入力装置において、前記入力検知部は、前記入力動作が行われる方向において前記画像が結像されている位置よりも前記入力動作が行われる向きとは反対向きに所定の距離離れた領域に、前記物体が位置したことを前記センサが検知した場合に、前記入力を検知する構成であってもよい。
 上記の構成によれば、画像が結像されている位置に物体が到達する前に、ユーザの入力を検知する。このため、入力装置がユーザの入力を受け付けたことを、従来よりも早くユーザに報知することができる。これにより、入力装置に対する良好な操作感をユーザに与えることができる。
 また、本発明の一態様に係る入力装置において、前記報知部は、前記入力検知部がユーザによる入力を検知したときに、前記画像の表示状態を変化させる構成であってもよい。
 上記構成によれば、画像の変化により、ユーザに対して入力を受け付けたことを報知することができる。
 また、本発明の一態様に係る入力装置において、前記報知部として、前記入力検知部がユーザによる入力を検知したときに、音声を出力する音声出力装置をさらに備える構成であってもよい。
 上記の構成によれば、音声により入力装置に対する操作を入力装置が受け付けたことをユーザに対して報知することができる。
 また、本発明の一態様に係る入力装置において、前記報知部として、前記物体としての人体の触覚を遠隔で刺激する触覚刺激装置をさらに備える構成であってもよい。
 上記の構成によれば、上記の構成によれば、触覚に対する刺激により入力装置に対する操作を入力装置が受け付けたことをユーザに対して報知することができる。
 また、本発明の一態様に係る入力装置において、前記導光板に、前記センサが前記物体を検出するための光を通過させる開口部が形成されており、前記画像を前記光出射面に垂直な方向から見たときに、前記画像の輪郭と、前記開口部の外周部とが同一または略同一の形状となっている構成であってもよい。
 上記の構成によれば、ユーザが画像を認識する際に、開口部を参照面とすることができる。これにより、画像の立体感を向上させることができる。また、入力装置の意匠性を向上させることができる。
 また、本発明の一態様に係る入力装置において、前記導光板の前記光出射面とは反対側に、前記画像に対応したデザインが形成されたシートを備える構成であってもよい。
 上記の構成によれば、ユーザが入力装置に対して入力動作を行うときに、ユーザに対してシートの前面に形成されたデザインを見せることができる。これにより、入力装置のデザイン性を向上させることができる。
 また、本発明の一態様に係る入力装置において、前記光出射面とは反対側に、2次元画像を表示する2次元画像表示部を備え、前記導光板は、複数の前記画像を結像し、前記2次元画像表示部は、複数の前記画像に対応した前記2次元画像を表示する構成であってもよい。
 上記の構成によれば、ユーザに対して、ユーザが入力しようとしている動作がどの動作であるのかを認識させることができる。
 また、本発明の一態様に係る入力装置において、前記2次元画像表示部は、表示する2次元画像を変更できる構成であってもよい。
 上記の構成によれば、これにより、ユーザによる入力動作の対象となるメニューを適宜変更することができるようになっている。
 また、本発明の一態様に係る入力装置において、前記センサは、前記物体を検知した場合に、前記物体を検知する領域を、前記所定の距離よりもさらに離れた領域に変更する構成であってもよい。
 上記の構成によれば、入力検知部がユーザの入力を検知した後に、物体の位置が不安定になったとしても、出センサが物体を検知している状態を保持することができる。その結果、チャタリング現象が起こることを防止することができる。
 また、本発明の一態様に係る入力装置において、リレーをさらに備え、前記入力検知部によるユーザによる入力を検知状態に応じて、前記リレーの開閉を制御する構成であってもよい。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 1A~1F、1Aa 入力装置
 2 位置検出センサ(センサ)
 3 音声出力部(音声出力装置)
 6 超音波発生装置(触覚刺激装置)
 8 シート
 11、11A、11B、16、61、84 導光板
 11a、16a、61a、84c 出射面(光出射面)
 11b 背面(対向面)
 15 開口部
 20 2次元画像表示部
 31 入力検知部
 32 画像制御部(報知部)
 33 報知制御部(報知部)
 F 指(物体)
 I、I1、I2 立体画像(画像)
 R リレー

Claims (16)

  1.  光源から入射した光を導光して光出射面から出射させ、ユーザの入力動作の対象となる画像を空間に結像させる導光板と、
     ユーザが前記入力動作のために使用する物体を検出するセンサと、
     前記センサによる前記物体の検出結果に基づいてユーザによる入力を検知する入力検知部と、
     前記入力検知部がユーザによる入力を検知したときに、検知したことをユーザに報知する報知部と、を備え、
     前記センサは、前記導光板の前記光出射面とは反対側の空間に配置されていることを特徴とする入力装置。
  2.  前記導光板は、透光性を有することを特徴とする請求項1に記載の入力装置。
  3.  前記導光板における前記光出射面と対向する対向面に、当該導光板を導光された光を前記光出射面へ向けて反射する反射面を有する複数の光路変更部が形成されており、
     前記対向面に対する前記反射面の面密度が30%以下であることを特徴とする請求項1または2に記載の入力装置。
  4.  前記導光板を複数備えており、
     複数の前記導光板は、それぞれ異なる前記画像を空間に結像させ、
     前記報知部は、前記入力を検知したときに、前記画像を切り替えることを特徴とする請求項1~3のいずれか1項に記載の入力装置。
  5.  前記導光板は、前記画像を前記センサが前記物体を検出する位置またはその近傍に前記画像を結像させることを特徴とする請求項1~4のいずれか1項に記載の入力装置。
  6.  光源から入射した光を導光して光出射面から出射させ、ユーザの入力動作の対象となる画像を空間に結像させる導光板と、
     ユーザが前記入力動作のために使用する物体を検出するセンサと、
     前記センサによる前記物体の検出結果に基づいてユーザによる入力を検知する入力検知部と、
     前記入力検知部がユーザによる入力を検知したときに、検知したことをユーザに報知する報知部と、を備え、
     前記導光板は、前記センサが前記物体を検出する位置またはその近傍に前記画像を結像させることを特徴とする入力装置。
  7.  前記入力検知部は、前記入力動作が行われる方向において前記画像が結像されている位置よりも前記入力動作が行われる向きとは反対向きに所定の距離離れた領域に、前記物体が位置したことを前記センサが検知した場合に、前記入力を検知することを特徴とする請求項1~6のいずれか1項に記載の入力装置。
  8.  前記報知部は、前記入力検知部がユーザによる入力を検知したときに、前記画像の表示状態を変化させることを特徴とする請求項1~7のいずれか1項に記載の入力装置。
  9.  前記報知部として、前記入力検知部がユーザによる入力を検知したときに、音声を出力する音声出力装置をさらに備えることを特徴とする請求項1~8のいずれか1項に記載の入力装置。
  10.  前記報知部として、前記物体としての人体の触覚を遠隔で刺激する触覚刺激装置をさらに備えることを特徴とする請求項1~9のいずれか1項に記載の入力装置。
  11.  前記導光板に、前記センサが前記物体を検出するための光を通過させる開口部が形成されており、
     前記画像を前記光出射面に垂直な方向から見たときに、前記画像の輪郭と、前記開口部の外周部とが同一または略同一の形状となっていることを特徴とする請求項1~10のいずれか1項に記載の入力装置。
  12.  前記導光板の前記光出射面とは反対側に、前記画像に対応したデザインが形成されたシートを備えることを特徴とする請求項1~11のいずれか1項に記載の入力装置。
  13.  前記光出射面とは反対側に、2次元画像を表示する2次元画像表示部を備え、
     前記導光板は、複数の前記画像を結像し、
     前記2次元画像表示部は、複数の前記画像に対応した前記2次元画像を表示することを特徴とする請求項1~12のいずれか1項に記載の入力装置。
  14.  前記2次元画像表示部は、表示する2次元画像を変更できることを特徴とする請求項13に記載の入力装置。
  15.  前記センサは、前記物体を検知した場合に、前記物体を検知する領域を、前記所定の距離よりもさらに離れた領域に変更することを特徴とする請求項7に記載の入力装置。
  16.  リレーをさらに備え、
     前記入力検知部によるユーザによる入力を検知状態に応じて、前記リレーの開閉を制御することを特徴とする請求項1~15のいずれか1項に記載の入力装置。
PCT/JP2019/009777 2018-07-10 2019-03-11 入力装置 WO2020012711A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US17/253,644 US20210263612A1 (en) 2018-07-10 2019-03-11 Input device
DE112019003490.1T DE112019003490T5 (de) 2018-07-10 2019-03-11 Eingabegerät
CN201980039113.3A CN112262451B (zh) 2018-07-10 2019-03-11 输入装置
US18/169,236 US20230205369A1 (en) 2018-07-10 2023-02-15 Input device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-131077 2018-07-10
JP2018131077A JP7056423B2 (ja) 2018-07-10 2018-07-10 入力装置

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/253,644 A-371-Of-International US20210263612A1 (en) 2018-07-10 2019-03-11 Input device
US18/169,236 Continuation US20230205369A1 (en) 2018-07-10 2023-02-15 Input device

Publications (1)

Publication Number Publication Date
WO2020012711A1 true WO2020012711A1 (ja) 2020-01-16

Family

ID=69141370

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/009777 WO2020012711A1 (ja) 2018-07-10 2019-03-11 入力装置

Country Status (5)

Country Link
US (2) US20210263612A1 (ja)
JP (1) JP7056423B2 (ja)
CN (1) CN112262451B (ja)
DE (1) DE112019003490T5 (ja)
WO (1) WO2020012711A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113589973A (zh) * 2020-04-30 2021-11-02 财团法人工业技术研究院 产生浮空图像的装置及方法
CN114489315A (zh) * 2020-11-12 2022-05-13 幻景启动股份有限公司 图像处理系统以及图像处理装置
CN115248507A (zh) * 2021-04-27 2022-10-28 财团法人工业技术研究院 可切换式浮空影像显示设备
EP4092517A1 (en) * 2021-05-18 2022-11-23 Alps Alpine Co., Ltd. Input device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111464168B (zh) * 2020-04-01 2022-10-18 日立楼宇技术(广州)有限公司 一种非接触式按键及其控制方法
TWI757941B (zh) * 2020-10-30 2022-03-11 幻景啟動股份有限公司 影像處理系統以及影像處理裝置
JP7517209B2 (ja) * 2021-03-15 2024-07-17 オムロン株式会社 導光板デバイス
JP2022140895A (ja) 2021-03-15 2022-09-29 オムロン株式会社 導光板デバイス

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05234448A (ja) * 1992-02-22 1993-09-10 Shimadzu Corp スイッチ装置
JP2005141102A (ja) * 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法
JP2006226856A (ja) * 2005-02-18 2006-08-31 Keyence Corp 距離設定型光電センサー
JP2013008087A (ja) * 2011-06-22 2013-01-10 Lixil Corp 操作入力装置
JP2014067071A (ja) * 2012-09-10 2014-04-17 Askanet:Kk 空中タッチパネル
JP2016114929A (ja) * 2014-10-06 2016-06-23 オムロン株式会社 光デバイス
JP2016130832A (ja) * 2015-01-13 2016-07-21 オムロン株式会社 光デバイス及び操作入力装置
JP2018097388A (ja) * 2015-04-21 2018-06-21 株式会社村田製作所 ユーザインタフェース装置及びユーザインタフェースシステム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100489881C (zh) * 2001-01-08 2009-05-20 Vkb有限公司 数据输入装置和数据输入方法
KR20040038906A (ko) * 2001-10-02 2004-05-08 마츠시타 덴끼 산교 가부시키가이샤 상검출장치
DE602006021184D1 (de) * 2005-07-25 2011-05-19 Pioneer Corp Bildanzeigeeinrichtung
JP4158828B2 (ja) * 2006-10-30 2008-10-01 オムロン株式会社 回帰反射型光電センサ、回帰反射型光電センサのセンサ本体および回帰反射部
CN101154534B (zh) * 2007-08-23 2010-10-06 宁波市海曙四方电子有限公司 一种自动定位摄像装置
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
KR101114750B1 (ko) * 2010-01-29 2012-03-05 주식회사 팬택 다차원 영상을 이용한 사용자 인터페이스 장치
US9134800B2 (en) * 2010-07-20 2015-09-15 Panasonic Intellectual Property Corporation Of America Gesture input device and gesture input method
KR20190133080A (ko) * 2011-09-19 2019-11-29 아이사이트 모빌 테크놀로지 엘티디 증강 현실 시스템용 터치프리 인터페이스
JP2015206590A (ja) * 2012-08-30 2015-11-19 三洋電機株式会社 情報取得装置および物体検出装置
JP2015096982A (ja) * 2015-02-10 2015-05-21 セイコーエプソン株式会社 虚像表示装置
JP2018124597A (ja) * 2015-06-22 2018-08-09 株式会社村田製作所 ユーザインタフェース装置および距離センサ
KR102510944B1 (ko) * 2016-05-16 2023-03-16 삼성전자주식회사 입체 영상 장치 및 그를 포함하는 전자 장치

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05234448A (ja) * 1992-02-22 1993-09-10 Shimadzu Corp スイッチ装置
JP2005141102A (ja) * 2003-11-07 2005-06-02 Pioneer Electronic Corp 立体的二次元画像表示装置及び方法
JP2006226856A (ja) * 2005-02-18 2006-08-31 Keyence Corp 距離設定型光電センサー
JP2013008087A (ja) * 2011-06-22 2013-01-10 Lixil Corp 操作入力装置
JP2014067071A (ja) * 2012-09-10 2014-04-17 Askanet:Kk 空中タッチパネル
JP2016114929A (ja) * 2014-10-06 2016-06-23 オムロン株式会社 光デバイス
JP2016130832A (ja) * 2015-01-13 2016-07-21 オムロン株式会社 光デバイス及び操作入力装置
JP2018097388A (ja) * 2015-04-21 2018-06-21 株式会社村田製作所 ユーザインタフェース装置及びユーザインタフェースシステム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113589973A (zh) * 2020-04-30 2021-11-02 财团法人工业技术研究院 产生浮空图像的装置及方法
US11614837B2 (en) 2020-04-30 2023-03-28 Industrial Technology Research Institute Device and method for generating floating image
CN114489315A (zh) * 2020-11-12 2022-05-13 幻景启动股份有限公司 图像处理系统以及图像处理装置
CN114489315B (zh) * 2020-11-12 2023-12-19 幻景启动股份有限公司 图像处理系统以及图像处理装置
CN115248507A (zh) * 2021-04-27 2022-10-28 财团法人工业技术研究院 可切换式浮空影像显示设备
EP4092517A1 (en) * 2021-05-18 2022-11-23 Alps Alpine Co., Ltd. Input device
US12033816B2 (en) 2021-05-18 2024-07-09 Alps Alpine Co., Ltd. Input device

Also Published As

Publication number Publication date
JP2020009682A (ja) 2020-01-16
US20230205369A1 (en) 2023-06-29
US20210263612A1 (en) 2021-08-26
DE112019003490T5 (de) 2021-05-12
CN112262451B (zh) 2024-04-23
CN112262451A (zh) 2021-01-22
JP7056423B2 (ja) 2022-04-19

Similar Documents

Publication Publication Date Title
WO2020012711A1 (ja) 入力装置
US20180348960A1 (en) Input device
US7054045B2 (en) Holographic human-machine interfaces
JP6757779B2 (ja) 非接触入力装置
US20130009862A1 (en) Display apparatus
WO2020012690A1 (ja) 入力装置
WO2020012708A1 (ja) 入力装置
JP2006293878A (ja) 画像表示システムおよび画像表示方法、ならびに画像表示プログラム
WO2022138297A1 (ja) 空間浮遊映像表示装置
WO2018146867A1 (ja) 制御装置
WO2022113745A1 (ja) 空間浮遊映像表示装置
WO2022158209A1 (ja) 空間浮遊映像表示装置
US10429942B2 (en) Gesture input device
JP7570293B2 (ja) 空間浮遊映像表示装置
US20240210877A1 (en) Optical system for floating holograms, comprising a plurality of switchable optical channels
JP2022097901A (ja) 空間浮遊映像表示装置
JP2022539483A (ja) 非接触式タッチパネルシステム及びその制御方法、並びに既存のタッチスクリーンに装着可能な非接触式入力装置
JP2007504493A (ja) マトリクス光検出器を有する双方向性ディスプレイシステム
US20230305313A1 (en) Holographic projection operating device, holographic projection device and holographic optical module thereof
US20240013635A1 (en) Stop request button for public transport vehicle
Miyazaki et al. Visual Feedback Using Semitransparent Mirror to Enhance Depth Perception of Aerial Image in Floating Touch Display
JP3525367B2 (ja) タッチレススイッチ
CN115421314A (zh) 一种显示系统及成像装置
JP2022051342A (ja) 非接触スイッチ
JPH1116462A (ja) 非接触スイッチ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19833267

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 19833267

Country of ref document: EP

Kind code of ref document: A1