WO2024154760A1 - 空中表示装置及び表示装置 - Google Patents

空中表示装置及び表示装置 Download PDF

Info

Publication number
WO2024154760A1
WO2024154760A1 PCT/JP2024/001161 JP2024001161W WO2024154760A1 WO 2024154760 A1 WO2024154760 A1 WO 2024154760A1 JP 2024001161 W JP2024001161 W JP 2024001161W WO 2024154760 A1 WO2024154760 A1 WO 2024154760A1
Authority
WO
WIPO (PCT)
Prior art keywords
detection
light
display device
aerial
image
Prior art date
Application number
PCT/JP2024/001161
Other languages
English (en)
French (fr)
Inventor
康宏 代工
Original Assignee
Toppanホールディングス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toppanホールディングス株式会社 filed Critical Toppanホールディングス株式会社
Publication of WO2024154760A1 publication Critical patent/WO2024154760A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/50Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels
    • G02B30/56Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images the image being built up from image elements distributed over a 3D volume, e.g. voxels by projecting aerial or floating images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Definitions

  • the present invention relates to an aerial display device and a display device.
  • Aerial display devices capable of displaying images and videos as aerial images are being researched, and are expected to become a new human-machine interface.
  • An aerial display device for example, is equipped with a two-sided corner reflector array in which two-sided corner reflectors are arranged in an array, and reflects light emitted from the display surface of a display element to form a real image in the air.
  • the display method using a two-sided corner reflector array is aberration-free, and can display a real image (aerial image) in a plane-symmetrical position.
  • Patent Document 1 discloses an optical element in which a transparent square prism protruding from the surface of a transparent flat plate is used as a two-sided corner reflector, and multiple square prisms are arranged in an array on a flat surface.
  • Patent Document 2 discloses an optical element in which each of the first and second light control panels is formed by arranging multiple planar light reflecting sections vertically inside a transparent flat plate, and the first and second light control panels are arranged so that the planar light reflecting sections are orthogonal to each other.
  • the optical elements of Patent Documents 1 and 2 reflect light emitted from a display element twice from orthogonal reflecting surfaces to generate an aerial image.
  • the observer can touch the aerial image displayed by the aerial display device without touching the device.
  • the sensing element of the aerial display device detects objects present in the area of the aerial image and recognizes that the observer has touched the aerial image.
  • the sensing element is required to detect the observer's touch operation on the aerial image with high accuracy.
  • the present invention provides an aerial display device and a display device that can more accurately detect touch operations on an aerial image by an observer.
  • an aerial display device comprising: a display element for displaying an image; an optical element arranged to receive light from the display element and reflecting the light from the display element to the opposite side of the display element to form an aerial image in the air; a sensing element that forms a first detection area parallel to the display element and a second detection area at a different level from the first detection area above the optical element and detects objects present in the first and second detection areas; and a determination unit that calculates a first detection position in the first detection area and a second detection position in the second detection area and determines whether the aerial image has been touched based on the first and second detection positions.
  • an aerial display device in which the determination unit determines the direction of movement of the object based on the first and second detection positions, and determines that the aerial image has been touched if the image is on an extension of the direction of movement.
  • an aerial display device in which the sensing element is of a capacitive type.
  • an aerial display device in which the sensing element includes a plurality of first electrodes, a plurality of second electrodes arranged opposite the plurality of first electrodes, a drive circuit that supplies drive signals to the plurality of first electrodes, and a detection circuit that detects the voltages of the plurality of second electrodes, and the determination unit compares the detection result by the detection circuit with a threshold value and determines the position of the target object according to the comparison result.
  • an aerial display device in which the sensing elements include a first sensing element that forms the first detection area and a second sensing element that forms the second detection area, and each of the first and second sensing elements includes a light-emitting section that emits light toward the detection area and a light-receiving section that receives the reflected light reflected by the object.
  • an aerial display device in which the optical element includes a planar substrate and a plurality of optical elements disposed below the substrate, each extending in a first direction and aligned in a second direction perpendicular to the first direction, each of the optical elements being inclined with respect to the normal direction of the substrate and having an entrance surface and a reflection surface that are in contact with each other.
  • an aerial display device according to the first aspect, further comprising a light control element disposed between the display element and the optical element, which transmits oblique light components of the light from the display element.
  • an aerial display device in which the light control element includes a plurality of transparent members and a plurality of light blocking members arranged alternately, and the plurality of light blocking members are inclined with respect to the normal to the light control element.
  • an aerial display device in which the display element and the optical element are arranged parallel to each other.
  • a display device comprising: a display element for displaying an image; a sensing element that forms a first detection area parallel to the display element above the display element and a second detection area at a different level from the first detection area, and detects an object present in the first and second detection areas; and a determination unit that calculates a first detection position in the first detection area and a second detection position in the second detection area, and determines whether the image has been touched based on the first and second detection positions.
  • a display device in which the determination unit determines the direction of movement of the object based on the first and second detection positions, and determines that the image has been touched when the image is present on an extension line of the direction of movement.
  • a display device according to the tenth aspect, in which the sensing element is of a capacitive type.
  • the sensing element includes a plurality of first electrodes, a plurality of second electrodes arranged opposite the plurality of first electrodes, a drive circuit that supplies drive signals to the plurality of first electrodes, and a detection circuit that detects the voltages of the plurality of second electrodes, and the determination unit compares the detection result by the detection circuit with a threshold value and determines the position of the object according to the comparison result.
  • the sensing elements include a first sensing element that forms the first detection area and a second sensing element that forms the second detection area, and each of the first and second sensing elements includes a light-emitting section that emits light toward the detection area and a light-receiving section that receives the reflected light reflected by the object.
  • the present invention provides an aerial display device and a display device that can more accurately detect touch operations on an aerial image by an observer.
  • FIG. 1 is a perspective view of an aerial display device according to a first embodiment of the present invention.
  • FIG. 2 is a side view of the aerial display device shown in FIG. 1 in the XZ plane.
  • FIG. 3A is a plan view of the light control element shown in FIG.
  • FIG. 3B is a cross-sectional view of the light control element taken along line AA' in FIG. 3A.
  • FIG. 4 is a perspective view of the optical element shown in FIG.
  • FIG. 5A is a perspective view of the sensing element shown in FIG.
  • FIG. 5B is a plan view of the sensing element shown in FIG. 5A.
  • FIG. 5C is a cross-sectional view of the sensing element taken along line BB' shown in FIG. 5B.
  • FIG. 5A is a perspective view of an aerial display device according to a first embodiment of the present invention.
  • FIG. 2 is a side view of the aerial display device shown in FIG. 1 in the XZ plane.
  • FIG. 6 is a block diagram of an aerial display device.
  • FIG. 7 is a perspective view illustrating the state of light reflection in an optical element.
  • FIG. 8 is a side view of the XZ plane for explaining how light is reflected in the optical element.
  • FIG. 9 is a side view of the YZ plane for explaining how light is reflected in the optical element.
  • FIG. 10 is a diagram for explaining the angular conditions of the incident surface and the reflecting surface in the optical element.
  • FIG. 11 is a schematic diagram illustrating the operation of the sensing element.
  • FIG. 12 is a schematic diagram illustrating a plurality of detection regions of a sensing element.
  • FIG. 13 is a diagram illustrating the relationship between a plurality of detection regions in a sensing element and voltage.
  • FIG. 14 is a schematic diagram illustrating an aerial image displayed by the aerial display device.
  • FIG. 15 is a schematic diagram illustrating how the position of an aerial image changes depending on the position of the observer's viewpoint.
  • FIG. 16 is a schematic diagram illustrating the detection operation of the aerial display device.
  • FIG. 17 is a schematic diagram illustrating the detection operation when an observer views the aerial display device from an oblique direction.
  • FIG. 18 is a schematic diagram for explaining a method for calculating the position of an image in the Z coordinate.
  • FIG. 19 is a schematic diagram for explaining the virtual display surface with the Z coordinate corrected.
  • FIG. 20 is a schematic diagram illustrating an operation for determining a touch operation by a viewer.
  • FIG. 21 is a flowchart explaining the overall operation of the aerial display device.
  • FIG. 21 is a flowchart explaining the overall operation of the aerial display device.
  • FIG. 22 is a perspective view of a display device according to a second embodiment of the present invention.
  • FIG. 23 is a schematic diagram illustrating the detection operation of the display device.
  • FIG. 24 is a schematic diagram illustrating a detection operation when an observer views the display device from an oblique direction.
  • FIG. 25 is a flowchart illustrating the overall operation of the display device.
  • FIG. 26 is a perspective view of a display device according to a third embodiment of the present invention.
  • FIG. 27 is a diagram illustrating the configuration of a sensing element.
  • FIG. 28 is a flowchart explaining the overall operation of the aerial display device according to the fourth embodiment of the present invention.
  • FIG. 29 is a schematic diagram illustrating an operation of determining a touch operation by a viewer.
  • FIG. 1 is a perspective view of the aerial display device 1 according to the first embodiment of the present invention.
  • the X direction is a direction along one side of the aerial display device 1
  • the Y direction is a direction perpendicular to the X direction in a horizontal plane
  • the Z direction is a direction perpendicular to the XY plane (also called the normal direction).
  • Fig. 2 is a side view of the aerial display device 1 shown in Fig. 1 in the XZ plane.
  • the aerial display device 1 is a device that displays images (including videos).
  • the aerial display device 1 displays an aerial image in the air above its own light emission surface. "Displaying an aerial image” has the same meaning as "forming an aerial image.”
  • the light emission surface of the aerial display device 1 refers to the upper surface of the component that is arranged in the uppermost layer among the multiple components that make up the aerial display device 1 and are arranged on the optical path.
  • An aerial image is a real image that is formed in the air.
  • the aerial display device 1 comprises an illumination element (also called a backlight) 10, a display element 20, a light control element 30, an optical element 40, and a sensing element 50.
  • the illumination element 10, the display element 20, the light control element 30, the optical element 40, and the sensing element 50 are arranged in this order along the Z direction and parallel to one another.
  • the illumination element 10, the display element 20, the light control element 30, the optical element 40, and the sensing element 50 are fixed at specific positions by fixing members (not shown) with specific intervals between them.
  • the illumination element 10, the display element 20, the light control element 30, the optical element 40, and the sensing element 50 are housed in a housing (not shown).
  • the lighting element 10 emits illumination light and outputs the illumination light toward the display element 20.
  • the lighting element 10 includes a light source unit 11, a light guide plate 12, and a reflective sheet 13.
  • the lighting element 10 is, for example, a side light type lighting element.
  • the lighting element 10 constitutes a surface light source.
  • the lighting element 10 may be configured so that the light intensity reaches a peak in an oblique direction at an angle ⁇ 1 , which will be described later.
  • the light source unit 11 is disposed to face the side of the light guide plate 12.
  • the light source unit 11 emits light toward the side of the light guide plate 12.
  • the light source unit 11 includes a plurality of light-emitting elements, for example, white LEDs (Light Emitting Diodes).
  • the light guide plate 12 guides the illumination light from the light source unit 11 and emits the illumination light from its upper surface.
  • the reflection sheet 13 reflects the illumination light emitted from the bottom surface of the light guide plate 12 back toward the light guide plate 12.
  • the lighting element 10 may be provided with a member (including a prism sheet and a diffusion sheet) that improves optical characteristics on the upper surface of the light guide plate 12.
  • the display element 20 is a transmissive display element.
  • the display element 20 is composed of, for example, a liquid crystal display element.
  • the drive mode of the display element 20 is not particularly limited, and TN (Twisted Nematic) mode, VA (Vertical Alignment) mode, homogeneous mode, or the like can be used.
  • the display element 20 receives illumination light emitted from the illumination element 10.
  • the display element 20 transmits the illumination light from the illumination element 10 and performs optical modulation. Then, the display element 20 displays a specific image on its own screen.
  • the light control element 30 has a function of reducing unnecessary light.
  • the unnecessary light is a light component that does not contribute to generating an aerial image, and includes a light component that transmits through the optical element 40 in the normal direction.
  • the light control element 30 is configured to transmit light components in a predetermined angular range centered on an oblique direction at an angle ⁇ 1 with respect to the normal direction, and to block light components outside the above-mentioned angular range.
  • the area of the light control element 30 is set to be equal to or larger than the area of the display element 20. A detailed configuration of the light control element 30 will be described later.
  • the optical element 40 reflects light incident from the bottom side to the top side.
  • the optical element 40 also reflects light incident obliquely from the bottom side, for example, in the front direction (normal direction).
  • the area of the optical element 40 is set to be equal to or larger than the area of the display element 20.
  • the detailed configuration of the optical element 40 will be described later.
  • the optical element 40 forms an aerial image 2 in the air.
  • the aerial image 2 is parallel to the element surface of the optical element 40 and is a two-dimensional image.
  • the element surface refers to a virtual plane on which the optical element 40 extends in the in-plane direction.
  • the element surface has the same meaning as in-plane.
  • the element surfaces of the other elements have the same meaning.
  • An observer 3 in front of the optical element 40 can view the aerial image 2 formed by the optical element 40.
  • the sensing element 50 is configured to be able to detect an object without contact.
  • the sensing element 50 forms a detection area in a two-dimensional spatial region that includes part or all of the aerial image 2 generated by the aerial display device 1.
  • the sensing element 50 detects an object (body) present in the detection area and detects the position of the object.
  • a capacitive sensing element is used as an example.
  • the sensing element 50 is illustrated as being separated from the optical element 40, but for example, the sensing element 50 is disposed close to the upper surface of the optical element 40.
  • the rectangular member protruding in the Y direction exemplifies part of the wiring.
  • the area of the sensing element 50 is set to be equal to or larger than the area of the display element 20. The detailed configuration of the sensing element 50 will be described later.
  • FIG. 3A is a plan view of the light control element 30 shown in Fig. 1.
  • Fig. 3B is a cross-sectional view of the light control element 30 taken along the line AA' in Fig. 3A.
  • the substrate 31 is configured to be planar in the XY plane and has a rectangular parallelepiped shape.
  • the substrate 31 transmits light.
  • a plurality of transparent members 33 are provided, each extending in the Y direction and aligned in the X direction.
  • a plurality of light-shielding members 34 are provided, each extending in the Y direction and aligned in the X direction.
  • the plurality of transparent members 33 and the plurality of light-shielding members 34 are arranged alternately such that adjacent ones are in contact with each other.
  • a substrate 32 is provided on the plurality of transparent members 33 and the plurality of light-shielding members 34.
  • the substrate 32 is configured to be planar in the XY plane and has a rectangular parallelepiped shape.
  • the substrate 32 transmits light.
  • the transparent member 33 extends in an oblique direction at an angle ⁇ 1 with respect to the normal direction of the base material 31 in the XZ plane.
  • the transparent member 33 is a parallelogram with side surfaces inclined by the angle ⁇ 1 in the XZ plane.
  • the transparent member 33 transmits light.
  • the light blocking member 34 extends in an oblique direction at an angle ⁇ 1 with respect to the normal direction of the base material 31 in the XZ plane.
  • the light blocking member 34 is a parallelogram with side surfaces inclined by an angle ⁇ 1 in the XZ plane.
  • the light blocking member 34 blocks light.
  • the thickness of the light blocking member 34 is set to be thinner than the thickness of the transparent member 33.
  • Two adjacent light blocking members 34 are positioned so that their ends slightly overlap in the Z direction.
  • Glass or transparent resin (including acrylic resin) is used for the base materials 31 and 32 and the transparent member 33.
  • resin mixed with black dye or pigment is used for the light blocking member 34.
  • the light control element 30 may be constructed by omitting one or both of the base materials 31 and 32.
  • the function of the light control element 30 can be realized if multiple transparent members 33 and multiple light blocking members 34 are arranged alternately.
  • the light control element 30 configured in this manner can transmit the display light so that the light intensity in the oblique direction at an angle ⁇ 1 with respect to the normal direction is at a peak.
  • the angle ⁇ 1 is set, for example, between 10 degrees and 60 degrees.
  • the light control element 30 is configured to block light components other than the range of 30° ⁇ 30° with respect to the normal direction.
  • the light control element 30 is configured to block light components other than the range of 30° ⁇ 20° with respect to the normal direction.
  • the light control element 30 may be disposed between the lighting element 10 and the display element 20. Also, the light control element 30 may be omitted when constructing the aerial display device 1.
  • FIG. 4 is a perspective view of the optical element 40 shown in Fig. 1.
  • Fig. 4 also shows an enlarged view of a portion of the optical element 40.
  • the enlarged view in Fig. 4 is a side view in the XZ plane.
  • the optical element 40 includes a substrate 41 and a plurality of optical elements 42.
  • the substrate 41 is configured to be planar in the XY plane and has a rectangular parallelepiped shape.
  • a plurality of optical elements 42 are provided on the bottom surface of the substrate 41.
  • Each of the plurality of optical elements 42 is composed of a triangular prism.
  • the optical element 42 is arranged so that three side surfaces of the triangular prism are parallel to the XY plane, and one side surface is in contact with the substrate 41.
  • the plurality of optical elements 42 each extend in the Y direction and are arranged side by side in the X direction. In other words, the plurality of optical elements 42 have a sawtooth shape in the XZ plane.
  • Each of the multiple optical elements 42 has an incident surface 43 and a reflective surface 44.
  • the left side surface is the incident surface 43
  • the right side surface is the reflective surface 44.
  • the incident surface 43 is a surface onto which light from the display element 20 is incident.
  • the reflective surface 44 is a surface that reflects light that has been incident on the incident surface 43 from the outside, within the optical element 42.
  • the incident surface 43 and the reflective surface 44 form an angle ⁇ p .
  • the substrate 41 and the optical element 42 are made of a transparent material.
  • the optical element 42 is, for example, formed integrally with the substrate 41 using the same transparent material as the substrate 41.
  • the substrate 41 and the optical element 42 may be formed separately, and the optical element 42 may be adhered to the substrate 41 using a transparent adhesive.
  • the transparent material that constitutes the substrate 41 and the optical element 42 may be glass or a transparent resin (including an acrylic resin).
  • the optical element 40 configured in this way internally reflects incident light and forms a real image in the air.
  • the optical element 40 also forms an aerial image 2 at a position in front of the element surface.
  • FIG. 5A is a perspective view of the sensing element 50 shown in Fig. 1.
  • Fig. 5B is a plan view of the sensing element 50 shown in Fig. 5A.
  • Fig. 5B also shows a circuit configuration of the sensing element 50.
  • Fig. 5C is a cross-sectional view of the sensing element 50 taken along line BB' shown in Fig. 5B.
  • the sensing element 50 comprises two substrates 51 and 52, a plurality of electrodes 53 and 54, and an insulating layer 55.
  • the substrates 51 and 52 are made of transparent and insulating substrates, and are made of glass substrates or plastic substrates.
  • a plurality of electrodes 53 are provided on the substrate 51.
  • the planar shape of each of the plurality of electrodes 53 is, for example, a square.
  • the electrodes 53 are arranged so that one diagonal line is parallel to the X direction.
  • the plurality of electrodes 53 are arranged in a matrix.
  • One row of the electrodes 53 aligned in the Y direction is electrically connected via a plurality of connection electrodes extending in the Y direction.
  • One row of the electrodes 53 aligned in the Y direction is connected to a signal line TL via an extraction electrode extending in the Y direction.
  • the electrodes 53 function as transmission electrodes.
  • a plurality of electrodes 54 are provided on the substrate 52.
  • Each of the plurality of electrodes 54 has a planar shape, for example, a square.
  • the electrodes 54 are arranged so that one diagonal line is parallel to the X direction.
  • the plurality of electrodes 54 are arranged in a matrix.
  • One row of the electrodes 54 aligned in the X direction are electrically connected via a plurality of connection electrodes extending in the X direction.
  • One row of the electrodes 54 aligned in the X direction are connected to a signal line RL via an extraction electrode extending in the X direction.
  • the electrodes 54 function as receiving electrodes.
  • the multiple electrodes 53 and the multiple electrodes 54 are arranged so as not to overlap in a plan view.
  • the substrates 51 and 52 are arranged so that the multiple electrodes 53 and the multiple electrodes 54 face each other.
  • the electrodes 53 and 54 are made of transparent electrodes, for example, made of ITO (indium tin oxide).
  • An insulating layer 55 is provided between the multiple electrodes 53 and the multiple electrodes 54.
  • the insulating layer 55 is made of a transparent insulating material.
  • the insulating layer 55 may be made of multiple layers.
  • the sensing element 50 further includes a drive circuit 56 and a detection circuit 57.
  • the drive circuit 56 is connected to the multiple signal lines TL.
  • the drive circuit 56 supplies a drive signal having a pulse waveform to each of the multiple signal lines TL.
  • the drive circuit 56 also generates the drive signal so that pulses are applied sequentially to the multiple signal lines TL.
  • the detection circuit 57 is connected to multiple signal lines RL.
  • the detection circuit 57 detects the voltage values of the multiple signal lines RL.
  • FIG. 6 Block configuration of the aerial display device 1
  • Figure 6 is a block diagram of the aerial display device 1.
  • the aerial display device 1 includes a control unit 60, a storage unit 61, an input/output interface (input/output IF) 62, a display unit 63, a sensing element 50, and an input unit 64.
  • the control unit 60, the storage unit 61, and the input/output interface 62 are connected to each other via a bus 65.
  • the input/output interface 62 is connected to the display unit 63, the sensing element 50, and the input unit 64.
  • the input/output interface 62 performs interface processing for each of the display unit 63, the sensing element 50, and the input unit 64 in accordance with a predetermined standard.
  • the display unit 63 includes an illumination element 10 and a display element 20.
  • the display unit 63 displays an image.
  • the sensing element 50 forms multiple detection regions above.
  • the sensing element 50 detects objects present in the multiple detection regions based on the change in capacitance between the electrodes 53 and 54.
  • the control unit 60 is composed of one or more processors, such as a CPU (Central Processing Unit) or an MPU (Micro Processing Unit).
  • the control unit 60 realizes various functions by executing programs stored in the memory unit 61.
  • the control unit 60 includes a display processing unit 60A, an image processing unit 60B, and a detection position determination unit 60C.
  • the display processing unit 60A controls the operation of the display unit 63 (specifically, the lighting element 10 and the display element 20).
  • the display processing unit 60A controls the on and off of the lighting element 10.
  • the display processing unit 60A transmits an image signal to the display element 20, causing the display element 20 to display an image.
  • the image processing unit 60B generates the image to be displayed by the aerial display device 1.
  • the image processing unit 60B can use image data stored in the memory unit 61.
  • the image processing unit 60B may also obtain image data from outside using a communication function (not shown).
  • the detection position determination unit 60C controls the operation of the sensing element 50. Based on the detection results of the sensing element 50, the detection position determination unit 60C calculates the detection position where the object is detected for each of the multiple detection areas. Based on the multiple detection positions, the detection position determination unit 60C determines the direction (vector) in which the object moves. The detection position determination unit 60C calculates the position of the intersection between the extension line of the direction in which the object moves and the display surface of the display element 20. The detection position determination unit 60C determines whether the calculated position on the display surface is included in the area of the image of the display element 20.
  • the memory unit 61 includes non-volatile memory devices such as a ROM (Read Only Memory), HDD (Hard Disk Drive), and SSD (Solid State Drive), and volatile memory devices such as a RAM (Random Access Memory) and registers.
  • the memory unit 61 stores programs executed by the control unit 60.
  • the memory unit 61 stores various data necessary for the control of the control unit 60.
  • the memory unit 61 stores data for images displayed by the aerial display device 1.
  • the input unit 64 includes, for example, a touch panel or buttons, and receives information input by the user.
  • the image processing unit 60B is capable of selecting an image to be displayed on the display unit 63 based on the information received by the input unit 64.
  • Fig. 2 The arrows in Fig. 2 indicate optical paths.
  • light emitted from an arbitrary point "o" of the display element 20 is incident on the light control element 30.
  • a light component at an angle ⁇ 1 (including a light component within a predetermined angle range centered on the angle ⁇ 1 ) is transmitted through the light control element 30.
  • the light transmitted through the light control element 30 is incident on the optical element 40.
  • the optical element 40 reflects the incident light to the opposite side to the light control element 30, and forms an aerial image 2 in the air.
  • Figure 7 is a perspective view illustrating how light is reflected in the optical element 40.
  • Figure 8 is a side view of the XZ plane illustrating how light is reflected in the optical element 40.
  • Figure 8 is a view of the optical element 40 when both eyes of the observer 3 (i.e., the line connecting both eyes) are parallel to the X direction.
  • Figure 9 is a side view of the YZ plane illustrating how light is reflected in the optical element 40.
  • Figure 9 is a view of the optical element 40 when both eyes of the observer 3 are parallel to the Y direction.
  • the critical angle is the smallest incident angle above which total reflection occurs.
  • the critical angle is the angle with respect to the perpendicular to the incident surface.
  • the light components that contribute to imaging among the light emitted from point "o" are totally reflected by the reflecting surface 44 of the optical element 42, and the light is imaged in the air to generate an aerial image.
  • the light components emitted from point "o" that do not contribute to imaging are not reflected by the reflecting surface 44 of the optical element 42, and since that light does not form an image in the air, it does not contribute to the generation of an aerial image.
  • the condition for observer 3 to be able to see the aerial image is that both eyes of observer 3 are parallel to the X direction or close to it (for example, ⁇ 10 degrees with respect to the X direction). Also, if observer 3's eyes are parallel to the X direction or close to it and the viewpoint is moved along the Y direction, observer 3 can always recognize the aerial image.
  • FIG. 10 is a diagram explaining the angular conditions of the incident surface 43 and the reflecting surface 44 of the optical element 40.
  • the angle of the incident surface 43 with respect to the Z direction (the direction perpendicular to the element surface) is ⁇ 2
  • the angle of the reflecting surface 44 with respect to the Z direction is ⁇ 3
  • the angle between the incident surface 43 and the reflecting surface 44 is ⁇ p .
  • the refractive index of the material of the optical element 40 is n p , and the refractive index of air is 1.
  • the incident angle at the incident surface 43 is ⁇ 4 , and the refraction angle is ⁇ 5.
  • the incident angle at the upper surface of the optical element 40 is ⁇ 8 , and the refraction angle is ⁇ 9.
  • the refraction angle ⁇ 9 is the exit angle.
  • the exit angle ⁇ 9 is expressed by the following equation (2).
  • ⁇ 9 sin -1 (n p *sin (sin -1 ((1/n p ) * sin (90° - ( ⁇ 1 + ⁇ 2 ))) + ⁇ 2 +2 ⁇ 3 -90°)) ...
  • the critical angle at the reflecting surface 44 is expressed by the following formula (3).
  • Critical angle ⁇ 6 ( ⁇ 7 )
  • Critical angle sin -1 (1/n p )...(3)
  • the angle of incidence ⁇ 6 on the reflecting surface 44 is set to be larger than the critical angle on the reflecting surface 44.
  • the angle ⁇ 3 of the reflecting surface 44 is set so that the angle of incidence of light incident on the reflecting surface 44 is larger than the critical angle.
  • the angle ⁇ 2 of the incident surface 43 is set so that the light incident on the incident surface 43 is not totally reflected by the incident surface 43.
  • the angle ⁇ 2 of the incident surface 43 is set so that the angle of incidence of the light incident on the incident surface 43 is smaller than the critical angle.
  • the angle between the element surface of the optical element 40 and the surface of the aerial image 2, and the distance between the element surface of the optical element 40 and the surface of the aerial image 2 can be adjusted by optimally setting the angle ⁇ 1 of light incident on the optical element 40, the refractive index of the optical element 40, the angle ⁇ 2 of the incident surface 43 of the optical element 40, and the angle ⁇ 3 of the reflecting surface 44 of the optical element 40.
  • FIG. 11 is a schematic diagram illustrating the operation of the sensing element 50.
  • the driving circuit 56 supplies a driving signal to the electrode 53 via the signal line TL.
  • the driving signal consists of a pulse waveform having a predetermined period.
  • the electrodes 53 and 54 are capacitively coupled, and an electric field is generated between them.
  • the detection circuit 57 is configured to be able to detect the voltage value of the electrode 54.
  • the finger 3A of the observer 3 has a ground voltage GND.
  • an object e.g., the finger 3A of the observer 3
  • the object and the electrode 53 are capacitively coupled.
  • the capacitance value between the electrodes 53 and 54 changes. Specifically, when the object and the electrode 53 are capacitively coupled, the capacitance value between the electrodes 53 and 54 decreases.
  • the capacitance value between the electrodes 53 and 54 changes.
  • the detection circuit 57 detects the voltage value of the electrode 54.
  • FIG. 12 is a schematic diagram illustrating the multiple detection regions of the sensing element 50.
  • the sensing element 50 can form multiple detection areas based on the detected voltage value.
  • the detection area here is a two-dimensional area that the sensing element 50 can detect, and is an area parallel to the top surface of the sensing element 50.
  • the multiple detection areas have different heights (levels) from the top surface of the sensing element 50.
  • four detection areas DE1 to DE4 are shown as an example.
  • FIG. 13 is a diagram explaining the relationship between the multiple detection areas and voltage in the sensing element 50.
  • the detection of an object is indicated as "touch on,” and the absence of detection of an object is indicated as “touch off.”
  • the detection circuit 57 detects the voltages of the multiple signal lines RL. The multiple voltages detected by the detection circuit 57 are sent to the detection position determination unit 60C.
  • the detection position determination unit 60C compares the voltage value detected by the detection circuit 57 with thresholds Th1 to Th4. If the voltage value is equal to or greater than the threshold Th1 and less than the threshold Th2, the detection position determination unit 60C determines that an object is present in the detection area DE1. If the voltage value is equal to or greater than the threshold Th2 and less than the threshold Th3, the detection position determination unit 60C determines that an object is present in the detection area DE2. If the voltage value is equal to or greater than the threshold Th3 and less than the threshold Th4, the detection position determination unit 60C determines that an object is present in the detection area DE3. If the voltage value is equal to or greater than the threshold Th4, the detection position determination unit 60C determines that an object is present in the detection area DE4.
  • the sensing element 50 can detect objects at multiple levels in the air above it.
  • FIG. 14 is a schematic diagram illustrating an aerial image 2 displayed by an aerial display device 1.
  • the aerial display device 1 includes a housing 4.
  • the housing 4 houses an illumination element 10, a display element 20, a light control element 30, an optical element 40, and a sensing element 50.
  • the housing 4 has an opening at the top that exposes the sensing element 50.
  • the aerial display device 1 is positioned so that the vertical direction is the Y direction.
  • the aerial display device 1 displays an aerial image 2 in the air.
  • a push button is shown as an example of the aerial image 2.
  • An observer 3 presses the push button with his or her finger 3A.
  • the sensing element 50 forms a detection area in a two-dimensional space that includes the aerial image 2, and detects finger 3A when observer 3 presses the push button with finger 3A.
  • Figure 15 is a schematic diagram that explains how the position of the aerial image 2 changes depending on the position of the viewpoint of the observer 3.
  • the position of the aerial image 2 changes to follow the viewpoint of the observer 3.
  • the aerial image 2 also moves upward, and when the observer 3's viewpoint moves downward on the drawing, the aerial image 2 also moves downward. In other words, the aerial image 2 is always perceived as being located directly in front of the observer 3.
  • FIG. 16 is a schematic diagram explaining the detection operation of the aerial display device 1.
  • FIG. 17 is a schematic diagram explaining the detection operation when an observer 3 views the aerial display device 1 from an oblique direction.
  • the display element 20 displays an image 21 on its screen.
  • the image 21 is, for example, a push button.
  • the aerial display device 1 displays an aerial image 2 in a two-dimensional spatial region parallel to the upper surface of the display element 20.
  • the sensing element 50 forms multiple detection regions in a two-dimensional spatial region parallel to the aerial image 2.
  • the sensing element 50 forms detection region DE1 and detection region DE2 in order from the side furthest from the sensing element 50.
  • the detection region DE2 is set to be in the same two-dimensional spatial region as the aerial image 2, i.e., to overlap with the aerial image 2.
  • the observer 3 touches the aerial image 2 with his/her finger 3A.
  • the finger 3A of the observer 3 passes through the detection area DE1 and the detection area DE2.
  • the sensing element 50 detects an object in each of the detection area DE1 and the detection area DE2.
  • the upper surface of the sensing element 50 is the reference plane of the coordinates.
  • the coordinates define the position of an object in space, and have the same meaning as the position of the object.
  • the coordinates of the image 21 are (x, y, z).
  • the coordinates of the detection position of the object in the detection area DE1 are ( x1 , y1 , z1 ), and the coordinates of the detection position of the object in the detection area DE2 are ( x2 , y2 , z2 ).
  • the detection positions of the object in the detection areas DE1 and DE2 differ depending on the position of the viewpoint of the observer 3.
  • the detection position determination unit 60C determines the position of the object based on the voltage value detected by the sensing element 50.
  • the detection position by the detection position determination unit 60C includes coordinates in the detection areas DE1 and DE2.
  • z1 is the distance from the reference plane to the detection area DE1
  • z2 is the distance from the reference plane to the detection area DE2.
  • z1 and z2 are predetermined design values.
  • FIG. 18 is a schematic diagram illustrating a method for calculating the position of the image 21 in the Z coordinate.
  • the display surface is the display surface of the display element 20
  • the reference surface is the upper surface of the sensing element 50
  • the aerial image surface is the surface on which the aerial image 2 is displayed.
  • the distance between the display element 20 and the optical element 40 is taken as l.
  • the reference surface of the optical element 40 when defining the distance l is, for example, the upper surface of the optical element 40.
  • the distance l is a predetermined design value.
  • FIG. 19 is a schematic diagram explaining a virtual display surface with a corrected Z coordinate.
  • the virtual display surface is a virtual display surface obtained by correcting the position of the display surface of the display element 20, assuming that light from the display element 20 travels in a straight line.
  • the virtual display surface is obtained by correcting the position of the display surface using equation (7).
  • the light of the image displayed on the virtual display surface virtually travels in the Z direction and is observed by the observer 3.
  • the coordinates (x, y) on the virtual display surface can be calculated from equations (5) to (7).
  • the coordinate calculation methods described above do not take into account the optical effects (refractive index, thickness, etc.) of the light control element 30, the optical element 40, and the sensing element 50, but these can be added and corrected as appropriate.
  • FIG. 20 is a schematic diagram illustrating the operation of determining a touch operation by an observer 3.
  • FIG. 20 shows coordinates on a virtual display surface 22 of a display element 20.
  • the display element 20 displays an image 21 on its screen.
  • the upper left corner of the virtual display surface 22 is defined as coordinates (0,0), and the lower right corner of the virtual display surface 22 is defined as coordinates (m,n).
  • the upper left corner of the image 21 is defined as coordinates ( m1 , n1 ), and the lower right corner of the image 21 is defined as coordinates ( m2 , n2 ).
  • the detection position determination unit 60C calculates the positions ( x1 , y1 , z1 ) and ( x2 , y2 , z2 ) of the object in the detection areas DE1 and DE2 based on the detection results of the sensing element 50. Furthermore, the detection position determination unit 60C calculates the position (x, y) on the virtual display surface 22 based on the positions ( x1 , y1 , z1 ) and ( x2 , y2 , z2 ).
  • the detection position determination unit 60C determines the movement direction (vector) in which the object moves based on the positions ( x1 , y1 , z1 ) and ( x2 , y2 , z2 ).
  • the detection position determination unit 60C calculates the position (x, y) which is the intersection of an extension line of the movement direction of the object and the virtual display surface 22.
  • the detection position determination unit 60C calculates the extension line so as to trace in reverse the optical path of light that forms the aerial image 2 visually recognized by the observer 3.
  • the detection position determination unit 60C calculates the extension line so as to trace in reverse the optical path of light that is obliquely emitted from the display element 20 and reflected by the optical element 40.
  • the detected position determination unit 60C determines whether or not the calculated position (x, y) is included in the area of the image 21.
  • the area of the image 21 is a rectangular area defined by coordinates ( m1 , n1 ) and coordinates ( m2 , n2 ).
  • the detected position determination unit 60C determines that the aerial image 2 has been selected, i.e., that the aerial image 2 has been touched by the observer 3.
  • the detected position determination unit 60C determines that the aerial image 2 has not been selected, i.e., that the aerial image 2 has not been touched by the observer 3.
  • FIG. 21 is a flowchart explaining the overall operation of the aerial display device 1.
  • the control unit 60 displays the aerial image 2 (step S100).
  • the display processing unit 60A displays an image on the screen of the display element 20.
  • the optical element 40 reflects light from the display element 20 and forms the aerial image 2 in the air.
  • the sensing element 50 performs a sensing operation (step S101).
  • the driving circuit 56 of the sensing element 50 supplies driving signals to the multiple electrodes 53 via the multiple signal lines TL.
  • the detection circuit 57 of the sensing element 50 detects the voltages of the multiple electrodes 54 via the multiple signal lines RL.
  • the sensing element 50 then forms detection regions DE1 and DE2 by comparing the detected voltage with multiple thresholds.
  • the detection position determination unit 60C determines whether or not an object has been detected based on the signal from the sensing element 50 (step S102).
  • the detection position determination unit 60C calculates the position of the object (step S103) based on the detection result of the sensing element 50. That is, the detection position determination unit 60C calculates the position ( x1 , y1 , z1 ) in the detection area DE1 and the position ( x2 , y2 , z2 ) in the detection area DE2.
  • the detection position determination unit 60C calculates the position of the object on the virtual display surface of the display element 20 (step S104).
  • the detection position determination unit 60C determines whether the calculated object position is included in the area of the image 21 (step S105).
  • the detection position determination unit 60C determines that the aerial image 2 has been touched by the observer 3 (step S106).
  • control unit 60 executes an operation according to the touch operation of the observer 3.
  • the sensing element 50 forms a plurality of detection areas (including detection areas DE1 and DE2) parallel to the display element 20 above the optical element 40, and detects an object present in the plurality of detection areas.
  • the detection position determination unit 60C calculates the movement direction (travel direction) of the object based on the detection result of the sensing element 50.
  • the detection position determination unit 60C calculates the position where an extension of the calculated movement direction intersects with the screen (display surface) of the display element 20. Then, the detection position determination unit 60C determines that the observer 3 has touched the aerial image when the position where the extension intersects with the screen is included in the area of the image of the display element 20.
  • the first embodiment even if the position of the aerial image 2 changes depending on the position from which the observer 3 views the aerial display device 1, it is possible to determine the object present in the area of the aerial image 2. In addition, it is possible to realize an aerial display device 1 that can more accurately detect the touch operation on the aerial image 2 by the observer 3.
  • the aerial display device 1 can display an aerial image 2 in the air by reflecting light emitted from the display element 20 by the optical element 40.
  • the aerial display device 1 can also display the aerial image 2 in the front direction, parallel to the element surface of the optical element 40. It is also possible to realize an aerial display device 1 that can improve display quality.
  • the observer 3 when the observer 3 looks at the optical element 40 with both eyes parallel to or close to the X direction (i.e., the direction in which the multiple optical elements 42 are arranged), the observer 3 can see an aerial image. In addition, when the observer 3 moves the viewpoint along the Y direction with both eyes parallel to or close to the X direction, the observer 3 can always see an aerial image. In addition, a wider viewing angle can be achieved when the observer 3's eyes are parallel to or close to the X direction.
  • the multiple elements that make up the aerial display device 1 can be arranged in parallel. This makes it possible to realize an aerial display device 1 that can be made smaller in size in the Z direction.
  • the second embodiment is an example of a display device 70 including a sensing element 50.
  • the display device 70 is a general display device that displays an image on its own screen.
  • FIG. 22 is a perspective view of a display device 70 according to a second embodiment of the present invention.
  • the display device 70 includes an illumination element 10, a display element 20, and a sensing element 50.
  • the illumination element 10, the display element 20, and the sensing element 50 are arranged parallel to one another.
  • the illumination element 10, the display element 20, and the sensing element 50 are fixed at specific positions by a fixing member (not shown) so as to leave a specific distance between each other.
  • the illumination element 10, the display element 20, and the sensing element 50 are housed in a housing (not shown).
  • the configurations of the illumination element 10, the display element 20, and the sensing element 50 are the same as those of the first embodiment.
  • FIG. 23 is a schematic diagram illustrating the detection operation of the display device 70.
  • FIG. 24 is a schematic diagram illustrating the detection operation when the observer 3 views the display device 70 from an oblique direction.
  • the operation of the sensing element 50 is the same as in the first embodiment.
  • the display element 20 displays an image 21 on its screen.
  • the image 21 is, for example, a push button.
  • the observer 3 visually recognizes the image 21 displayed on the screen of the display element 20.
  • the sensing element 50 forms multiple detection regions in a two-dimensional spatial region above and parallel to the display element 20. In this embodiment, an example will be described in which the sensing element 50 forms two detection regions.
  • the sensing element 50 forms detection region DE1 and detection region DE2 in order from the side furthest from the sensing element 50.
  • the sensing element 50 detects an object in each of the detection region DE1 and the detection region DE2.
  • the observer 3 operates the image 21 with his/her finger 3A.
  • the finger 3A of the observer 3 passes through the detection area DE1 and the detection area DE2.
  • the sensing element 50 detects an object in each of the detection area DE1 and the detection area DE2.
  • the upper surface of the sensing element 50 is the reference plane for the coordinates.
  • the coordinates of the image 21 are (x, y, z).
  • the coordinates of the detection position of the object in the detection area DE1 are ( x1 , y1 , z1 ), and the coordinates of the detection position of the object in the detection area DE2 are ( x2 , y2 , z2 ).
  • the detection positions of the object in the detection areas DE1 and DE2 differ depending on the position of the viewpoint of the observer 3.
  • z is the distance between the reference surface and the display element 20
  • z1 is the distance between the reference surface and the detection area DE1
  • z2 is the distance between the reference surface and the detection area DE2.
  • z, z1 , and z2 are predetermined design values.
  • the detection position determination unit 60C calculates the coordinates (x, y) on the display element 20. In other words, the detection position determination unit 60C determines the movement direction (vector) in which the object moves based on the positions ( x1 , y1 , z1 ) and ( x2 , y2 , z2 ). The detection position determination unit 60C calculates the position (x, y) which is the intersection point between the extension line of the movement direction of the object and the display surface of the display element 20.
  • the coordinate calculation methods described above do not take into account the optical influence (refractive index, thickness, etc.) of the sensing element 50, but may be appropriately added and corrected.
  • FIG. 25 is a flowchart explaining the overall operation of the display device 70.
  • the block diagram of the display device 70 is the same as that of the first embodiment.
  • the display processing unit 60A displays an image on the screen of the display element 20 (step S200). Then, the sensing element 50 performs a sensing operation (step S201). The sensing element 50 forms detection areas DE1 and DE2.
  • the detection position determination unit 60C determines whether or not an object has been detected based on the signal from the sensing element 50 (step S202).
  • the detection position determination unit 60C calculates the position of the object (step S203). That is, the detection position determination unit 60C calculates the position ( x1 , y1 , z1 ) in the detection area DE1 and the position ( x2 , y2 , z2 ) in the detection area DE2.
  • the detection position determination unit 60C calculates the position of the object on the screen (display surface) of the display element 20 (step S204).
  • the detection position determination unit 60C determines whether the calculated object position is included in the area of the image 21 (step S205).
  • the detection position determination unit 60C determines that the image 21 has been touched by the observer 3 (step S206).
  • control unit 60 executes an operation according to the touch operation of the observer 3.
  • the sensing element 50 can be applied to a general display device 70 that displays an image on its own screen.
  • the display device 70 can detect an object in a non-contact manner.
  • the third embodiment is another configuration example of the sensing element 50.
  • FIG. 26 is a perspective view of a display device 70 according to a third embodiment of the present invention.
  • the display device 70 includes a plurality of sensing elements 50.
  • two sensing elements 50-1 and 50-2 are used as an example.
  • the sensing elements 50-1 and 50-2 are configured as TOF (time of flight) sensors.
  • the sensing elements 50-1 and 50-2 are arranged above the display element 20.
  • the sensing elements 50-1 and 50-2 are arranged outside the area occupied by the display element 20 in a plan view.
  • the sensing elements 50-1 and 50-2 are arranged on one side of the display device 70 in the X direction.
  • the sensing element 50-1 is arranged above the sensing element 50-2.
  • the lighting element 10, the display element 20, and the sensing elements 50-1 and 50-2 are fixed to specific positions by fixing members not shown.
  • the lighting element 10, the display element 20, and the sensing elements 50-1 and 50-2 are housed in a housing not shown.
  • the sensing elements 50-1 and 50-2 may be provided separately from the housing in which the lighting element 10 and the display element 20 are housed.
  • the sensing elements 50-1 and 50-2 form a detection area DE1 and a detection area DE2, respectively.
  • the detection area DE1 and the detection area DE2 are set parallel to the display element 20.
  • the detection area DE1 is formed above the detection area DE2.
  • the sensing element 50-1 detects an object present in the detection area DE1.
  • the sensing element 50-1 emits light into the detection area DE1 and detects the reflected light reflected by the object.
  • the light emitted by the sensing element 50-1 is preferably light other than visible light, for example infrared light.
  • the sensing element 50-1 includes a light emitting unit that emits infrared light toward the detection area DE1, and a light receiving unit (sensor) that detects the reflected light reflected by the object.
  • the sensing element 50-1 is composed of, for example, a line sensor in which multiple light emitting elements and multiple light receiving elements are alternately arranged in a row.
  • the line sensor is capable of scanning space in a line using infrared light, and is capable of scanning a two-dimensional space consisting of the direction in which multiple light emitting elements are arranged and the direction in which light travels.
  • sensing element 50-2 detects an object present in detection area DE2.
  • FIG. 27 is a diagram explaining the configuration of sensing element 50-1.
  • FIG. 27(a) is a plan view
  • FIG. 27(b) is a side view.
  • the configuration of sensing element 50-2 is the same as FIG. 27.
  • the sensing element 50-1 comprises a substrate 80, a plurality of light-emitting elements 81, a plurality of light-receiving elements 82, a plurality of lenses 83, and a case 84.
  • the number of light-emitting elements 81, light-receiving elements 82, and lenses 83 shown in FIG. 27 is an example.
  • the plurality of light-emitting elements 81 are collectively referred to as the light-emitting section, and the plurality of light-receiving elements 82 are collectively referred to as the light-receiving section.
  • the multiple light-emitting elements 81 and the multiple light-receiving elements 82 are mounted on a substrate 80.
  • the substrate 80 includes multiple wiring layers (not shown).
  • the multiple light-emitting elements 81 and the multiple light-receiving elements 82 are arranged alternately.
  • Each of the multiple light-emitting elements 81 emits laser light.
  • Laser light is, for example, infrared light that does not stimulate the user's vision and is not affected by visible light.
  • the light-emitting elements 81 are, for example, composed of laser diodes.
  • Each of the multiple light receiving elements 82 detects the laser light (infrared light) reflected by the target object.
  • the light receiving elements 82 are composed of, for example, a photodiode.
  • the multiple lenses 83 are provided corresponding to the multiple light-emitting elements 81 and are arranged above the multiple light-emitting elements 81.
  • the multiple lenses 83 are arranged side by side in one direction.
  • Each of the multiple lenses 83 is composed of, for example, a plano-convex lens.
  • the multiple lenses 83 have the function of focusing the laser light emitted from the multiple light-emitting elements 81 in the forward direction.
  • the multiple lenses 83 also have the function of focusing the laser light reflected by an object.
  • the case 84 houses the substrate 80, a number of light-emitting elements 81, a number of light-receiving elements 82, and a number of lenses 83.
  • the case 84 has an opening at the top that exposes the lenses 83.
  • Figure 27 only the external shape of the case 84 is shown in a simplified form.
  • the detection operation of the display device 70 is the same as in the second embodiment.
  • the same effect as in the second embodiment can be obtained.
  • the sensing element of the third embodiment can be applied to the first embodiment.
  • FIG. 28 is a flowchart explaining the overall operation of the aerial display device 1 according to the fourth embodiment of the present invention.
  • the configuration of the aerial display device 1 is the same as that of the first embodiment.
  • steps S300 to S306 are the same as those in steps S100 to S106 in the first embodiment.
  • the detection position determination unit 60C displays the cursor 23 at the selected position on the virtual display surface 22 (step S307).
  • FIG. 29 is a schematic diagram illustrating the operation of determining a touch operation by an observer 3.
  • FIG. 29 shows coordinates on the virtual display surface 22 of the display element 20.
  • the display element 20 displays an image 21 on its own screen.
  • the detection position determination unit 60C displays a cursor 23 at the position selected by the observer 3 on the virtual display surface 22 of the display element 20.
  • the observer 3 can recognize that he or she is touching an area other than the aerial image 2. This allows the finger 3A of the observer 3 to be guided to the aerial image 2.
  • the fourth embodiment can also be applied to the display device 70 of the second embodiment.
  • the observer 3 may be notified of the non-selected state by using sound.
  • the detection position determination unit 60C outputs a specific sound if the position selected by the observer 3 is not included in the area of the image 21.
  • the aerial display device 1 is equipped with a speaker capable of outputting sound. This allows the observer 3 to recognize that he or she is not touching the aerial image 2.
  • the sensing element 50 is of a capacitive type.
  • the present invention is not limited to this, and other types of sensing elements capable of detecting objects in space can be used.
  • the display element 20 and the optical element 40 are arranged parallel to each other. However, this is not limited to this, and the display element 20 may be arranged diagonally relative to the optical element 40.
  • the angle between the display element 20 and the optical element 40 is set in the range greater than 0 degrees and less than 45 degrees.
  • the light control element 30 can be omitted.
  • the left side of the optical element 42 is defined as the incident surface 43, and the right side is defined as the reflective surface 44.
  • the incident surface 43 and the reflective surface 44 may be configured in reverse. In this case, the function of the aerial display device 1 described in the embodiment will also be reversed.
  • a liquid crystal display element is used as an example of the display element 20, but the present invention is not limited to this.
  • the display element 20 can also be a self-luminous organic EL (electroluminescence) display element or a micro LED (Light Emitting Diode) display element.
  • a micro LED display element is a display element that uses LEDs to emit the R (red), G (green), and B (blue) that make up a pixel. When a self-luminous display element 20 is used, the lighting element 10 is not necessary.
  • the present invention is not limited to the above-described embodiments, and can be modified in various ways during implementation without departing from the gist of the invention.
  • the embodiments may also be implemented in appropriate combination, in which case the combined effects can be obtained.
  • the above-described embodiments include various inventions, and various inventions can be extracted by combinations selected from the multiple constituent elements disclosed. For example, if the problem can be solved and an effect can be obtained even if some constituent elements are deleted from all the constituent elements shown in the embodiments, the configuration from which these constituent elements are deleted can be extracted as an invention.
  • 1...aerial display device 2...aerial image, 3...observer, 4...housing, 10...illumination element, 11...light source unit, 12...light guide plate, 13...reflective sheet, 20...display element, 21...image, 22...virtual display surface, 23...cursor, 30...light control element, 31...substrate, 32...substrate, 33...transparent member, 34...light-shielding member, 40...optical element, 41...substrate, 42...optical element, 43...incident surface, 44...reflective surface, 50...sensing element , 51...substrate, 52...substrate, 53...electrode, 54...electrode, 55...insulating layer, 56...drive circuit, 57...detection circuit, 60...controller, 60A...display processing unit, 60B...image processing unit, 60C...detection position determination unit, 61...storage unit, 62...input/output interface, 63...display unit

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)

Abstract

空中表示装置は、画像を表示する表示素子(20)と、表示素子(20)からの光を受けるように配置され、表示素子(20)からの光を、表示素子(20)と反対側に反射し、空中に空中像を結像する光学素子(40)と、光学素子(40)の上方に、表示素子(20)と平行な第1検知領域と、第1検知領域と異なるレベルの第2検知領域とを形成し、第1及び第2検知領域に存在する対象物を検知するセンシング素子(50)と、第1検知領域における第1検知位置と、第2検知領域における第2検知位置とを算出し、第1及び第2検知位置に基づいて、空中像がタッチされたか否かを判定する判定部(60C)とを含む。

Description

空中表示装置及び表示装置
 本発明は、空中表示装置及び表示装置に関する。
 画像や動画などを空中像として表示可能な空中表示装置が研究され、新しいヒューマン・マシン・インターフェースとして期待されている。空中表示装置は、例えば、2面コーナーリフレクタがアレイ状に配列された2面コーナーリフレクタアレイを備え、表示素子の表示面から出射される光を反射し、空中に実像を結像する。2面コーナーリフレクタアレイによる表示方法は、収差が無く、面対称位置に実像(空中像)を表示することができる。
 特許文献1は、透明平板の表面から突出した透明な四角柱を2面コーナーリフレクタとして使用し、複数の四角柱を平面上にアレイ状に配置した光学素子を開示している。また、特許文献2は、第1及び第2光制御パネルの各々を、透明平板の内部に垂直に複数の平面光反射部を並べて形成し、第1及び第2光制御パネルを、互いの平面光反射部が直交するように配置した光学素子を開示している。特許文献1、2の光学素子は、表示素子から出射された光を直交する反射面で2回反射させ、空中像を生成している。
 観察者は、機器に接触することなく、空中表示装置が表示した空中像をタッチすることが可能である。空中表示装置が備えるセンシング素子は、空中像の領域に存在する物体を検知し、観察者が空中像をタッチしたことを認識する。センシング素子には、観察者による空中像へのタッチ操作をより正確に検知することが要求される。
日本国特開2011-191404号公報 日本国特開2011-175297号公報
 本発明は、観察者による空中像へのタッチ操作をより正確に検知することが可能な空中表示装置及び表示装置を提供する。
 本発明の第1態様によると、画像を表示する表示素子と、前記表示素子からの光を受けるように配置され、前記表示素子からの光を、前記表示素子と反対側に反射し、空中に空中像を結像する光学素子と、前記光学素子の上方に、前記表示素子と平行な第1検知領域と、前記第1検知領域と異なるレベルの第2検知領域とを形成し、前記第1及び第2検知領域に存在する対象物を検知するセンシング素子と、前記第1検知領域における第1検知位置と、前記第2検知領域における第2検知位置とを算出し、前記第1及び第2検知位置に基づいて、前記空中像がタッチされたか否かを判定する判定部とを具備する空中表示装置が提供される。
 本発明の第2態様によると、前記判定部は、前記第1及び第2検知位置に基づいて、前記対象物が移動する移動方向を判定し、前記移動方向の延長線上に前記画像が存在する場合に、前記空中像がタッチされたと判定する、第1態様に係る空中表示装置が提供される。
 本発明の第3態様によると、前記センシング素子は、静電容量型である、第1態様に係る空中表示装置が提供される。
 本発明の第4態様によると、前記センシング素子は、複数の第1電極と、前記複数の第1電極に対向して配置された複数の第2電極と、前記複数の第1電極に駆動信号を供給する駆動回路と、前記複数の第2電極の電圧を検出する検出回路とを含み、前記判定部は、前記検出回路による検出結果と閾値とを比較し、比較結果に応じて前記対象物の位置を判定する、第3態様に係る空中表示装置が提供される。
 本発明の第5態様によると、前記センシング素子は、前記第1検知領域を形成する第1センシング素子と、前記第2検知領域を形成する第2センシング素子とを含み、前記第1及び第2センシング素子の各々は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む、第1態様に係る空中表示装置が提供される。
 本発明の第6態様によると、前記光学素子は、平面状の基材と、前記基材の下に設けられ、それぞれが第1方向に延び、前記第1方向に直交する第2方向に並んだ複数の光学要素とを含み、前記複数の光学要素の各々は、前記基材の法線方向に対してそれぞれが傾き、互いに接する入射面及び反射面を有する、第1態様に係る空中表示装置が提供される。
 本発明の第7態様によると、前記表示素子と前記光学素子との間に配置され、前記表示素子からの光のうち斜め方向の光成分を透過する光制御素子をさらに具備する、第1態様に係る空中表示装置が提供される。
 本発明の第8態様によると、前記光制御素子は、交互に配置された複数の透明部材及び複数の遮光部材を含み、前記複数の遮光部材は、前記光制御素子の法線に対して傾いている、第7態様に係る空中表示装置が提供される。
 本発明の第9態様によると、前記表示素子及び前記光学素子は、互いに平行に配置される、第1態様に係る空中表示装置が提供される。
 本発明の第10態様によると、画像を表示する表示素子と、前記表示素子の上方に、前記表示素子と平行な第1検知領域と、前記第1検知領域と異なるレベルの第2検知領域とを形成し、前記第1及び第2検知領域に存在する対象物を検知するセンシング素子と、前記第1検知領域における第1検知位置と、前記第2検知領域における第2検知位置とを算出し、前記第1及び第2検知位置に基づいて、前記画像がタッチされたか否かを判定する判定部とを具備する表示装置が提供される。
 本発明の第11態様によると、前記判定部は、前記第1及び第2検知位置に基づいて、前記対象物が移動する移動方向を判定し、前記移動方向の延長線上に前記画像が存在する場合に、前記画像がタッチされたと判定する、第10態様に係る表示装置が提供される。
 本発明の第12態様によると、前記センシング素子は、静電容量型である、第10態様に係る表示装置が提供される。
 本発明の第13態様によると、前記センシング素子は、複数の第1電極と、前記複数の第1電極に対向して配置された複数の第2電極と、前記複数の第1電極に駆動信号を供給する駆動回路と、前記複数の第2電極の電圧を検出する検出回路とを含み、前記判定部は、前記検出回路による検出結果と閾値とを比較し、比較結果に応じて前記対象物の位置を判定する、第12態様に係る表示装置が提供される。
 本発明の第14態様によると、前記センシング素子は、前記第1検知領域を形成する第1センシング素子と、前記第2検知領域を形成する第2センシング素子とを含み、前記第1及び第2センシング素子の各々は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む、第10態様に係る表示装置が提供される。
 本発明によれば、観察者による空中像へのタッチ操作をより正確に検知することが可能な空中表示装置及び表示装置を提供することができる。
図1は、本発明の第1実施形態に係る空中表示装置の斜視図である。 図2は、図1に示した空中表示装置のXZ面における側面図である。 図3Aは、図1に示した光制御素子の平面図である。 図3Bは、図3AのA-A´線に沿った光制御素子の断面図である。 図4は、図1に示した光学素子の斜視図である。 図5Aは、図1に示したセンシング素子の斜視図である。 図5Bは、図5Aに示したセンシング素子の平面図である。 図5Cは、図5Bに示したB-B´線に沿ったセンシング素子の断面図である。 図6は、空中表示装置のブロック図である。 図7は、光学素子における光の反射の様子を説明する斜視図である。 図8は、光学素子における光の反射の様子を説明するXZ面の側面図である。 図9は、光学素子における光の反射の様子を説明するYZ面の側面図である。 図10は、光学素子における入射面及び反射面の角度条件を説明する図である。 図11は、センシング素子の動作を説明する模式図である。 図12は、センシング素子の複数の検知領域を説明する模式図である。 図13は、センシング素子における複数の検知領域と電圧との関係を説明する図である。 図14は、空中表示装置が表示する空中像を説明する模式図である。 図15は、観察者の視点の位置に応じて空中像の位置が変化する様子を説明する模式図である。 図16は、空中表示装置の検知動作を説明する模式図である。 図17は、観察者が空中表示装置を斜め方向から見た場合の検知動作を説明する模式図である。 図18は、Z座標における画像の位置を算出する方法を説明する模式図である。 図19は、Z座標を補正した仮想表示面を説明する模式図である。 図20は、観察者のタッチ操作を判定する動作を説明する模式図である。 図21は、空中表示装置における全体動作を説明するフローチャートである。 図22は、本発明の第2実施形態に係る表示装置の斜視図である。 図23は、表示装置の検知動作を説明する模式図である。 図24は、観察者が表示装置を斜め方向から見た場合の検知動作を説明する模式図である。 図25は、表示装置における全体動作を説明するフローチャートである。 図26は、本発明の第3実施形態に係る表示装置の斜視図である。 図27は、センシング素子の構成を説明する図である。 図28は、本発明の第4実施形態に係る空中表示装置における全体動作を説明するフローチャートである。 図29は、観察者のタッチ操作を判定する動作を説明する模式図である。
 以下、実施形態について図面を参照して説明する。ただし、図面は模式的または概念的なものであり、各図面の寸法および比率等は必ずしも現実のものと同一とは限らない。また、図面の相互間で同じ部分を表す場合においても、互いの寸法の関係や比率が異なって表される場合もある。特に、以下に示す幾つかの実施形態は、本発明の技術思想を具体化するための装置および方法を例示したものであって、構成部品の形状、構造、配置等によって、本発明の技術思想が特定されるものではない。なお、以下の説明において、同一の機能及び構成を有する要素については同一符号を付し、重複する説明は省略する。
 [1] 第1実施形態
 [1-1] 空中表示装置1の構成
 図1は、本発明の第1実施形態に係る空中表示装置1の斜視図である。図1において、X方向は、空中表示装置1のある1辺に沿った方向であり、Y方向は、水平面内においてX方向に直交する方向であり、Z方向は、XY面に直交する方向(法線方向ともいう)である。図2は、図1に示した空中表示装置1のXZ面における側面図である。
 空中表示装置1は、画像(動画を含む)を表示する装置である。空中表示装置1は、自身の光出射面の上方の空中に、空中像を表示する。「空中像を表示する」とは、「空中像を結像する」と同じ意味である。空中表示装置1の光出射面とは、空中表示装置1を構成しかつ光路上に配置された複数の部材のうち最上層に配置された部材の上面を意味する。空中像とは、空中に結像する実像である。
 空中表示装置1は、照明素子(バックライトともいう)10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50を備える。照明素子10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50は、この順にZ方向に沿って配置され、互いに平行に配置される。照明素子10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50は、互いに特定の間隔を空けるようにして、図示せぬ固定部材で特定の位置に固定される。照明素子10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50は、図示せぬ筐体に収容される。
 照明素子10は、照明光を発光し、この照明光を表示素子20に向けて出射する。照明素子10は、光源部11、導光板12、及び反射シート13を備える。照明素子10は、例えばサイドライト型の照明素子である。照明素子10は、面光源を構成する。照明素子10は、後述する角度θの斜め方向に光強度がピークになるように構成してもよい。
 光源部11は、導光板12の側面に向き合うように配置される。光源部11は、導光板12の側面に向けて光を発光する。光源部11は、例えば白色LED(Light Emitting Diode)からなる複数の発光素子を含む。導光板12は、光源部11からの照明光を導光し、照明光を自身の上面から出射する。反射シート13は、導光板12の底面から出射した照明光を、再び導光板12に向けて反射する。照明素子10は、導光板12の上面に、光学特性を向上させる部材(プリズムシート、及び拡散シートを含む)を備えていてもよい。
 表示素子20は、透過型の表示素子である。表示素子20は、例えば液晶表示素子で構成される。表示素子20の駆動モードについては特に限定されず、TN(Twisted Nematic)モード、VA(Vertical Alignment)モード、又はホモジニアスモードなどを用いることができる。表示素子20は、照明素子10から出射された照明光を受ける。表示素子20は、照明素子10からの照明光を透過して光変調を行う。そして、表示素子20は、自身の画面に特定の画像を表示する。
 光制御素子30は、不要光を低減する機能を有する。不要光とは、空中像を生成するのに寄与しない光成分であり、法線方向に光学素子40を透過する光成分を含む。光制御素子30は、法線方向に対して角度θの斜め方向を中心として所定の角度範囲の光成分を透過するとともに、上記角度範囲以外の光成分を遮光するように構成される。光制御素子30の面積は、表示素子20の面積以上に設定される。光制御素子30の詳細な構成については後述する。
 光学素子40は、底面側から入射した光を上面側に反射する。また、光学素子40は、底面側から斜めに入射した入射光を、例えば正面方向(法線方向)に反射する。光学素子40の面積は、表示素子20の面積以上に設定される。光学素子40の詳細な構成については後述する。光学素子40は、空中に空中像2を結像する。空中像2は、光学素子40の素子面に平行であり、2次元の画像である。素子面とは、光学素子40が面内方向に広がる仮想的な平面を言う。素子面は、面内と同じ意味である。その他の素子の素子面についても同様の意味である。光学素子40の正面にいる観察者3は、光学素子40によって結像された空中像2を視認することができる。
 センシング素子50は、非接触で対象物を検知可能なように構成される。センシング素子50は、空中表示装置1が生成した空中像2の一部又は全部を含む2次元の空間領域に、検知領域を形成する。センシング素子50は、検知領域に存在する対象物(物体)を検知するとともに、対象物の位置を検知する。本実施形態では、静電容量型のセンシング素子を例に挙げて説明する。図1では、センシング素子50が光学素子40から離れて図示されているが、例えば、センシング素子50は、光学素子40の上面に近接して配置される。図1のセンシング素子50において、Y方向に突出した四角形の部材は、配線の一部を例示している。センシング素子50の面積は、表示素子20の面積以上に設定される。センシング素子50の詳細な構成については後述する。
 [1-1-1] 光制御素子30の構成
 図3Aは、図1に示した光制御素子30の平面図である。図3Bは、図3AのA-A´線に沿った光制御素子30の断面図である。
 基材31は、XY面において平面状に構成され、直方体を有する。基材31は、光を透過する。
 基材31上には、それぞれがY方向に延び、X方向に並んだ複数の透明部材33が設けられる。また、基材31上には、それぞれがY方向に延び、X方向に並んだ複数の遮光部材34が設けられる。複数の透明部材33と複数の遮光部材34とは、隣接するもの同士が接するようにして交互に配置される。
 複数の透明部材33及び複数の遮光部材34上には、基材32が設けられる。基材32は、XY面において平面状に構成され、直方体を有する。基材32は、光を透過する。
 透明部材33は、XZ面において、基材31の法線方向に対して角度θの斜め方向に延びる。透明部材33は、XZ面において、側面が角度θだけ傾いた平行四辺形である。透明部材33は、光を透過する。
 遮光部材34は、XZ面において、基材31の法線方向に対して角度θの斜め方向に延びる。遮光部材34は、XZ面において、側面が角度θだけ傾いた平行四辺形である。遮光部材34は、光を遮光する。遮光部材34の厚みは、透明部材33の厚みより薄く設定される。
 隣接する2個の遮光部材34は、Z方向において互いの端部が若干重なるように配置される。
 基材31、32、及び透明部材33としては、ガラス、又は透明な樹脂(アクリル樹脂を含む)が用いられる。遮光部材34としては、例えば、黒色の染料又は顔料が混入された樹脂が用いられる。
 なお、基材31、32の一方又は両方を省略して、光制御素子30を構成してもよい。複数の透明部材33と複数の遮光部材34とが交互に配置されていれば、光制御素子30の機能を実現できる。
 このように構成された光制御素子30は、法線方向に対して角度θの斜め方向の光強度がピークになるように、表示光を透過することができる。角度θは、例えば10度以上60度以下に設定される。例えば、光制御素子30は、法線方向に対して30°±30°の範囲以外の光成分を遮光するように構成される。望ましくは、光制御素子30は、法線方向に対して30°±20°の範囲以外の光成分を遮光するように構成される。
 なお、変形例として、光制御素子30は、照明素子10と表示素子20との間に配置してもよい。また、光制御素子30を省略して、空中表示装置1を構成してもよい。
 [1-1-2] 光学素子40の構成
 図4は、図1に示した光学素子40の斜視図である。図4には、光学素子40の一部を拡大した拡大図も図示している。図4の拡大図は、XZ面における側面図である。
 光学素子40は、基材41、及び複数の光学要素42を備える。基材41は、XY面において平面状に構成され、直方体を有する。
 基材41の底面には、複数の光学要素42が設けられる。複数の光学要素42の各々は、三角柱で構成される。光学要素42は、三角柱の3個の側面がXY面と平行になるように配置され、1つの側面が基材41に接する。複数の光学要素42は、それぞれがY方向に延び、X方向に並んで配置される。換言すると、複数の光学要素42は、XZ面において鋸歯状を有する。
 複数の光学要素42の各々は、入射面43及び反射面44を有する。Y方向から見て、左側の側面が入射面43であり、右側の側面が反射面44である。入射面43は、表示素子20からの光が入射する面である。反射面44は、入射面43に外部から入射した光を、光学要素42の内部で反射する面である。入射面43と反射面44とは、角度θを有する。
 基材41及び光学要素42は、透明材料で構成される。光学要素42は、例えば、基材41と同じ透明材料によって基材41と一体的に形成される。基材41と光学要素42とを個別に形成し、透明な接着材を用いて基材41に光学要素42を接着してもよい。基材41及び光学要素42を構成する透明材料としては、ガラス、又は透明な樹脂(アクリル樹脂を含む)が用いられる。
 このように構成された光学素子40は、入射光を内部で反射して、空中に実像を結像する。また、光学素子40は、素子面の正面の位置に、空中像2を結像する。
 [1-1-3] センシング素子50の構成
 図5Aは、図1に示したセンシング素子50の斜視図である。図5Bは、図5Aに示したセンシング素子50の平面図である。図5Bには、センシング素子50が備える回路構成も示している。図5Cは、図5Bに示したB-B´線に沿ったセンシング素子50の断面図である。
 センシング素子50は、2個の基板51、52、複数の電極53、複数の電極54、及び絶縁層55を備える。基板51、52は、透明かつ絶縁性を有する基板で構成され、ガラス基板又はプラスチック基板で構成される。
 基板51上には、複数の電極53が設けられる。複数の電極53の各々の平面形状は、例えば正方形を有する。電極53は、1本の対角線がX方向と平行になるように配置される。複数の電極53は、マトリクス状に配置される。Y方向に並んだ1列分の電極53は、Y方向に延びる複数の接続電極を介して電気的に接続される。Y方向に並んだ1列分の電極53は、Y方向に延びる引き出し電極を介して信号線TLに接続される。電極53は、送信電極として機能する。
 基板52上には、複数の電極54が設けられる。複数の電極54の各々の平面形状は、例えば正方形を有する。電極54は、1本の対角線がX方向と平行になるように配置される。複数の電極54は、マトリクス状に配置される。X方向に並んだ1行分の電極54は、X方向に延びる複数の接続電極を介して電気的に接続される。X方向に並んだ1行分の電極54は、X方向に延びる引き出し電極を介して信号線RLに接続される。電極54は、受信電極として機能する。
 複数の電極53と複数の電極54とは、平面視において重ならないように配置される。基板51と基板52とは、複数の電極53と複数の電極54とが向き合うように配置される。電極53及び電極54は、透明電極で構成され、例えばITO(インジウム錫酸化物)で構成される。
 複数の電極53と複数の電極54との間には、絶縁層55が設けられる。絶縁層55は、透明な絶縁材料で構成される。絶縁層55は、複数の層で構成してもよい。
 センシング素子50は、駆動回路56、及び検出回路57をさらに備える。駆動回路56は、複数の信号線TLに接続される。駆動回路56は、複数の信号線TLの各々に、パルス波形からなる駆動信号を供給する。また、駆動回路56は、複数の信号線TLに順次パルスが印加されるように、駆動信号を生成する。
 検出回路57は、複数の信号線RLに接続される。検出回路57は、複数の信号線RLの電圧値を検出する。
 [1-1-4] 空中表示装置1のブロック構成
 図6は、空中表示装置1のブロック図である。空中表示装置1は、制御部60、記憶部61、入出力インターフェース(入出力IF)62、表示部63、センシング素子50、及び入力部64を備える。制御部60、記憶部61、及び入出力インターフェース62は、バス65を介して互いに接続される。
 入出力インターフェース62は、表示部63、センシング素子50、及び入力部64に接続される。入出力インターフェース62は、表示部63、センシング素子50、及び入力部64のそれぞれに対して、所定の規格に応じたインターフェース処理を行う。
 表示部63は、照明素子10、及び表示素子20を備える。表示部63は、画像を表示する。
 センシング素子50は、上方に複数の検知領域を形成する。センシング素子50は、電極53と電極54との間の静電容量の変化に基づいて、複数の検知領域に存在する対象物を検知する。
 制御部60は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等の1つ以上のプロセッサにより構成される。制御部60は、記憶部61に格納されたプログラムを実行することで各種機能を実現する。制御部60は、表示処理部60A、画像処理部60B、及び検知位置判定部60Cを備える。
 表示処理部60Aは、表示部63(具体的には、照明素子10、及び表示素子20)の動作を制御する。表示処理部60Aは、照明素子10のオン及びオフを制御する。表示処理部60Aは、表示素子20に画像信号を送信し、表示素子20に画像を表示させる。
 画像処理部60Bは、空中表示装置1が表示する画像を生成する。画像処理部60Bは、記憶部61に格納された画像データを用いることが可能である。画像処理部60Bは、図示せぬ通信機能を用いて外部から画像データを取得してもよい。
 検知位置判定部60Cは、センシング素子50の動作を制御する。検知位置判定部60Cは、センシング素子50の検知結果に基づいて、複数の検知領域ごとに、対象物が検知された検知位置を算出する。検知位置判定部60Cは、複数の検知位置に基づいて、対象物が移動する方向(ベクトル)を判定する。検知位置判定部60Cは、対象物が移動する方向の延長線と、表示素子20の表示面との交点の位置を算出する。検知位置判定部60Cは、算出した表示面上の位置が、表示素子20の画像の領域に含まれるか否かを判定する。
 記憶部61は、ROM(Read Only Memory)、HDD(Hard Disk Drive)、及びSSD(Solid State Drive)等の不揮発性記憶装置と、RAM(Random Access Memory)、及びレジスタ等の揮発性記憶装置とを含む。記憶部61は、制御部60が実行するプログラムを格納する。記憶部61は、制御部60の制御に必要な各種データを格納する。記憶部61は、空中表示装置1が表示する画像のデータを格納する。
 入力部64は、例えばタッチパネルやボタンなどを含み、ユーザが入力した情報を受け付ける。画像処理部60Bは、入力部64が受け付けた情報に基づいて、表示部63に表示する画像を選択することが可能である。
 [1-2] 動作
 次に、上記のように構成された空中表示装置1の動作について説明する。
 [1-2-1] 空中表示装置1の基本動作
 まず、空中表示装置1の基本動作について説明する。
 図2の矢印は、光路を示している。図2に示すように、表示素子20の任意の点“o”から出射された光は、光制御素子30に入射する。表示素子20から出射された光のうち角度θの光成分(角度θを中心とした所定の角度範囲の光成分を含む)は、光制御素子30を透過する。光制御素子30を透過した光は、光学素子40に入射する。光学素子40は、入射光を、光制御素子30と反対側に反射し、空中に空中像2を結像する。
 図7は、光学素子40における光の反射の様子を説明する斜視図である。図8は、光学素子40における光の反射の様子を説明するXZ面の側面図である。図8は、観察者3の両目(すなわち、両目を結ぶ線)がX方向に平行な状態で光学素子40を見た図である。図9は、光学素子40における光の反射の様子を説明するYZ面の側面図である。図9は、観察者3の両目がY方向に平行な状態で光学素子40を見た図である。
 表示素子20の任意の点“o”から出射された光は、光学素子40の入射面43に入射し、反射面44に到達する。反射面44の法線方向に対して臨界角よりも大きい角度で反射面44に到達した光は、反射面44で全反射され、光学素子40の光学要素42が形成されている側と反対側の平面から出射される。臨界角とは、その入射角を超えると全反射する最少の入射角である。臨界角は、入射面の垂線に対する角度である。
 図8のXZ面では、点“o”から出射された光のうち結像に寄与する光成分は、光学要素42の反射面44で全反射され、その光は空中で結像されて空中像を生成する。
 図9のYZ面では、点“o”から出射された光のうち結像に寄与しない光成分は、光学要素42の反射面44で反射されず、その光は空中で結像することがないため空中像の生成に寄与しない。
 すなわち、観察者3が空中像を視認できる条件は、観察者3の両眼がX方向に平行、又はそれに近い状態(例えばX方向に対して±10度)である。また、観察者3の両眼がX方向に平行、又はそれに近い状態でY方向に沿って視点を移動した場合、観察者3は、空中像を常に認識することができる。
 図10は、光学素子40における入射面43及び反射面44の角度条件を説明する図である。
 Z方向(素子面に垂直な方向)に対する入射面43の角度をθ、Z方向に対する反射面44の角度をθ、入射面43と反射面44とのなす角度をθとする。角度をθは、以下の式(1)で表される。 
 θ=θ+θ   ・・・(1)
 光制御素子30から角度θで出射された光は、入射面43に入射する。光学素子40の材料の屈折率をn、空気の屈折率を1とする。入射面43における入射角をθ、屈折角をθとする。反射面44における入射角をθ、反射角をθ(=θ)とする。光学素子40の上面における入射角をθ、屈折角をθとする。屈折角θが出射角である。出射角θは、以下の式(2)で表される。
 θ=sin-1(n*sin(sin-1((1/n)*sin(90°-(θ+θ)))+θ+2θ-90°))   ・・・(2)
 反射面44における臨界角は、以下の式(3)で表される。
 臨界角<θ(=θ
 臨界角=sin-1(1/n)   ・・・(3)
 すなわち、反射面44における入射角θは、反射面44における臨界角より大きく設定される。換言すると、反射面44の角度θは、反射面44に入射する光の入射角が臨界角より大きくなるように設定される。
 また、入射面43に入射した光は、入射面43で全反射されないように設定される。すなわち、入射面43の角度θは、入射面43に入射する光の入射角が臨界角より小さくなるように設定される。
 光学素子40の素子面と空中像2の面との角度、及び光学素子40の素子面と空中像2の面との距離は、光学素子40に入射する光の角度θ、光学素子40の屈折率、光学素子40の入射面43の角度θ、光学素子40の反射面44の角度θを最適に設定することで調整が可能である。
 [1-2-2] センシング素子50の動作
 次に、センシング素子50の動作について説明する。
 図11は、センシング素子50の動作を説明する模式図である。
 駆動回路56は、信号線TLを介して電極53に駆動信号を供給する。駆動信号は、所定の周期を有するパルス波形からなる。電極53と電極54とは容量結合しており、両者の間には電界が発生している。検出回路57は、電極54の電圧値を検出可能なように構成される。
 観察者3の指3Aは、接地電圧GNDを有する。対象物(例えば、観察者3の指3A)がセンシング素子50に近づくと、対象物と電極53とが容量結合する。この場合、電極53と電極54との間の容量値が変化する。具体的には、対象物と電極53とが容量結合すると、電極53と電極54との間の容量値が減少する。電極53と電極54との間の容量値が変化すると、電極54の電圧が変化する。検出回路57は、電極54の電圧値を検出する。
 図12は、センシング素子50の複数の検知領域を説明する模式図である。
 センシング素子50は、検出した電圧値に基づいて、複数の検知領域を形成することができる。ここでいう検知領域とは、センシング素子50が検知可能な2次元の領域であり、センシング素子50の上面と平行な領域である。複数の検知領域は、センシング素子50の上面からの高さ(レベル)が異なる。図12では、4個の検知領域DE1~DE4を一例として示している。
 図13は、センシング素子50における複数の検知領域と電圧との関係を説明する図である。図13において、対象物を検知した場合を“タッチオン”、対象物を検知していない場合を“タッチオフ”と表記している。
 検出回路57は、複数の信号線RLの電圧を検出する。検出回路57により検出された複数の電圧は、検知位置判定部60Cに送られる。検知位置判定部60Cは、検出回路57により検出された電圧値と閾値Th1~Th4とを比較する。検知位置判定部60Cは、電圧値が、閾値Th1以上かつ閾値Th2未満である場合、対象物が検知領域DE1に存在すると判定する。検知位置判定部60Cは、電圧値が、閾値Th2以上かつ閾値Th3未満である場合、対象物が検知領域DE2に存在すると判定する。検知位置判定部60Cは、電圧値が、閾値Th3以上かつ閾値Th4未満である場合、対象物が検知領域DE3に存在すると判定する。検知位置判定部60Cは、電圧値が、閾値Th4以上である場合、対象物が検知領域DE4に存在すると判定する。
 このように、センシング素子50は、自身の上方の空中の複数のレベルで対象物を検知することができる。
 [1-2-3] 空中表示装置1の検知動作
 次に、空中表示装置1の検知動作について説明する。
 図14は、空中表示装置1が表示する空中像2を説明する模式図である。空中表示装置1は、筐体4を備える。筐体4は、照明素子10、表示素子20、光制御素子30、光学素子40、及びセンシング素子50を収容する。筐体4は、上部にセンシング素子50を露出する開口部を有する。図14において、鉛直方向がY方向になるように、空中表示装置1を配置している。
 空中表示装置1は、空中に空中像2を表示する。図14では、空中像2として、押しボタンを一例として示している。観察者3は、自身の指3Aで押しボタンを押す。センシング素子50は、空中像2を含む2次元の空間に検知領域を形成し、観察者3が指3Aで押しボタンを押した場合に、指3Aを検知する。
 図15は、観察者3の視点の位置に応じて空中像2の位置が変化する様子を説明する模式図である。
 光学素子40の構造に起因した作用として、観察者3がY方向に沿って視点を動かした場合、観察者3の視点を追うように空中像2の位置が変化する。図面の上方向に観察者3の視点が移動すると、空中像2も上方向に移動し、図面の下方向に観察者3の視点が移動すると、空中像2も下方向に移動する。すなわち、空中像2は、常に観察者3の正面に位置するように視認される。
 図16は、空中表示装置1の検知動作を説明する模式図である。図17は、観察者3が空中表示装置1を斜め方向から見た場合の検知動作を説明する模式図である。
 表示素子20は、自身の画面に画像21を表示する。画像21は、例えば押しボタンである。空中表示装置1は、表示素子20の上面に平行な2次元の空間領域に空中像2を表示する。
 センシング素子50は、空中像2と平行な2次元の空間領域に複数の検知領域を形成する。本実施形態では、センシング素子50が2個の検知領域を形成する場合を例に挙げて説明する。センシング素子50は、センシング素子50から遠い側から順に、検知領域DE1、及び検知領域DE2を形成する。検知領域DE2は、空中像2と同じ2次元の空間領域、すなわち、空中像2と重なるように設定される。
 観察者3は、自身の指3Aで空中像2をタッチするものとする。観察者3の指3Aは、検知領域DE1、及び検知領域DE2を通過する。センシング素子50は、検知領域DE1、及び検知領域DE2のそれぞれにおいて、対象物を検知する。
 センシング素子50の上面を座標の基準面とする。本実施形態における座標とは、物体の空間での位置を定めるものであり、物体の位置と同じ意味である。画像21の座標を(x,y,z)とする。検知領域DE1における対象物の検知位置の座標を(x,y,z)、検知領域DE2における対象物の検知位置の座標を(x,y,z)とする。図16に示すように、観察者3の視点の位置に応じて、検知領域DE1、DE2における対象物の検知位置が異なる。
 空間における直線の方程式より、以下の式(4)が成り立つ。
 (x-x)/(x-x)=(y-y)/(y-y)=(z-z)/(z-z)   ・・・(4)
 押しボタンの押下時、X方向のズレは僅少であると仮定する。すなわち、X座標において、以下の式(5)が成り立つ。
 x=x(=x)   ・・・(5)
 式(4)から、Y座標において、以下の式(6)が成り立つ。
 y=y+(z-z)*(y-y)/(z-z)   ・・・(6)
 検知位置判定部60Cは、センシング素子50が検出した電圧値に基づいて、対象物の位置を判定する。検知位置判定部60Cによる検知位置は、検知領域DE1、DE2における座標を含む。zは、基準面から検知領域DE1までの距離であり、zは、基準面から検知領域DE2までの距離である。z及びzは、予め決められた設計値である。
 図18は、Z座標における画像21の位置を算出する方法を説明する模式図である。図18において、表示面は、表示素子20の表示面であり、基準面は、センシング素子50の上面であり、空中像面は、空中像2が表示される面である。
 前述したように、表示素子20から角度θで出射した光が光学素子40により観察者3の正面に反射される。表示素子20と光学素子40との距離をlとする。距離lを規定する際の光学素子40の基準面は、例えば光学素子40の上面である。距離lは、予め決められた設計値である。
 Z座標において、以下の式(7)が成り立つ。
 z=l/sinθ   ・・・(7)
 図19は、Z座標を補正した仮想表示面を説明する模式図である。仮想表示面とは、表示素子20からの光が直線的に進むと仮定した場合に、表示素子20の表示面の位置を補正した仮想的な表示面である。式(7)を用いて表示面の位置を補正すると、仮想表示面が得られる。仮想表示面に表示される画像の光は、仮想的に、Z方向に進んで観察者3に観察される。
 式(5)~(7)から、仮想表示面での座標(x,y)が求められる。これまでの座標算出方法について、光制御素子30、光学素子40、及びセンシング素子50の光学的影響(屈折率、厚みなど)は考慮に入れていないが、適宜追加及び補正を行えばよい。
 図20は、観察者3のタッチ操作を判定する動作を説明する模式図である。図20は、表示素子20の仮想表示面22における座標を示している。表示素子20は、自身の画面に画像21を表示する。
 仮想表示面22の左上の角を座標(0,0)、仮想表示面22の右下の角を座標(m,n)とする。画像21の左上の角を座標(m,n)、画像21の右下の角を座標(m,n)とする。
 検知位置判定部60Cは、センシング素子50の検出結果に基づいて、対象物の検知領域DE1、DE2における位置(x,y,z)、(x,y,z)を算出する。さらに、検知位置判定部60Cは、位置(x,y,z)、(x,y,z)に基づいて、仮想表示面22での位置(x,y)を算出する。
 換言すると、検知位置判定部60Cは、位置(x,y,z)、(x,y,z)に基づいて、対象物が移動する移動方向(ベクトル)を判定する。検知位置判定部60Cは、対象物の移動方向の延長線と仮想表示面22との交点である位置(x,y)を算出する。検知位置判定部60Cは、観察者3が視認する空中像2を結像する光の光路を逆に辿るように上記延長線を算出する。すなわち、検知位置判定部60Cは、表示素子20から斜めに出射して光学素子40で反射される光路を逆に辿るように上記延長線を算出する。
 検知位置判定部60Cは、算出した位置(x,y)が、画像21の領域に含まれるか否かを判定する。画像21の領域は、座標(m,n)と座標(m,n)とで規定される四角形の領域である。検知位置判定部60Cは、算出した位置(x,y)が、画像21の領域に含まれる場合、選択された、すなわち空中像2が観察者3にタッチされたと判定する。一方、検知位置判定部60Cは、算出した位置(x,y)が、画像21の領域に含まれない場合、非選択である、すなわち空中像2が観察者3にタッチされていないと判定する。
 [1-2-4] 全体動作の流れ
 次に、空中表示装置1における全体動作の流れについて説明する。図21は、空中表示装置1における全体動作を説明するフローチャートである。
 制御部60は、空中像2を表示する(ステップS100)。表示処理部60Aは、表示素子20の画面に画像を表示させる。光学素子40は、表示素子20からの光を反射し、空中に空中像2を結像する。
 続いて、センシング素子50は、センシング動作を実行する(ステップS101)。センシング素子50の駆動回路56は、複数の信号線TLを介して、複数の電極53に駆動信号を供給する。センシング素子50の検出回路57は、複数の信号線RLを介して、複数の電極54の電圧を検出する。そして、センシング素子50は、検出した電圧と複数の閾値とを比較することで、検知領域DE1、DE2を形成する。
 続いて、検知位置判定部60Cは、センシング素子50からの信号に基づいて、対象物を検知したか否か判定する(ステップS102)。
 対象物を検知した場合(S102=Yes)、検知位置判定部60Cは、センシング素子50の検知結果に基づいて、対象物の位置を算出する(ステップS103)。すなわち、検知位置判定部60Cは、検知領域DE1における位置(x,y,z)、及び検知領域DE2における位置(x,y,z)を算出する。
 続いて、検知位置判定部60Cは、表示素子20の仮想表示面における対象物の位置を算出する(ステップS104)。
 続いて、検知位置判定部60Cは、算出した対象物の位置が画像21の領域に含まれるか否かを判定する(ステップS105)。
 対象物の位置が画像21の領域に含まれる場合(S105=Yes)、検知位置判定部60Cは、観察者3により空中像2がタッチされたと判定する(ステップS106)。
 その後、制御部60は、観察者3のタッチ操作に応じた動作を実行する。
 [1-3] 第1実施形態の効果
 第1実施形態では、センシング素子50は、光学素子40の上方に、表示素子20と平行な複数の検知領域(検知領域DE1、DE2を含む)を形成し、複数の検知領域に存在する対象物を検知する。検知位置判定部60Cは、センシング素子50の検知結果に基づいて、対象物の移動方向(進行方向)を算出する。検知位置判定部60Cは、算出した移動方向の延長線と表示素子20の画面(表示面)とが交差する位置を算出する。そして、検知位置判定部60Cは、延長線と画面とが交差する位置が、表示素子20の画像の領域に含まれる場合に、観察者3が空中像をタッチしたと判定する。
 従って第1実施形態によれば、観察者3が空中表示装置1を見る位置に応じて空中像2の位置が変化した場合でも、空中像2の領域に存在する対象物を判定することができる。ひいては、観察者3による空中像2へのタッチ操作をより正確に検知することが可能な空中表示装置1を実現できる。
 また、空中表示装置1は、表示素子20から出射された光を光学素子40で反射させることで、空中に空中像2を表示することができる。また、空中表示装置1は、その正面方向において、光学素子40の素子面に平行に空中像2を表示することができる。また、表示品質を向上させることが可能な空中表示装置1を実現できる。
 また、観察者3の両眼がX方向(すなわち、複数の光学要素42が並ぶ方向)に平行、又はそれに近い状態で光学素子40を見た場合に、観察者3は、空中像を視認することができる。また、観察者3の両眼がX方向に平行、又はそれに近い状態でY方向に沿って視点を移動した場合、空中像を常に視認することができる。また、観察者3の両眼がX方向に平行、又はそれに近い状態において、より広い視野角を実現できる。
 また、空中表示装置1を構成する複数の素子を平行に配置することができる。これにより、Z方向に小型化が可能な空中表示装置1を実現できる。
 [2] 第2実施形態
 第2実施形態は、センシング素子50を備えた表示装置70の実施例である。表示装置70は、自身の画面に画像を表示する一般的な表示装置である。
 図22は、本発明の第2実施形態に係る表示装置70の斜視図である。表示装置70は、照明素子10、表示素子20、及びセンシング素子50を備える。照明素子10、表示素子20、及びセンシング素子50は、互いに平行に配置される。照明素子10、表示素子20、及びセンシング素子50は、互いに特定の間隔を空けるようにして、図示せぬ固定部材で特定の位置に固定される。照明素子10、表示素子20、及びセンシング素子50は、図示せぬ筐体に収容される。照明素子10、表示素子20、及びセンシング素子50のそれぞれの構成は、第1実施形態と同じである。
 図23は、表示装置70の検知動作を説明する模式図である。図24は、観察者3が表示装置70を斜め方向から見た場合の検知動作を説明する模式図である。センシング素子50の動作は、第1実施形態と同じである。
 表示素子20は、自身の画面に画像21を表示する。画像21は、例えば押しボタンである。観察者3は、表示素子20の画面に表示された画像21を視認する。
 センシング素子50は、上方に、表示素子20と平行な2次元の空間領域に複数の検知領域を形成する。本実施形態では、センシング素子50は、2個の検知領域を形成する場合を例に説明する。センシング素子50は、センシング素子50から遠い側から順に、検知領域DE1、及び検知領域DE2を形成する。センシング素子50は、検知領域DE1、及び検知領域DE2のそれぞれにおいて、対象物を検知する。
 観察者3は、自身の指3Aで画像21を操作するものとする。観察者3の指3Aは、検知領域DE1、及び検知領域DE2を通過する。センシング素子50は、検知領域DE1、及び検知領域DE2のそれぞれにおいて、対象物を検知する。
 センシング素子50の上面を座標の基準面とする。画像21の座標を(x,y,z)とする。検知領域DE1における対象物の検知位置の座標を(x,y,z)、検知領域DE2における対象物の検知位置の座標を(x,y,z)とする。図23に示すように、観察者3の視点の位置に応じて、検知領域DE1、DE2における対象物の検知位置が異なる。
 第1実施形態と同様に、空間における直線の方程式より、上記式(4)が成り立つ。X座標及びY座標において、上記式(5)、(6)が成り立つ。
 Z座標において、zは、基準面と表示素子20との距離であり、zは、基準面と検知領域DE1との距離であり、zは、基準面と検知領域DE2との距離である。z、z、zは、予め決められた設計値である。
 式(5)~(6)から、検知位置判定部60Cは、表示素子20上の座標(x,y)を算出する。換言すると、検知位置判定部60Cは、位置(x,y,z)、(x,y,z)に基づいて、対象物が移動する移動方向(ベクトル)を判定する。検知位置判定部60Cは、対象物の移動方向の延長線と表示素子20の表示面との交点である位置(x,y)を算出する。これまでの座標算出方法について、センシング素子50の光学的影響(屈折率、厚みなど)は考慮に入れていないが、適宜追加及び補正を行えばよい。
 次に、表示装置70における全体動作の流れについて説明する。図25は、表示装置70における全体動作を説明するフローチャートである。表示装置70のブロック図は、第1実施形態と同じである。
 表示処理部60Aは、表示素子20の画面に画像を表示させる(ステップS200)。続いて、センシング素子50は、センシング動作を実行する(ステップS201)。センシング素子50は、検知領域DE1、DE2を形成する。
 続いて、検知位置判定部60Cは、センシング素子50からの信号に基づいて、対象物を検知したか否か判定する(ステップS202)。
 対象物を検知した場合(S202=Yes)、検知位置判定部60Cは、対象物の位置を算出する(ステップS203)。すなわち、検知位置判定部60Cは、検知領域DE1における位置(x,y,z)、及び検知領域DE2における位置(x,y,z)を算出する。
 続いて、検知位置判定部60Cは、表示素子20の画面(表示面)における対象物の位置を算出する(ステップS204)。
 続いて、検知位置判定部60Cは、算出した対象物の位置が画像21の領域に含まれるか否かを判定する(ステップS205)。
 対象物の位置が画像21の領域に含まれる場合(S205=Yes)、検知位置判定部60Cは、観察者3により画像21がタッチされたと判定する(ステップS206)。
 その後、制御部60は、観察者3のタッチ操作に応じた動作を実行する。
 第2実施形態によれば、自身の画面に画像を表示する一般的な表示装置70にセンシング素子50を適用できる。また、表示装置70は、非接触で対象物を検知することができる。
 [3] 第3実施形態
 第3実施形態は、センシング素子50の他の構成例である。
 図26は、本発明の第3実施形態に係る表示装置70の斜視図である。表示装置70は、複数のセンシング素子50を備える。本実施形態では、2個のセンシング素子50-1、50-2を例に挙げて説明する。センシング素子50-1、50-2は、TOF(time of flight)センサで構成される。
 センシング素子50-1、50-2は、表示素子20の上方に配置される。センシング素子50-1、50-2は、平面視において、表示素子20が占める領域の外側に配置される。例えば、センシング素子50-1、50-2は、表示装置70のX方向における一側部に配置される。センシング素子50-1は、センシング素子50-2より上方に配置される。照明素子10、表示素子20、及びセンシング素子50-1、50-2は、図示せぬ固定部材で特定の位置に固定される。照明素子10、表示素子20、及びセンシング素子50-1、50-2は、図示せぬ筐体に収容される。センシング素子50-1、50-2は、照明素子10及び表示素子20が収容される筐体とは別個に設けてもよい。
 センシング素子50-1、50-2はそれぞれ、検知領域DE1、及び検知領域DE2を形成する。検知領域DE1、及び検知領域DE2は、表示素子20と平行に設定される。検知領域DE1は、検知領域DE2の上方に形成される。
 センシング素子50-1は、検知領域DE1に存在する対象物を検知する。センシング素子50-1は、検知領域DE1に光を出射し、対象物で反射された反射光を検知する。センシング素子50-1が出射する光は、可視光以外の光が望ましく、例えば赤外光が用いられる。センシング素子50-1は、検知領域DE1に向けて赤外光を発光する発光部と、対象物で反射された反射光を検知する受光部(センサ)とを含む。センシング素子50-1は、例えば、複数の発光素子と複数の受光素子とが交互に一列に並んだラインセンサで構成される。ラインセンサは、赤外光を用いてライン状に空間をスキャンすることが可能であり、複数の発光素子が並んだ方向と光が進む方向とからなる2次元の空間をスキャンすることが可能である。
 センシング素子50-1と同様に、センシング素子50-2は、検知領域DE2に存在する対象物を検知する。
 図27は、センシング素子50-1の構成を説明する図である。図27(a)が平面図、図27(b)が側面図である。センシング素子50-2の構成は、図27と同じである。
 センシング素子50-1は、基板80、複数の発光素子81、複数の受光素子82、複数のレンズ83、及びケース84を備える。図27に示した発光素子81、受光素子82、及びレンズ83の数は一例である。複数の発光素子81を纏めて発光部と呼び、複数の受光素子82を纏めて受光部と呼ぶ。
 複数の発光素子81、及び複数の受光素子82は、基板80に実装される。基板80は、複数の配線層(図示せず)を含む。複数の発光素子81、及び複数の受光素子82は、交互に配置される。
 複数の発光素子81の各々は、レーザー光を発光する。レーザー光は、例えば、利用者の視覚を刺激せず、可視光の影響を受けない赤外光である。発光素子81は、例えばレーザーダイオードで構成される。
 複数の受光素子82の各々は、対象物で反射されたレーザー光(赤外光)を検知する。受光素子82は、例えばフォトダイオードで構成される。
 複数のレンズ83は、複数の発光素子81に対応して設けられ、複数の発光素子81の上方に配置される。複数のレンズ83は、一方向に並んで配置される。複数のレンズ83の各々は、例えば平凸レンズで構成される。複数のレンズ83は、複数の発光素子81から出射されたレーザー光を正面方向に集光する機能を有する。また、複数のレンズ83は、対象物で反射されたレーザー光を集光する機能を有する。
 ケース84は、基板80、複数の発光素子81、複数の受光素子82、及び複数のレンズ83を収容する。ケース84は、上部にレンズ83を露出する開口部を有する。図27では、ケース84の外形のみを簡略化して示している。
 表示装置70の検知動作は、第2実施形態と同じである。第3実施形態においても、第2実施形態と同じ効果を得ることができる。第3実施形態のセンシング素子は、第1実施形態に適用することが可能である。
 [4] 第4実施形態
 第4実施形態は、観察者3が空中像2以外の領域をタッチしている場合に、カーソルで選択位置を提示するようにしている。
 図28は、本発明の第4実施形態に係る空中表示装置1における全体動作を説明するフローチャートである。空中表示装置1の構成は、第1実施形態と同じである。
 ステップS300~S306の動作は、第1実施形態のステップS100~S106と同じである。
 対象物の位置が画像21の領域に含まれない場合(S305=No)、検知位置判定部60Cは、仮想表示面22上の選択された位置にカーソル23を表示する(ステップS307)。
 図29は、観察者3のタッチ操作を判定する動作を説明する模式図である。図29は、表示素子20の仮想表示面22における座標を示している。表示素子20は、自身の画面に画像21を表示する。
 検知位置判定部60Cは、観察者3により選択された位置が画像21の領域に含まれない場合、表示素子20の仮想表示面22上の観察者3により選択された位置に、カーソル23を表示する。観察者3は、カーソル23を視認することで、空中像2以外の領域をタッチしていることを認識できる。これにより、観察者3の指3Aを空中像2に導くことができる。
 第4実施形態は、第2実施形態の表示装置70に適用することも可能である。
 変形例として、音を用いて、非選択状態であることを観察者3に通知してもよい。検知位置判定部60Cは、観察者3により選択された位置が画像21の領域に含まれない場合、特定の音を出力する。この変形例の場合、空中表示装置1は、音を出力可能なスピーカを備える。これにより、観察者3に空中像2をタッチしていないことを認識させることができる。
 [5] 変形例
 上記実施形態では、センシング素子50が静電容量型である場合を例に挙げて説明している。しかし、これに限定されず、空間の物体を検知可能な他の種類のセンシング素子を用いることが可能である。
 上記実施形態では、表示素子20と光学素子40とを平行に配置している。しかし、これに限定されず、光学素子40に対して表示素子20を斜めに配置してもよい。表示素子20と光学素子40との角度は、0度より大きく45度より小さい範囲に設定される。この変形例では、光制御素子30を省略できる。
 上記実施形態では、光学要素42の左側の側面が入射面43、右側の側面が反射面44として定義している。しかし、これに限定されず、入射面43と反射面44とを逆に構成してもよい。この場合、実施形態で説明した空中表示装置1の作用も左右が逆になる。
 上記実施形態では、表示素子20として液晶表示素子を例に挙げて説明しているが、これに限定されるものではない。表示素子20は、自発光型である有機EL(electroluminescence)表示素子、又はマイクロLED(Light Emitting Diode)表示素子などを用いることも可能である。マイクロLED表示素子は、画素を構成するR(赤)、G(緑)、B(青)をそれぞれLEDで発光させる表示素子である。自発光型の表示素子20を用いる場合、照明素子10は不要である。
 本発明は、上記実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、各実施形態は適宜組み合わせて実施してもよく、その場合組み合わせた効果が得られる。更に、上記実施形態には種々の発明が含まれており、開示される複数の構成要件から選択された組み合わせにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、課題が解決でき、効果が得られる場合には、この構成要件が削除された構成が発明として抽出され得る。
 1…空中表示装置、2…空中像、3…観察者、4…筐体、10…照明素子、11…光源部、12…導光板、13…反射シート、20…表示素子、21…画像、22…仮想表示面、23…カーソル、30…光制御素子、31…基材、32…基材、33…透明部材、34…遮光部材、40…光学素子、41…基材、42…光学要素、43…入射面、44…反射面、50…センシング素子、51…基板、52…基板、53…電極、54…電極、55…絶縁層、56…駆動回路、57…検出回路、60…制御部、60A…表示処理部、60B…画像処理部、60C…検知位置判定部、61…記憶部、62…入出力インターフェース、63…表示部、64…入力部、65…バス、70…表示装置、80…基板、81…発光素子、82…受光素子、83…レンズ、84…ケース。

Claims (14)

  1.  画像を表示する表示素子と、
     前記表示素子からの光を受けるように配置され、前記表示素子からの光を、前記表示素子と反対側に反射し、空中に空中像を結像する光学素子と、
     前記光学素子の上方に、前記表示素子と平行な第1検知領域と、前記第1検知領域と異なるレベルの第2検知領域とを形成し、前記第1及び第2検知領域に存在する対象物を検知するセンシング素子と、
     前記第1検知領域における第1検知位置と、前記第2検知領域における第2検知位置とを算出し、前記第1及び第2検知位置に基づいて、前記空中像がタッチされたか否かを判定する判定部と
     を具備する空中表示装置。
  2.  前記判定部は、前記第1及び第2検知位置に基づいて、前記対象物が移動する移動方向を判定し、前記移動方向の延長線上に前記画像が存在する場合に、前記空中像がタッチされたと判定する
     請求項1に記載の空中表示装置。
  3.  前記センシング素子は、静電容量型である
     請求項1に記載の空中表示装置。
  4.  前記センシング素子は、複数の第1電極と、前記複数の第1電極に対向して配置された複数の第2電極と、前記複数の第1電極に駆動信号を供給する駆動回路と、前記複数の第2電極の電圧を検出する検出回路とを含み、
     前記判定部は、前記検出回路による検出結果と閾値とを比較し、比較結果に応じて前記対象物の位置を判定する
     請求項3に記載の空中表示装置。
  5.  前記センシング素子は、前記第1検知領域を形成する第1センシング素子と、前記第2検知領域を形成する第2センシング素子とを含み、
     前記第1及び第2センシング素子の各々は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む
     請求項1に記載の空中表示装置。
  6.  前記光学素子は、平面状の基材と、前記基材の下に設けられ、それぞれが第1方向に延び、前記第1方向に直交する第2方向に並んだ複数の光学要素とを含み、
     前記複数の光学要素の各々は、前記基材の法線方向に対してそれぞれが傾き、互いに接する入射面及び反射面を有する
     請求項1に記載の空中表示装置。
  7.  前記表示素子と前記光学素子との間に配置され、前記表示素子からの光のうち斜め方向の光成分を透過する光制御素子をさらに具備する
     請求項1に記載の空中表示装置。
  8.  前記光制御素子は、交互に配置された複数の透明部材及び複数の遮光部材を含み、
     前記複数の遮光部材は、前記光制御素子の法線に対して傾いている
     請求項7に記載の空中表示装置。
  9.  前記表示素子及び前記光学素子は、互いに平行に配置される
     請求項1に記載の空中表示装置。
  10.  画像を表示する表示素子と、
     前記表示素子の上方に、前記表示素子と平行な第1検知領域と、前記第1検知領域と異なるレベルの第2検知領域とを形成し、前記第1及び第2検知領域に存在する対象物を検知するセンシング素子と、
     前記第1検知領域における第1検知位置と、前記第2検知領域における第2検知位置とを算出し、前記第1及び第2検知位置に基づいて、前記画像がタッチされたか否かを判定する判定部と
     を具備する表示装置。
  11.  前記判定部は、前記第1及び第2検知位置に基づいて、前記対象物が移動する移動方向を判定し、前記移動方向の延長線上に前記画像が存在する場合に、前記画像がタッチされたと判定する
     請求項10に記載の表示装置。
  12.  前記センシング素子は、静電容量型である
     請求項10に記載の表示装置。
  13.  前記センシング素子は、複数の第1電極と、前記複数の第1電極に対向して配置された複数の第2電極と、前記複数の第1電極に駆動信号を供給する駆動回路と、前記複数の第2電極の電圧を検出する検出回路とを含み、
     前記判定部は、前記検出回路による検出結果と閾値とを比較し、比較結果に応じて前記対象物の位置を判定する
     請求項12に記載の表示装置。
  14.  前記センシング素子は、前記第1検知領域を形成する第1センシング素子と、前記第2検知領域を形成する第2センシング素子とを含み、
     前記第1及び第2センシング素子の各々は、前記検知領域に向けて光を発光する発光部と、前記対象物で反射された反射光を受光する受光部とを含む
     請求項10に記載の表示装置。
PCT/JP2024/001161 2023-01-17 2024-01-17 空中表示装置及び表示装置 WO2024154760A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023005355A JP2024101393A (ja) 2023-01-17 2023-01-17 空中表示装置及び表示装置
JP2023-005355 2023-01-17

Publications (1)

Publication Number Publication Date
WO2024154760A1 true WO2024154760A1 (ja) 2024-07-25

Family

ID=91956069

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2024/001161 WO2024154760A1 (ja) 2023-01-17 2024-01-17 空中表示装置及び表示装置

Country Status (2)

Country Link
JP (1) JP2024101393A (ja)
WO (1) WO2024154760A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013089190A1 (ja) * 2011-12-16 2013-06-20 オリンパスイメージング株式会社 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体
JP2019101055A (ja) * 2017-11-28 2019-06-24 コニカミノルタ株式会社 空中映像表示装置
JP2020170311A (ja) * 2019-04-02 2020-10-15 船井電機株式会社 入力装置
JP2022150214A (ja) * 2021-03-26 2022-10-07 アルプスアルパイン株式会社 表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013089190A1 (ja) * 2011-12-16 2013-06-20 オリンパスイメージング株式会社 撮像装置及びその撮像方法、コンピュータにより処理可能な追尾プログラムを記憶する記憶媒体
JP2019101055A (ja) * 2017-11-28 2019-06-24 コニカミノルタ株式会社 空中映像表示装置
JP2020170311A (ja) * 2019-04-02 2020-10-15 船井電機株式会社 入力装置
JP2022150214A (ja) * 2021-03-26 2022-10-07 アルプスアルパイン株式会社 表示装置

Also Published As

Publication number Publication date
JP2024101393A (ja) 2024-07-29

Similar Documents

Publication Publication Date Title
JP6553155B2 (ja) 光学式イメージ認識センサー内蔵型平板表示装置
KR102433505B1 (ko) 표시 장치
US8633918B2 (en) Method of detecting touch position, touch position detecting apparatus for performing the method and display apparatus having the touch position detecting apparatus
US20110157097A1 (en) Coordinate sensor, electronic device, display device, light-receiving unit
US8896576B2 (en) Touch panel, liquid crystal panel, liquid crystal display device, and touch panel-integrated liquid crystal display device
JP4513918B2 (ja) 照明装置及び電気光学装置
JP6757779B2 (ja) 非接触入力装置
US20090103853A1 (en) Interactive Surface Optical System
US20140055418A1 (en) Touch display panel and optical touch panel thereof
TWI496058B (zh) 光學式觸控裝置
US8916895B2 (en) Infrared light-emitting diode and touch screen
JP2011257337A (ja) 光学式位置検出装置および位置検出機能付き表示装置
JP5515280B2 (ja) 位置検出装置及び電気光学装置
JP2011257338A (ja) 光学式位置検出装置および位置検出機能付き表示装置
KR20130111910A (ko) 굴절장치를 이용한 3차원 터치입력장치
US20120242623A1 (en) Touch sensitive device and display device employing the same
JP6663736B2 (ja) 非接触表示入力装置及び方法
WO2024154760A1 (ja) 空中表示装置及び表示装置
WO2024117075A1 (ja) 空中表示装置
WO2024101245A1 (ja) 空中表示装置
WO2024096072A1 (ja) 空中表示装置
WO2024053253A1 (ja) 空中表示装置
WO2023136106A1 (ja) 空中表示装置
WO2024018929A1 (ja) 空中表示装置
WO2024090130A1 (ja) 空中表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 24744681

Country of ref document: EP

Kind code of ref document: A1