WO2019009240A1 - 画像投影装置及び移動体 - Google Patents

画像投影装置及び移動体 Download PDF

Info

Publication number
WO2019009240A1
WO2019009240A1 PCT/JP2018/025052 JP2018025052W WO2019009240A1 WO 2019009240 A1 WO2019009240 A1 WO 2019009240A1 JP 2018025052 W JP2018025052 W JP 2018025052W WO 2019009240 A1 WO2019009240 A1 WO 2019009240A1
Authority
WO
WIPO (PCT)
Prior art keywords
projection light
optical element
image
area
sub
Prior art date
Application number
PCT/JP2018/025052
Other languages
English (en)
French (fr)
Inventor
薫 草深
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US16/628,205 priority Critical patent/US11385470B2/en
Priority to EP18827610.9A priority patent/EP3650920B1/en
Priority to CN201880045059.9A priority patent/CN110832382B/zh
Publication of WO2019009240A1 publication Critical patent/WO2019009240A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/145Beam splitting or combining systems operating by reflection only having sequential partially reflecting surfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/22Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type

Definitions

  • the present disclosure relates to an image projection device and a moving body.
  • the display screen of the display is divided into two parts, and the light emitted from each part is superimposed and projected within the field of view of the user and displayed as two virtual images of different imaging distances to the user
  • An image projection apparatus is known (see, for example, Patent Document 1).
  • the image projection apparatus of the present disclosure includes a projection light emitting unit, a first optical element, a second optical element, and an optical system.
  • the projection light emitting unit has a display surface in which the first area and the second area are arranged along the first direction.
  • the first optical element reflects the first projection light from the first area.
  • the second optical element reflects the first projection light reflected by the first optical element, and transmits the second projection light from the second region.
  • the optical system projects the first projection light reflected by the second optical element and the second projection light transmitted through the second optical element into the field of view of the user.
  • the first direction corresponds to the direction in which the user's eyes are aligned when the first projection light and the second projection light are projected into the field of view of the user.
  • sub-pixels forming one pixel are arranged in a first direction, and sub-pixels forming different pixels are arranged in a second direction intersecting the first direction.
  • the mobile of the present disclosure includes an image projector.
  • the image projection apparatus includes a projection light emitting unit, a first optical element, a second optical element, and an optical system.
  • the projection light emitting unit has a display surface in which the first area and the second area are arranged along the first direction.
  • the first optical element reflects the first projection light from the first area.
  • the second optical element reflects the first projection light reflected by the first optical element, and transmits the second projection light from the second region.
  • the optical system projects the first projection light reflected by the second optical element and the second projection light transmitted through the second optical element into the field of view of the user.
  • the first direction corresponds to the direction in which the user's eyes are aligned when the first projection light and the second projection light are projected into the field of view of the user.
  • the optical system includes a windshield or combiner that reflects the first projection light and the second projection light toward the user's eye box.
  • FIG. 1 is a diagram showing an image projection apparatus according to an embodiment of the present disclosure.
  • FIG. 2 is a view of the image projection apparatus of FIG. 1 as viewed from the y direction.
  • FIG. 3 is a diagram for explaining the arrangement of pixels on the display surface of FIG.
  • FIG. 4 is a view showing an example of an image projection apparatus according to the prior art.
  • FIG. 5 is a diagram for explaining the arrangement of pixels on the display surface of FIG.
  • FIG. 6 is a view for explaining the arrangement of pixels on the display surface of the image projection apparatus according to the modification.
  • FIG. 7 is a diagram showing an image projection apparatus according to a second embodiment of the present disclosure.
  • FIG. 8 is a view of the display unit and the third optical element shown in FIG. 7 as viewed from the user side.
  • FIG. 8 is a view of the display unit and the third optical element shown in FIG. 7 as viewed from the user side.
  • FIG. 9 is a view for explaining stereoscopic image display by the image projection apparatus.
  • FIG. 10 is a view for explaining the arrangement relationship between the display surface visually recognized by the left eye and the third optical element.
  • FIG. 11 is an optical path diagram showing imaging of virtual images of the display surface and the third optical element.
  • FIG. 12 is a view for explaining the arrangement relationship between the display surface and the third optical element in an example of the image projection apparatus according to the prior art.
  • FIG. 13 is a view showing an image projector according to the third embodiment.
  • FIG. 14 is a view showing a state in which the first optical element of the image projection apparatus of FIG. 13 is rotated.
  • the image displayed by the image projection device have a high resolution.
  • the projected image may be an image with a low horizontal resolution.
  • the image projection device of the present disclosure can perform display of two screens having different imaging distances in the forward direction while reducing deterioration in resolution.
  • An image projector 1 includes a projection light emitting unit 10, a first optical element 21, a second optical element 22, and a concave mirror 23a, as shown in FIGS. 1 and 2. And an optical system 23.
  • the projection light emitting unit 10 includes a display unit 11 having a display surface 12 and an illumination unit 14 including a light source 13.
  • the lighting unit 14 is provided with a radiation fin 15 for radiating heat from the light source 13.
  • the display unit 11 may include, for example, a transmissive liquid crystal device such as a liquid crystal display (LCD) or a reflective liquid crystal device such as a liquid crystal on silicon (LCOS).
  • the display surface 12 may be a display surface of a liquid crystal device.
  • the display unit 11 is not limited to the liquid crystal device.
  • various types such as organic EL (Electro-Luminescence) display, inorganic EL display, plasma display (PDP: Plasma Display Panel), field emission display (FED: Field Emission Display), electrophoresis display, twist ball display, etc.
  • PDP Plasma Display Panel
  • FED Field Emission Display
  • electrophoresis display twist ball display, etc.
  • the illumination unit 14 may be unnecessary.
  • the display unit 11 may include a mirror device such as a digital mirror device (DMD: Digital Mirror Device) or a MEMS (Micro Electro Mechanical Systems) mirror.
  • the display surface 12 may be an array surface of mirrors.
  • the display unit 11 may further include a screen or a lens array for imaging the light emitted from the mirror device.
  • the display surface 12 may be a screen or an imaging surface of a lens array.
  • the image displayed on the display surface 12 is emitted as projection light.
  • the projection light emitted from the display surface 12 is projected within the field of view of the user 33 to display a virtual image, as described later.
  • the direction on the display surface 12 corresponding to the direction in which the two eyes 35 of the user 33 are aligned is taken as the x direction.
  • the x direction is also referred to as the first direction.
  • a direction intersecting the x direction on the display surface 12 is taken as ay direction.
  • the y direction may be orthogonal to the x direction.
  • the y direction is also referred to as the second direction.
  • the normal direction of the display surface 12 is taken as the z direction.
  • the image projection device 1 can be mounted on a moving body 32.
  • the user 33 can be a person in the mobile unit 32.
  • the user 33 may be a driver driving the moving body 32.
  • the illumination unit 14 may include a lamp, an LED (Light Emission Diode), a laser, or the like as the light source 13 for illuminating the display surface 12.
  • the illumination unit 14 may be used as a backlight of a liquid crystal device.
  • the illumination unit 14 may include a plurality of LEDs two-dimensionally arrayed opposite to the display surface 12 on the back side of the display surface 12.
  • a backlight having a plurality of LEDs disposed opposite to the display surface 12 on the back side of the display surface 12 can be called a direct type backlight.
  • the illumination unit 14 may include a plurality of LEDs arranged on any one end side of the display unit 11 and may guide light to the entire back surface of the display surface 12 by a light guide plate.
  • a backlight having a plurality of LEDs disposed on the end side of the display unit 11 can be called a side-type backlight.
  • the illumination unit 14 may be configured to include a lens array, a light guide plate, a diffusion plate, and the like in order to uniformly illuminate the light emitted from the light source 13 to the display surface 12.
  • the light source 13 may be used to make light incident on the mirror device.
  • the radiation fin 15 is provided adjacent to the light source 13 of the illumination unit 14.
  • the heat dissipating fins 15 have a large number of protrusions for dissipating heat generated by the light source 13. These protrusions may be plate-like or rod-like.
  • the radiation fin 15 can be comprised with metals, such as aluminum.
  • the radiation fin 15 can be reworded as a heat sink.
  • One pixel 16 may include three sub-pixels 17 each.
  • the three sub-pixels 17 display the respective colors of R (red), G (green) and B (blue).
  • the three sub-pixels 17 that display each of the colors R, G, and B can be combined to form one pixel 16 (pixel).
  • One sub-pixel 17 has a rectangular shape elongated in the y direction.
  • the sub-pixels 17 can have a width of 1/3 of the width of one pixel.
  • a set of sub-pixels 17 aligned in the x-direction may constitute a substantially square pixel 16.
  • sub-pixels 17 forming one pixel 16 are arranged in the x direction, and sub-pixels 17 forming different pixels 16 are arranged in the y direction intersecting the x direction.
  • the display surface 12 of the display unit 11 has two areas of a first area A1 and a second area A2 aligned along the x direction.
  • the display surface 12 of the display unit 11 is divided into the first area A1 and the second area A2 by a virtual border extending in the y direction.
  • the virtual boundaries in FIG. 3 are indicated by alternate long and short dash lines.
  • the areas of the first area A1 and the second area A2 may be equal or different.
  • the projection light emitted from the first area A1 is referred to as a first projection light L1.
  • the projection light emitted from the second area A2 is called a second projection light L2.
  • FIG. 2 is a view of the projection light emitting unit 10, the first optical element 21, the second optical element 22 and the concave mirror 23a of the image projector 1 as viewed from the y direction. As shown in FIG. 2, the first optical element 21 and the second optical element 22 are respectively located on the optical paths of the first projection light L1 and the second projection light L2 emitted from the display surface 12 of the display unit 11.
  • the first optical element 21 reflects the first projection light L1 emitted from the display surface 12 of the display unit 11 toward the second optical element 22 at least partially.
  • the first optical element 21 and the second optical element 22 can be arranged side by side in the x direction.
  • the first optical element 21 can reflect the first projection light L1 substantially in the x direction.
  • the first optical element 21 can be a mirror that reflects the first projection light L1 from the first area A1 of the display surface 12.
  • the first optical element 21 can be a reflecting prism that deflects the first projection light L1.
  • the second optical element 22 reflects the first projection light L1 reflected by the first optical element 21 toward the concave mirror 23a at least partially.
  • the second optical element 22 transmits the second projection light L2 emitted from the second area A2 of the display surface 12 at least partially toward the concave mirror 23a.
  • the second optical element 22 can be a beam splitter or a half mirror.
  • the concave mirror 23 a is included in the optical system 23 of the image projector 1.
  • the optical system 23 of the image projector 1 is not limited to the configuration including the concave mirror 23a.
  • the optical system 23 may be configured to include a combination of a convex lens and a flat mirror, or may be configured to combine a plurality of mirrors including the concave mirror 23a.
  • the positive refractive power of the components of the optical system 23 projects a virtual image in a viewable manner within the field of view of the user 33 as described later.
  • the image projection device 1 can be provided on the moving body 32.
  • the image projection device 1 may be provided other than the moving body 32. It is assumed that the image projection device 1 of FIG. 1 is provided on a mobile body 32 which is a vehicle.
  • the image projector 1 may be implemented as a head up display (HUD).
  • the projection light emitting unit 10, the first optical element 21, the second optical element 22, and the concave mirror 23a of the image projector 1 can be incorporated in the instrument panel of the moving body 32 which is a vehicle.
  • the optical system 23 of the image projection device 1 may include the windshield 24 of the moving body 32. Between the concave mirror 23a and the windshield 24, an opening through which the first projection light L1 and the second projection light L2 can pass is provided. The first projection light L1 and the second projection light L2 may be reflected by the windshield 24 toward the eye box 34 of the user 33 via the concave mirror 23a and may be incident on the eye 35 of the user 33.
  • the optical paths of the first projection light L1 and the second projection light L2 which are reflected by the windshield 24 and directed to the eye 35 of the user 33 are represented by arrows of dashed dotted lines.
  • FIG. 1 the optical paths of the first projection light L1 and the second projection light L2 which are reflected by the windshield 24 and directed to the eye 35 of the user 33 are represented by arrows of dashed dotted lines.
  • the combiner is a translucent plate-like member that reflects the projection light.
  • the combiner can use a half mirror.
  • the eye box 34 is an area in real space where it is assumed that the eye 35 of the user 33 may exist, in consideration of, for example, the physical constitution of the user 33, posture, and changes in posture.
  • the shape of the eye box 34 is arbitrary.
  • the eye box 34 may include a planar or three-dimensional area. When the eye 35 exists in the eyebox 34, the virtual images VI1 and VI2 can be visually recognized by the projection light reaching the eyebox 34.
  • the display unit 11 can generate an image in response to a signal from the control unit 30.
  • the image projection device 1 may include a control unit 30.
  • the control unit 30 can control the entire image projection device 1.
  • the control unit 30 controls the intensity and the like of the first projection light L1 and the second projection light L2 emitted by the projection light emitting unit 10.
  • the control unit 30 can output control information for controlling, for example, the intensity of projection light to the light source 13.
  • the display unit 11 may receive a signal of an image to be displayed from the outside other than the control unit 30, and may generate an image based on the received signal.
  • the control unit 30 includes one or more processors.
  • the control unit 30 or processor may include one or more memories for storing programs for various processes and information in operation.
  • the memory includes volatile memory and non-volatile memory.
  • the memory includes a memory independent of the processor, and a built-in memory of the processor.
  • the processor includes a general purpose processor that loads a specific program and performs a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor includes an application specific integrated circuit (ASIC).
  • the processor includes a programmable logic device (PLD).
  • the PLD includes an FPGA (Field-Programmable Gate Array).
  • the control unit 30 may be one of a SoC (System-on-a-Chip) in which one or more processors cooperate, and a SiP (System In a Package).
  • SoC System-on-a-Chip
  • SiP System In a Package
  • the image displayed in the first area A1 of the display surface 12 of the display unit 11 is emitted as the first projection light L1.
  • the image displayed in the second area A2 of the display surface 12 of the display unit 11 is emitted as the second projection light L2.
  • the first projection light L1 is reflected by the second optical element 22 and travels to the concave mirror 23a.
  • the second projection light L2 passes through the second optical element 22 and travels to the concave mirror 23a. Therefore, in the first projection light L1 and the second projection light L2, the optical path length of the first projection light L1 is longer.
  • the first projection light L1 and the second projection light L2 reflected by the concave mirror 23a are reflected by the windshield 41, and respectively, a first virtual image VI1 which is a virtual image on the far side within the field of view of the user 33
  • the second virtual image VI2 which is a virtual image of the side is imaged.
  • the “forward direction” is the direction of the normal line of sight of the user 33.
  • “forward direction” means forward through the windshield 24 as viewed from the user 33.
  • the "forward direction” is the direction in which the moving body 32 normally travels. Also, the direction opposite to the "forward direction” is called “backward direction” or "front direction”.
  • the first virtual image VI1 and the second virtual image VI2 are different pixels 16 in which the images of the sub-pixels 17 constituting one pixel 16 are arranged in the x direction.
  • the images of the sub-pixels 17 that make up are aligned in the y direction.
  • one pixel 16 may be approximately square. Therefore, the aspect ratio of the image of the sub-pixel 17 of the image visually recognized by the user 33 is approximately 3: 1.
  • the vertical corresponds to the y direction.
  • Horizontal corresponds to the x direction. Therefore, in the first virtual image VI1 and the second virtual image VI2 visually recognized by the user 33, pixels are more densely arranged in the x direction.
  • the first virtual image V11 and the second virtual image VI2 have high resolution in the x direction.
  • the direction in which the two eyes 35 of the user 33 are aligned is taken as the x direction, and the direction orthogonal to this is taken as the y direction.
  • the x direction can be restated as the horizontal direction.
  • the y direction can be restated as the vertical direction.
  • FIG. 4 shows an example of the configuration of an image projection apparatus 101 according to the prior art for comparison.
  • the components corresponding to the components of the image projection device 1 according to the embodiment of FIGS. 1 and 2 are given the same reference characters as the components of the image projection device 1 with 100 added thereto.
  • Each component of the image projector 101 can be configured similarly to the corresponding component of the image projector 1 unless otherwise described.
  • A2 ' line up in the y direction.
  • sub-pixels 117 constituting one pixel 116 are arranged in the y direction
  • sub-pixels 117 constituting different pixels 116 are arranged in the x direction.
  • the first optical element 121 which is a mirror
  • the second optical element 122 which is a half mirror
  • the first optical element 121 which is a mirror
  • the second optical element 122 which is a half mirror
  • At least a portion of the first projection light L1 'emitted from the first area A1' of the display surface 112 is reflected by the first optical element 121, passes through the second optical element 122, and travels to the concave mirror 123a.
  • at least a portion of the second projection light L2 'emitted from the second area A2' of the display surface 112 is reflected by the second optical element 122 and travels to the concave mirror 123a.
  • the first projection light L1 ′ and the second projection light L2 ′ reflected by the concave mirror 123a are reflected by the windshield 124 to form the first virtual image VI1 ′ and the second virtual image VI2 ′ in the field of view of the user 133 .
  • the aspect ratio of the sub-pixel 117 is 1: 3. That is, the resolution of the sub-pixel 117 in the direction in which both eyes 135 of the user 133 are aligned is low. Therefore, the first virtual image VI1 'and the second virtual image VI2' displayed by the image projection device 101 cause the user 133 to feel as a rough image.
  • the image projection apparatus 1 according to the present disclosure providing an image that makes the user 33 feel more precise because the resolution in the x direction of the two eyes 35 of the user 33 is high. Can. That is, the image projection apparatus 1 of the present disclosure can perform display of two screens having different imaging distances in the forward direction while reducing deterioration in resolution felt by the user.
  • the image projection apparatus can employ the display unit 11 having the display surface 12 shown in FIG.
  • a first area A1 corresponding to the first virtual image VI1 and a second area A2 corresponding to the second virtual image VI2 are arranged in the y direction.
  • sub-pixels constituting one pixel are generally arranged in a direction along the long side of a rectangular display surface.
  • the sub-pixels 17 forming one pixel 16 are arranged in the x direction, which is a short side, and the sub-pixels forming different pixels 16 in the y direction, which is a long side. There are 17 lines.
  • FIG. 7 An image projector 1a according to a second embodiment of the present disclosure will be described using FIG.
  • the image projection device 1a of FIG. 7 performs stereoscopic image display by projecting images with parallax on the left and right eyes 35L and 35R of the user 33.
  • an image stereoscopically displayed by parallax is referred to as a stereoscopic image.
  • differences from the image projector 1 according to the first embodiment will be described.
  • the same reference numerals as in the first embodiment denote the same or corresponding components, and a description thereof will be omitted.
  • the image projection apparatus 1a according to the second embodiment includes the third optical element 18 between the display unit 11 and the first optical element 21 and the second optical element 22 in the image projection apparatus 1 according to the first embodiment.
  • the image projection device 1 a includes a detection device 31 that detects the position of both eyes 35 or the head of the user 33.
  • the third optical element 18 is an optical element that defines the ray direction of the projection light emitted from each sub-pixel 17.
  • the third optical element 18 is, for example, a parallax barrier or a lenticular lens.
  • the third optical element 18 projects the projection light from the sub-pixel 17 that displays the image for the right eye 35R of the display surface 12 onto the right eye 35R, and the projection from the sub-pixel 17 that displays the image for the left eye 35L.
  • the direction of the projection light is defined so that the light is projected to the left eye 35L.
  • the third optical element 18 can be disposed on the emission side (the + z direction in the drawing) of the projection light of the display unit 11 with a predetermined distance apart.
  • the third optical element 18 may be disposed on the illumination unit 14 side of the display unit 11.
  • the display surface 12 and the third optical element 18 are arranged in parallel.
  • the gap between the display surface 12 and the third optical element 18 can be referred to as appropriate.
  • FIG. 8 is a view of the third optical element 18 and the display surface 12 viewed from the display surface 12 side in the case where the third optical element 18 is provided on the projection light emission side of the display unit 11.
  • the third optical element 18, which is a parallax barrier includes a plurality of light transmitting areas 18a for transmitting projection light arranged alternately, and a plurality of light shielding areas 18b for shielding the projection light.
  • the light transmitting region 18 a and the light shielding region 18 b are a plurality of band-like regions extending in a predetermined direction in the xy plane.
  • the predetermined direction may be a direction along the diagonal of the sub-pixel 17.
  • generation of moire is reduced in the projected image.
  • this does not exclude that the light transmitting area 18 a and the light shielding area 18 b are arranged to extend in the y direction.
  • the light transmitting region 18a has a light transmittance higher than that of the light shielding region 18b.
  • the light transmitting region 18a may transmit light with a transmittance of a predetermined value or more. This predetermined value may be, for example, 100% or less than 100%.
  • the light blocking area 18 b is an area that blocks and does not transmit a considerable portion of light incident on the third optical element 18. In other words, the light blocking area 18 b blocks the light path of the projection light displayed on the display surface 12.
  • the light blocking area 18 b may block light with a transmittance equal to or less than a predetermined value.
  • the predetermined value may be, for example, 0%, or a value larger than 0% and close to 0%.
  • the third optical element 18 defines a light beam direction, which is a propagation direction of projection light emitted from the sub-pixel 17, for each of the plurality of light transmitting regions 18a which are strip regions extending in a predetermined direction in the xy plane.
  • a visible area 12a an area on the display surface 12 where the eye 35 of the user 33 can view is determined.
  • the area is referred to as a visible area 12a.
  • An area on the display surface 12 where the left eye 35L of the user 33 can view is referred to as a left visible area 12aL.
  • An area on the display surface 12 where the right eye 35R of the user 33 can view is referred to as a right visible area 12aR.
  • the third optical element 18 may be composed of a film or a plate-like member.
  • the light shielding area 18b can be configured by the film or the plate-like member.
  • the light transmitting region 18a can be configured by an opening provided in a film or a plate-like member.
  • the plate-like member and the film may be made of resin or other materials.
  • the third optical element 18 may be composed of a film or another type of member other than a plate-like member.
  • the base material may have a light shielding property, and the base material may contain an additive having a light shielding property.
  • the third optical element 18 may employ a light-shielding film to be the light-shielding area 18 b formed on a substrate such as glass with high light transmittance.
  • the third optical element 18 may be configured of a lenticular lens or a liquid crystal shutter instead of the parallax barrier.
  • the lenticular lens is configured by arraying cylindrical lenses in the xy plane. Similar to the parallax barrier, the lenticular lens projects the projection light from the sub-pixel 17 that displays the image for the right eye 35R onto the right eye 35R, and the projection from the sub-pixel 17 that displays the image for the left eye 35L. It is arranged to project light to the left eye 35L.
  • the lenticular lenses may be arranged at an angle to the y direction.
  • the liquid crystal shutter can control the light transmittance in accordance with the applied voltage.
  • the liquid crystal shutter may be composed of a plurality of pixels, and may control the transmittance of light in each pixel.
  • the liquid crystal shutter may form an area with high light transmittance or an area with low light transmittance in an arbitrary shape.
  • the third optical element 18 which is a liquid crystal shutter can be controlled by the control unit 30. By using a liquid crystal shutter for the third optical element 18, the control unit 30 can dynamically change the light transmission region 18a.
  • the third optical element 18 has a third area A3 and a fourth area A4 which respectively face the first area A1 and the second area A2 of the display surface 12.
  • the detection device 31 detects the positions of the left eye 35L and the right eye 35R of the user 33, and outputs the positions to the control unit 30.
  • the detection device 31 may include, for example, a camera including a charge coupled device (CCD) imaging device or a complementary metal oxide semiconductor (CMOS) imaging device.
  • CCD charge coupled device
  • CMOS complementary metal oxide semiconductor
  • the imaging range in the case where the detection device 31 includes a camera includes at least an eyebox 34.
  • the detection device 31 may capture the face of the user 33 with a camera.
  • the detection device 31 may detect the positions of the left eye 35L and the right eye 35R from the captured image including the image of the face of the user of the camera 33.
  • the detection device 31 may detect the positions of the left eye 35L and the right eye 35R as coordinates in a three-dimensional space from images captured by one camera.
  • the detection device 31 may detect the positions of the left eye 35L and the right eye 35R as coordinates in a three-dimensional space from images captured by two or
  • the detection device 31 may be connected to a camera outside the device without a camera.
  • the detection device 31 may include an input terminal for inputting a signal from a camera outside the device.
  • the camera outside the device may be directly connected to the input terminal.
  • the camera outside the device may be indirectly connected to the input terminal via a shared network.
  • the detection device 31 not having a camera may have an input terminal through which the camera inputs a video signal.
  • the detection device 31 not equipped with a camera may detect the positions of the left eye 35L and the right eye 35R from the video signal input to the input terminal.
  • the detection device 31 may include, for example, a sensor.
  • the sensor may be an ultrasonic sensor or an optical sensor or the like.
  • the detection device 31 may detect the position of the head of the user 33 by a sensor, and may detect the positions of the left eye 35L and the right eye 35R based on the position of the head.
  • the detection device 31 may detect the positions of the left eye 35L and the right eye 35R as coordinates in a three-dimensional space by one or more sensors.
  • the image projection device 1a may not include the detection device 31.
  • the image projection device 1a may have an input terminal for inputting a signal from a detection device outside the device.
  • a detection device outside the device may be connected to the input terminal.
  • the detection device outside the device may use electrical and optical signals as transmission signals to the input terminals.
  • the detection device outside the device may be connected indirectly to the input terminal via a shared network.
  • the control unit 30 may receive position coordinates indicating the positions of the left eye 35L and the right eye 35R acquired from a detection device outside the device.
  • the control unit 30 may calculate the movement distance of the left eye 35L and the right eye 35R based on the position coordinates.
  • FIG.9 and FIG.10 illustrate the first area A1 and the second area A2 of the display surface 12, the third area A3 and the fourth area A4 of the third optical element 18, and the first projection light L1 and the fourth area for simplicity. It is a figure which does not distinguish 2 projection light L2. 9 and 10 emit the first projection light L1 passing through the third area A3 of the third optical element 18 from the first area A1 of the display surface 12 and exiting the second area A2 of the display surface 12 This applies to both of the second projection light L2 passing through the fourth area A4 of the third optical element 18. Further, in FIG. 9, the first optical element 21, the second optical element 22, the concave mirror 23a, the windshield 24 and the like are omitted, and the optical path is drawn linearly.
  • the control unit 30 controls an image displayed on the display surface 12 of the display unit 11 according to the positions of the left eye 35L and the right eye 35R of the user 33 detected by the detection device 31.
  • the first sub-pixel 17a displaying an image for the left eye 35L
  • the second sub-pixel 17b displaying an image for the right eye 35R alternate by two pixels. Be placed.
  • the sub-pixels P1 and P2 are the first sub-pixels 17a.
  • the sub-pixels P3 and P4 are the second sub-pixel 17b.
  • the left eye 35L of the user 33 passes through the light transmitting area 18a of the third optical element 18 as shown by the broken line, and the first sub-pixel 17a (P1, P1 partially included in the left visible area 12aL on the display surface 12). P2) can be seen.
  • the right eye 35R of the user 33 passes through the light transmitting area 18a of the third optical element 18 as shown by the solid line, and the second sub-pixel 17b (P3, P3 partially included in the right visible area 12aR on the display surface 12). You can see P4). Thereby, the user 33 can visually recognize different images with the left eye 35L and the right eye 35R.
  • the projection light emitted from the first sub-pixel 17 a is projected to the left eye 35 L of the user 33
  • the projection light emitted from the second sub-pixel 17 b is projected to the right eye 35 R of the user 33.
  • the control unit 30 can cause the user 33 to visually recognize a stereoscopic image by causing the first sub-pixel 17 a and the second sub-pixel 17 b to display an image having parallax.
  • the projection light emitted from the first sub-pixel 17a of the first area A1 of the display surface 12 and projected onto the left eye 35L is referred to as first left projection light, and is emitted from the second sub-pixel 17b of the first area A1.
  • the projection light projected onto the right eye 35R is called first right projection light.
  • projection light emitted from the first sub-pixel 17a of the second area A2 of the display surface 12 and projected onto the left eye 35L is referred to as second left-projected light, and from the second sub-pixel 17b of the second area A2.
  • the projection light that is emitted and projected onto the right eye 35R is referred to as second right projection light.
  • the first projection light L1 includes the first left projection light and the first right projection light.
  • the second projection light L2 includes the second right projection light and the second left projection light.
  • the third region A3 of the third optical element 18 emits the first projection light L1 from the first sub-pixel 17a and projects the first left projection light onto the left eye 35L of the user 33, and the second sub-pixel It divides into the 1st right projection light emitted from 17b and projected on the right eye 35R of the user 33.
  • the fourth region A4 of the third optical element 18 emits the second projection light L2 from the first sub-pixel 17a and the second left projection light projected onto the left eye 35L and the second sub-pixel 17b. And the second right projection light projected onto the right eye 35R.
  • FIG. 10 shows the display surface 12 and the third optical element 18 as viewed from the left eye 35 L of the user 33.
  • sub-pixels 17 on the display surface 12 located behind the third optical element 18 and hidden by the third optical element 18 are shown in the figure for the sake of explanation.
  • the user 33 views the display unit 11 and the third optical element 18 as a magnified virtual image.
  • the arrangement of the sub-pixels 17 in FIG. 10 is an example, and various arrangements are possible depending on various conditions such as the inclination and the width of the light transmitting area 18 a and the light shielding area 18 b of the third optical element 18 which is a parallax barrier. become.
  • the sub-pixels P1 and P2 as the first sub-pixel 17a and the sub-pixels P3 and P4 as the second sub-pixel 17b form one pair in the x-direction as the sub-pixels P1, P2, P3 and P4 are repeatedly arranged.
  • the sub-pixels P1 and P2 are given the symbol “L” indicating that the image for the left eye 35L is displayed, and the sub-pixels P3 and P4 indicate that the image for the right eye 35R is displayed.
  • the code "R" is attached.
  • sub-pixels P 1, P 2, P 3, P 4 are repeatedly arranged by being shifted by one sub-pixel in the + x direction.
  • the boundary between the first sub-pixel 17a and the second sub-pixel 17b is highlighted.
  • the third optical element 18 which can be viewed from the left eye 35L is displayed in an overlapping manner.
  • the left visible area 12aL is an area on the display surface 12 in which the left eye 35L is visible.
  • the left light shielding area 12bL is an area that can not be viewed by the left eye 35L of the user 33 by being blocked by the light shielding area 18b of the third optical element 18.
  • the light transmission width W1 which is the width in the x direction of the left visible region 12aL, is equal to the width of one sub-pixel.
  • the light transmission width W 1 corresponds to the width of the light transmission region 18 a of the third optical element 18.
  • the light shielding width W2 which is the width in the x direction of the left light shielding region 12bL is equal to the width corresponding to three sub-pixels.
  • the light shielding width W2 corresponds to the width of the light shielding region 18b of the third optical element 18.
  • the barrier aperture ratio of the image projector 1a of this example is 25%. In this embodiment, by setting the barrier aperture ratio to 25%, the occurrence of crosstalk is reduced as compared to the case of a larger barrier aperture ratio (for example, 50%).
  • Cross talk means that a part of the image for the right eye 35R is viewed by the left eye 35L of the user 33 and / or a part of the image for the left eye 35L is viewed by the right eye 35R.
  • the above-mentioned light transmission width W1, the light shielding width W2 and the aperture ratio are examples.
  • the image projector 1a may employ various barrier aperture ratios other than 25%.
  • the relative positional relationship between the display surface 12 and the third optical element 18 visible to the left eye 35L and the right eye 35R changes.
  • positions of the left eye 35L and the right eye 35R in which crosstalk does not occur are set as reference positions.
  • the third optical element 18 is displaced in the x direction from the state of FIG. 10 a part of the sub-pixel P3 is included in the left visible region 12aL.
  • the portion included in the left light shielding area 12bL of the sub-pixel P1 increases.
  • the control unit 30 controls the image for the left eye 35L to display an image to be displayed on the sub-pixels P1 to P4 so as to minimize crosstalk according to the positions of the left eye 35L and the right eye 35R acquired from the detection device 31. And the image for the right eye 35R.
  • the image projection device 1a is positioned at the imaging position of the first virtual image VI1 on the far side in the field of view of the user 33 by the first left projection light emitted from the first sub-pixel 17a of the first area A1 of the display surface 12. Project an image for the left eye 35L. Further, the image projection device 1a forms an image of the first virtual image VI1 on the far side in the field of view of the user 33 by the first right projection light emitted from the second sub-pixel 17b of the first area A1 of the display surface 12. The image for the right eye 35R is projected to the position. These form a first virtual image VI1 as a stereoscopic image having parallax in the field of view of the user 33.
  • the image projection device 1a forms an image of the second virtual image VI2 on the near distance side within the field of view of the user 33 by the second left projection light emitted from the first sub-pixel 17a of the second area A2 of the display surface 12.
  • the image for the left eye 35L is projected to the position.
  • the image projection device 1a forms an image of the second virtual image VI2 on the near distance side within the field of view of the user 33 by the second right projection light emitted from the second sub-pixel 17b of the second region A2 of the display surface 12.
  • the image for the right eye 35R is projected to the position.
  • the third region A3 of the third optical element 18 is projected as a third virtual image VI3 at a position adjacent to the first virtual image VI1 in the backward direction, that is, on the front side of the first virtual image VI1 as viewed from the user 33.
  • the presence of the third virtual image VI3 is not visually recognized for the user 33. Does the user 33 have the first area A1 of the display surface 12 enlarged at the position of the first virtual image VI1 and the third area A3 of the third optical element 18 enlarged at the position of the third virtual image VI3? Observe the image as
  • the fourth region A4 of the third optical element 18 is projected as a fourth virtual image VI3 on the rear side of the second virtual image VI2, ie, on the front side of the second virtual image VI2 as viewed from the user 33 .
  • the presence of the fourth virtual image VI4 is not visually recognized for the user 33.
  • the user 33 has the second area A2 of the display surface 12 magnified at the position of the second virtual image VI2 and the fourth area A4 of the third optical element 18 magnified at the position of the fourth virtual image VI4 Observe the image as
  • the control unit 30 corresponds to a relatively long distance near the imaging position of the first virtual image VI1 visually recognized by the user 33 in the first sub-pixel 17a and the second sub-pixel 17b of the first region A1 of the display surface 12 Display a stereoscopic image for generating the generated parallax.
  • the control unit 30 corresponds to the first sub-pixel 17a and the second sub-pixel 17b of the second area A2 of the display surface 12 at a relatively short distance near the imaging position of the second virtual image VI2 visually recognized by the user 33 Display a stereoscopic image for generating the generated parallax.
  • the control unit 30 sets an image having a parallax corresponding to a position between the imaging position of the first virtual image VI1 and the imaging position of the second virtual image VI2 to either of the first area A1 or the second area A2.
  • One sub-pixel 17 a and the second sub-pixel 17 b may be displayed.
  • the image can be displayed only at the imaging position of the first virtual image VI1 and the imaging position of the second virtual image VI2.
  • the image projection device 1a Stereoscopic images can be displayed without discomfort.
  • the optical path diagram of FIG. 11 illustrates the formation of virtual images VI1 and VI3 of the first area A1 of the display surface 12 and the third area A3 of the third optical element 18 as viewed from the eye 35 of the user 33.
  • F is the focal position of the concave mirror 23a.
  • the first area A1 of the display surface 12 is indicated by the code “12 (A1)”.
  • the third area A3 of the third optical element 18 is indicated by the code "18 (A3)”.
  • FIG. 11 shows imaging of virtual images VI2 and VI4 of the second area A2 of the display surface 12 and the fourth area A4 of the third optical element 18 observed from the eye 35 of the user 33.
  • the second area A2 of the display surface 12 is indicated by reference numeral 12 (A2).
  • the fourth area A4 of the third optical element 18 is indicated by the code "18 (A4)".
  • the difference between the distance from the eye 35 to the first area A1 of the display surface 12 and the distance to the second area A2 of the display surface 12 is due to the optical path difference between the first projection light L1 and the second projection light L2 It is.
  • the difference between the distance from the eye 35 to the third area A3 of the third optical element 18 and the distance from the eye to the fourth area A4 of the third optical element 18 is the difference between the first projection light L1 and the second projection light It is due to the optical path difference with L2.
  • the third region A3 (18 (A3 (A3) ) And the fourth area A4 (18 (A4)) of the third optical element 18 are different.
  • the heights of the two are slightly different.
  • a gap g1 between the virtual image VI1 of the display surface 12 on the far distance side and the virtual image VI3 of the third optical element 18, the virtual image VI2 of the display surface 12 on the near distance side and the virtual image VI4 of the third optical element 18 The gap g2 is different.
  • the third optical element 18 can adopt different parallax barrier pitches in order to make the suitable viewing distance different between the third area A3 and the fourth area A4.
  • the suitable viewing distance is the distance between the third optical element 18 and the eye 35 of the user 33, which is suitable for observing a stereoscopic image.
  • the distances between the reference position of the eye 35 and the third virtual image VI3 and between the reference position of the eye 35 and the fourth virtual image VI4 are designed to be appropriate visual distance.
  • the appropriate viewing distance is d
  • the inter-eye distance of the user 33 is E
  • the horizontal length of the sub-pixels 17 is Hp
  • the gap is g
  • the sub-pixels 17 are arranged in the x direction, and the sub-pixels 17 constituting different pixels 16 are arranged in the y direction intersecting the x direction.
  • the widths of the light transmitting region 18 a and the light shielding region 18 b can be narrowed. Therefore, the resolution of the displayed virtual images VI1 and VI2 can be increased.
  • the width of the sub-pixel 117 in the x direction on the display surface 112 is larger than the width in the y direction.
  • the third optical element 118 having the same barrier aperture ratio and the same inclination of the light transmitting region 18a as that of the third optical element 18 of the second embodiment is applied to the display surface 112, the light transmission width W3 and the light shielding width W4 are It becomes as shown in FIG.
  • the sub-pixels P1 to P18 are first sub-pixels 117a that display an image for the left eye 135L.
  • the sub-pixels P19 to P36 are second sub-pixels 117b that display an image for the right eye 135R.
  • the light transmission width W3 is the light transmission width W1 when the sub pixel 17 is arranged such that the width in the y direction is wider than the x direction as shown in FIG.
  • the light shielding width W4 is such that the sub-pixel 17 is arranged such that the width in the y direction is wider than the x direction as shown in FIG. 10 of the second embodiment. It is three times the light shielding width W4. For this reason, in the arrangement of the sub-pixels 117 in FIG. 12, the resolution is extremely deteriorated when displaying a stereoscopic image based on parallax.
  • the light transmitting area 18a and the light shielding area 18b of the present embodiment can be narrowed in width, an image with high resolution can be displayed.
  • the image projection apparatus 1b employs a side type backlight instead of the direct type backlight as the illumination unit 14a of the projection light emitting unit 10a.
  • the illumination unit 14a is disposed in an instrument panel of a moving body 32, which is a vehicle, together with the display unit 11, the third optical element 18, the first optical element 21a, the second optical element 22, and the concave mirror 23a.
  • the light source 13a and the radiation fin 15a of the illumination unit 14a are located at an end of the display area 12 on the first area A1 side (the side from which the first projection light L1 is emitted).
  • the first area A1 of the display surface 12 is located on the center console side of the movable body 32.
  • the center console of the mobile unit 32 is located at the center in the left-right direction while facing the traveling direction of the mobile unit 32.
  • the center side has a larger space for arranging the device than the end side in the state of facing the traveling direction.
  • the image projection device 1b further includes a first optical element 21a movable between a first state and a second state, instead of the fixedly arranged first optical element 21. Movement includes rotation and translation.
  • the first optical element 21a is a reflective optical element such as a mirror, similarly to the first optical element 21 of the first and second embodiments.
  • the first optical element 21a can be rotated with one end along the y direction as a rotation axis using a driving device such as a stepping motor.
  • the drive device can be controlled by the control unit 30.
  • FIG. 13 shows a first state of the first optical element 21 a in which the first optical element 21 a is disposed in the optical path of the first projection light L 1 emitted from the first area A 1 of the display surface 12.
  • the first optical element 21a reflects the first projection light L1 toward the second optical element 22 as in the second embodiment.
  • the image projection device 1b can display the first virtual image VI1 and the second virtual image VI2, which are three-dimensional images having different imaging distances, in the field of view of the user 33. it can.
  • FIG. 14 shows a second state of the first optical element 21a in which the first optical element 21a is rotated from the state of FIG. 13 and does not interfere with the optical path of the first projection light L1.
  • the first projection light L1 is projected in translation with the second projection light L2 without being reflected by the first optical element 21a.
  • the first projection light L1 and the second projection light L2 are projected into the field of view of the user 33 via the concave mirror 23a and the windshield 24.
  • a large-screen virtual image having a size approximately twice that in the horizontal direction is displayed at a distance at which the second virtual image VI2 on the near distance side is viewed.
  • the first optical element 21 a can be positioned on the center side of the movable body 32, that is, on the center console side with respect to the second optical element 22. By providing the first optical element 21a having the drive unit on the side of the center console having a space, design and installation of the image projection apparatus 1b can be facilitated.
  • the movement of the first optical element 21a is not limited to rotating.
  • the first optical element 21a may be configured to be inserted in the optical path of the first projection light L1 and separated from the optical path of the first projection light L1 by translating in the y direction.
  • the display of the first virtual image VI1 and the second virtual image VI2 having different projection distances to be viewed by two screens and the display of one screen by a large screen at the distance of the second virtual image VI2 And it becomes possible to switch.
  • the light source 13a and the radiation fin 15a of the illumination unit 14a and the first optical element 21a are disposed on the center side of the movable body 32, the design and the arrangement become easy.
  • the illumination unit has a light source
  • the image projection device may receive light from an external light source to illuminate the display unit.
  • the light transmitting region and the light shielding region extend in the diagonal direction of the sub-pixel, but the present invention is not limited thereto.
  • the light transmitting area and the light shielding area may extend in the direction along the y direction without tilting.
  • the extending direction of the light transmitting region and the light shielding region can be set to various inclinations with respect to the y direction of the display surface.
  • the display surface is divided into two and the virtual image is displayed at two different distances as viewed from the user.
  • the display screen is divided into three or more, and the display screen is divided into three or more. It is also possible to display different virtual images.
  • the image projection apparatus shall be mounted in a moving body in the said embodiment, the image projection apparatus of this indication can be employ
  • the image projection device of the present disclosure can be mounted on various devices such as game devices, simulation devices for driving, and the like.
  • the descriptions such as “first” and “second” are identifiers for distinguishing the configurations.
  • the configurations distinguished in the description of “first”, “second” and the like in the present disclosure can exchange the numbers in the configurations.
  • the first optical element can exchange the second optical element with the identifiers “first” and “second”.
  • the exchange of identifiers takes place simultaneously.
  • the configuration is also distinguished after the exchange of identifiers. Identifiers may be deleted.
  • the configuration from which the identifier is deleted is distinguished by a code. The interpretation of the order of the configuration and the basis for the existence of the small-numbered identifiers should not be used based on only the descriptions of the "first” and "second” identifiers etc. in the present disclosure.
  • the "vehicle” in the present disclosure includes, but is not limited to, a car, a track vehicle, an industrial vehicle, and a living vehicle.
  • the vehicle may include an airplane traveling on the runway.
  • Automobiles include but are not limited to passenger cars, trucks, buses, motorcycles, trolley buses, etc., and may include other vehicles traveling on the road.
  • Tracked vehicles may include, but are not limited to, locomotives, freight cars, passenger cars, trams, guided track railways, ropeways, cable cars, linear motor cars, and monorails, but not limited to other vehicles traveling along tracks.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include, but are not limited to, forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combine harvesters, and lawn mowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, cranes, dump trucks, and road rollers.
  • Living vehicles include, but are not limited to, bicycles, wheelchairs, prams, handcarts, and electric standing motorcycles.
  • Vehicle power engines include, but are not limited to, internal combustion engines including diesel engines, gasoline engines, and hydrogen engines, and electric engines including motors. Vehicles include those that travel by human power.
  • the classification of vehicles is not limited to the above. For example, a car may include an industrial vehicle capable of traveling on a road, and a plurality of classifications may include the same vehicle.

Landscapes

  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Instrument Panels (AREA)

Abstract

画像投影装置1は、投影光射出部10と、第1光学素子21と、第2光学素子22と、光学系23とを含む。投影光射出部10は、x方向に沿って第1領域及び第2領域が並ぶ表示面12を有する。第1光学素子21は、第1領域からの第1投影光を反射する。第2光学素子22は、第1光学素子21で反射された第1投影光を反射し、第2領域からの第2投影光を透過する。光学系23は、第2光学素子22で反射された第1投影光及び第2光学素子22を透過した第2投影光を利用者の視野内に投影する。上記第1方向は、第1投影光及び第2投影光が利用者の視野内に投影されたときの両眼が並ぶ方向に対応する。表示面12は、1つのピクセルを構成するサブピクセルが第1方向に並び、第1方向と交差する第2方向に異なるピクセルを構成するサブピクセルが並ぶ。

Description

画像投影装置及び移動体 関連出願の相互参照
 本出願は、2017年7月7日に出願された日本国特許出願2017-134113号の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本開示は、画像投影装置及び移動体に関する。
 ディスプレイの表示画面を二つの部分に分割して、それぞれの部分から出射する出射光を重ね合わせて利用者の視野内に投影し、利用者に対して結像距離の異なる2つの虚像として表示する画像投影装置が知られている(例えば、特許文献1参照)。
特許第6004706号公報
 本開示の画像投影装置は、投影光射出部と、第1光学素子と、第2光学素子と、光学系とを含む。投影光射出部は、第1方向に沿って第1領域及び第2領域が並ぶ表示面を有する。第1光学素子は、第1領域からの第1投影光を反射する。第2光学素子は、第1光学素子で反射された第1投影光を反射し、第2領域からの第2投影光を透過する。光学系は、第2光学素子で反射された第1投影光及び第2光学素子を透過した第2投影光を利用者の視野内に投影する。上記第1方向は、第1投影光及び第2投影光が利用者の視野内に投影されたときの利用者の両眼が並ぶ方向に対応する。表示面は、1つのピクセルを構成するサブピクセルが第1方向に並び、第1方向と交差する第2方向に異なるピクセルを構成するサブピクセルが並ぶ。
 本開示の移動体は、画像投影装置を含む。画像投影装置は、投影光射出部、第1光学素子、第2光学素子、及び、光学系を有する。投影光射出部は、第1方向に沿って第1領域及び第2領域が並ぶ表示面を有する。第1光学素子は、第1領域からの第1投影光を反射する。第2光学素子は、第1光学素子で反射された第1投影光を反射し、第2領域からの第2投影光を透過する。光学系は、第2光学素子で反射された第1投影光及び第2光学素子を透過した第2投影光を利用者の視野内に投影する。上記第1方向は、第1投影光及び第2投影光が利用者の視野内に投影されたときの利用者の両眼が並ぶ方向に対応する。表示面は、1つのピクセルを構成するサブピクセルが第1方向に並び、第1方向と交差する第2方向に異なるピクセルを構成するサブピクセルが並ぶ。光学系は、第1投影光及び第2投影光を、利用者のアイボックスに向かって反射するウインドシールドまたはコンバイナを含む。
図1は、本開示の一実施形態に係る画像投影装置を示す図である。 図2は、図1の画像投影装置をy方向から見た図であるである。 図3は、図1の表示面の画素の配置を説明する図である。 図4は、従来技術に係る画像投影装置の一例を示す図である。 図5は、図4の表示面の画素の配置を説明する図である。 図6は、変形例に係る画像投影装置の表示面の画素の配置を説明する図である。 図7は、本開示の第2実施形態に係る画像投影装置を示す図である。 図8は、図7に示す表示部及び第3光学素子を利用者側から見た図である。 図9は、画像投影装置による立体画像表示を説明する図である。 図10は、左眼に視認される表示面と第3光学素子との配置関係を説明する図である。 図11は、表示面及び第3光学素子の虚像の結像を示す光路図である。 図12は、従来技術による画像投影装置の一例における表示面と第3光学素子との配置関係を説明する図である。 図13は、第3実施形態に係る画像投影装置を示す図である。 図14は、図13の画像投影装置の第1光学素子が回動した状態を示す図である。
 画像投影装置によって表示される画像は、解像度が高いことが望ましい。従来の画像投影装置では、投影される画像が、水平方向の解像度が低い画像となることがある。
 本開示の画像投影装置は、解像度の劣化を低減しつつ前方方向に結像距離の異なる2画面の表示を行うことができる。
 以下、本開示の実施形態について、図面を参照して説明する。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
(第1実施形態)
 本開示の第1実施形態に係る画像投影装置1は、図1及び図2に示されるように、投影光射出部10と、第1光学素子21と、第2光学素子22と凹面鏡23aを含む光学系23とを備える。投影光射出部10は、表示面12を有する表示部11と光源13を含む照明部14とを含む。また、照明部14には、光源13からの熱を放熱するための放熱フィン15が設けられている。
 表示部11は、例えば、LCD(Liquid Crystal Display)等の透過型液晶デバイスまたはLCOS(Liquid Crystal On Silicon)等の反射型液晶デバイスを備えてよい。この場合、表示面12は、液晶デバイスの表示面であってよい。表示部11は液晶デバイスに限られない。表示部11としては、有機EL(Electro-Luminescence)ディスプレイ、無機ELディスプレイ、プラズマディスプレイ(PDP:Plasma Display Panel)、電界放出ディスプレイ(FED:Field Emission Display)、電気泳動ディスプレイ、ツイストボールディスプレイ等の種々のフラットパネルディスプレイを採用しうる。有機ELディスプレイ等の自発光型の表示パネルを採用した場合、照明部14は不要としうる。
 表示部11は、デジタルミラーデバイス(DMD:Digital Mirror Device)またはMEMS(Micro Electro Mechanical Systems)ミラー等のミラーデバイスを備えてよい。この場合、表示面12は、ミラーの配列面であってよい。表示部11は、ミラーデバイスから射出される光を結像するスクリーンまたはレンズアレイ等をさらに備えてよい。この場合、表示面12は、スクリーンであってよいし、レンズアレイの結像面であってよい。
 表示面12に表示された画像は、投影光として出射される。表示面12から出射した投影光は、後述するように、利用者33の視野内に投影され虚像を表示する。以下において、利用者33の両眼35が並ぶ方向に対応する、表示面12上の方向をx方向とする。x方向は、第1方向とも呼ぶ。また、表示面12上のx方向と交差する方向をy方向とする。y方向は、x方向と直交する方向としてよい。y方向は第2方向とも呼ぶ。さらに、表示面12の法線方向をz方向とする。画像投影装置1は、移動体32に搭載されうる。利用者33は、移動体32内にいる人とすることができる。利用者33は、移動体32を運転する運転者でありうる。
 照明部14は、表示面12を照射する光源13として、ランプ、LED(Light Emission Diode)、またはレーザ等を備えてよい。照明部14は、液晶デバイスのバックライトとして用いられてよい。照明部14は、表示面12の背面側に表示面12に対向して2次元的に配列された複数のLEDを含みうる。表示面12の背面側に表示面12に対向して配置された複数のLEDを有するバックライトは、直下型バックライトと呼ぶことができる。照明部14は、表示部11の何れかの端部側に配列された複数のLEDを含み、導光板により光を表示面12の背面全体に導光してよい。表示部11の端部側に配置された複数のLEDを有するバックライトは、サイド型バックライトと呼ぶことができる。照明部14は、光源13から射出された光を表示面12に均一化して照射するために、レンズアレイ、導光板、及び拡散板等を含んで構成されてよい。表示部11がミラーデバイスの場合、光源13は、ミラーデバイスへ光を入射するために用いられてよい。
 放熱フィン15は、照明部14の光源13に隣接して設けられる。放熱フィン15は、光源13により発生する熱を放熱するための多数の突起を有する。これらの突起は板状または棒状としうる。放熱フィン15は、アルミ等の金属により構成することができる。放熱フィン15は、ヒートシンクと言い換えることができる。
 図3に示すように、表示面12には、ピクセル16がx方向およびy方向にマトリクス状に繰り返し配列されている。1つのピクセル16は、それぞれ3つのサブピクセル17を含みうる。3つのサブピクセル17は、それぞれ、R(赤)、G(緑)、B(青)の各色を表示する。R、G、Bの各色を表示する3つのサブピクセル17は、一組となって1つのピクセル16(画素)を構成しうる。1つのサブピクセル17は、y方向に長い矩形形状を有する。サブピクセル17は、1ピクセルの幅の1/3の幅を有することができる。x方向に並んだ一組のサブピクセル17は、略正方形のピクセル16を構成しうる。表示面12は、1つのピクセル16を構成するサブピクセル17がx方向に並び、x方向と交差するy方向に異なるピクセル16を構成するサブピクセル17が並ぶ。
 表示部11の表示面12は、x方向に沿って並ぶ第1領域A1及び第2領域A2の2つの領域を有する。言い換えれば、表示部11の表示面12は、y方向に延びる仮想的な境界線によって、第1領域A1と第2領域A2とに分割される。図3において仮想的境界線は一点鎖線によって示される。第1領域A1と第2領域A2との間で、ピクセル16及びサブピクセル17の配置に差異はない。第1領域A1と第2領域A2の面積は、等しくても異なってもよい。第1領域A1から出射する投影光を第1投影光L1と呼ぶ。第2領域A2から出射する投影光を第2投影光L2と呼ぶ。
 図2は、画像投影装置1の投影光射出部10、第1光学素子21、第2光学素子22及び凹面鏡23aを、y方向から見た図である。図2に示すように、第1光学素子21及び第2光学素子22は、それぞれ、表示部11の表示面12を出射した第1投影光L1及び第2投影光L2の光路上に位置する。
 第1光学素子21は、表示部11の表示面12から出射した第1投影光L1を、少なくとも部分的に、第2光学素子22に向けて反射する。第1光学素子21と第2光学素子22とは、x方向に並んで配置されうる。第1光学素子21は、第1投影光L1を略x方向に反射させることができる。第1光学素子21は、表示面12の第1領域A1からの第1投影光L1を反射するミラーとすることができる。第1光学素子21は、第1投影光L1を偏向する反射プリズムとすることができる。
 第2光学素子22は、第1光学素子21で反射された第1投影光L1を、少なくとも部分的に、凹面鏡23aに向けて反射する。第2光学素子22は、表示面12の第2領域A2から出射した第2投影光L2を、少なくとも部分的に、凹面鏡23aに向けて透過させる。第2光学素子22は、ビームスプリッタ又はハーフミラーとすることができる。
 第2光学素子22で反射された第1投影光L1、及び、第2光学素子22を透過した第2投影光L2は、少なくとも部分的に重なって凹面鏡23aに入射する。凹面鏡23aは、画像投影装置1の光学系23に含まれる。画像投影装置1の光学系23は、凹面鏡23aを含む構成に限られない。光学系23は、凸レンズと平板ミラーとの組合せを含む構成、及び、凹面鏡23aを含む複数のミラーを組み合わせた構成も可能である。光学系23の構成要素の有する正の屈折力は、後述するように利用者33の視野内に虚像を視認可能に投影する。
 上述のように、画像投影装置1は、移動体32に設けることができる。画像投影装置1は、移動体32以外に設けられてよい。図1の画像投影装置1は、車両である移動体32に設けられたものとする。画像投影装置1は、ヘッドアップディスプレイ(HUD:Head Up Display)として実装されうる。画像投影装置1の投影光射出部10、第1光学素子21、第2光学素子22、凹面鏡23aは、車両である移動体32のインストルメントパネル内に内蔵されうる。
 画像投影装置1の光学系23は、移動体32のウインドシールド24を含みうる。凹面鏡23aとウインドシールド24との間には、第1投影光L1及び第2投影光L2が通過可能な開口部が設けられる。第1投影光L1及び第2投影光L2は、凹面鏡23aを経由して、ウインドシールド24で利用者33のアイボックス34に向かって反射され、利用者33の眼35に入射してよい。図1において、ウインドシールド24で反射され利用者33の眼35に向かう第1投影光L1及び第2投影光L2の光路は、一点鎖線の矢印によって代表して示される。図1において、ウインドシールド24の前方方向には、運転者33が視認する第1虚像VI1及び第2虚像VI2とウインドシールド24との間の見かけ上の投影光の光路が示されている。ウインドシールド24に代えて、ウインドシールド24とは独立したコンバイナが使用されうる。コンバイナは、投影光を反射する半透明な板状部材である。コンバイナは、ハーフミラーを用いることができる。アイボックス34は、例えば利用者33の体格、姿勢、および姿勢の変化等を考慮して、利用者33の眼35が存在しうると想定される実空間上の領域である。アイボックス34の形状は任意である。アイボックス34は、平面的または立体的な領域を含んでよい。アイボックス34内に眼35が存在する場合、アイボックス34に到達する投影光によって、虚像VI1,VI2を視認可能である。
 表示部11は、制御部30からの信号を受けて画像を生成することができる。画像投影装置1は、制御部30を含みうる。制御部30は、画像投影装置1全体を制御することができる。制御部30は、投影光射出部10が出射する第1投影光L1及び第2投影光L2の強度等を制御する。制御部30は、光源13に対して、例えば投影光の強度等を制御する制御情報を出力しうる。表示部11は、制御部30以外の外部から表示する画像の信号を受信し、受信した信号に基づいて画像を生成してよい。
 制御部30は、一つまたは複数のプロセッサを含む。制御部30もしくはプロセッサは、種々の処理のためのプログラム及び演算中の情報を記憶する1つまたは複数のメモリを含んでよい。メモリは、揮発性メモリ及び不揮発性メモリが含まれる。メモリは、プロセッサと独立しているメモリ、及びプロセッサの内蔵メモリが含まれる。プロセッサには、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、特定の処理に特化した専用のプロセッサが含まれる。専用のプロセッサには、特定用途向けIC(ASIC;Application Specific Integrated Circuit)が含まれる。プロセッサには、プログラマブルロジックデバイス(PLD;Programmable Logic Device)が含まれる。PLDには、FPGA(Field-Programmable Gate Array)が含まれる。制御部30は、一つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。
 以上のような構成によって、画像投影装置1の使用時において、表示部11の表示面12の第1領域A1に表示された画像は、第1投影光L1として射出される。表示部11の表示面12の第2領域A2に表示された画像は、第2投影光L2として射出される。第1投影光L1は、第1光学素子21で反射された後、第2光学素子22で反射されて凹面鏡23aに向かう。第2投影光L2は、第2光学素子22を透過して、凹面鏡23aに向かう。このため、第1投影光L1と第2投影光L2とでは、第1投影光L1の方が光路長が長くなる。凹面鏡23aで反射した第1投影光L1及び第2投影光L2は、ウインドシールド41に反射され、それぞれ、利用者33の視野内に遠距離側の虚像である第1虚像VI1、及び、近距離側の虚像である第2虚像VI2を結像する。
 第1投影光L1と第2投影光L2との光路差により、第1虚像VI1と第2虚像VI2との視認される前方方向の結像位置が異なる。したがって、画像投影装置1は、利用者33に視認される結像距離の異なる2つの虚像を投影することができる。なお、「前方方向」は、利用者33の通常の視線の方向である。移動体32の場合、「前方方向」は、利用者33からみてウインドシールド24を通して前方を意味する。移動体32の場合、「前方方向」は、移動体32が通常移動時に進行する方向である。また、「前方方向」に対する反対向きの方向を「後方方向」又は「手前方向」と呼ぶ。
 第1虚像VI1及び第2虚像VI2は、図3の表示面12上でのサブピクセル17の配置と同様に、1つのピクセル16を構成するサブピクセル17の像がx方向に並び、異なるピクセル16を構成するサブピクセル17の像がy方向に並ぶ。前述のように、1つのピクセル16は略正方形としうる。したがって、利用者33に視認される画像のサブピクセル17の像の縦横比は、略3:1となる。縦はy方向に対応する。横はx方向に対応する。したがって、利用者33に視認される第1虚像VI1及び第2虚像VI2は、x方向に画素がより密に並んでいる。言い換えれば、第1虚像V11及び第2虚像VI2は、x方向の分解能が高い。ここで、利用者33が視認する画像においても、利用者33の両眼35の並ぶ方向をx方向、これと直交する方向をy方向とする。x方向は水平方向と言い換えうる。y方向は鉛直方向と言い換えうる。
 図4は、比較のための従来技術に係る画像投影装置101の構成例を示す。図4において、図1及び図2の実施形態に係る画像投影装置1の構成要素に対応する構成要素は、画像投影装置1の構成要素の参照符号に、100を加えた参照符号を付している。画像投影装置101の各構成要素は、特に説明しない限り、対応する画像投影装置1の構成要素と同様に構成されうる。画像投影装置101では、図5に示すように、遠距離側虚像である第1虚像VI1'に対応する第1領域A1’及び近距離側虚像である第2虚像VI2'に対応する第2領域A2’がy方向に並ぶ。表示面112には、1つのピクセル116を構成するサブピクセル117がy方向に並び、x方向に異なるピクセル116を構成するサブピクセル117が並ぶ。
 画像投影装置101では、ミラーである第1光学素子121及びハーフミラーである第2光学素子122が、それぞれ、第1投影光L1’および第2投影光L2’を凹面鏡123aに向けて偏向するように配置される。表示面112の第1領域A1’から出射した第1投影光L1’の少なくとも一部は、第1光学素子121で反射され、第2光学素子122を透過した後、凹面鏡123aに向かう。また、表示面112の第2領域A2’から出射した第2投影光L2’の少なくとも一部は、第2光学素子122で反射され凹面鏡123aに向かう。
 凹面鏡123aで反射された第1投影光L1’及び第2投影光L2’は、ウインドシールド124で反射され、利用者133の視野内に第1虚像VI1'及び第2虚像VI2’を結像する。
 従来技術に係る画像投影装置101では、本開示の画像投影装置1とは異なり、サブピクセル117の縦横比が1:3となっている。即ち、利用者133の両眼135の並ぶ方向のサブピクセル117の解像度が低い。このため、画像投影装置101により表示される第1虚像VI1’及び第2虚像VI2’は、利用者133に粗い画像であると感じさせる。これに対して、本開示に係る画像投影装置1では、利用者33の両眼35の並ぶx方向の解像度が高いので、利用者33に対してより精細であると感じさせる画像を提供することができる。すなわち、本開示の画像投影装置1は、利用者の感じる解像度の劣化を低減しつつ、前方方向に結像距離の異なる2画面の表示を行うことができる。
 本開示の第1実施形態の変形例に係る画像投影装置では、図6に示す表示面12を有する表示部11を採用しうる。この表示面12では、第1虚像VI1に対応する第1領域A1及び第2虚像VI2に対応する第2領域A2が、y方向に並ぶ。従来の表示装置において、1ピクセルを構成するサブピクセルは、矩形の表示面の長辺に沿う方向に並ぶのが一般的である。これに対し、本変形例では、表示面12には、1つのピクセル16を構成するサブピクセル17が短辺であるx方向に並び、長辺であるy方向に異なるピクセル16を構成するサブピクセル17が並ぶ。図4の画像投影装置101と同様に画像投影装置を構成し、図6の表示面12を有する表示部11を採用することにより、y方向に比べx方向の解像度が高い虚像を表示しうる。
(第2実施形態)
 本開示の第2実施形態に係る画像投影装置1aを、図7を用いて説明する。図7の画像投影装置1aは、利用者33の左右の眼35L,35Rに視差のある画像を投影することにより、立体的な画像表示を行うものである。以下において、視差により立体的に表示された画像を、立体画像と呼ぶ。以下の説明においては、第1実施形態に係る画像投影装置1との差異部分について説明する。第1実施形態と同一または対応する構成要素には同一参照符号を付して説明を省略する。
 第2実施形態に係る画像投影装置1aは、第1実施形態に係る画像投影装置1において、表示部11と第1光学素子21及び第2光学素子22との間に、第3光学素子18を備える。また、画像投影装置1aは、利用者33の両眼35又は頭部の位置を検出する検出装置31を有する。
 第3光学素子18は、各サブピクセル17から射出される投影光の光線方向を規定する光学素子である。第3光学素子18は、例えば、視差バリアまたはレンチキュラレンズである。第3光学素子18は、表示面12の右眼35R用の画像を表示するサブピクセル17からの投影光を右眼35Rに投影し、左眼35L用の画像を表示するサブピクセル17からの投影光を左眼35Lに投影するように、投影光の方向を規定する。第3光学素子18は、図7に示すよう、表示部11の投影光の出射側(図において+z方向)に所定の距離を離して配置することができる。第3光学素子18は、表示部11の照明部14側に配置してもよい。表示面12と第3光学素子18とは、平行になるように配置される。適宜表示面12と第3光学素子18との間をギャップと呼ぶことができる。
 図8は、表示部11の投影光の出射側に第3光学素子18が設けられた場合の、第3光学素子18及び表示面12を表示面12側から見た図である。図8に示すように、視差バリアである第3光学素子18は、交互に配列された投影光を透過させる複数の透光領域18aと、投影光を遮光する複数の遮光領域18bとを備える。透光領域18aと遮光領域18bとは、xy面内の所定方向に伸びる複数の帯状領域である。所定方向は、サブピクセル17の対角線に沿う方向とすることができる。仮に、透光領域18a及び遮光領域18bが、表示面12のサブピクセル17の配列されたy方向に延びる場合、第3光学素子18の開口のパターンと、表示部11が表示する画素パターンとの間にモアレが発生する場合がある。透光領域18a及び遮光領域18bの延びる方向を、y方向に対して傾けることによって、投影される画像においてモアレの発生が低減される。ただし、このことは、透光領域18a及び遮光領域18bが、y方向に延びるように配置されることを排除するものではない。
 透光領域18aは、遮光領域18bに比べて光透過率が高い。透光領域18aは、所定値以上の透過率で光を透過させてよい。この所定値は、例えば100%であってよいし、100%未満の値であってよい。遮光領域18bは、第3光学素子18に入射する光の相当の部分を遮って透過させない領域である。言い換えれば、遮光領域18bは、表示面12に表示される投影光の光路を遮る。遮光領域18bは、所定値以下の透過率で光を遮ってよい。この所定値は、例えば0%であってよいし、0%より大きく0%に近い値であってよい。
 第3光学素子18は、xy面内の所定方向に伸びる複数の帯状領域である透光領域18aごとに、サブピクセル17から射出される投影光の伝播方向である光線方向を規定する。第3光学素子18がサブピクセル17から射出される投影光の方向を規定することによって、利用者33の眼35が視認可能な表示面12上の領域が定まる。以降において、当該領域は可視領域12aと称される。利用者33の左眼35Lが視認可能な表示面12上の領域は左可視領域12aLと称される。利用者33の右眼35Rが視認可能な表示面12上の領域は右可視領域12aRと称される。
 第3光学素子18は、フィルムまたは板状部材で構成されてよい。この場合、遮光領域18bは、当該フィルムまたは板状部材で構成されうる。透光領域18aは、フィルムまたは板状部材に設けられた開口で構成されうる。板状部材及びフィルムは、樹脂で構成されてよいし、他の材料で構成されてよい。第3光学素子18は、フィルムまたは板状部材以外の他の種類の部材で構成されてよい。第3光学素子18は、基材が遮光性を有してよいし、基材に遮光性を有する添加物が含有されてよい。第3光学素子18は、光透過性の高いガラス等の基板上に、遮光領域18bとなる遮光膜を形成したものを採用しうる。
 第3光学素子18は、視差バリアに代えて、レンチキュラレンズ又は液晶シャッターで構成されてよい。第3光学素子18が、レンチキュラレンズの場合、レンチキュラレンズは、シリンドリカルレンズを、xy平面内に配列して構成される。レンチキュラレンズは、パララックスバリアと同様に、右眼35R用の画像を表示するサブピクセル17からの投影光を右眼35Rに投影し、左眼35L用の画像を表示するサブピクセル17からの投影光を左眼35Lに投影するように配置される。レンチキュラレンズは、y方向に対して傾けて配置しうる。
 第3光学素子18が液晶シャッターの場合、液晶シャッターは、印加する電圧に応じて光の透過率を制御しうる。液晶シャッターは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッターは、光の透過率が高い領域または光の透過率が低い領域を任意の形状に形成してうる。液晶シャッターである第3光学素子18は、制御部30により制御されうる。第3光学素子18に液晶シャッターを用いることにより、制御部30は、透光領域18aを動的に変化させうる。
 第3光学素子18は、表示面12の第1領域A1及び第2領域A2にそれぞれ対向する第3領域A3及び第4領域A4を有する。
 検出装置31は、利用者33の左眼35Lおよび右眼35Rの位置を検出し、制御部30に出力する。検出装置31は、例えば、例えばCCD(Charge Coupled Device)撮像素子またはCMOS(Complementary Metal Oxide Semiconductor)撮像素子を含むカメラを備えてよい。検出装置31がカメラを含む場合の撮像範囲は、少なくともアイボックス34を含む。検出装置31は、カメラによって利用者33の顔を撮影してよい。検出装置31は、カメラの利用者33の顔の像を含む撮影画像から左眼35Lおよび右眼35Rの位置を検出してよい。検出装置31は、1個のカメラの撮影画像から、左眼35Lおよび右眼35Rの位置を3次元空間の座標として検出してよい。検出装置31は、2個以上のカメラの撮影画像から、左眼35Lおよび右眼35Rの位置を3次元空間の座標として検出してよい。
 検出装置31は、カメラを備えず、装置外のカメラに接続されていてよい。検出装置31は、装置外のカメラからの信号を入力する入力端子を備えてよい。装置外のカメラは、入力端子に直接的に接続されてよい。装置外のカメラは、共有のネットワークを介して入力端子に間接的に接続されてよい。カメラを備えない検出装置31は、カメラが映像信号を入力する入力端子を備えてよい。カメラを備えない検出装置31は、入力端子に入力された映像信号から左眼35Lおよび右眼35Rの位置を検出してよい。
 検出装置31は、例えば、センサを備えてよい。センサは、超音波センサまたは光センサ等であってよい。検出装置31は、センサによって利用者33の頭部の位置を検出し、頭部の位置に基づいて左眼35Lおよび右眼35Rの位置を検出してよい。検出装置31は、1個または2個以上のセンサによって、左眼35Lおよび右眼35Rの位置を3次元空間の座標として検出してよい。
 画像投影装置1aは、検出装置31を備えなくてよい。画像投影装置1aが検出装置31を備えない場合、画像投影装置1aは、装置外の検出装置からの信号を入力する入力端子を備えてよい。装置外の検出装置は、入力端子に接続されてよい。装置外の検出装置は、入力端子に対する伝送信号として、電気信号および光信号を用いてよい。装置外の検出装置は、共有のネットワークを介して入力端子に間接的に接続されてよい。制御部30は、装置外の検出装置から取得した左眼35Lおよび右眼35Rの位置を示す位置座標が入力されてよい。制御部30は、位置座標に基づいて、左眼35L及び右眼35Rの移動距離を算出してよい。
 図9及び図10を用いて、画像投影装置1aによる立体画像の表示方法を説明する。図9および図10は、簡単のために表示面12の第1領域A1及び第2領域A2、第3光学素子18の第3領域A3及び第4領域A4、並びに、第1投影光L1及び第2投影光L2を区別しない図である。図9及び図10は、表示面12の第1領域A1を出射して、第3光学素子18の第3領域A3を通る第1投影光L1、及び、表示面12の第2領域A2を出射して、第3光学素子18の第4領域A4を通る第2投影光L2の双方に当てはまる。また、図9では、第1光学素子21、第2光学素子22、凹面鏡23a、ウインドシールド24等を省略して光路を直線的に描いている。
 制御部30は、検出装置31により検出された利用者33の左眼35L及び右眼35Rの位置に応じて、表示部11の表示面12に表示される画像を制御する。基準位置において、表示面12には、x方向において、左眼35L用の画像を表示する第1サブピクセル17aと右眼35R用の画像を表示する第2サブピクセル17bが、2画素ずつ交互に配置される。図9において、サブピクセルP1,P2は第1サブピクセル17aである。また、サブピクセルP3,P4は第2サブピクセル17bである。
 利用者33の左眼35Lは、破線で示すように、第3光学素子18の透光領域18aを通して、表示面12上の左可視領域12aLに部分的に含まれる第1サブピクセル17a(P1,P2)を見ることができる。利用者33の右眼35Rは、実線で示すように、第3光学素子18の透光領域18aを通して、表示面12上の右可視領域12aRに部分的に含まれる第2サブピクセル17b(P3,P4)を見ることができる。これによって、利用者33は、左眼35Lと右眼35Rとで異なる画像を視認しうる。言い換えれば、第1サブピクセル17aから出射した投影光が利用者33の左眼35Lに投影され、第2サブピクセル17bから出射した投影光が利用者33の右眼35Rに投影される。制御部30は、第1サブピクセル17aと第2サブピクセル17bとに、視差を有する画像を表示させることにより、利用者33に対して立体画像を視認させることができる。
 表示面12の第1領域A1の第1サブピクセル17aから出射して左眼35Lに投影される投影光を、第1左投影光と呼び、第1領域A1の第2サブピクセル17bから出射して右眼35Rに投影される投影光を、第1右投影光と呼ぶ。また、表示面12の第2領域A2の第1サブピクセル17aから出射して左眼35Lに投影される投影光を、第2左投影光と呼び、第2領域A2の第2サブピクセル17bから出射して右眼35Rに投影される投影光を、第2右投影光と呼ぶ。第1投影光L1は、第1左投影光と第1右投影光とを含む。第2投影光L2は、第2右投影光と第2左投影光とを含む。
 第3光学素子18の第3領域A3は、第1投影光L1を、第1サブピクセル17aから出射して利用者33の左眼35Lに投影される第1左投影光と、第2サブピクセル17bから出射して利用者33の右眼35Rに投影される第1右投影光とに分ける。第3光学素子18の第4領域A4は、第2投影光L2を、第1サブピクセル17aから出射して左眼35Lに投影される第2左投影光と、第2サブピクセル17bから出射して右眼35Rに投影される第2右投影光とに分ける。
 図10を用いて、表示面12に表示される第1サブピクセル17a及び第2サブピクセル17bの配置の一例を説明する。図10は、利用者33の左眼35Lから見た表示面12及び第3光学素子18を示す。ただし、説明のため第3光学素子18の背後に位置し、第3光学素子18に隠される表示面12上のサブピクセル17が、図中に表示されている。利用者33は、拡大虚像として表示部11及び第3光学素子18を見る。図10のサブピクセル17の配置は一例であって、視差バリアである第3光学素子18の透光領域18a及び遮光領域18bの傾き、幅等の種々の条件に応じて、種々の配置が可能になる。
 図10に示す表示面12上には、第1サブピクセル17aであるサブピクセルP1,P2と第2サブピクセル17bであるサブピクセルP3,P4を一組として、x方向にサブピクセルP1,P2,P3,P4が繰り返し配置される。図10において、サブピクセルP1,P2には左眼35L用の画像を表示することを示す符号「L」が付され、サブピクセルP3,P4には右眼35R用の画像を表示することを示す符号「R」が付されている。また、表示面12上で-y方向に一列ずれた行には、+x方向に1サブピクセルずらして、サブピクセルP1,P2,P3,P4が繰り返し配置されている。図10において、第1サブピクセル17aと第2サブピクセル17bとの境界が、強調して表示される。
 図10の表示面12上には、左眼35Lから見ることのできる第3光学素子18が重ねて表示されている。左可視領域12aLは、左眼35Lが視認可能な表示面12上の領域である。左遮光領域12bLは、第3光学素子18の遮光領域18bに遮られることによって、利用者33の左眼35Lによって視認することのできない領域である。左可視領域12aLのx方向の幅である透光幅W1は、サブピクセル1つ分の横幅となっている。透光幅W1は、第3光学素子18の透光領域18aの幅に対応する。左遮光領域12bLのx方向の幅である遮光幅W2は、サブピクセル3つ分の横幅となっている。遮光幅W2は、第3光学素子18の遮光領域18bの幅に対応する。本例示の画像投影装置1aのバリア開口率は、25%となる。本実施形態では、バリア開口率を25%とすることによって、より大きいバリア開口率(例えば、50%)の場合と比べ、クロストークの発生を少なくしている。クロストークとは、利用者33の左眼35Lに右眼35R用の画像の一部が視認され、及び/又は、右眼35Rに左眼35L用の画像の一部が視認されることを意味する。なお、上述の透光幅W1、遮光幅W2および開口率は、例示である。画像投影装置1aは、25%以外の種々のバリア開口率を採用しうる。
 利用者33の左眼35L及び右眼35Rの位置が水平方向に変化すると、左眼35L及び右眼35Rから見ることのできる表示面12と第3光学素子18との相対的な位置関係が変化する。図10のようにクロストークの発生しない左眼35L及び右眼35Rの位置を基準位置とする。図10の状態から、第3光学素子18がx方向に変位すると、サブピクセルP3の一部が左可視領域12aLに含まれる。図10の状態から、第3光学素子18がx方向に変位すると、サブピクセルP1の左遮光領域12bLに含まれる部分が増加する。制御部30は、検出装置31から取得した左眼35L及び右眼35Rの位置に応じて、クロストークを最小とするように、サブピクセルP1~P4に表示する画像を、左眼35L用の画像と右眼35R用の画像との間で切り替えてよい。
 画像投影装置1aは、表示面12の第1領域A1の第1サブピクセル17aから出射した第1左投影光により、利用者33の視野内の遠距離側の第1虚像VI1の結像位置に左眼35L用の画像を投影する。また、画像投影装置1aは、表示面12の第1領域A1の第2サブピクセル17bから出射した第1右投影光により、利用者33の視野内の遠距離側の第1虚像VI1の結像位置に右眼35R用の画像を投影する。これらは、視差を有する立体画像としての第1虚像VI1を、利用者33の視野内に結像させる。
 また、画像投影装置1aは、表示面12の第2領域A2の第1サブピクセル17aから出射した第2左投影光により、利用者33の視野内の近距離側の第2虚像VI2の結像位置に左眼35L用の画像を投影する。また、画像投影装置1aは、表示面12の第2領域A2の第2サブピクセル17bから出射した第2右投影光により、利用者33の視野内の近距離側の第2虚像VI2の結像位置に右眼35R用の画像を投影する。これらは、視差を有する立体画像としての第2虚像VI2を、利用者33の視野内に結像させる。
 第3光学素子18の第3領域A3は、第1虚像VI1に後方方向に隣接する位置、即ち、利用者33から見て第1虚像VI1の手前側に、第3虚像VI3として投影される。実際には、利用者33に対して第3虚像VI3の存在は視覚的に認識されない。利用者33は、第1虚像VI1の位置に拡大された表示面12の第1領域A1があり、第3虚像VI3の位置に拡大された第3光学素子18の第3領域A3が存在するかのように、画像を観察する。
 第3光学素子18の第4領域A4は、第2虚像VI2の後方方向に隣接する位、置即ち、利用者33から見て第2虚像VI2の手前側に、第4虚像VI3として投影される。実際には、利用者33に対して第4虚像VI4の存在は視覚的に認識されない。利用者33は、第2虚像VI2の位置に拡大された表示面12の第2領域A2があり、第4虚像VI4の位置に拡大された第3光学素子18の第4領域A4が存在するかのように、画像を観察する
 制御部30は、表示面12の第1領域A1の第1サブピクセル17a及び第2サブピクセル17bに、利用者33により視認される第1虚像VI1の結像位置に近い比較的遠距離に対応した視差を生成する立体画像を表示させる。制御部30は、表示面12の第2領域A2の第1サブピクセル17a及び第2サブピクセル17bに、利用者33により視認される第2虚像VI2の結像位置に近い比較的近距離に対応した視差を生成する立体画像を表示させる。制御部30は、第1虚像VI1の結像位置と第2虚像VI2の結像位置との間の位置に相当する視差を有する画像を、第1領域A1または第2領域A2の何れかの第1サブピクセル17a及び第2サブピクセル17bに表示させてよい。第1実施形態に係る画像投影装置1では、第1虚像VI1の結像位置及び第2虚像VI2の結像位置にのみ画像を表示できた。本実施形態では、第1虚像VI1の結像位置及び第2虚像VI2の結像位置に虚像を投影しながら、これら2地点までの距離以外の距離感を与える立体画像を表示することが可能になる。視差による距離を有する立体画像を、第1虚像VI1及び第2虚像VI2のうち、視差による距離が虚像の結像する距離に近い方に表示させることにより、画像投影装置1aは、広い距離範囲の立体画像を違和感なく表示しうる。
 図11の光路図は、利用者33の眼35から視認される、表示面12の第1領域A1及び第3光学素子18の第3領域A3の、それぞれの虚像VI1及びVI3の結像を示す。図中Fは凹面鏡23aの焦点位置である。表示面12の第1領域A1は、符号「12(A1)」により示される。第3光学素子18の第3領域A3は、符号「18(A3)」により示される。また、図11は、利用者33の眼35から観察される、表示面12の第2領域A2及び第3光学素子18の第4領域A4の、それぞれの虚像VI2及びVI4の結像を示す。表示面12の第2領域A2は、符号「12(A2)」により示される。第3光学素子18の第4領域A4は、符号「18(A4)」により示される。眼35から、表示面12の第1領域A1までの距離と、表示面12の第2領域A2までの距離との違いは、第1投影光L1と第2投影光L2との光路差によるものである。同様に、眼35から、第3光学素子18の第3領域A3までの距離と、第3光学素子18の第4領域A4までの距離との違いは、第1投影光L1と第2投影光L2との光路差によるものである。
 図11に示すように、眼35から等しい画角で同じ大きさに見える表示面12の虚像VI1及びVI2を観察する場合、実体のとしての第3光学素子18の第3領域A3(18(A3))と第3光学素子18の第4領域A4(18(A4))との寸法が異なる。図11において、両者の高さは僅かに異なっている。また、遠距離側の表示面12の虚像VI1と第3光学素子18の虚像VI3との間のギャップg1と、近距離側の表示面12の虚像VI2と第3光学素子18の虚像VI4との間のギャップg2は異なる。このため、第3光学素子18は、第3領域A3と第4領域A4との間で適視距離を異ならせるために、異なる視差バリアのピッチを採用しうる。適視距離は、立体画像を観察するのに適する、第3光学素子18と利用者33の眼35との間の距離である。眼35の基準位置と第3虚像VI3との間、及び、眼35の基準位置と第4虚像VI4との間の距離は、適視距離になるよう設計される。
 適視距離をd、利用者33の眼間距離をE、サブピクセル17の水平方向の長さをHp、ギャップをg、水平方向に並ぶ第1サブピクセル17aの個数をn(本実施形態ではn=2)、第3光学素子18の視差バリアのピッチをBpとするとき、適視距離は次の式から求められる。
 E:d=(n×Hp):g                       式(1)
 d:Bp=(d+g):(2×n×Hp)                 式(2)
適視距離dおよび虚像における見かけ上のギャップg1,g2の違いにより、第3光学素子18の第3領域A3と第4領域A4との間では、透光領域18a及び遮光領域18bのピッチが異なりうる。また第3光学素子18の第3領域A3と第4領域A4との間では、透光領域18aのx方向及びy方向の寸法が異なりうる。
 本実施形態によれば、表示面12は、サブピクセル17がx方向に並び、x方向と交差するy方向に異なるピクセル16を構成するサブピクセル17が並んでいるので、第3光学素子18の透光領域18a及び遮光領域18bの幅を狭くすることができる。このため、表示される虚像VI1、VI2の解像度を高くすることができる。
 図4及び図5に示したように従来技術による画像投影装置101では、表示面112においてサブピクセル117のx方向の幅がy方向の幅よりも大きくなる。この表示面112に、第2実施形態の第3光学素子18と同じバリア開口率及び同じ透光領域18aの傾きを有する第3光学素子118を適用した場合、透光幅W3及び遮光幅W4は図12に示すようになる。図12において、サブピクセルP1~P18は、左眼135L用の画像を表示する第1サブピクセル117aである。サブピクセルP19~P36は、右眼135R用の画像を表示する第2サブピクセル117bである。サブピクセル117の縦横比が1:3のとき、透光幅W3は、図10のようにサブピクセル17をx方向に対してy方向の幅が広くなるように配置した場合の透光幅W1の3倍となる。サブピクセル117の縦横比が1:3のとき、遮光幅W4は、第2実施形態の図10のようにサブピクセル17をx方向に対してy方向の幅が広くなるように配置した場合の遮光幅W4の3倍となる。このため、図12のサブピクセル117の配置では、視差に基づく立体画像の表示を行う場合、解像度が非常に悪くなる。これに対して、本実施形態の透光領域18a及び遮光領域18bは、幅を狭くすることができるので、解像度の高い画像を表示することができる。
(第3実施形態)
 図13及び図14を用いて第3実施形態に係る画像投影装置1bについて説明する。以下に、画像投影装置1bの第2実施形態に係る画像投影装置1aと異なる部分について説明する。第2実施形態に係る画像投影装置1aの構成要素と同一の構成要素は、同一参照符号を付して説明を省略する。
 図13にy方向から見た図を示すように、画像投影装置1bは、投影光射出部10aの照明部14aに、直下型バックライトに代えて、サイド型バックライトを採用する。照明部14aは、表示部11、第3光学素子18、第1光学素子21a,第2光学素子22及び凹面鏡23aとともに、車両である移動体32のインストルメントパネル内に配置される。
 照明部14aの光源13a及び放熱フィン15aは、表示面12の第1領域A1側(第1投影光L1を射出する側)の端部に位置する。表示面12の第1領域A1は、移動体32のセンターコンソール側に位置する。移動体32のセンターコンソールは、移動体32の進行方向を向いた状態で、左右方向の中央に位置する。移動体32のインストルメントパネル内においては、進行方向を向いた状態で端側よりも、中央側の方が機器を配置する空間の余裕が大きい。光源13a及び放熱フィン15aをセンターコンソール側に設けることによって、画像投影装置1bの設計及び配置が容易になる。
 画像投影装置1bは、さらに、固定配置された第1光学素子21に代えて、第1状態と第2状態との間で移動可能な第1光学素子21aを備える。移動には回動及び平行移動を含む。第1光学素子21aは、第1及び第2実施形態の第1光学素子21と同様に、ミラーのような反射光学素子である。第1光学素子21aは、ステッピングモータ等の駆動装置を用いて、y方向に沿う一方の端部を回転軸として回動されうる。駆動装置は、制御部30によって制御することができる。
 図13は、第1光学素子21aが、表示面12の第1領域A1を出射した第1投影光L1の光路内に配置された、第1光学素子21aの第1状態を示す。この状態では、第1光学素子21aは、第2実施形態と同様に第1投影光L1を第2光学素子22に向けて反射させる。その結果、画像投影装置1bは、第2実施形態と同様に、結像する距離の異なる立体画像である第1虚像VI1と第2虚像VI2とを、利用者33の視野内に表示することができる。
 図14は、図13の状態から第1光学素子21aが回動し、第1投影光L1の光路と干渉しない状態となった第1光学素子21aの第2状態を示す。この状態では、第1投影光L1は、第1光学素子21aに反射されることなく、第2投影光L2と並進して投影される。第1投影光L1及び第2投影光L2は、凹面鏡23a及びウインドシールド24を経由して、利用者33の視野内に投影される。その結果、利用者33の視野内には、近距離側の第2虚像VI2が視認される距離に、水平方向に約2倍の大きさを有する大画面の虚像が表示される。
 第1光学素子21aは、第2光学素子22に対して、移動体32の中央側、即ち、センターコンソール側に位置することができる。駆動部を有する第1光学素子21aを、空間的な余裕のあるセンターコンソール側に設けることによって、画像投影装置1bの設計及び設置が容易になる。
 なお、第1光学素子21aの移動は、回動するものに限られない。例えば、第1光学素子21aは、y方向に平行移動することによって、第1投影光L1の光路に挿入および第1投影光L1の光路から離脱するように構成してよい。
 本実施形態に係る画像投影装置1bによれば、視認される投影距離の異なる第1虚像VI1及び第虚像VI2の2画面による表示と、第2虚像VI2の距離での大画面による1画面の表示とを切り替えることが可能になる。また、照明部14aの光源13a及び放熱フィン15a、並びに、第1光学素子21aを、移動体32の中央側に配置したので、設計及び配置が容易となる。
 上述の各実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態及び実施例によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形及び変更が可能である。例えば、照明部は光源を有するものとしたが、画像投影装置は、外部の光源からの光を受けて表示部を照明してよい。また、第2実施形態において、透光領域と遮光領域とは、サブピクセルの対角線方向に延びるものとしたが、これに限られない。透光領域及び遮光領域は傾けずにy方向に沿う方向に延びるようにしてもよい。透光領域及び遮光領域の延びる方向は、表示面のy方向に対して、種々の傾きに設定することができる。上記実施形態では、表示面を2つに分割して利用者から見て2つの異なる距離に虚像を表示するものとしたが、表示画面は3つ以上に分割して、3つ以上の距離の異なる虚像を表示することも可能である。また、上記実施形態では、画像投影装置は移動体に搭載されるものとしたが、本開示の画像投影装置は、他の用途にも採用しうる。例えば、本開示の画像投影装置は、遊戯機器、運転等のシミュレーション装置等種々の装置に搭載することができる。
 本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1光学素子は、第2光学素子と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 本開示における「車両」には、自動車、軌道車両、産業車両、及び生活車両を含むが、これに限られない。例えば、車両には、滑走路を走行する飛行機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、及びトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。軌道車両は、機関車、貨車、客車、路面電車、案内軌道鉄道、ロープウエー、ケーブルカー、リニアモーターカー、及びモノレールを含むがこれに限られず、軌道に沿って進む他の車両を含んでよい。産業車両は、農業及び建設向けの産業車両を含む。産業車両には、フォークリフト、及びゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラを含むが、これに限られない。生活車両には、自転車、車いす、乳母車、手押し車、及び電動立ち乗り2輪車を含むが、これに限られない。車両の動力機関は、ディーゼル機関、ガソリン機関、及び水素機関を含む内燃機関、並びにモーターを含む電気機関を含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。
 1,1a,1b  画像投影装置
 10  投影光射出部
 11  表示部
 12  表示面
 12a  可視領域
 12aL  左可視領域
 12aR  右可視領域
 13,13a  光源
 14,14a  照明部
 15,15a  放熱フィン
 16  ピクセル
 17  サブピクセル
 17a  第1サブピクセル
 17b  第2サブピクセル
 18  第3光学素子
 18a  透光領域
 18b  遮光領域
 21,21a  第1光学素子
 22  第2光学素子
 23  光学系
 23a  凹面鏡
 24  ウインドシールド
 30  制御部
 31  検出装置
 32  移動体
 33  利用者
 35  眼
 35L  左眼
 35R  右眼
 L1  第1投影光
 L2  第2投影光
 A1  第1領域
 A2  第2領域
 A3  第3領域
 A4  第4領域
 VI1  第1虚像(遠距離側虚像)
 VI2  第2虚像(近距離側虚像)
 W1,W3  透光幅
 W2,W4  遮光幅

Claims (13)

  1.  第1方向に沿って第1領域及び第2領域が並ぶ表示面を有する投影光射出部と、
     前記第1領域からの第1投影光を反射する第1光学素子と、
     前記第1光学素子で反射された前記第1投影光を反射し、前記第2領域からの第2投影光を透過する第2光学素子と、
     前記第2光学素子で反射された前記第1投影光及び前記第2光学素子を透過した前記第2投影光を利用者の視野内に投影する光学系と、
    を有し、
     前記第1方向は、前記第1投影光及び前記第2投影光が前記利用者の視野内に投影されたときの両眼が並ぶ方向に対応し、前記表示面は、1つのピクセルを構成するサブピクセルが前記第1方向に並び、前記第1方向と交差する第2方向に異なるピクセルを構成するサブピクセルが並ぶ、画像投影装置。
  2.  前記第1光学素子は、前記第1投影光を前記第1方向に反射する、請求項1に記載の画像投影装置。
  3.  前記第1投影光は、左眼用の画像を表示する前記第1領域の第1サブピクセルから出射して前記利用者の左眼に投影される第1左投影光と、右眼用の画像を表示する前記第1領域の第2サブピクセルから出射して前記利用者の右眼に投影される第1右投影光とを含む、請求項1又は2に記載の画像投影装置。
  4.  前記第2投影光は、左眼用の画像を表示する前記第2領域の第1サブピクセルから出射して前記利用者の左眼に投影される第2左投影光と、右眼用の画像を表示する前記第2領域の第2サブピクセルから出射して前記利用者の右眼に投影される第2右投影光とを含む、請求項1又は2に記載の画像投影装置。
  5.  前記第1領域及び前記第2領域の前記サブピクセルは、それぞれ、左眼用の画像を表示する第1サブピクセルと、右眼用の画像を表示する第2サブピクセルとを含み、
     前記第1投影光を、前記第1サブピクセルから出射して前記利用者の左眼に投影される第1左投影光と、前記第2サブピクセルから出射して前記利用者の右眼に投影される第1右投影光とに分け、前記第2投影光を、前記第1サブピクセルから出射して前記左眼に投影する第2左投影光と、前記第2サブピクセルから出射して前記右眼に投影する第2右投影光とに分ける第3光学素子を有する、請求項1又は2に記載の画像投影装置。
  6.  前記第3光学素子は、前記第1投影光を前記第1左投影光と前記第1右投影光とに分ける第3領域と、前記第2投影光を前記第2左投影光と前記第2右投影光とに分ける第4領域と、を含む、請求項5に記載の画像投影装置。
  7.  前記第3光学素子は、透光領域のピッチが前記第3領域と前記第4領域とで異なる、請求項6に記載の画像投影装置。
  8.  前記第3光学素子は、サブピクセルに対する透光領域の寸法が前記第3領域と前記第4領域とで異なる、請求項6または7に記載の画像投影装置。
  9.  前記投影光射出部は、前記表示面を照射する光源をさらに備え、該光源が第1領域側の端部に位置する、請求項1から8の何れか一項に記載の画像投影装置。
  10.  第1方向に沿って第1領域及び第2領域が並ぶ表示面を有する投影光射出部、前記第1領域からの第1投影光を反射する第1光学素子、前記第1光学素子で反射された前記第1投影光を反射し、前記第2領域からの第2投影光を透過する第2光学素子、及び、前記第2光学素子で反射された前記第1投影光及び前記第2光学素子を透過した前記第2投影光を利用者の視野内に投影する光学系を含み、
     前記第1方向は、前記第1投影光及び前記第2投影光が前記利用者の視野内に投影されたときの両眼が並ぶ方向に対応し、
     前記表示面は、1つのピクセルを構成するサブピクセルが前記第1方向に並び、前記第1方向と交差する第2方向に異なるピクセルを構成するサブピクセルが並び、
     前記光学系は、前記第1投影光及び前記第2投影光を、前記利用者のアイボックスに向かって反射するウインドシールドまたはコンバイナを含む画像投影装置
    を備える、移動体。
  11.  前記第1領域及び前記第2領域の前記サブピクセルは、それぞれ、左眼用の画像を表示する第1サブピクセルと、右眼用の画像を表示する第2サブピクセルとを含み、前記画像投影装置は、前記第1投影光を、前記第1サブピクセルから出射して前記利用者の左眼に投影される第1左投影光と、前記第2サブピクセルから出射して前記利用者の右眼に投影される第1右投影光とに分け、前記第2投影光を、前記第1サブピクセルから出射して前記左眼に投影する第2左投影光と、前記第2サブピクセルから出射して前記右眼に投影する第2右投影光と、に分ける第3光学素子を有する、請求項10に記載の移動体。
  12.  前記第1領域は、前記移動体を運転する利用者により、前記移動体の前方方向に虚像として視認される、請求項10又は11に記載の移動体。
  13.  前記投影光射出部は光源を有し、該光源は前記移動体の中央側の端部に位置する請求項10から12の何れか一項に記載の移動体。
PCT/JP2018/025052 2017-07-07 2018-07-02 画像投影装置及び移動体 WO2019009240A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/628,205 US11385470B2 (en) 2017-07-07 2018-07-02 Image projection apparatus and mobile body
EP18827610.9A EP3650920B1 (en) 2017-07-07 2018-07-02 Image projection device and mobile body
CN201880045059.9A CN110832382B (zh) 2017-07-07 2018-07-02 图像投影装置和移动体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-134113 2017-07-07
JP2017134113A JP6873850B2 (ja) 2017-07-07 2017-07-07 画像投影装置及び移動体

Publications (1)

Publication Number Publication Date
WO2019009240A1 true WO2019009240A1 (ja) 2019-01-10

Family

ID=64949970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/025052 WO2019009240A1 (ja) 2017-07-07 2018-07-02 画像投影装置及び移動体

Country Status (5)

Country Link
US (1) US11385470B2 (ja)
EP (1) EP3650920B1 (ja)
JP (1) JP6873850B2 (ja)
CN (1) CN110832382B (ja)
WO (1) WO2019009240A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4067972A4 (en) * 2019-11-27 2024-02-14 Kyocera Corporation HEADUP DISPLAY SYSTEM AND MOVING BODY

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020195975A1 (ja) * 2019-03-26 2020-10-01 京セラ株式会社 立体虚像表示モジュール、立体虚像表示システム、および移動体
JP7250582B2 (ja) * 2019-03-26 2023-04-03 京セラ株式会社 画像表示モジュール、移動体、及び光学系
US11222476B2 (en) * 2019-05-14 2022-01-11 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America System to add parallax to video for augmented reality head up display
JP7274392B2 (ja) * 2019-09-30 2023-05-16 京セラ株式会社 カメラ、ヘッドアップディスプレイシステム、及び移動体
US11393368B2 (en) * 2020-11-05 2022-07-19 Innolux Corporation Display method of image
CN114764195B (zh) * 2020-12-31 2023-07-11 华为技术有限公司 一种hud系统及车辆
CN117075359A (zh) * 2022-05-10 2023-11-17 华为技术有限公司 立体显示装置和交通工具

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS604706B2 (ja) 1977-02-14 1985-02-06 新潟醤油株式会社 醤油用紅麹の製造法
JP2014068331A (ja) * 2012-09-06 2014-04-17 Nippon Seiki Co Ltd 立体表示装置及びその表示方法
JP2014222308A (ja) * 2013-05-14 2014-11-27 株式会社デンソー ヘッドアップディスプレイ装置
WO2015168464A1 (en) * 2014-04-30 2015-11-05 Visteon Global Technologies, Inc. System and method for calibrating alignment of a three-dimensional display within a vehicle
JP6004706B2 (ja) * 2012-04-04 2016-10-12 三菱電機株式会社 表示装置及びこれを備えたヘッドアップディスプレイシステム
JP2017030737A (ja) * 2015-07-28 2017-02-09 本田技研工業株式会社 車両用表示装置、および車両用表示方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4736214A (en) * 1984-01-09 1988-04-05 Rogers Robert E Apparatus and method for producing three-dimensional images from two-dimensional sources
KR20070035397A (ko) * 2005-09-27 2007-03-30 최해용 원 채널용 입체 모니터 장치
CN201425676Y (zh) * 2009-06-05 2010-03-17 天马微电子股份有限公司 液晶光栅模组、二维/三维可切换式显示器
US9651729B2 (en) * 2010-04-16 2017-05-16 Flex Lighting Ii, Llc Reflective display comprising a frontlight with extraction features and a light redirecting optical element
CN102768409A (zh) * 2012-07-26 2012-11-07 南京中电熊猫液晶显示科技有限公司 一种视差屏障及采用该视差屏障制成的立体显示装置
KR101544841B1 (ko) * 2012-11-27 2015-08-17 한국광기술원 3중 분할 사선형 시차장벽을 구비한 다시점 입체영상 표시장치
JP6411025B2 (ja) 2013-12-27 2018-10-24 国立大学法人 筑波大学 時分割型パララックスバリア式裸眼立体映像表示装置
JP2015194709A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 画像表示装置
KR101749147B1 (ko) * 2015-10-30 2017-06-21 엘지디스플레이 주식회사 유기발광 표시장치 및 그 제조방법
CN205281025U (zh) * 2016-01-08 2016-06-01 京东方科技集团股份有限公司 一种显示装置和虚拟现实眼镜
US10012836B2 (en) * 2016-05-23 2018-07-03 Lg Electronics Inc. Head up display for vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS604706B2 (ja) 1977-02-14 1985-02-06 新潟醤油株式会社 醤油用紅麹の製造法
JP6004706B2 (ja) * 2012-04-04 2016-10-12 三菱電機株式会社 表示装置及びこれを備えたヘッドアップディスプレイシステム
JP2014068331A (ja) * 2012-09-06 2014-04-17 Nippon Seiki Co Ltd 立体表示装置及びその表示方法
JP2014222308A (ja) * 2013-05-14 2014-11-27 株式会社デンソー ヘッドアップディスプレイ装置
WO2015168464A1 (en) * 2014-04-30 2015-11-05 Visteon Global Technologies, Inc. System and method for calibrating alignment of a three-dimensional display within a vehicle
JP2017030737A (ja) * 2015-07-28 2017-02-09 本田技研工業株式会社 車両用表示装置、および車両用表示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3650920A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4067972A4 (en) * 2019-11-27 2024-02-14 Kyocera Corporation HEADUP DISPLAY SYSTEM AND MOVING BODY

Also Published As

Publication number Publication date
CN110832382B (zh) 2022-04-26
CN110832382A (zh) 2020-02-21
JP2019015892A (ja) 2019-01-31
US11385470B2 (en) 2022-07-12
EP3650920A1 (en) 2020-05-13
US20200150431A1 (en) 2020-05-14
EP3650920B1 (en) 2023-11-29
EP3650920A4 (en) 2021-03-31
JP6873850B2 (ja) 2021-05-19

Similar Documents

Publication Publication Date Title
JP6873850B2 (ja) 画像投影装置及び移動体
US11221482B2 (en) Display apparatus, display system, and mobile body
JP7129789B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
WO2019009243A1 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
CN112335235B (zh) 图像显示装置、图像显示系统、平视显示器、移动体及图像显示方法
KR20190071818A (ko) 허상 표시 장치, 중간상 형성부 및 화상 표시광 생성 유닛
JP2019082671A (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイおよび3次元表示装置設計方法
WO2020095731A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
US20230004002A1 (en) Head-up display, head-up display system, and movable body
WO2020130049A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
WO2020004275A1 (ja) 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
CN113614613A (zh) 立体虚像显示模块、立体虚像显示系统以及移动体
JP6745242B2 (ja) 表示装置、表示システム、および移動体
US11874464B2 (en) Head-up display, head-up display system, moving object, and method of designing head-up display
JP7332448B2 (ja) ヘッドアップディスプレイシステム及び移動体
JP7475231B2 (ja) 3次元表示装置
US20210103144A1 (en) Head-up display and moving object equipped with head-up display
JP2019148638A (ja) 画像表示装置、ヘッドアップディスプレイシステム、および移動体
WO2020130047A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
JP6841715B2 (ja) 表示装置、表示システム、および移動体
WO2023228887A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18827610

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018827610

Country of ref document: EP

Effective date: 20200207