WO2020195975A1 - 立体虚像表示モジュール、立体虚像表示システム、および移動体 - Google Patents

立体虚像表示モジュール、立体虚像表示システム、および移動体 Download PDF

Info

Publication number
WO2020195975A1
WO2020195975A1 PCT/JP2020/011201 JP2020011201W WO2020195975A1 WO 2020195975 A1 WO2020195975 A1 WO 2020195975A1 JP 2020011201 W JP2020011201 W JP 2020011201W WO 2020195975 A1 WO2020195975 A1 WO 2020195975A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual image
display module
optical device
image display
image
Prior art date
Application number
PCT/JP2020/011201
Other languages
English (en)
French (fr)
Inventor
薫 草深
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to CN202080023385.7A priority Critical patent/CN113614613B/zh
Priority to US17/442,052 priority patent/US20220187618A1/en
Priority to JP2021509059A priority patent/JP7337147B2/ja
Priority to EP20779710.1A priority patent/EP3992691A4/en
Publication of WO2020195975A1 publication Critical patent/WO2020195975A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/31Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers involving active parallax barriers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/32Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers characterised by the geometry of the parallax barriers, e.g. staggered barriers, slanted parallax arrays or parallax arrays of varying shape or size
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • H04N13/315Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers the parallax barriers being time-variant
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/322Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/1526Dual-view displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/23Optical features of instruments using reflectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/25Optical features of instruments using filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Definitions

  • the present disclosure relates to a stereoscopic virtual image display module, a stereoscopic virtual image display system, and a moving body.
  • a display device including a liquid crystal panel, a parallax barrier arranged in front of or behind the liquid crystal panel, and an optical system for forming a magnified virtual image is known to magnify and display a three-dimensional image.
  • the parallax barrier separates the parallax image displayed on the liquid crystal panel into the left eye and the right eye so that the user can stereoscopically view the enlarged virtual image.
  • the stereoscopic virtual image display module includes a display panel, a first optical device set, and a second optical device.
  • the display panel has an active area.
  • the active area is configured to output image light.
  • the first optical device set is configured to reflect image light toward the user's first and second eyes.
  • the first optical device is configured to visualize the virtual image of the active area to the user by reflecting the image light.
  • the second optical device is configured to change or regulate the direction of light rays of image light from the first active area through the first set of optical devices to the user.
  • the second optical device is configured to allow the first image light to enter the first eye and the second image light to enter the second eye.
  • the first active area is included in the active area.
  • the stereoscopic virtual image display module is configured so that each of the first eye and the second eye can visualize the virtual image of the first active area with a first pixel density of 60 pixels or more per degree.
  • the stereoscopic virtual image display module includes a display panel, a first optical device set, and a second optical device.
  • the display panel has an active area.
  • the active area is configured to reflect image light in the first direction.
  • the first optical device set is configured to reflect image light in the first direction.
  • the second optical device is configured to change or regulate the direction of the image light from the first active area.
  • the second optical device is configured to put the first image light into the first space and the second image light into the second space.
  • the stereoscopic virtual image display module, together with the windshield, is configured to be controllable so that each eye of the user can visualize the virtual image of the first active area with a pixel density of 60 pixels or more per degree.
  • the windshield is configured to reflect image light toward the user.
  • the stereoscopic virtual image display module includes a display panel, a first optical device set, and a second optical device.
  • the display panel has an active area.
  • the active area is configured to output image light.
  • the first optical device set is configured to reflect image light toward the user's first and second eyes.
  • the first optical device is configured to visualize the virtual image of the active area to the user by reflecting the image light.
  • the second optical device is configured to attenuate or regulate image light from the first active area through the first optical device set to the user.
  • the second optical device is configured to be controllable so that the first image light is input to the first eye and the second image light is input to the second eye.
  • the first active area is included in the active area.
  • the stereoscopic virtual image display module is configured so that each of the first eye and the second eye can visualize the virtual image of the first active area with a first pixel density of 60 pixels or more per degree.
  • the stereoscopic virtual image display module includes a display panel, a first optical device set, and a second optical device.
  • the display panel has an active area.
  • the active area is configured to reflect image light in the first direction.
  • the first optical device set is configured to reflect image light in the first direction.
  • the second optical device is configured so that the direction of the image light from the first active area can be changed or regulated.
  • the second optical device is configured to be controllable so that the first image light enters the first space and the second image light enters the second space.
  • the stereoscopic virtual image display module, together with the windshield is configured to be controllable so that each eye of the user can visualize the virtual image of the first active area with a pixel density of 60 pixels or more per degree.
  • the windshield is configured to reflect image light toward the user.
  • the stereoscopic virtual image display system includes one of the stereoscopic virtual image display modules and a windshield.
  • the moving body according to the embodiment of the present disclosure includes any three-dimensional virtual image display module and a windshield.
  • the stereoscopic virtual image display system 10 includes a stereoscopic virtual image display module 11 and a detection device 12.
  • FIG. 1 shows a state in which the stereoscopic virtual image display system 10 is viewed from above of a user who observes an image by the stereoscopic virtual image display system 10.
  • the detection device 12 can detect the positions of the user's left eye El and right eye Er.
  • the detection device 12 can output information on the positions of the user's left eye El and right eye Er to the stereoscopic virtual image display module 11.
  • the stereoscopic virtual image display module 11 can display an image according to the information on the positions of the left eye El and the right eye Er of the user.
  • the configuration of each part of the stereoscopic virtual image display system 10 will be described in more detail below.
  • the stereoscopic virtual image display system 10 is configured so that the user can visualize the stereoscopic virtual image.
  • a three-dimensional virtual image is a virtual image that is perceived by the user as a three-dimensional image.
  • the user can perceive the virtual image as a three-dimensional image by visually recognizing a planar virtual image having different parallax by each eye.
  • the stereoscopic virtual image display module 11 includes a display panel 14, at least a part of the first optical device set 19, and a second optical device 15.
  • the stereoscopic virtual image display system 10 may include another part of the first optical device set 19 which is not included in the stereoscopic virtual image display module 11.
  • the stereoscopic virtual image display module 11 may include an irradiator 13, a controller 16, an input unit 17, and a display information acquisition unit 18.
  • a transmissive type or self-luminous type display panel can be adopted.
  • the stereoscopic virtual image display module 11 may employ the irradiator 13.
  • the stereoscopic virtual image display module 11 may omit the irradiator 13.
  • the transmissive display panel may include a liquid crystal panel.
  • the display panel 14 may have a known liquid crystal panel configuration.
  • various liquid crystal panels such as IPS (In-Plane Switching) method, FFS (Fringe Field Switching) method, VA (Vertical Alignment) method, and ECB (Electrically Controlled Birefringence) method can be adopted.
  • IPS In-Plane Switching
  • FFS Frringe Field Switching
  • VA Very Alignment
  • ECB Electrical Controlled Birefringence
  • the transmissive display panel includes a MEMS (Micro Electro Mechanical Systems) shutter type display panel in addition to the liquid crystal panel.
  • the self-luminous display panel includes an organic EL (Electro-luminescence) and an inorganic EL display panel.
  • FIG. 2 shows the display panel 14 and the second optical device 15 in an enlarged manner.
  • the display panel 14 includes a liquid crystal layer 14a, two glass substrates 14b and 14c arranged so as to sandwich the liquid crystal layer 14a, and a color filter 14d arranged between the liquid crystal layer 14a and one glass substrate 14c. Can be done.
  • the display panel 14 can further include a light distribution film, a transparent electrode, a polarizing plate, and the like.
  • the arrangement and configuration of the light distribution film, the transparent electrode, the polarizing plate, and the like are known in general liquid crystal panels, and thus description thereof will be omitted.
  • the display panel 14 does not have the color filter 14d, and the stereoscopic virtual image display module 11 may be used as a monochrome display device.
  • the display panel 14 is configured to be able to display an image.
  • the display area for displaying an image can be regarded as being located near the interface between the liquid crystal layer 14a and the color filter 14d.
  • the display area for displaying an image may be referred to as an active area.
  • the display panel 14 has an active area. It may be called the active area of the stereoscopic virtual image display module 11.
  • the active area is an area where an image can be actually displayed on the display panel 14.
  • the active area is configured to output image light.
  • the irradiator 13, the display panel 14, the second optical device 15, and the first optical device set 19 are arranged along the optical path of the image light of the image output to the user.
  • the stereoscopic virtual image display module 11 can be arranged in the order of the irradiator 13, the display panel 14, the second optical device 15, and the first optical device set 19 from the side far from the user.
  • the display panel 14 can be arranged in the same order as the second optical device 15.
  • the irradiator 13 may include a light source, a light guide plate, a diffusion plate, a diffusion sheet, and the like.
  • the irradiator 13 is configured to surfacely irradiate the display panel 14 with irradiation light.
  • the irradiator 13 is configured to emit irradiation light from a light source.
  • the irradiator 13 may be configured to make the irradiation light uniform in the surface direction of the display panel 14 by a light guide plate, a diffusion plate, a diffusion sheet or the like.
  • the irradiator 13 may be configured to emit uniformed light towards the display panel 14.
  • the irradiation light transmitted through the transmission type display panel 14 becomes the image light corresponding to the image displayed by the display panel 14.
  • the transmissive display panel 14 is configured so that the irradiation light can be converted into image light.
  • the first optical device set 19 is configured to reflect image light toward the user's first eye and second eye.
  • the first optical device set 19 projects an image displayed in the active area of the display panel 14 onto the user's field of view.
  • the first optical device set 19 is configured so that the virtual image of the active area is visualized by the user by reflecting the image light toward the user.
  • the first optical device set 19 may include at least one or more of a catoptric element and a refracting optical element having a positive refractive power.
  • FIG. 3 is an enlarged view of a part of the display panel 14 seen from the second optical device 15 side.
  • the display area of the display panel 14 includes a plurality of first subpixels 21.
  • the plurality of first subpixels 21 are arranged along a first direction and a second direction intersecting the first direction.
  • the second direction may be a direction substantially orthogonal to the first direction.
  • the first direction corresponds to the parallax direction that gives parallax to both eyes of the user.
  • the first direction can be the lateral direction or the horizontal direction in the virtual image visually recognized by the user.
  • the second direction can be the vertical direction or the vertical direction in the virtual image visually recognized by the user.
  • the first direction will be described as the x direction
  • the second direction will be described as the y direction.
  • the x direction is shown as a direction from right to left.
  • the y direction is shown as a direction from top to bottom.
  • the direction along the optical path that is orthogonal to the x-direction and the y-direction and faces the user's eye side is defined as the z-direction.
  • the plurality of first sub-pixels 21 can be arranged in a grid pattern in the x-direction and the y-direction. In one embodiment, the length of each first subpixel 21 in the y direction is longer than the length in the x direction.
  • Each first subpixel 21 may have any of the colors R (Red), G (Green), and B (Blue), corresponding to the color arrangement of the color filter 14d.
  • the three first sub-pixels 21 of R, G, and B can form one pixel 22 as a set.
  • One of the pixels 22 is shown surrounded by a dashed line in FIG. 3 for illustration.
  • the length in the x direction and the length in the y direction of one pixel can be set to 1: 1, but the length is not limited to this.
  • the plurality of first sub-pixels 21 constituting one pixel 22 can be arranged in the x direction, for example.
  • First subpixels 21 of the same color can be arranged in the y direction, for example.
  • the plurality of first subpixels 21 may have the same color.
  • the plurality of first subpixels 21 do not have to have a color.
  • the irradiation light becomes image light by changing the balance of color components by the first subpixel 21.
  • the first subpixel 21 of R is configured so that light of another color is attenuated and red light is transmitted.
  • the display panel 14 is a self-luminous type, the image light is output from the first subpixel 21.
  • the second optical device 15 may be configured to change or regulate the light beam direction of the image light from the first active area to the user via the first optical device set 19.
  • the active area includes the first active area.
  • the second optical device 15 may be configured to attenuate or regulate image light from the first active area through the first optical device set 19 towards the user.
  • the second optical device 15 is configured to put the first image light into the first space and the second image light into the second space.
  • the first space is a space where the first eye is assumed to be present.
  • the second space is a space where the second eye is assumed to be present.
  • the second optical device 15 is configured to allow the first image light to enter the first eye and the second image light to enter the second eye.
  • the image light emitted from the first active area includes the first image light and the second image light.
  • the user visualizes the virtual image by injecting the first image light into the first eye.
  • the user visualizes the virtual image by injecting the first image light into the first eye.
  • the user perceives two virtual images as one stereoscopic image by visually recognizing the first image light and the second image light with different eyes.
  • the second optical device 15 can use a transmissive display panel.
  • the second optical device 15 is configured such that the output from the display panel 14 is incident on the second optical device 15.
  • a liquid crystal panel can be adopted as the second optical device 15.
  • the second optical device 15 using the liquid crystal panel is configured to be able to control the attenuation of the image light.
  • the second optical device 15 includes a liquid crystal layer 15a and two glass substrates 15b and 15c arranged so as to sandwich the liquid crystal layer 15a.
  • the second optical device 15 may omit the color filter. By omitting the color filter, the second optical device 15 can reduce the decrease in the brightness of the image light.
  • the display region of the second optical device 15 can be regarded as being located near the interface between the liquid crystal layer 15a and the glass substrate 15c.
  • the second optical device 15 includes a plurality of second subpixels 23 arranged in a grid pattern along the x direction and the y direction.
  • the plurality of second subpixels 23 may be arranged at the same pitch as the plurality of first subpixels 21.
  • the horizontal pitch Hp and vertical pitch Vp of the second subpixel 23 are equal to the horizontal pitch Hp and vertical pitch Vp of the first subpixel 21.
  • the display panel 14 and the second optical device 15 may face each other such that each of the plurality of first subpixels 21 overlaps with any of the second subpixels 23 when viewed in the normal direction of the display panel 14. ..
  • the stereoscopic virtual image display module 11 the first subpixel 21 of the display panel 14 and the second subpixel 23 of the second optical device 15 have a one-to-one correspondence.
  • the stereoscopic virtual image display module 11 can reduce the amount of calculation when displaying an image, and can be easily controlled by the controller 16.
  • the plurality of second subpixels 23 do not have to be at the same pitch as the plurality of first subpixels 21.
  • the second sub-pixel 23 may have a size different from that of the first sub-pixel 21 in consideration of the difference in image magnification between the display panel 14 and the second optical device 15 due to the first optical device set 19. it can.
  • the second optical device 15 is separated from the display panel 14 by a predetermined distance in the z direction.
  • the display panel 14 and the second optical device 15 may be integrally formed.
  • the display panel 14 and the second optical device 15 are fixed to each other using an optically transparent adhesive.
  • the optically transparent adhesive contains OCA (Optical Clear Adhesive).
  • the second optical device 15 is configured to be able to control the transmittance of image light for each of the second subpixels 23.
  • the second optical device 15 is configured to be able to control the attenuation rate of the image light for each of the second subpixels 23.
  • the second optical device 15 can transmit the image light passing through the specific region without significantly reducing the light intensity, and dimming the image light passing through the other specific region.
  • dimming also includes "shading” that hardly transmits light.
  • the second subpixel 23 in the light transmitting region may have the brightest gradation
  • the second subpixel 23 in the dimming region may have the darkest gradation.
  • the gradation of the second subpixel 23 corresponds to the light transmittance.
  • the brightest gradation means the gradation with the highest light transmittance.
  • the darkest gradation means the gradation with the lowest light transmittance.
  • the second optical device 15 can make the light transmittance in the visible light region 100 times or more, for example, 1000 times or more different between the light transmitting region that transmits light and the dimming region that dims light. ..
  • the second optical device 15 may employ a MEMS shutter panel.
  • the second optical device 15 that utilizes the MEMS shutter panel is configured to be able to regulate the image light.
  • a plurality of openings can be arranged in the first direction and the second direction. Multiple apertures can correspond to subpixels or pixels.
  • the second optical device 15 may include a color filter in each aperture.
  • the second optical device 15 may employ a parallax barrier.
  • the parallax barrier is configured to regulate the direction of the image light.
  • the parallax barrier includes a region configured to transmit image light and a region where transmission of image light is restricted.
  • the second optical device 15 may employ a parallax lens.
  • the parallax lens is configured to change the direction of the image light.
  • the controller 16 is connected to each component of the stereoscopic virtual image display system 10 and is configured to be able to control each component.
  • the controller 16 is configured as, for example, a processor.
  • the controller 16 may include one or more processors.
  • the processor may include a general-purpose processor that loads a specific program and performs a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • the processor may include a programmable logic device (PLD: Programmable Logic Device).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the controller 16 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).
  • the controller 16 includes a storage unit, and the storage unit may store various information, a program for operating each component of the stereoscopic virtual image display system 10, and the like.
  • the storage unit may be composed of, for example, a semiconductor memory or the like.
  • the storage unit may function as a work memory of the controller 16.
  • the controller 16 is configured to control the first subpixel 21 of the display panel 14 based on the image data.
  • the display panel 14 is configured so that the first subpixel 21 can be controlled by the control of the controller 16.
  • the controller 16 is configured to control the second subpixel 23 of the second optical device 15.
  • the second optical device 15 can be configured so that the second subpixel 23 can be controlled by the control of the controller 16.
  • the image data can be acquired from the display information acquisition unit 18 described later.
  • the image data may be generated in the controller 16 based on the information acquired from the display information acquisition unit 18.
  • the image data may include characters, symbols, and the like.
  • the image data includes two-dimensional image data and parallax image data for displaying a three-dimensional image.
  • the controller 16 can be switched between a first display mode for displaying a two-dimensional image on the display panel 14 and a plurality of display modes including a second display mode for displaying a parallax image.
  • the controller 16 sets the drive mode of the second optical device 15 into a plurality of drive modes including a first drive mode corresponding to the first display mode and a second drive mode corresponding to the second display mode. You can switch between. The switching of the display mode by the controller 16 will be described later.
  • the input unit 17 can receive information on the positions of the user's left eye El and right eye Er from the detection device 12.
  • the input unit 17 may include an electrical connector or an optical connector.
  • the input unit 17 may be configured to be able to receive an electrical or optical signal from the detection device 12.
  • the display information acquisition unit 18 acquires information to be displayed on the stereoscopic virtual image display module 11 from another device.
  • the display information acquisition unit 18 may acquire information to be displayed from an image reproduction device that reproduces an image stored in advance.
  • the display information acquisition unit 18 may acquire information to be displayed through a wireless communication line from the outside.
  • the display information acquisition unit 18 may acquire information to be displayed from an electronic control unit (ECU: Electronic Control Unit) in the vehicle.
  • ECU Electronic Control Unit
  • the controller 16 takes into account the magnification of the images of the display panel 14 and the second optical device 15 by the first optical device set 19 with respect to the positions of the user's left eye El and right eye Er, and the display panel 14 and the second. Controls the optical device 15.
  • the first optical device set 19 includes a first subpixel 21 and a second subpixel 23 located in opposition to the first subpixel 21 in the user's field of view when viewed from a suitable viewing distance by the user. Project the image light so that they have different pitches from each other.
  • the display panel 14 is located farther than the second optical device 15 from the user's point of view, the display area of the display panel 14 and the second optical device 15 in which the subpixels 21 and 23 are arranged with the same specifications. Occupies the same viewing area as the display area of.
  • the first optical device set 19 satisfying such a requirement can be designed based on geometrical optics.
  • the controller 16 can be configured more easily, and the processing load of the controller 16 can be reduced.
  • the detection device 12 is configured to be able to detect the position of the user's eyes.
  • the detection device 12 is configured to output to the input unit 17 of the stereoscopic virtual image display module 11.
  • the detection device 12 may include, for example, a camera.
  • the detection device 12 may be configured to capture the user's face with a camera.
  • the detection device 12 may be configured to detect at least one position of the left eye El and the right eye Er from the image captured by the camera.
  • the detection device 12 may be configured to detect at least one of the positions of the left eye El and the right eye Er as the coordinates in the three-dimensional space from the image captured by one camera.
  • the detection device 12 may be configured to detect at least one position of the left eye El and the right eye Er as coordinates in three-dimensional space from images captured by two or more cameras.
  • the detection device 12 is not provided with a camera and may be configured to be connected to a camera outside the device.
  • the detection device 12 may include an input terminal for inputting a signal from a camera outside the device.
  • the camera outside the device may be configured to be directly connected to the input terminal.
  • the camera outside the device may be configured to be indirectly connected to the input terminal via a shared network.
  • the detection device 12 without a camera may include an input terminal into which the camera inputs a video signal.
  • the detection device 12 without a camera may be configured to detect at least one position of the left eye El and the right eye Er from the video signal input to the input terminal.
  • the detection device 12 may include, for example, a sensor instead of the camera.
  • the sensor may be an ultrasonic sensor, an optical sensor, or the like.
  • the detection device 12 may be configured to detect the position of the user's head by a sensor and estimate the position of at least one of the left eye El and the right eye Er based on the position of the head.
  • the detection device 12 may be configured to detect at least one position of the left eye El and the right eye Er as coordinates in three-dimensional space by one or more sensors.
  • the detection device 12 detects the position of only one of the left eye El and the right eye Er
  • the other eye is obtained from the user's inter-eye distance information or general inter-eye distance information stored in advance. It may be configured so that the position of can be estimated. The estimation of the position of the other eye may be performed by the controller 16 instead of the detection device 12.
  • the detection device 12 may not be provided. In that case, the input unit 17 is also unnecessary.
  • the stereoscopic virtual image display module 11 displays a two-dimensional image on the first subpixel 21 of the display panel 14.
  • the two-dimensional image may include a monochrome image and a color image.
  • the second optical device 15 is driven by the controller 16 in the first drive mode.
  • the second optical device 15 can be controlled so that the dimming of the image light emitted from the display panel 14 is small or not shaded.
  • the user visually recognizes the virtual image of the first subpixel 21 with both eyes.
  • the stereoscopic virtual image display module 11 of the present disclosure the user visualizes the virtual image of the first subpixel 21 with a pixel density of 160 pixels or more per degree.
  • the amount of pixels per degree is sometimes called PPD (Pixels Per Degree).
  • the amount of pixels per unit angle is called the pixel angle density.
  • the user visually recognizes a virtual image of 60 PPD with both eyes.
  • the pixel density of the virtual image that is visible to both eyes can be called the first pixel density. This pixel density is determined by the distance of the virtual image, the pixel linear density (PPI; Pixels Per Inch) of the display panel 14, the magnification of the first optical device set 19, and the like.
  • PPI Pixels Per Inch
  • the second optical device 15 sets, for example, all the second subpixels 23 to the brightest gradation or a gradation equivalent thereto.
  • the "brightest gradation" of the second subpixel 23 means the gradation having the highest transmittance of the image light from the display panel 14.
  • the "darkest gradation” of the second subpixel 23 means the gradation at which the transmittance of the image light from the display panel 14 is the lowest.
  • FIG. 4 displays a state in which all the second subpixels 23 are in the “brightest gradation” state. The second subpixel 23 transmits the image light of the image displayed on the display panel 14.
  • the driving method of the second subpixel 23 in the first display mode is not limited to the above.
  • the second subpixel 23 has the brightest gradation in the area corresponding to the area where the image of the display panel 14 is displayed, and the darkest gradation in the area corresponding to the area where the image of the display panel 14 is not displayed. Good.
  • the second display mode is a mode for displaying an image visually recognized as a three-dimensional image to the user.
  • the distance from the display panel 14 to the user's left eye El and right eye Er is set to, for example, an appropriate viewing distance.
  • the optimum viewing distance is the distance with the least crosstalk when observing the parallax image with the stereoscopic virtual image display module 11.
  • crosstalk means that the image displayed for the right eye Er is incident on the left eye El and / or the image displayed for the left eye El is incident on the right eye Er.
  • the second optical device 15 is driven by the controller 16 in the second drive mode.
  • the second optical device 15 functions as an optical element that dims the image light emitted from the first subpixel 21.
  • the second subpixel 23 included in the dimming region (first region) 31 of the second optical device 15 is divided into the translucent region (second region) 32 by the controller 16.
  • the gradation is controlled to be darker than the included second subpixel 23.
  • the second subpixel 23 included in the dimming region 31 of the second optical device 15 may be set to the darkest gradation. Further, the second subpixel 23 included in the translucent region 32 is set to a bright gradation by the controller 16.
  • the second subpixel 23 included in the translucent region 32 may be set to the brightest gradation.
  • the light transmittance of the second subpixel 23 included in the dimming region 31 may be 1/100 or less of the light transmittance of the second subpixel 23 included in the light transmissive region 32.
  • the dimming region 31 and the translucent region 32 are regions extending in one direction, respectively.
  • the plurality of dimming regions 31 and the plurality of translucent regions 32 can be arranged alternately.
  • the plurality of dimming regions 31 have substantially the same width as each other, and can be periodically arranged at predetermined intervals in the x direction.
  • the plurality of translucent regions 32 have substantially the same width as each other, and can be arranged periodically at predetermined intervals in the x direction.
  • the image light emitted from the first subpixel 21 of the display panel 14 is visible to each of the left eye El and the right eye Er by the dimming region 31 and the translucent region 32 of the second optical device 15.
  • the range is fixed.
  • the width of the dimming region 31 in the x direction can be the same as the width of the light transmitting region 32 in the x direction, or wider than the width of the light transmitting region 32 in the x direction.
  • the dimming region 31 and the translucent region 32 may extend continuously in one direction except the x direction.
  • the dimming region 31 and the translucent region 32 can function as a parallax barrier.
  • the direction in which the dimming region 31 and the translucent region 32 extend may be oblique to the x-direction and the y-direction.
  • the angle with respect to the y direction in which the dimming region 31 and the translucent region 32 extend can be called a barrier inclination angle.
  • the barrier tilt angle can be greater than 0 degrees and less than 90 degrees. If the dimming region 31 and the translucent region 32 are arranged along the y direction, due to errors contained in the dimensions and / or arrangement of the first subpixel 21 and / or the second subpixel 23. Moire is easily recognized in the displayed image.
  • the dimming region 31 and the translucent region 32 have a barrier tilt angle other than 0 degrees, regardless of the error contained in the dimensions and / or arrangement of the first subpixel 21 and / or the second subpixel 23. , It becomes difficult to recognize moire in the displayed image.
  • the second optical device 15 dims at least a part of the image light emitted from the display panel 14 according to the position where the image light is incident on the second optical device 15.
  • the second optical device 15 transmits another part of the image light emitted from the display panel 14 according to the position of being incident on the second optical device 15.
  • the second optical device 15 defines the light ray direction of the image light emitted from the display panel 14.
  • the stereoscopic virtual image display module 11 displays a parallax image on the first subpixel 21 of the display panel 14 in the second display mode for displaying the three-dimensional image.
  • the parallax image is an image including an image for the left eye El and an image for the right eye Er having parallax with each other.
  • the light ray direction of the first image light emitted from the third subpixel 33 included in the first subpixel 21 of the display panel 14 is defined by the second optical device 15 and is used by the user. Reach the left eye El. Therefore, in the state shown in FIG. 5, the image for the left eye El is displayed on the third subpixel 33.
  • the second image light emitted from the fourth subpixel 34 included in the first subpixel 21 of the display panel 14 reaches the user's right eye Er whose ray direction is defined by the second optical device 15. Therefore, the image for the right eye Er is displayed on the fourth subpixel 34.
  • the user inputs the first image light to the left eye and the second image light to the right eye.
  • the user can recognize the image as a three-dimensional image by inputting different images of the parallax images to both eyes.
  • FIG. 5 linearly depicts the image light passing through the first optical device set 19, the image light passing through the first optical device set 19 actually depends on the optical elements constituting the first optical device set 19. , Refraction and reflection, etc.
  • the user visually recognizes the virtual image of the third subpixel 33 with the left eye and the virtual image of the fourth subpixel 34 with the right eye.
  • the user visualizes the virtual image of the third subpixel 33 with a pixel density of 30 PPD and the virtual image of the fourth subpixel 34 with a pixel density of 30 PPD.
  • the pixel density of the virtual image visually recognized by each eye can be called the second pixel density.
  • the user visually recognizes a virtual image of 30 PPD with each eye.
  • the user visually recognizes the virtual image of 30PPD visually recognized by each eye as one stereoscopic virtual image.
  • This stereoscopic virtual image is recognized by the user as an image having a pixel density similar to that of a 60PPD virtual image visually recognized by both eyes.
  • the stereoscopic virtual image display module 11 can reduce a decrease in resolution when the virtual image is changed to a stereoscopic image.
  • the third subpixel 33 for displaying the image for the left eye El and the fourth subpixel 34 for displaying the image for the right eye are arranged as shown in FIG. Will be done.
  • the first subpixel 21 is numbered 1 to 6 for explanation.
  • the first subpixel 21 with the same number belongs to the same subpixel of either the third subpixel 33 or the fourth subpixel 34.
  • the first subpixel 21 can be switched between the third subpixel 33 and the fourth subpixel 34.
  • the first subpixel 21 with the same number is switched at the same timing.
  • the third subpixel 33 is the first subpixel 21 numbered 1 to 3.
  • the fourth subpixel 34 is the first subpixel 21 numbered 4 to 6.
  • the arrangement of the third subpixel 33 and the fourth subpixel 34 is an angle corresponding to the barrier inclination angle of the paralux barrier formed by the dimming region 31 and the translucent region 32 of the second optical device 15. It is tilted with respect to the direction.
  • the third subpixel 33 is at least partially in the left eye visible region 35 on the display panel 14 visible to the user's left eye El through the translucent region 32 of the second optical device 15. Located in.
  • the third subpixel 33 may be half or more included in the area on the display panel 14 that is visible to the user's left eye El.
  • the third subpixel 33 is dimmed by the dimming region 31 of the second optical device 15, and is located at least partially in the region on the display panel 14 where the user's right eye Er cannot be seen.
  • the fourth subpixel 34 is located at least partially in the right eye visible region 36 on the display panel 14 visible to the user's right eye Er through the translucent region 32 of the second optical device 15.
  • the fourth subpixel 34 may be half or more included in the area on the display panel 14 that is visible to the user's right eye Er. At this time, the fourth subpixel 34 is dimmed by the dimming region 31 of the second optical device 15 and is located at least partially in the region on the display panel 14 where the user's left eye El is invisible.
  • the left eye visible region 35 substantially coincides with the region invisible to the right eye Er. ..
  • the right eye visible region 36 substantially coincides with the region that cannot be seen from the left eye El.
  • the positions of the user's left eye El and right eye Er may move.
  • the positions of the area visible to the left eye El and the area visible to the right eye Er can change on the display panel 14.
  • the user's eye moves to the left (positive x direction) with respect to the display panel 14, the dimming region 31 and the translucent region 32 on the second optical device 15 as seen from the user's eye.
  • the position is apparently displaced to the right (negative x direction) with respect to the display panel 14.
  • the third subpixel 33 numbered 1 in FIG. 7 becomes invisible to the user's left eye El. At the same time, it is visually recognized by the user's right eye Er and causes cross talk. Similarly, the fourth subpixel 34 numbered 4 in FIG. 7 becomes invisible to the user's right eye Er and is visually recognized by the user's left eye El, causing crosstalk.
  • the controller 16 acquires the position of the user's eye detected by the detection device 12 via the input unit 17, and based on the position of the user's eye, the crosstalk is minimized.
  • the arrangement of the third subpixel 33 and the fourth subpixel 34 can be switched.
  • FIG. 8 shows an example in which a part of the first subpixel 21 is switched between the third subpixel 33 and the fourth subpixel 34 from the state of FIG. 7.
  • the controller 16 switches the third subpixel 33 of the number 1 to the fourth subpixel 34 and the fourth subpixel 34 of the number 4 to the third subpixel 33. That is, the controller 16 uses the first subpixel 21 of the numbers 2 to 4 as the third subpixel 33 for displaying the image for the left eye El.
  • the controller 16 uses the first subpixel 21 of the numbers 5, 6 and 1 as the fourth subpixel 34 for displaying the image for the right eye Er.
  • the left eye visible region 35 and the right eye visible region 36 move in the negative x direction as a whole. This allows the user to observe an appropriate parallax image on the display panel 14 even if the position of the eye with respect to the display panel 14 changes. That is, the user can continue to see the image visually recognized as the three-dimensional image.
  • the controller 16 displays the dimming on the second optical device 15 in order to respond to the change in the positions of the user's left eye El and right eye Er.
  • the positions of the region 31 and the translucent region 32 may be changed. For example, when the user's left eye El and right eye Er move to the left (positive x direction) with respect to the display panel 14, as shown in FIG. 9, the dimming region 31 and the dimming region 31 and the state of FIG. The translucent region 32 may be moved to the left.
  • the stereoscopic virtual image display system 10 and the stereoscopic virtual image display module 11 of the present disclosure have a first display mode for displaying a two-dimensional image on the display panel 14 and a second display mode for displaying a parallax image.
  • the controller 16 drives the second optical device 15 in the first display mode in the first drive mode in which the image light is transmitted.
  • the controller 16 drives the second optical device 15 in the second display mode in the second drive mode that defines the direction in which the image light of the parallax image travels.
  • the stereoscopic virtual image display system 10 and the stereoscopic virtual image display module 11 can switch between the two-dimensional image and the three-dimensional image and display them using the same device.
  • the stereoscopic virtual image display system 10 and the stereoscopic virtual image display module 11 can display a mixture of a two-dimensional image and a three-dimensional image.
  • the two-dimensional image and the three-dimensional image are each displayed in a part of the stereoscopic virtual image display module 11.
  • FIG. 10 is a diagram illustrating an example of display contents of the display panel 14 and the second optical device 15.
  • the display panel 14 includes a third area 41 for displaying a two-dimensional image and a fourth area 42 for displaying a parallax image.
  • the fourth area 42 corresponds to the first active area.
  • the third area 41 corresponds to the second active area.
  • the second optical device 15 is configured to input the image light from the second active area into the third space.
  • the third space is a space where it is assumed that the user has both eyes.
  • the second optical device 15 corresponds to the third region 41, and the fifth region 43 including a part of the second subpixel 23 is controlled in the first drive mode.
  • the sixth region 44 which corresponds to the fourth region 42 and is a part of the second subpixel 23, is controlled in the second drive mode.
  • the fifth region 43 may be a region facing the third region 41 of the display panel 14 on the second optical device 15.
  • the sixth region 44 may be a region facing the fourth region 42 of the display panel 14 on the second optical device 15.
  • the sixth region 44 is a dimming region 31 having a relatively dark gradation extending in a predetermined direction and a translucent light having a relatively bright gradation as described with reference to FIG. Includes region 32.
  • the sixth region 44 causes the image by the third subpixel 33 in the parallax image displayed in the fourth region 42 to reach the user's left eye El.
  • the sixth region 44 causes the image by the fourth subpixel 34 in the parallax image displayed in the fourth region 42 to reach the user's right eye Er.
  • the image light corresponding to the image by the third subpixel 33 corresponds to the first image light.
  • the image light corresponding to the image by the fourth subpixel 34 corresponds to the second image light.
  • the controller 16 controls the display of the two-dimensional image by the first display mode in the third area 41 of the display panel 14 and the display of the parallax image by the second display mode in the fourth area 42.
  • the controller 16 controls the drive of the second optical device 15 in the fifth region 43 by the first drive mode and the drive of the sixth region 44 by the second drive mode.
  • the speed of the vehicle is displayed as a two-dimensional image in the third region 41, and an arrow indicating the turning direction in front of the traveling direction is displayed in the fourth region 42. It is displayed by a parallax image recognized as a dimensional image. The user can perceive from the three-dimensional image how far ahead he / she turns to the right.
  • the user visually recognizes the virtual image of the third subpixel 33 with the left eye and the virtual image of the fourth subpixel 34 with the right eye.
  • the user visualizes the virtual image of the third subpixel 33 with a pixel density of 30 PPD and the virtual image of the fourth subpixel 34 with a pixel density of 30 PPD.
  • the user visually recognizes a virtual image of 30 PPD with each eye.
  • the user visually recognizes the virtual image of 30PPD visually recognized by each eye as one stereoscopic virtual image. This stereoscopic virtual image is recognized by the user as an image having a pixel density similar to that of a 60PPD virtual image visually recognized by both eyes.
  • the stereoscopic virtual image display module 11 can reduce a decrease in resolution when the stereoscopic virtual image is formed. By displaying the virtual image with 30PPD for each eye, the stereoscopic virtual image display module 11 can display an image with less discomfort due to the difference in resolution from the planar virtual image of 60PPD.
  • the controller 16 analyzes the image data acquired from the display information acquisition unit 18 in the first display mode, and displays the image display area 45 and the image in which the image in the third area 41 is displayed.
  • the image non-display area 46 that has not been displayed can be detected.
  • FIG. 11 shows an example including the image display area 45 and the image non-display area 46.
  • the speed information “50 km / h” is displayed in the image display area 45.
  • the image non-display area 46 does not include information to be displayed.
  • the image display area 45 and the image non-display area 46 can be determined by various methods.
  • the controller 16 may determine the display / non-display of the image in units of the first sub-pixel 21, and determine the image display area 45 and the image non-display area 46.
  • the area corresponding to the image display area 45 in the fifth area 43 of the second optical device 15 is defined as the seventh area 47.
  • the area corresponding to the image non-display area 46 is referred to as the eighth area 48.
  • the controller 16 may set the second subpixel 23 included in the eighth region 48 as a dark gradation, for example, the darkest gradation.
  • the controller 16 may set the second subpixel 23 included in the seventh region 47 as a bright gradation, for example, the brightest gradation.
  • the third region 41 and the fourth region 42 are arranged vertically on the display panel 14.
  • the shapes and arrangement directions of the third region 41 and the fourth region 42 are not limited to those of FIGS. 10 and 11.
  • a third area 41 for displaying a two-dimensional image and a fourth area 42 for displaying a parallax image can be arranged at arbitrary positions on the display panel 14.
  • the shapes and arrangements of the third region 41 and the fourth region 42 may be dynamically changed on the display panel 14.
  • FIG. 12 shows an example of the arrangement of the third region 41 and the fourth region 42, which are different from those in FIGS. 10 and 11.
  • the controller 16 switches between the third area 41 for displaying the two-dimensional image in the first display mode on the display panel 14 and the fourth area 42 for displaying the three-dimensional image in the second display mode. To control.
  • the controller 16 sets the second optical device in the fifth region 43 driven in the first drive mode and the sixth region 44 driven in the second drive mode as the third region 41 and the fourth region 42 are switched. Switch on 15.
  • the controller 16 can partially switch between the first display mode and the second display mode on the display panel 14.
  • the controller 16 can partially switch between the first drive mode and the second drive mode on the second optical device 15 in response to switching between the first display mode and the second display mode.
  • the controller 16 displays two-dimensional character information and the like in the image display area 45 of the third area 41 of the display panel 14, and displays the parallax image in the fourth area 42.
  • the controller 16 sets the gradation of the seventh region 47 in the fifth region 43 of the second optical device 15 to be bright, and sets the gradation of the eighth region 48 to be dark.
  • the controller 16 displays a parallax barrier in which the dimming region 31 and the translucent region 32 extend in a predetermined direction in the sixth region 44 of the second optical device 15, and uses the parallax image displayed in the fourth region 42. It can be visually recognized as a three-dimensional image by a person.
  • the image display area 45 is shown as a rectangular area including an image such as a set of characters.
  • the image display area 45 can be a region of the first sub-pixel 21 having a gradation of a predetermined value or more in units of sub-pixels.
  • FIG. 13 when the character "o" is present on the display panel 14, an image occupies an area occupied by a first subpixel 21 having a gradation other than the darkest gradation or a gradation equivalent thereto.
  • the display area 45 may be used, and the other area may be the image non-display area 46. In this case, the controller 16 recognizes the image display area 45 from the image data.
  • the controller 16 searches the line buffer for displaying an image on the display panel 14 to search for the first subpixel 21 having the darkest gradation or a gradation equivalent thereto, and determines the image non-display area 46.
  • the other areas may be the image display area 45.
  • the controller 16 determines the seventh region 47 corresponding to the image display region 45 and the eighth region 48 corresponding to the image non-display region 46 on the second optical device 15 in consideration of the positions of the left eye El and the right eye Er. To do.
  • the controller 16 is the second sub. Pixel 23 may be determined to belong to the eighth region 48.
  • the controller 16 determines that the second subpixel 23 belongs to the seventh area 47. You can do it.
  • the seventh region 47 has a width wider in the x direction than the image display region 45 so that the image display region 45 can be visually recognized from both the left eye El and the right eye Er. ing.
  • the stereoscopic virtual image display module 11 can display the region where the two-dimensional image is not displayed darker.
  • the contrast of the dimensional image is improved.
  • FIG. 15 is a diagram showing a schematic configuration of a head-up display 51, which is a form of a display device of the present disclosure mounted on a moving body 50 such as a vehicle.
  • the head-up display 51 is also referred to as a HUD (Head Up Display).
  • the head-up display 51 includes a display device 52 and a detection device 53.
  • the head-up display 51 can function as a stereoscopic virtual image display system.
  • the detection device 53 detects the positions of the left eye El and the right eye Er of the user who is the driver of the moving body 50 and transmits the positions to the display device 52.
  • the display device 52 includes an irradiator 54, a display panel 55, a second optical device 56, and a controller that controls these components.
  • the irradiator 54, the display panel 55, the second optical device 56, and the controller are configured to be similar to the irradiator 13, the display panel 14, the second optical device 15, and the controller 16 of the stereoscopic virtual image display module 11 of FIG. The explanation is omitted.
  • the stereoscopic virtual image display module may include a display device 52 and a first optical device set.
  • the first optical device set is configured to project an image displayed on the display panel 55 as a virtual image within the user's field of view.
  • the first optical device set includes a first optical member 57 and a second optical member 58.
  • the pixel density changes depending on the optical characteristics of the first optical member 57 and the second optical member 58. This optical characteristic can be called a magnification factor or the like.
  • the first optical device set may include a projected member 59. In the first optical device set, the pixel density may change depending on the optical characteristics of the first optical member 57, the second optical member 58, and the projected member 59.
  • the pixel density can be changed mainly by the optical characteristics of the first optical member 57 and the second optical member 58.
  • the stereoscopic virtual image display module may be configured to be controllable so that each eye of the user can visualize the virtual image of the active area together with the projected member 59 that reflects the image light toward the user.
  • the first optical member 57 is a mirror that reflects the image light emitted from the display panel 55 and transmitted through the second optical device 56.
  • the second optical member 58 is a mirror that reflects the image light reflected by the first optical member 57 toward the projected member 59.
  • Both or one of the first optical member 57 and the second optical member 58 can be a concave mirror having a positive refractive power.
  • the projected member 59 is a translucent member that reflects the incident image light toward the user's left eye El and right eye Er and transmits the incident light from the front of the user.
  • a part of the front windshield may be used as the projected member 59.
  • the projected member 59 may be called a windshield.
  • the projected member 59 is configured to reflect the image light toward the user.
  • a dedicated combiner may be used as the projected member 59.
  • the first optical member 57, the second optical member 58, and the projected member 59 form a virtual image 60 in the user's field of view of the image displayed in the display area (active area) of the display panel 55. Project.
  • the surface on which the virtual image 60 is displayed can be referred to as an apparent display surface as seen by the user.
  • the configuration of the first optical device set is not limited to the combination of mirrors.
  • the first optical device set can have various configurations such as a combination of a mirror and a lens.
  • the head-up display 51 can project a two-dimensional image and a three-dimensional image as a virtual image 60 in the user's field of view according to the positions of the user's left eye El and right eye Er. it can.
  • the two-dimensional image is perceived by the user as being displayed at the display position of the virtual image 60.
  • the three-dimensional image is perceived as having an additional depth from the display position of the virtual image 60 due to the parallax that the parallax image gives to the left eye El and the right eye Er.
  • each component, each step, etc. can be rearranged so as not to be logically inconsistent, and a plurality of components, etc. can be combined or divided into one. ..
  • the display panel 14 is arranged between the irradiator 13 and the second optical device 15.
  • the display panel 14 may be arranged so as to sandwich the second optical device 15 with the irradiator 13.
  • the second optical device 15 is irradiated by the irradiator 13, and the output of the second optical device 15 emitted from the second optical device 15 is incident on the display panel 14.
  • the second optical device 56 can be arranged between the irradiator 54 and the display panel 55.
  • the "moving body” in the present disclosure includes vehicles, ships, and aircraft.
  • Vehicles in the present disclosure include, but are not limited to, automobiles and industrial vehicles, and may include railway vehicles, living vehicles, and fixed-wing aircraft traveling on runways.
  • Automobiles include, but are not limited to, passenger cars, trucks, buses, motorcycles, trolleybuses and the like, and may include other vehicles traveling on the road.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include, but are not limited to, forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combines, and lawnmowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, cranes, dump trucks, and road rollers. Vehicles include those that run manually. The classification of vehicles is not limited to the above. For example, an automobile may include an industrial vehicle that can travel on the road and may include the same vehicle in multiple categories. Ships in the present disclosure include marine jets, boats and tankers. Aircraft in the present disclosure include fixed-wing aircraft and rotary-wing aircraft.
  • the descriptions such as “first” and “second” are identifiers for distinguishing the configuration.
  • the configurations distinguished by the descriptions such as “first” and “second” in the present disclosure can exchange numbers in the configurations.
  • the identifiers “first” and “second” can be exchanged with the second direction.
  • the exchange of identifiers takes place at the same time.
  • the configuration is distinguished.
  • the identifier may be deleted.
  • the configuration with the identifier removed is distinguished by a code.
  • a stereoscopic virtual image display module capable of displaying a stereoscopic image having a sense of resolution, a stereoscopic virtual image display system, and a moving body including the stereoscopic virtual image display module.
  • Three-dimensional virtual image display system 11 Three-dimensional virtual image display module 12 Detection device 14 Display panel 19 First optical device set 15 Second optical device 13 Irradiator 14a Liquid crystal layer 14b, 14c Glass substrate 14d Color filter 15a Liquid crystal layer 15b, 15c Glass substrate 16 Controller 17 Input unit 18 Display information acquisition unit 21 First subpixel 22 Pixel 23 Second subpixel 31 Dimmed area (first area) 32 Translucent region (second region) 33 Third subpixel 34 Fourth subpixel 35 Left eye visible area 36 Right eye visible area 41 Third area 42 Fourth area 43 Fifth area 44 Sixth area 45 Image display area 46 Image non-display area 47 Seventh Area 48 8th area 50 Moving body 51 Head-up display 52 Display device 53 Detection device 54 Irradiator 55 Display panel 56 Second optical device 57 First optical member 58 Second optical member 59 Projected member 60 Virtual image El Left eye Er right eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

3次元画像と2次元画像との間での表示の切り替えが可能な立体虚像表示モジュール(11)は、表示パネル(14)と、第1光学デバイスセット(19)と、第2光学デバイス(15)とを含む。表示パネル(14)は、画像光を出力するアクティブエリアを有する。第1光学デバイスセット(19)は、利用者に向かって画像光を反射することで、利用者にアクティブエリアの虚像を視覚化する。第2光学デバイス(15)は、アクティブエリアの第1アクティブエリアから第1光学デバイスセット(19)を介して利用者に向かう画像光の光線方向を変更または規制する。第2光学デバイス(15)は、第1画像光を左眼(El)に入れ、且つ第2画像光を右眼(Er)に入れる。立体虚像表示モジュール(11)は、利用者の各眼が第1アクティブエリアの虚像を1度あたり60ピクセル以上の第1画素密度で視覚化可能に構成されている。

Description

立体虚像表示モジュール、立体虚像表示システム、および移動体
 本開示は、立体虚像表示モジュール、立体虚像表示システム、および移動体に関する。
 液晶パネル、液晶パネルの前または後ろに配置されたパララックスバリア、および、拡大虚像形成用の光学系を含み、3次元画像を拡大して表示する表示装置が知られている。例えば、特許文献1によれば、パララックスバリアは、液晶パネルに表示される視差画像を左眼および右眼に分離し、拡大された虚像を利用者が立体視できるようにしている。
 液晶パネルの視差画像として異なる画像を表示すると、視差画像に含まれる個々の画像は解像度が低下してしまう。
特開平7-287193号公報
 本開示の一実施形態に係る立体虚像表示モジュールは、表示パネルと、第1光学デバイスセットと、第2光学デバイスと、を含む。表示パネルは、アクティブエリアを有する。アクティブエリアは、画像光を出力するように構成されている。第1光学デバイスセットは、利用者の第1眼及び第2眼に向かって画像光を反射するように構成されている。第1光学デバイスは、画像光を反射することで、利用者にアクティブエリアの虚像を視覚化するように構成されている。第2光学デバイスは、第1アクティブエリアから第1光学デバイスセットを介して利用者に向かう画像光の光線方向を変更または規制するように構成されている。第2光学デバイスは、第1画像光を第1眼に入れ、且つ第2画像光を第2眼に入れるように構成されている。第1アクティブエリアは、アクティブエリアに含まれる。立体虚像表示モジュールは、第1眼および第2眼の各々が前記第1アクティブエリアの虚像を1度あたり60ピクセル以上の第1画素密度で視覚化可能に構成されている。
 本開示の一実施形態に係る立体虚像表示モジュールは、表示パネルと、第1光学デバイスセットと、第2光学デバイスと、を含む。表示パネルは、アクティブエリアを有する。アクティブエリアは、画像光を第1方向に反射するように構成されている。第1光学デバイスセットは、画像光を第1方向に反射するように構成されている。第2光学デバイスは、第1アクティブエリアからの画像光の光線方向を変更または規制するように構成されている。第2光学デバイスは、第1画像光を第1空間に、第2画像光を第2空間に入れるように構成されている。立体虚像表示モジュールは、風防と一緒になって、第1アクティブエリアの虚像を1度あたり60ピクセル以上の画素密度で前記利用者の各眼が視覚化できるように制御可能に構成されている。風防は、画像光を前記利用者に向かって反射するように構成されている。
 本開示の一実施形態に係る立体虚像表示モジュールは、表示パネルと、第1光学デバイスセットと、第2光学デバイスと、を含む。表示パネルは、アクティブエリアを有する。アクティブエリアは、画像光を出力するように構成されている。第1光学デバイスセットは、利用者の第1眼及び第2眼に向かって画像光を反射するように構成されている。第1光学デバイスは、画像光を反射することで、利用者にアクティブエリアの虚像を視覚化するように構成されている。第2光学デバイスは、第1アクティブエリアから前記第1光学デバイスセットを介して利用者に向かう画像光を減衰または規制するように構成されている。第2光学デバイスは、第1画像光を第1眼に入力し、且つ第2画像光を第2眼に入力するよう制御可能に構成されている。第1アクティブエリアは、アクティブエリアに含まれる。立体虚像表示モジュールは、第1眼および第2眼の各々が前記第1アクティブエリアの虚像を1度あたり60ピクセル以上の第1画素密度で視覚化可能に構成されている。
 本開示の一実施形態に係る立体虚像表示モジュールは、表示パネルと、第1光学デバイスセットと、第2光学デバイスと、を含む。表示パネルは、アクティブエリアを有する。アクティブエリアは、画像光を第1方向に反射するように構成されている。第1光学デバイスセットは、画像光を第1方向に反射するように構成されている。第2光学デバイスは、第1アクティブエリアからの画像光の光線方向を変更可能または規制可能に構成されている。第2光学デバイスは、第1画像光を第1空間に、第2画像光を第2空間に入れるように制御可能に構成されている。立体虚像表示モジュールは、風防と一緒になって、第1アクティブエリアの虚像を1度あたり60ピクセル以上の画素密度で前記利用者の各眼が視覚化できるように制御可能に構成されている。風防は、画像光を前記利用者に向かって反射するように構成されている。
 本開示の一実施形態に係る立体虚像表示システムは、いずれかの立体虚像表示モジュールと、風防と、を有する。
 本開示の一実施形態に係る移動体は、いずれかの立体虚像表示モジュールと、風防と、を有する。
 本発明の目的、特色、および利点は、下記の詳細な説明と図面とからより明確になるであろう。
一実施形態に係る立体虚像表示モジュールの概略構成図である。 表示パネルおよび第2光学デバイスを拡大して示す斜視図である。 表示パネルの第1のサブピクセルの配置例を説明する図である。 第1の表示モードにおける第2光学デバイスの第2のサブピクセルの表示例を説明する図である。 第2の表示モードによる3次元画像の表示を説明する図である。 第2の表示モードにおける第2光学デバイスの第2のサブピクセルの表示例を説明する図である。 第2の表示モードにおける表示パネルの第3のサブピクセルおよび第4のサブピクセルの配置例を説明する図である。 利用者の眼の位置に基づく、第3のサブピクセルおよび第4のサブピクセルの配置の変更を説明する図である。 利用者の眼の位置に基づく、第2光学デバイスの減光領域および透光領域の配置の変更を説明する図である。 表示装置の表示方法の第1の例を説明する図である。 表示装置の表示方法の第2の例を説明する図である。 表示装置の表示方法の第3の例を説明する図である。 画像表示領域と画像非表示領域の一例を示す図である。 図13に対応する第7領域および第8領域の一例を示す図である。 移動体に搭載された表示装置の配置および構成を説明する図である。
 以下、本開示の実施の形態について、図面を参照して説明する。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは一致していない。
 本開示の複数の実施形態の1つに係る立体虚像表示システム10は、図1に示されるように、立体虚像表示モジュール11および検出装置12を含んで構成される。図1は、立体虚像表示システム10を、この立体虚像表示システム10により画像を観察する利用者の上方から見た様子を示している。検出装置12は、利用者の左眼Elおよび右眼Erの位置を検出しうる。検出装置12は、立体虚像表示モジュール11に利用者の左眼Elおよび右眼Erの位置の情報を出力しうる。立体虚像表示モジュール11は、利用者の左眼Elおよび右眼Erの位置の情報に応じて、画像を表示しうる。以下に立体虚像表示システム10の各部の構成をより詳細に説明する。
 (立体虚像表示モジュール)
 本開示の一実施形態において、立体虚像表示システム10は、利用者が立体虚像を視覚化可能に構成されている。立体虚像は、利用者に立体像として知覚される虚像である。利用者は、個々の眼が視差の異なる平面的な虚像を視認することで当該虚像を立体像として知覚しうる。
 立体虚像表示モジュール11は、表示パネル14、第1光学デバイスセット19の少なくとも一部、および第2光学デバイス15を含んでいる。立体虚像表示システム10は、立体虚像表示モジュール11に含まれない第1光学デバイスセット19の他の一部を含みうる。立体虚像表示モジュール11は、照射器13、コントローラ16、入力部17、表示情報取得部18を含みうる。
 表示パネル14は、透過型または自発光型の表示パネルを採用しうる。表示パネル14として透過型の表示パネルを使用した場合、立体虚像表示モジュール11は、照射器13を採用しうる。表示パネル14として、自発光型の表示パネルを使用した場合、立体虚像表示モジュール11は、照射器13を省略しうる。
 透過型の表示パネルは、液晶パネルを含みうる。表示パネル14は、公知の液晶パネルの構成を有してよい。公知の液晶パネルとしては、IPS(In-Plane Switching)方式、FFS(Fringe Field Switching)方式、VA(Vertical Alignment)方式、および、ECB(Electrically Controlled Birefringence)方式等の種々の液晶パネルを採用しうる。透過型の表示パネルは、液晶パネルの他に、MEMS(Micro Electro Mechanical Systems)シャッター式の表示パネルを含む。自発光型の表示パネルは、有機EL(Electro-luminescence)、および無機ELの表示パネルを含む。
 図2は、表示パネル14および第2光学デバイス15を拡大して示す。表示パネル14は、液晶層14a、液晶層14aを挟むように配置される2つのガラス基板14b、14cおよび、液晶層14aと一方のガラス基板14cとの間に配置されたカラーフィルタ14dを含むことができる。表示パネル14は、さらに、配光膜、透明電極、および、偏光板等を含むことができる。配光膜、透明電極、および、偏光板等の配置および構成は、一般的な液晶パネルにおいて公知なので説明を省略する。なお、表示パネル14は、カラーフィルタ14dを有さず、立体虚像表示モジュール11をモノクロの表示装置としてもよい。
 表示パネル14は、画像を表示可能に構成される。表示パネル14において、画像を表示する表示領域は、液晶層14aとカラーフィルタ14dとの界面付近に位置するとみなすことができる。表示パネル14において、画像を表示する表示領域は、アクティブエリアと呼ぶことがある。言い換えると、表示パネル14は、アクティブエリアを有する。立体虚像表示モジュール11のアクティブエリアと呼ぶ場合がある。アクティブエリアは、表示パネル14において実際に画像を表示することが可能な領域である。アクティブエリアは、画像光を出力するように構成される。
 一実施形態において、照射器13、表示パネル14、第2光学デバイス15、および、第1光学デバイスセット19は、利用者に向かって出力される画像の画像光の光路に沿って並ぶ。立体虚像表示モジュール11は、利用者から遠い側から、照射器13、表示パネル14、第2光学デバイス15、および、第1光学デバイスセット19の順で並びうる。表示パネル14は、第2光学デバイス15と並ぶ順番を代わりうる。
 照射器13は、光源、導光板、拡散板、拡散シート等を含みうる。照射器13は、表示パネル14に照射光を面的に照射するように構成される。照射器13は、光源から照射光を射出するように構成される。照射器13は、導光板、拡散板、拡散シート等により照射光を表示パネル14の面方向に均一化するように構成されうる。照射器13は、均一化された光を表示パネル14の方に出射するように構成されうる。透過型の表示パネル14を透過した照射光は、表示パネル14が表示する画像に対応する画像光となる。透過型の表示パネル14は、照射光を画像光に変換可能に構成される。
 第1光学デバイスセット19は、画像光を利用者の第1眼及び第2眼に向かって反射するように構成される。第1光学デバイスセット19は、表示パネル14のアクティブエリアに表示される画像を利用者の視野に投影する。第1光学デバイスセット19は、利用者に向かって画像光を反射することで、当該利用者にアクティブエリアの虚像が視覚化されるように構成されている。第1光学デバイスセット19は、正の屈折力を有する反射光学素子および屈折光学素子の少なくとも何れか1つ以上を含みうる。
 図3は、第2光学デバイス15側から見た表示パネル14の一部を、拡大して示す図である。表示パネル14の表示領域は、複数の第1のサブピクセル21を含む。複数の第1のサブピクセル21は、第1の方向および第1の方向に交わる第2の方向に沿って並ぶ。第2の方向は、第1の方向に略直交する方向としうる。第1の方向は、利用者の両眼に視差を与える視差方向に対応する。第1の方向は、利用者が視認した虚像において横方向または左右方向とすることができる。第2の方向は、利用者が視認した虚像において縦方向または上下方向とすることができる。以下では、第1の方向をx方向、第2の方向をy方向として説明する。各図において、第2光学デバイス15から照射器13へ向かう方向に見て、x方向は右から左へ向かう方向として示す。y方向は、上から下へ向かう方向として示す。x方向およびy方向に直交し、利用者の眼の側に向かう光路に沿う方向をz方向とする。
 複数の第1のサブピクセル21は、x方向およびy方向に格子状に並びうる。一実施形態において、各第1のサブピクセル21のy方向の長さは、x方向の長さより長い。各第1のサブピクセル21は、カラーフィルタ14dの色の配列に対応して、R(Red),G(Green),B(Blue)のいずれかの色を有しうる。R,G,Bの3つの第1のサブピクセル21は、一組として1つのピクセル22を構成することができる。ピクセル22の一つが、説明のため図3において破線により囲んで示される。1ピクセルのx方向の長さとy方向の長さとは、1:1に設定することができるが、これに限定されない。1つのピクセル22を構成する複数の第1のサブピクセル21は、例えば、x方向に並びうる。同じ色の第1のサブピクセル21が例えば、y方向に並びうる。複数の第1のサブピクセル21は、同じ色としうる。複数の第1のサブピクセル21は、色を有さなくてよい。照射光は、第1のサブピクセル21によって色成分のバランスが変更されて画像光となる。例えば、Rの第1のサブピクセル21は、他色の光が減衰して赤い光が透過するように構成される。表示パネル14が自発光型である場合、第1のサブピクセル21から画像光が出力されるように構成される。
 第2光学デバイス15は、第1アクティブエリアから第1光学デバイスセット19を介して利用者に向かう画像光の光線方向を変更または規制するように構成されうる。アクティブエリアは、第1アクティブエリアを含む。第2光学デバイス15は、第1アクティブエリアから第1光学デバイスセット19を介して利用者に向かう画像光を減衰または規制するように構成されうる。第2光学デバイス15は、第1画像光を第1空間に入れ、且つ第2画像光を第2空間に入れるように構成される。第1空間は、第1眼があると想定される空間である。第2空間は、第2眼があると想定される空間である。第2光学デバイス15は、第1画像光を第1眼に入れ、且つ第2画像光を第2眼に入れるように構成される。第1アクティブエリアから出る画像光は、第1画像光および第2画像光を含む。利用者は、第1眼に第1画像光が入射されることで、虚像が視覚化される。利用者は、第1眼に第1画像光が入射されることで、虚像が視覚化される。利用者は、第1画像光および第2画像光を異なる眼で視認することで、2つの虚像を1つの立体像として知覚する。
 第2光学デバイス15は、透過型の表示パネルを用いることができる。第2光学デバイス15は、表示パネル14からの出力が第2光学デバイス15に入射するように構成される。第2光学デバイス15としては、液晶パネルを採用しうる。液晶パネルを利用した第2光学デバイス15は、画像光の減衰を制御可能に構成される。図2に示すように、第2光学デバイス15は、液晶層15a、液晶層15aを挟むように配置される2つのガラス基板15bおよび15cを含む。第2光学デバイス15は、カラーフィルタを省略しうる。第2光学デバイス15は、カラーフィルタを省略することで、画像光の輝度の低下を低減できる。第2光学デバイス15の表示領域は、液晶層15aとガラス基板15cとの界面付近に位置するとみなすことができる。
 図4に示すように、第2光学デバイス15は、x方向及びy方向に沿って、格子状に並ぶ複数の第2のサブピクセル23を含む。複数の第2のサブピクセル23は、複数の第1のサブピクセル21と等ピッチで配列されてよい。この場合、第2のサブピクセル23の水平ピッチHpおよび垂直ピッチVpは、第1のサブピクセル21の水平ピッチHpおよび垂直ピッチVpと等しい。表示パネル14および第2光学デバイス15は、表示パネル14の法線方向に見たとき、複数の第1のサブピクセル21の各々が第2のサブピクセル23のいずれかと重ね合わさるように対向しうる。このようにすることにより、表示パネル14および第2光学デバイス15に、同一の形状および寸法を有する表示パネルを使用することができるので、製造が容易となる。立体虚像表示モジュール11は、表示パネル14の第1のサブピクセル21と第2光学デバイス15の第2のサブピクセル23とが1対1で対応する。立体虚像表示モジュール11は、画像表示の際の演算量を低減でき、コントローラ16による制御が容易になる。しかしながら、複数の第2のサブピクセル23は、複数の第1のサブピクセル21と等ピッチでなくてもよい。例えば、第2のサブピクセル23は、第1光学デバイスセット19による表示パネル14と第2光学デバイス15との像倍率の差を考慮して、第1のサブピクセル21と異なる大きさとすることができる。
 第2光学デバイス15は、表示パネル14に対してz方向に所定距離離れている。表示パネル14と第2光学デバイス15とは、一体として形成されてよい。例えば、表示パネル14と第2光学デバイス15とは、光学的に透明な接着剤を用いて相互に固定される。光学的に透明な接着剤はOCA(Optical Clear Adhesive)を含む。
 第2光学デバイス15は、第2のサブピクセル23ごとに画像光の透過率を制御可能に構成される。第2光学デバイス15は、第2のサブピクセル23ごとに画像光の減衰率を制御可能に構成される。第2光学デバイス15は、特定の領域を通る画像光を、光強度を大きく低下させることなく透過させ、他の特定の領域を通る画像光を減光させることができる。ここで、「減光」は、ほぼ光を透過させない「遮光」をも含む。第2光学デバイス15は、光を透過させる領域の第2のサブピクセル23を最も明るい階調とし、減光させる領域の第2のサブピクセル23を最も暗い階調としうる。第2のサブピクセル23の階調は、光の透過率に対応する。最も明るい階調は、最も光の透過率が高い階調を意味する。最も暗い階調は、最も光の透過率が低い階調を意味する。第2光学デバイス15は、光を透過させる透光領域と、減光させる減光領域との間で、可視光領域の光の透過率を、100倍以上、例えば1000倍程度異ならせることができる。
 第2光学デバイス15は、MEMSシャッタパネルを採用しうる。MEMSシャッタパネルを利用する第2光学デバイス15は、画像光を規制可能に構成される。第2光学デバイス15は、複数の開口が第1方向および第2方向に並びうる。複数の開口は、サブピクセル又はピクセルに対応しうる。第2光学デバイス15は、各開口にカラーフィルタを含みうる。
 第2光学デバイス15は、パララックスバリアを採用しうる。パララックスバリアは、画像光の光線方向を規制するように構成される。パララックスバリアは、画像光が透過するように構成される領域と、画像光の透過が規制される領域とを含む。第2光学デバイス15は、パララックスレンズを採用しうる。パララックスレンズは、画像光の光線方向を変更するように構成される。
 コントローラ16は、立体虚像表示システム10の各構成要素に接続され、各構成要素を制御可能に構成されている。コントローラ16は、例えばプロセッサとして構成される。コントローラ16は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ16は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。コントローラ16は、記憶部を備え、記憶部に各種情報、または立体虚像表示システム10の各構成部を動作させるためのプログラム等を格納してよい。記憶部は、例えば半導体メモリ等で構成されてよい。記憶部は、コントローラ16のワークメモリとして機能してよい。
 コントローラ16は、画像データに基づいて、表示パネル14の第1のサブピクセル21を制御するように構成される。表示パネル14は、コントローラ16の制御によって第1のサブピクセル21が制御可能に構成される。コントローラ16は、第2光学デバイス15の第2のサブピクセル23を制御するように構成される。第2光学デバイス15は、コントローラ16の制御によって第2のサブピクセル23が制御可能に構成されうる。画像データは、後述する表示情報取得部18から取得することができる。画像データは、表示情報取得部18から取得した情報に基づいて、コントローラ16内で生成してよい。画像データは、文字および記号等を含んでよい。画像データは、2次元画像データ、および、3次元画像を表示するための視差画像データを含む。
 コントローラ16は、表示パネル14に2次元画像を表示する第1の表示モード、および、視差画像を表示する第2の表示モードを含む複数の表示モードの間で切り替えることができる。コントローラ16は、第2光学デバイス15の駆動モードを、第1の表示モードに対応する第1の駆動モード、および、前記第2の表示モードに対応する第2の駆動モードを含む複数の駆動モードの間で切り替えることができる。コントローラ16による表示モードの切り替えについては後述する。
 入力部17は、利用者の左眼Elおよび右眼Erの位置の情報を、検出装置12から受信することができる。入力部17は、電気コネクタまたは光コネクタを備えうる。入力部17は、検出装置12からの電気信号または光信号を受信可能に構成され得る。
 表示情報取得部18は、他の装置から立体虚像表示モジュール11に表示すべき情報を取得する。例えば、表示情報取得部18は、予め記憶された画像を再生する画像再生装置から表示すべき情報を取得してよい。表示情報取得部18は、外部からの無線通信回線を通じて表示すべき情報を取得してよい。例えば、立体虚像表示システム10が車両に搭載される場合、表示情報取得部18は、車両内の電子制御装置(ECU:Electronic Control Unit)から、表示すべき情報を取得してよい。
 コントローラ16は、利用者の左眼Elおよび右眼Erの位置に対する、第1光学デバイスセット19による表示パネル14および第2光学デバイス15の像の拡大倍率を考慮して、表示パネル14および第2光学デバイス15を制御する。
 一実施形態において、第1光学デバイスセット19は、利用者が適視距離からみたとき、利用者の視野内で、第1のサブピクセル21およびこれに対向して位置する第2のサブピクセル23が互いに異なるピッチを有するように画像光を投影する。この場合、利用者からみて表示パネル14が第2光学デバイス15より遠くに位置するのに関わらず、同じ仕様でサブピクセル21,23が配列された表示パネル14の表示領域と第2光学デバイス15の表示領域とは、同じ視野範囲を占める。このような要件を満たす第1光学デバイスセット19は、幾何光学に基づいて設計することが可能である。
 このような第1光学デバイスセット19を採用することにより、第1のサブピクセル21および第2のサブピクセル23の対応付けが容易となる。したがって、コントローラ16をより簡単に構成することができ、且つ、コントローラ16の処理負荷を軽減することができる。
 (検出装置)
 検出装置12は、利用者の眼の位置を検出可能に構成される。検出装置12は、立体虚像表示モジュール11の入力部17に出力するように構成される。検出装置12は、例えば、カメラを備えてよい。検出装置12は、カメラによって利用者の顔を撮影するように構成してよい。検出装置12は、カメラの撮影画像から左眼Elおよび右眼Erの少なくとも一方の位置を検出するように構成してよい。検出装置12は、1個のカメラの撮影画像から、左眼Elおよび右眼Erの少なくとも一方の位置を3次元空間の座標として検出するように構成してよい。検出装置12は、2個以上のカメラの撮影画像から、左眼Elおよび右眼Erの少なくとも一方の位置を3次元空間の座標として検出するように構成してよい。
 検出装置12は、カメラを備えず、装置外のカメラに接続されるように構成してよい。検出装置12は、装置外のカメラからの信号を入力する入力端子を備えてよい。装置外のカメラは、入力端子に直接的に接続されるように構成してよい。装置外のカメラは、共有ネットワークを介して入力端子に間接的に接続されるように構成してよい。カメラを備えない検出装置12は、カメラが映像信号を入力する入力端子を備えてよい。カメラを備えない検出装置12は、入力端子に入力された映像信号から左眼Elおよび右眼Erの少なくとも一方の位置を検出するように構成してよい。
 検出装置12は、カメラに代えて、例えば、センサを備えてよい。センサは、超音波センサまたは光センサ等であってよい。検出装置12は、センサによって利用者の頭部の位置を検出し、頭部の位置に基づいて左眼Elおよび右眼Erの少なくとも一方の位置を推定するように構成してよい。検出装置12は、1個または2個以上のセンサによって、左眼Elおよび右眼Erの少なくとも一方の位置を3次元空間の座標として検出するように構成してよい。
 検出装置12は、左眼Elおよび右眼Erのいずれか一方のみの位置を検出した場合、予め記憶された利用者の眼間距離の情報または一般的な眼間距離の情報から、他方の眼の位置を推定しうるように構成してよい。他方の眼の位置の推定は、検出装置12ではなく、コントローラ16で行う構成であってもよい。
 立体虚像表示モジュール11と利用者の左眼Elおよび右眼Erとの相対的な位置関係が、ほぼ固定されるような表示装置では、検出装置12は設けなくともよい。その場合、入力部17も不要となる。
 (第1の表示モード)
 立体虚像表示モジュール11は、第1の表示モードにおいて、表示パネル14の第1のサブピクセル21に2次元画像を表示する。2次元画像は、モノクロ画像およびカラー画像を含みうる。第1の表示モードのとき、第2光学デバイス15は、コントローラ16により、第1の駆動モードで駆動される。第2光学デバイス15は、表示パネル14から射出される画像光の減光が小さくなるように、または遮光しないように制御されうる。利用者は、第1のサブピクセル21の虚像を両眼で視認する。本開示の立体虚像表示モジュール11において、利用者は、第1のサブピクセル21の虚像を1度あたり160ピクセル以上の画素密度で視覚化する。この1度あたり画素量をPPD(Pixels Per Degree)と呼ぶことがある。この単位角度あたりの画素量は、画素角密度と呼ばれる。利用者は、両眼で60PPDの虚像を視認する。両眼で視認される虚像の画素密度は、第1画素密度と呼ばれうる。この画素密度は、虚像の距離、表示パネル14の画素線密度(PPI;Pixels Per Inch)、第1光学デバイスセット19の拡大倍率などによって定まる。
 第1の駆動モードのとき、第2光学デバイス15は、例えば、全ての第2のサブピクセル23を最も明るい階調またはこれに準じる階調とする。この場合、第2のサブピクセル23の「最も明るい階調」とは、表示パネル14からの画像光の透過率が最も高い階調を意味する。以下において、第2のサブピクセル23の「最も暗い階調」とは、表示パネル14からの画像光の透過率が最も低くなる階調を意味する。図4は、全ての第2のサブピクセル23が「最も明るい階調」の状態を表示する。第2のサブピクセル23は、表示パネル14に表示される画像の画像光を透過させる。
 第1の表示モードにおける第2のサブピクセル23の駆動方法は、上記のものに限られない。例えば、第2のサブピクセル23は、表示パネル14の画像が表示される領域に対応する領域において最も明るい階調とし、表示パネル14の画像が表示されない領域に対応する領域において最も暗い階調としてよい。
 (第2の表示モード)
 第2の表示モードは、利用者に対して3次元画像と視認される画像を表示するモードである。3次元画像を適切に表示するため、表示パネル14から利用者の左眼Elおよび右眼Er迄の距離は、例えば適視距離に設定される。適視距離は、立体虚像表示モジュール11により視差画像を観察するとき、最もクロストークが少ない距離である。この場合、クロストークとは、右眼Er用に表示される画像が左眼Elに入射し、および/または、左眼El用に表示される画像が右眼Erに入射することを意味する。
 3次元画像を表示する第2の表示モードにおいて、第2光学デバイス15は、コントローラ16により、第2の駆動モードで駆動される。第2の駆動モードにおいて、第2光学デバイス15は、第1のサブピクセル21から射出される画像光を減光する光学素子として機能する。図5および図6に示すように、第2光学デバイス15の減光領域(第1領域)31に含まれる第2のサブピクセル23は、コントローラ16により、透光領域(第2領域)32に含まれる第2のサブピクセル23より暗い階調に制御される。第2光学デバイス15の減光領域31に含まれる第2のサブピクセル23は、最も暗い階調に設定されてよい。また、透光領域32に含まれる第2のサブピクセル23は、コントローラ16により、明るい階調に設定される。透光領域32に含まれる第2のサブピクセル23は、最も明るい階調に設定されてよい。減光領域31に含まれる第2のサブピクセル23の光の透過率は、透光領域32に含まれる第2のサブピクセル23の光の透過率の100分の1以下としうる。
 図6に示すように、減光領域31および透光領域32は、それぞれ、一方向に延びる領域である。複数の減光領域31および複数の透光領域32は、交互に並びうる。複数の減光領域31は互いに略等しい幅を有して、x方向に所定の間隔で周期的に並びうる。複数の透光領域32は、互いに略等しい幅を有して、x方向に所定の間隔で周期的に並びうる。表示パネル14の第1のサブピクセル21から射出される画像光は、第2光学デバイス15の減光領域31および透光領域32によって、左眼Elおよび右眼Erのそれぞれに対して視認可能な範囲が定まる。減光領域31のx方向の幅は、透光領域32のx方向の幅と同じ、または、透光領域32のx方向の幅よりも広くすることができる。
 減光領域31および透光領域32は、x方向を除く一方向に連続的に延びてよい。減光領域31および透光領域32は、パララックスバリアとして機能しうる。減光領域31および透光領域32が延びる方向は、x方向およびy方向に対して斜め方向としうる。減光領域31および透光領域32が延びる方向のy方向に対する角度をバリア傾斜角とよぶことができる。バリア傾斜角は、0度より大きく90度より小さい角度としうる。仮に、減光領域31および透光領域32が、y方向に沿って配列される場合、第1のサブピクセル21および/または第2のサブピクセル23の寸法および/または配置に含まれる誤差によって、表示画像においてモアレが認識されやすくなる。減光領域31および透光領域32が、0度以外のバリア傾斜角を有する場合、第1のサブピクセル21および/または第2のサブピクセル23の寸法および/または配置に含まれる誤差にかかわらず、表示画像においてモアレが認識されにくくなる。
 第2の表示モードにおいて、第2光学デバイス15は、表示パネル14から出射した画像光の少なくとも一部を、該画像光が第2光学デバイス15に入射する位置に応じて減光する。第2光学デバイス15は、表示パネル14から出射した画像光の他の一部を、第2光学デバイス15に入射する位置に応じて透過させる。これにより、第2光学デバイス15は、表示パネル14から出射した画像光の光線方向を規定する。
 立体虚像表示モジュール11は、3次元画像を表示する第2の表示モードにおいて、表示パネル14の第1のサブピクセル21に、視差画像を表示する。視差画像は、互いに視差を有する左眼El用と右眼Er用の画像を含む画像である。図5に示すように、表示パネル14の第1のサブピクセル21に含まれる第3のサブピクセル33から出射した第1画像光は、第2光学デバイス15によって光線方向が規定されて利用者の左眼Elに到達する。このため、図5に示される状態で、第3のサブピクセル33に左眼El用の画像が表示される。表示パネル14の第1のサブピクセル21に含まれる第4のサブピクセル34から出射した第2画像光は、第2光学デバイス15によって光線方向が規定されて利用者の右眼Erに到達する。このため、第4のサブピクセル34には、右眼Er用の画像が表示される。利用者は、左眼に第1画像光が入力され、右眼に第2画像光が入力される。利用者は、両眼に視差画像のうちの異なる画像が入力されることで、画像を3次元画像として認識することができる。なお、図5は第1光学デバイスセット19を通る画像光を直線的に描いているが、実際には第1光学デバイスセット19を通る画像光は第1光学デバイスセット19を構成する光学素子により、屈折および反射等を受ける。
 利用者は、第3のサブピクセル33の虚像を左眼で視認し、第4のサブピクセル34の虚像を右眼で視認する。本開示の立体虚像表示モジュール11において、利用者は、第3のサブピクセル33の虚像を30PPDの画素密度で視覚化し、第4のサブピクセル34の虚像を30PPDの画素密度で視覚化する。この各眼で視認される虚像の画素密度は、第2画素密度と呼ばれうる。利用者は、各眼で30PPDの虚像を視認する。利用者は、各眼で視認する30PPDの虚像を1つの立体虚像として視認する。この立体虚像は、利用者にとって、両眼で視認する60PPDの虚像と同程度の画素密度の画像として認識される。各眼に30PPDで虚像を表示することで、立体虚像表示モジュール11は、立体虚像に変更したときの解像感の低下を低減することができる。
 一例において、表示パネル14上において、左眼El用の画像を表示する第3のサブピクセル33、および、右眼用の画像を表示する第4のサブピクセル34は、図7に示すように配置される。図7において、第1のサブピクセル21には説明のための番号1~6が付されている。同じ番号を付された第1のサブピクセル21は、第3のサブピクセル33または第4のサブピクセル34の何れか同一のサブピクセルに属する。後述するように、第1のサブピクセル21は、第3のサブピクセル33と第4のサブピクセル34との間で切り替え可能である。同一の番号が付された第1のサブピクセル21は、同一のタイミングで切り替わる。図7に図示の例において、第3のサブピクセル33は、番号1~3が付された第1のサブピクセル21である。第4のサブピクセル34は、番号4~6が付された第1のサブピクセル21である。第3のサブピクセル33および第4のサブピクセル34の配列は、第2光学デバイス15の減光領域31および透光領域32により形成されるパララックスバリアのバリア傾斜角に対応する角度で、y方向に対して傾斜している。
 図7において、第3のサブピクセル33は、第2光学デバイス15の透光領域32を介して、利用者の左眼Elが視認可能な表示パネル14上の左眼可視領域35に少なくとも部分的に位置する。第3のサブピクセル33は、利用者の左眼Elが視認可能な表示パネル14上の領域に、半分以上含まれていてよい。このとき、第3のサブピクセル33は、第2光学デバイス15の減光領域31により減光され、利用者の右眼Erが視認できない表示パネル14上の領域に少なくとも部分的に位置する。第4のサブピクセル34は、第2光学デバイス15の透光領域32を介して、利用者の右眼Erが視認可能な表示パネル14上の右眼可視領域36に少なくとも部分的に位置する。第4のサブピクセル34は、利用者の右眼Erが視認可能な表示パネル14上の領域に、半分以上含まれていてよい。このとき、第4のサブピクセル34は、第2光学デバイス15の減光領域31により減光され、利用者の左眼Elが視認できない表示パネル14上の領域に少なくとも部分的に位置する。第2光学デバイス15の減光領域31および透光領域32のx方向に並ぶ第2のサブピクセル23の数が等しいとき、左眼可視領域35は、右眼Erから視認できない領域にほぼ一致する。右眼可視領域36は、左眼Elから視認できない領域にほぼ一致する。
 利用者が視差画像を観察するとき、利用者の左眼Elおよび右眼Erの位置が移動することがある。利用者の眼の位置が変わると、表示パネル14上で、左眼Elにより視認可能な領域および右眼Erにより視認可能な領域の位置が変わりうる。例えば、利用者の眼が表示パネル14に対して左方向(正のx方向)に移動した場合、利用者の眼から見た第2光学デバイス15上の減光領域31および透光領域32の位置が、見かけ上表示パネル14に対し、右方向(負のx方向)に変位する。
 減光領域31および透光領域32が、見かけ上表示パネル14に対し右方向に変位すると、図7に番号1を付した第3のサブピクセル33が、利用者の左眼Elから視認できなくなるとともに、利用者の右眼Erに視認されて、クロストークを発生させる。同様に、図7に番号4を付した第4のサブピクセル34が、利用者の右眼Erから視認できなくなるとともに、利用者の左眼Elに視認されて、クロストークを発生させる。
 この場合、コントローラ16は、検出装置12により検出された利用者の眼の位置を、入力部17を介して取得し、利用者の眼の位置に基づいて、クロストークが最小となるように、第3のサブピクセル33および第4のサブピクセル34の配置を切り替えうる。図8は、図7の状態から、一部の第1のサブピクセル21を、第3のサブピクセル33および第4のサブピクセル34の間で切り替えを行った例を示す。図8の例では、コントローラ16は、番号1の第3のサブピクセル33を第4のサブピクセル34に切り替え、番号4の第4のサブピクセル34を第3のサブピクセル33に切り替える。すなわち、コントローラ16は、番号2~4の第1のサブピクセル21を、左眼El用の画像を表示する第3のサブピクセル33とする。コントローラ16は、番号5,6,1の第1のサブピクセル21を、右眼Er用の画像を表示する第4のサブピクセル34とする。その結果、左眼可視領域35および右眼可視領域36は、全体として負のx方向に移動する。これによって、利用者は、表示パネル14に対する眼の位置が変わった場合でも、表示パネル14上に適切な視差画像を観察することが可能になる。すなわち、利用者は3次元画像と視認される画像を見続けることができる。
 上述の方法とは異なり、利用者が視差画像を観察するとき、利用者の左眼Elおよび右眼Erの位置の変化に対応するため、コントローラ16は、第2光学デバイス15に表示する減光領域31および透光領域32の位置を変化させてよい。例えば、利用者の左眼Elおよび右眼Erが、表示パネル14に対して左方向(正のx方向)に移動した場合、図9に示すように、図6の状態から減光領域31および透光領域32を左方向に移動させてよい。
 以上説明したように、本開示の立体虚像表示システム10および立体虚像表示モジュール11は、表示パネル14に2次元画像を表示する第1の表示モードと、視差画像を表示する第2の表示モードとを有する。コントローラ16は、第1の表示モードで第2光学デバイス15を、画像光を透過させる第1の駆動モードで駆動する。コントローラ16は、第2の表示モードで、第2光学デバイス15を、視差画像の画像光の進む方向を規定する第2の駆動モードで駆動する。これにより、立体虚像表示システム10および立体虚像表示モジュール11は、同一の装置を用いて2次元画像と3次元画像を切り替えて表
示することができる。
 (2次元画像および3次元画像の部分表示)
 本開示の一実施形態において、立体虚像表示システム10および立体虚像表示モジュール11は、2次元画像と3次元画像とを混在させて表示することができる。2次元画像と3次元画像とは、それぞれ立体虚像表示モジュール11の一部に表示される。図10は、表示パネル14および第2光学デバイス15の表示内容の一例を説明する図である。
 図10において、表示パネル14は、2次元画像を表示する第3領域41と、視差画像を表示する第4領域42とを含んでいる。第4領域42は、第1アクティブエリアに対応する。第3領域41は、第2アクティブエリアに対応する。第2光学デバイス15は、第2アクティブエリアからの画像光を第3空間に入力するように構成される。第3空間は利用者の両眼があると想定される空間である。第2光学デバイス15は、第3領域41に対応し、第2のサブピクセル23の一部からなる第5領域43が第1の駆動モードで制御される。第2光学デバイス15は、第4領域42に対応し第2のサブピクセル23の一部からなる第6領域44が、第2の駆動モードで制御される。第2光学デバイス15は、一部が第1の駆動モードで制御され、他の一部が第2駆動モードで制御される。第5領域43は、第2光学デバイス15上で、表示パネル14の第3領域41に対向する領域としうる。第6領域44は、第2光学デバイス15上で、表示パネル14の第4領域42に対向する領域としうる。
 第1の駆動モードにおいて、第5領域43は、2次元画像を透過させるため、全ての第2のサブピクセル23の階調を明るくさせることができる。第5領域43は、第2のサブピクセル23の最も明るい階調としうる。第2の駆動モードにおいて、第6領域44は、図6を用いて説明したように、所定方向に延びる相対的に階調の暗い減光領域31、および、相対的に階調の明るい透光領域32を含む。第6領域44は、第4領域42に表示される視差画像中の第3のサブピクセル33による画像を、利用者の左眼Elに到達させる。第6領域44は、第4領域42に表示される視差画像中の第4のサブピクセル34による画像を、利用者の右眼Erに到達させる。第3のサブピクセル33による画像に相当する画像光は、第1画像光に対応する。第4のサブピクセル34による画像に相当する画像光は、第2画像光に対応する。
 コントローラ16は、表示パネル14の第3領域41における第1の表示モードによる2次元画像の表示、および、第4領域42における第2の表示モードによる視差画像の表示を制御する。コントローラ16は、第2光学デバイス15の第5領域43の第1の駆動モードによる駆動、および、第6領域44の第2の駆動モードによる駆動を制御する。
 図10の例では、車両に搭載されることを想定し、第3領域41に車両の速度を2次元画像として表示し、第4領域42に進行方向前方での転回方向を表す矢印を、3次元画像と認識される視差画像により表示している。利用者は、前方のどの程度の距離のところで右に転回するかを、3次元画像から知覚することができる。
 利用者は、第3のサブピクセル33の虚像を左眼で視認し、第4のサブピクセル34の虚像を右眼で視認する。本開示の立体虚像表示モジュール11において、利用者は、第3のサブピクセル33の虚像を30PPDの画素密度で視覚化し、第4のサブピクセル34の虚像を30PPDの画素密度で視覚化する。利用者は、各眼で30PPDの虚像を視認する。利用者は、各眼で視認する30PPDの虚像を1つの立体虚像として視認する。この立体虚像は、利用者にとって、両眼で視認する60PPDの虚像と同程度の画素密度の画像として認識される。各眼30PPDで虚像を表示することで、立体虚像表示モジュール11は、立体虚像にしたときに、解像感の低下を低減することができる。立体虚像表示モジュール11は、各眼30PPDで虚像を表示することで、60PPDの平面虚像との解像感の違いによる違和感の少ない画像を表示することができる。
 一実施形態において、コントローラ16は、第1の表示モードにおいて、表示情報取得部18から取得した画像データを分析し、第3領域41中の画像が表示される画像表示領域45および画像が表示されていない画像非表示領域46を検出することができる。図11は、画像表示領域45および画像非表示領域46を含む例を示す。図11において、画像表示領域45には、速度情報「50km/h」が表示されている。図11において、画像非表示領域46には、表示すべき情報が含まれていない。画像表示領域45および画像非表示領域46は、種々の方法で決定しうる。コントローラ16は、第1のサブピクセル21を単位として、画像の表示/非表示を判定し、画像表示領域45および画像非表示領域46を決定してよい。
 第2光学デバイス15の第5領域43中の画像表示領域45に対応する領域を第7領域47とする。画像非表示領域46に対応する領域を第8領域48とする。コントローラ16は、第8領域48に含まれる第2のサブピクセル23を暗い階調、例えば、最も暗い階調としてよい。コントローラ16は、第7領域47に含まれる第2のサブピクセル23を明るい階調、例えば、最も明るい階調としてよい。これにより、利用者が視認する画像中の画像非表示領域46は、より暗く表示され、表示される2次元画像のコントラストがより高くなる。
 図10および図11において、第3領域41と第4領域42とは、表示パネル14上で、上下に配列されている。第3領域41および第4領域42の形状および配置方向は、図10および図11のものに限られない。表示パネル14上の任意の位置に、2次元画像を表示する第3領域41および視差画像を表示する第4領域42を配置することができる。表示パネル14上で、第3領域41および第4領域42の形状および配置は、動的に変化させてよい。図12は、図10および図11とは異なる第3領域41および第4領域42の配置の例を示す。
 コントローラ16は、表示パネル14上での第1の表示モードで2次元画像を表表示する第3領域41、および、第2の表示モードで3次元画像を表示する第4領域42の間の切り替えを制御する。コントローラ16は、第3領域41および第4領域42の切り替えに伴い、第1の駆動モードで駆動される第5領域43および第2の駆動モードで駆動される第6領域44を第2光学デバイス15上で切り替える。コントローラ16は、第1の表示モードおよび第2の表示モードを表示パネル14上で部分的に切り替えることができる。コントローラ16は、第1の表示モードおよび第2の表示モードの切り替えに対応して、第1の駆動モードおよび第2の駆動モードを第2光学デバイス15上で部分的に切り替えることができる。
 図12の例では、コントローラ16は、2次元の文字情報等を表示パネル14の第3領域41の画像表示領域45に表示し、視差画像を第4領域42に表示する。コントローラ16は、第2光学デバイス15の第5領域43中の第7領域47の階調を明るく設定し、第8領域48の階調を暗く設定する。さらに、コントローラ16は、第2光学デバイス15の第6領域44に所定方向に減光領域31および透光領域32が延びるパララックスバリアを表示させ、第4領域42に表示される視差画像を利用者に3次元画像として視認させることができる。
 図11および図12に示した例において、画像表示領域45は、一纏まりの文字等の画像が含まれる矩形状の領域として図示した。しかし、画像表示領域45は、サブピクセル単位で、所定値以上の階調を有する第1のサブピクセル21の領域とすることができる。例えば、図13に示すように、表示パネル14上に文字「o」が存在するとき、最も暗い階調またはこれに準じる階調以外の階調を有する第1のサブピクセル21が占める領域を画像表示領域45とし、それ以外の領域を画像非表示領域46としてよい。この場合、コントローラ16は、画像データから画像表示領域45を認識する。一例としてはには、コントローラ16は、表示パネル14に画像を表示するラインバッファから、最も暗い階調またはそれに準じる階調の第1のサブピクセル21を検索して画像非表示領域46を決定し、それ以外を画像表示領域45としてよい。
 コントローラ16は、左眼Elおよび右眼Erの位置を考慮して第2光学デバイス15上で画像表示領域45に対応する第7領域47および画像非表示領域46に対応する第8領域48を決定する。コントローラ16は、第2光学デバイス15上の第2のサブピクセル23を通して左眼Elおよび右眼Erにより視認される表示パネル14上の領域がともに画像非表示領域46の場合、その第2のサブピクセル23を第8領域48に属するものと決定してよい。コントローラ16は、第2のサブピクセル23を通して、左眼Elおよび右眼Erの少なくとも一方が、画像表示領域45を視認する場合、その第2のサブピクセル23を第7領域47に属するものとして決定してよい。例えば、図14に示すように、第7領域47は、左眼Elおよび右眼Erの何れからも画像表示領域45が視認できるように、画像表示領域45よりもx方向に広い幅を有している。
 このように、コントローラ16が第7領域47および第8領域48を設定することにより、立体虚像表示モジュール11は2次元画像が表示されていない領域をより暗く表示することができるので、表示する2次元画像のコントラストが向上する。
 (移動体)
 図15は、車両等の移動体50に搭載される本開示の表示装置の一形態であるヘッドアップディスプレイ51の概略構成を示す図である。ヘッドアップディスプレイ51は、HUD(Head Up Display)ともいう。ヘッドアップディスプレイ51は、表示装置52および検出装置53を含む。ヘッドアップディスプレイ51は、立体虚像表示システムとして機能しうる。検出装置53は、移動体50の運転者である利用者の左眼Elおよび右眼Erの位置を検出して表示装置52に送信する。表示装置52は、照射器54、表示パネル55、第2光学デバイス56およびこれらの構成要素を制御するコントローラを含む。照射器54、表示パネル55、第2光学デバイス56およびコントローラは、図1の立体虚像表示モジュール11の照射器13、表示パネル14、第2光学デバイス15およびコントローラ16に類似に構成されるので、説明を省略する。
 立体虚像表示モジュールは、表示装置52と、第1光学デバイスセットとを備えうる。第1光学デバイスセットは、利用者の視野内に表示パネル55に表示される画像を虚像として投影するように構成される。第1光学デバイスセットは、第1の光学部材57、第2の光学部材58を含む。第1光学デバイスセットは、第1の光学部材57および第2の光学部材58の光学特性によって画素密度が変化する。この光学特性は、拡大倍率などと言われうる。第1光学デバイスセットは、被投影部材59を含みうる。第1光学デバイスセットは、第1の光学部材57、第2の光学部材58、および被投影部材59の光学特性によって画素密度が変化しうる。第1光学デバイスセットは、主として第1の光学部材57および第2の光学部材58の光学特性によって画素密度が変化しうる。立体虚像表示モジュールは、画像光を利用者に向かって反射する被投影部材59と一緒になって、アクティブエリアの虚像を利用者の各眼が視覚化できるように制御可能に構成されうる。第1の光学部材57は、表示パネル55から出射され第2光学デバイス56を透過した画像光を反射するミラーである。第2の光学部材58は、第1の光学部材57により反射された画像光を、被投影部材59に向けて反射するミラーである。第1の光学部材57および第2の光学部材58の双方または何れか一方は、正の屈折力を有する凹面鏡とすることができる。
 被投影部材59は、入射した画像光を利用者の左眼Elおよび右眼Erに向けて反射するとともに、利用者の前方から入射する光を透過させる半透明の部材である。被投影部材59として、フロントウインドシールドの一部が使用されることがある。被投影部材59は、風防と呼ばれうる。被投影部材59は、画像光を利用者に向かって反射するように構成される。被投影部材59として、専用のコンバイナが使用されることがある。第1の光学部材57、第2の光学部材58および被投影部材59は、表示パネル55の表示領域(アクティブエリア)に表示される画像を利用者の視野内に虚像60を結像するように投影する。虚像60の表示される面は、利用者から見た見かけ上の表示面と呼ぶことができる。なお、第1光学デバイスセットの構成は、ミラーを組み合わせたものに限られない。第1光学デバイスセットは、ミラーとレンズ等を組み合わせる等の種々の構成が可能である。
 以上のような構成により、ヘッドアップディスプレイ51は、利用者の左眼Elおよび右眼Erの位置に応じて、利用者の視野内に2次元画像および3次元画像を虚像60として投影することができる。2次元画像は、利用者に虚像60の表示位置に表示されているものと知覚される。3次元画像は、視差画像が左眼Elおよび右眼Erに与える視差により、虚像60の表示位置からさらに奥行きを有するように知覚される。
 本開示に係る構成は、以上説明してきた実施形態にのみ限定されるものではなく、幾多の変形または変更が可能である。例えば、各構成部、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
 例えば、立体虚像表示モジュール11において、表示パネル14は、照射器13と第2光学デバイス15との間に配置した。しかし、表示パネル14は、照射器13との間で第2光学デバイス15を挟むように配置してよい。この場合、照射器13によって第2光学デバイス15が照射され、第2光学デバイス15から出射した第2光学デバイス15の出力が表示パネル14に入射する。このように、表示パネル14と第2光学デバイス15との位置を置き換えても、立体虚像表示モジュール11は同様の作用、効果を有することができる。同様に、表示装置52においても、第2光学デバイス56を照射器54と表示パネル55の間に配置することができる。
 上記実施形態では、立体虚像表示モジュール11の一部に2次元画像を表示し、他の一部に3次元画像を表示する例を示したが、立体虚像表示モジュール11に表示する画像全体を、2次元画像と3次元画像との間で切り替えることもできる。
 本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
 本開示において「第1」および「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」および「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1方向は、第2方向と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」および「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠、大きい番号の識別子が存在することの根拠に利用してはならない。
 本開示の実施形態によれば、解像感のある立体画像を表示可能な立体虚像表示モジュール、立体虚像表示システムおよび当該立体虚像表示モジュールを備える移動体を提供することができる。
 本発明は、その精神または主要な特徴から逸脱することなく、他のいろいろな形態で実施できる。したがって、前述の実施形態はあらゆる点で単なる例示に過ぎず、本発明の範囲は請求の範囲に示すものであって、明細書本文には何ら拘束されない。さらに、請求の範囲に属する変形や変更は全て本発明の範囲内のものである。
10  立体虚像表示システム
11  立体虚像表示モジュール
12  検出装置
14  表示パネル
19  第1光学デバイスセット
15  第2光学デバイス
13  照射器
14a  液晶層
14b,14c  ガラス基板
14d  カラーフィルタ
15a  液晶層
15b,15c  ガラス基板
16  コントローラ
17  入力部
18  表示情報取得部
21  第1のサブピクセル
22  ピクセル
23  第2のサブピクセル
31  減光領域(第1領域)
32  透光領域(第2領域)
33  第3のサブピクセル
34  第4のサブピクセル
35  左眼可視領域
36  右眼可視領域
41  第3領域
42  第4領域
43  第5領域
44  第6領域
45  画像表示領域
46  画像非表示領域
47  第7領域
48  第8領域
50  移動体
51  ヘッドアップディスプレイ
52  表示装置
53  検出装置
54  照射器
55  表示パネル
56  第2光学デバイス
57  第1の光学部材
58  第2の光学部材
59  被投影部材
60  虚像
El  左眼
Er  右眼

Claims (23)

  1.  画像光を出力するように構成されたアクティブエリアを有する表示パネルと、
     利用者の第1眼及び第2眼に向かって前記画像光を反射することで、前記利用者に前記アクティブエリアの虚像を視覚化するように構成された第1光学デバイスセットと、
     前記アクティブエリアのうち、第1アクティブエリアから前記第1光学デバイスセットを介して前記利用者に向かう前記画像光の光線方向を変更または規制して、第1画像光を前記第1眼に入れ、且つ第2画像光を前記第2眼に入れるように構成された第2光学デバイスと、を含み、
     前記第1眼および前記第2眼の各々が前記第1アクティブエリアの虚像を1度あたり60ピクセル以上の第1画素密度で視覚化可能に構成されている、立体虚像表示モジュール。
  2.  請求項1に記載の立体虚像表示モジュールであって、
     前記第2光学デバイスは、第2アクティブエリアからの前記画像光を前記第1眼および前記第2眼に入力するように構成され、
     前記第2アクティブエリアは、前記アクティブエリアのうち、前記第1アクティブエリアと異なる、立体虚像表示モジュール。
  3.  請求項2に記載の立体虚像表示モジュールであって、
     前記第2アクティブエリアの虚像を第2画素密度で前記利用者が視覚化可能に構成され、
     前記第2画素密度は、前記第1画素密度の2倍以上である、立体虚像表示モジュール。
  4.  請求項3に記載の立体虚像表示モジュールであって、
     前記第2画素密度は、1度あたり160ピクセル以上の画素密度である、立体虚像表示モジュール。
  5.  請求項1から4のいずれかに記載の立体虚像表示モジュールであって、
     前記第1光学デバイスセットは、
      前記画像光を反射するように構成された、少なくとも1つの鏡を含む第1反射セットと、
      前記第1反射セットが反射した後に画像光を反射するように構成された、少なくとも1つの透明デバイスを含む第2反射セットと、を含む、立体虚像表示モジュール。
  6.  請求項5に記載の立体虚像表示モジュールであって、
     前記透明デバイスは、反射によって前記画像光を利用者に入力し、透過によって他の光を利用者に入力するように構成されている、立体虚像表示モジュール。
  7.  画像光を出力するように構成されたアクティブエリアを有する表示パネルと、
     前記画像光を第1方向に反射するように構成された第1光学デバイスセットと、
     前記アクティブエリアのうち、第1アクティブエリアからの前記画像光の光線方向を変更または規制して、第1画像光を第1空間に、第2画像光を第2空間に入れるように構成された第2光学デバイスと、を含み、
     前記画像光を前記利用者に向かって反射する風防と一緒になって、前記第1アクティブエリアの前記虚像を1度あたり60ピクセル以上の画素密度で前記利用者の各眼が視覚化できるように制御可能に構成されている、立体虚像表示モジュール。
  8.  請求項7に記載の立体虚像表示モジュールであって、
     前記第2光学デバイスは、第2アクティブエリアからの前記画像光を第3空間に入力するように構成され、
     前記第2アクティブエリアは、前記アクティブエリアのうち、前記第1アクティブエリアと異なる、立体虚像表示モジュール。
  9.  請求項8に記載の立体虚像表示モジュールであって、
     前記風防と一緒になって、前記アクティブエリアの虚像を第2画素密度で前記利用者が視覚化可能に構成され、
     前記第2画素密度は、前記第1画素密度の2倍以上である、立体虚像表示モジュール。
  10.  請求項9に記載の立体虚像表示モジュールであって、
     前記第2画素密度は、1度あたり160ピクセル以上の画素密度である、立体虚像表示モジュール。
  11.  画像光を出力するように構成されたアクティブエリアを有する表示パネルと、
     利用者の第1眼及び第2眼に向かって画像光を反射して、前記アクティブエリアの虚像を前記利用者に視覚化させるように構成された第1光学デバイスセットと、
     前記アクティブエリアのうち、第1アクティブエリアから前記第1光学デバイスセットを介して前記利用者に向かう前記画像光を減衰または規制することで、第1画像光を前記第1眼に入力し、且つ第2画像光を前記第2眼に入力するよう制御可能に構成された第2光学デバイスと、を含み、
     前記第1眼および前記第2眼の各々が前記第1アクティブエリアの虚像を1度あたり60ピクセル以上の第1画素密度で視覚化できるように制御可能に構成されている、立体虚像表示モジュール。
  12.  請求項10に記載の立体虚像表示モジュールであって、
     前記第2光学デバイスは、
      前記第1眼に入力する前記第2画像光の減衰量を前記第1画像光の減衰量より大きくでき、
      前記第2眼に入力する前記第1画像光の減衰量を前記第2画像光の減衰量より大きくできるように制御可能に構成されている、立体虚像表示モジュール。
  13.  請求項11または12に記載の立体虚像表示モジュールであって、
     前記第2光学デバイスは、第2アクティブエリアからの前記画像光を前記第1眼および前記第2眼に入力できるように制御可能に構成され、
     前記第2アクティブエリアは、前記アクティブエリアのうち、前記第1アクティブエリアと異なる、立体虚像表示モジュール。
  14.  請求項13のいずれかに記載の立体虚像表示モジュールであって、
     前記第2アクティブエリアの虚像を第2画素密度で利用者が視覚化できるように制御可能に構成され、
     前記第2画素密度は、前記第1画素密度の2倍以上である、立体虚像表示モジュール。
  15.  請求項14に記載の立体虚像表示モジュールであって、
     前記第2画素密度は、1度あたり160ピクセル以上の画素密度である、立体虚像表示モジュール。
  16.  画像光を出力するように構成されたアクティブエリアを有する表示パネルと、
     前記画像光を第1方向に反射するように構成された第1光学デバイスセットと、
     前記アクティブエリアのうち、第1アクティブエリアからの前記画像光の光線方向を変更または規制して、第1画像光を第1空間に、第2画像光を第2空間に入れるように制御可能に構成された第2光学デバイスと、を含み、
     前記画像光を利用者に向かって反射する風防と一緒になって、前記第1アクティブエリアの前記虚像を1度あたり60ピクセル以上の第1画素密度で前記利用者の各眼が視覚化できるように制御可能に構成されている、立体虚像表示モジュール。
  17.  請求項16に記載の立体虚像表示モジュールであって、
     前記第2光学デバイスは、
      前記第1空間に入力する前記第2画像光の減衰量を前記第1画像光の減衰量より大きくでき、
      前記第2空間に入力する前記第1画像光の減衰量を前記第2画像光の減衰量より大きくできるように制御可能に構成されている、立体虚像表示モジュール。
  18.  請求項17または14に記載の立体虚像表示モジュールであって、
     前記第2光学デバイスは、第2アクティブエリアからの前記画像光を第3空間に入力できるように制御可能に構成され、
     前記第2アクティブエリアは、前記アクティブエリアのうち、前記第1アクティブエリアと異なる、立体虚像表示モジュール。
  19.  請求項18に記載の立体虚像表示モジュールであって、
     前記風防と一緒になって、前記第2アクティブエリアの虚像を第2画素密度で前記利用者が視覚化できるように制御可能に構成され、
     前記第2画素密度は、前記第1画素密度の2倍以上である、立体虚像表示モジュール。
  20.  請求項19に記載の立体虚像表示モジュールであって、
     前記第2画素密度は、1度あたり160ピクセル以上の画素密度である、立体虚像表示モジュール。
  21.  請求項1から20のいずれか一項に記載の立体虚像表示モジュールであって、
     前記利用者の前記第1眼と前記第2眼とを撮像可能に制御される検出装置を有する、立体虚像表示モジュール。
  22.  請求項6から10および請求項16から20のいずれか一項に記載の立体虚像表示モジュールと、
     前記風防と、を有する立体虚像表示システム。
  23.  請求項1から21のいずれか一項に記載の立体虚像表示モジュールと、
     風防と、を有する移動体。
PCT/JP2020/011201 2019-03-26 2020-03-13 立体虚像表示モジュール、立体虚像表示システム、および移動体 WO2020195975A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202080023385.7A CN113614613B (zh) 2019-03-26 2020-03-13 立体虚像显示模块、立体虚像显示系统以及移动体
US17/442,052 US20220187618A1 (en) 2019-03-26 2020-03-13 Stereoscopic virtual image display module, stereoscopic virtual image display system, and movable object
JP2021509059A JP7337147B2 (ja) 2019-03-26 2020-03-13 立体虚像表示モジュール、立体虚像表示システム、および移動体
EP20779710.1A EP3992691A4 (en) 2019-03-26 2020-03-13 STEREOSCOPIC VIRTUAL IMAGE DISPLAY MODULE, STEREOSCOPIC VIRTUAL IMAGE DISPLAY SYSTEM AND MOBILE OBJECT

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-057798 2019-03-26
JP2019057798 2019-03-26

Publications (1)

Publication Number Publication Date
WO2020195975A1 true WO2020195975A1 (ja) 2020-10-01

Family

ID=72611457

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/011201 WO2020195975A1 (ja) 2019-03-26 2020-03-13 立体虚像表示モジュール、立体虚像表示システム、および移動体

Country Status (5)

Country Link
US (1) US20220187618A1 (ja)
EP (1) EP3992691A4 (ja)
JP (1) JP7337147B2 (ja)
CN (1) CN113614613B (ja)
WO (1) WO2020195975A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114609782A (zh) * 2022-02-14 2022-06-10 广东未来科技有限公司 裸眼3d抬头显示装置及裸眼3d抬头显示方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07287193A (ja) 1994-04-19 1995-10-31 Sanyo Electric Co Ltd 虚像立体表示装置
JP2007523369A (ja) * 2004-02-04 2007-08-16 マイクロビジョン,インク. 走査ビームヘッドアップ表示装置および関連システム、および方法
US20110159929A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display
WO2012060412A1 (ja) * 2010-11-02 2012-05-10 シャープ株式会社 映像表示装置
JP2019015892A (ja) * 2017-07-07 2019-01-31 京セラ株式会社 画像投影装置及び移動体
JP2019015824A (ja) * 2017-07-05 2019-01-31 京セラ株式会社 3次元表示装置、3次元表示システム、移動体、および3次元表示方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5689910B2 (ja) * 2013-03-12 2015-03-25 本田技研工業株式会社 ヘッドアップディスプレイ装置
KR102071693B1 (ko) * 2014-02-07 2020-01-30 엘지전자 주식회사 헤드 업 디스플레이 장치
GB2527548A (en) * 2014-06-25 2015-12-30 Sharp Kk Variable barrier pitch correction
JP2016071062A (ja) * 2014-09-29 2016-05-09 株式会社 オルタステクノロジー ヘッドアップディスプレイ装置
CN108780297B (zh) * 2015-12-28 2021-09-21 视瑞尔技术公司 用于优化图像质量的显示装置和方法
WO2018011285A1 (de) * 2016-07-13 2018-01-18 Seereal Technologies S.A. Anzeigevorrichtung
KR102070063B1 (ko) * 2017-01-18 2020-01-28 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07287193A (ja) 1994-04-19 1995-10-31 Sanyo Electric Co Ltd 虚像立体表示装置
JP2007523369A (ja) * 2004-02-04 2007-08-16 マイクロビジョン,インク. 走査ビームヘッドアップ表示装置および関連システム、および方法
US20110159929A1 (en) * 2009-12-31 2011-06-30 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2d/3d display
WO2012060412A1 (ja) * 2010-11-02 2012-05-10 シャープ株式会社 映像表示装置
JP2019015824A (ja) * 2017-07-05 2019-01-31 京セラ株式会社 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
JP2019015892A (ja) * 2017-07-07 2019-01-31 京セラ株式会社 画像投影装置及び移動体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3992691A4

Also Published As

Publication number Publication date
JPWO2020195975A1 (ja) 2020-10-01
US20220187618A1 (en) 2022-06-16
CN113614613A (zh) 2021-11-05
JP7337147B2 (ja) 2023-09-01
EP3992691A1 (en) 2022-05-04
CN113614613B (zh) 2023-10-24
EP3992691A4 (en) 2024-01-31

Similar Documents

Publication Publication Date Title
JP7100523B2 (ja) 表示装置、表示システムおよび移動体
WO2020095731A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
WO2021106688A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2020195975A1 (ja) 立体虚像表示モジュール、立体虚像表示システム、および移動体
JP7227116B2 (ja) 3次元表示装置、コントローラ、3次元表示方法、3次元表示システム、及び、移動体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
WO2020130049A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2020130048A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2019163817A1 (ja) 画像表示装置、ヘッドアップディスプレイシステム、および移動体
WO2022163728A1 (ja) 3次元表示装置
WO2022145207A1 (ja) 3次元表示装置および画像表示システム
JP7336782B2 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
WO2020022288A1 (ja) 表示装置および移動体
WO2022149599A1 (ja) 3次元表示装置
WO2022065355A1 (ja) 3次元表示装置、3次元表示方法、3次元表示システム、および移動体
JP7332449B2 (ja) ヘッドアップディスプレイモジュール、ヘッドアップディスプレイシステム及び移動体
JP7344308B2 (ja) ヘッドアップディスプレイおよび移動体
WO2022019154A1 (ja) 3次元表示装置
JP2022027220A (ja) 表示装置および移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20779710

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021509059

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020779710

Country of ref document: EP

Effective date: 20211026