WO2022019215A1 - 3次元表示装置、ヘッドアップディスプレイおよび移動体 - Google Patents

3次元表示装置、ヘッドアップディスプレイおよび移動体 Download PDF

Info

Publication number
WO2022019215A1
WO2022019215A1 PCT/JP2021/026664 JP2021026664W WO2022019215A1 WO 2022019215 A1 WO2022019215 A1 WO 2022019215A1 JP 2021026664 W JP2021026664 W JP 2021026664W WO 2022019215 A1 WO2022019215 A1 WO 2022019215A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
user
display device
control unit
eye
Prior art date
Application number
PCT/JP2021/026664
Other languages
English (en)
French (fr)
Inventor
薫 草深
昭典 佐藤
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021045097A external-priority patent/JP2022022078A/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US18/016,844 priority Critical patent/US20230291888A1/en
Priority to EP21846379.2A priority patent/EP4187310A1/en
Priority to CN202180061408.8A priority patent/CN116194823A/zh
Publication of WO2022019215A1 publication Critical patent/WO2022019215A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Definitions

  • This disclosure relates to a three-dimensional display device, a head-up display and a moving body.
  • Patent Document 1 An example of the prior art is described in Patent Document 1.
  • the three-dimensional display device includes a display panel, a barrier unit, a detection unit, and a control unit.
  • the display panel is configured to display a parallax image including a first image and a second image having parallax with respect to the first image.
  • the barrier portion is configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image.
  • the detection unit is configured to capture the face of the user who is visually recognizing the parallax image.
  • the control unit synthesizes the first image and the second image that are different from each other based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, and first.
  • a reference image is generated, and the first reference image is displayed on the display panel.
  • the control unit adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.
  • the head-up display includes a display panel, a barrier unit, an optical member, a detection unit, and a control unit.
  • the display panel is configured to display a parallax image including a first image and a second image having parallax with respect to the first image.
  • the barrier portion is configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image.
  • the optical member is configured to make the user visually recognize the image light emitted from the display panel as a virtual image.
  • the detection unit is configured to capture the face of the user who is visually recognizing the parallax image.
  • the control unit synthesizes the first image and the second image that are different from each other based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, and first.
  • a reference image is generated, and the first reference image is displayed on the display panel.
  • the control unit adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.
  • the mobile body includes a head-up display.
  • the head-up display includes a display panel, a barrier unit, an optical member, a detection unit, and a control unit.
  • the display panel is configured to display a parallax image including a first image and a second image having parallax with respect to the first image.
  • the barrier portion is configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image.
  • the optical member is configured to make the user visually recognize the image light emitted from the display panel as a virtual image.
  • the detection unit is configured to capture the face of the user who is visually recognizing the parallax image.
  • the control unit synthesizes the first image and the second image that are different from each other based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, and first.
  • a reference image is generated, and the first reference image is displayed on the display panel.
  • the control unit adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.
  • FIG. 1 It is a figure which shows the example which looked at the 3D display device which concerns on one Embodiment of this disclosure from the vertical direction. It is a figure which shows the example which looked at the display panel of the 3D display device shown in FIG. 1 from the depth direction. It is a figure which shows the example which looked at the barrier part of the 3D display device shown in FIG. 1 from the depth direction. It is a figure for demonstrating the left visible region in the display panel of the 3D display apparatus shown in FIG. It is a figure for demonstrating the right visible area in the display panel of the 3D display apparatus shown in FIG. It is a figure for demonstrating the information for identifying the position of a left eye and the position of a right eye.
  • a three-dimensional display device which is a basic configuration of the three-dimensional display device of the present disclosure, in order to perform three-dimensional display without using glasses, a part of the light emitted from the display panel reaches the right eye.
  • a three-dimensional display device including an optical element that allows another part of the light emitted from the display panel to reach the left eye is known.
  • FIG. 1 is a diagram showing an example of a three-dimensional display device according to an embodiment of the present disclosure viewed from above and below.
  • the three-dimensional display device 1 according to the present embodiment includes a display panel 5, a barrier unit 6, a detection unit 2, and a control unit 7.
  • the detection unit 2 is configured to image the user's face.
  • the detection unit 2 is configured to capture the face of the user who is visually recognizing the three-dimensional image displayed by the three-dimensional display device 1.
  • the detection unit 2 may detect the position of the left eye 15L and the position of the right eye 15R of the user and output the position to the control unit 7.
  • the detection unit 2 may include, for example, a camera.
  • the detection unit 2 may take an image of the user's face with a camera.
  • the detection unit 2 may detect the position of the left eye 15L and the position of the right eye 15R from the image of the user's face captured by the camera.
  • the detection unit 2 may detect the positions of the left eye 15L and the right eye 15R as the coordinates in the three-dimensional space from the captured image of one camera.
  • the detection unit 2 may detect the position of the left eye 15L and the position of the right eye 15R as the coordinates in the three-dimensional space from the images captured by two or more cameras.
  • the detection unit 2 may detect a three-dimensional image projected on the user's face from the image captured by the camera.
  • the left eye 15L is also referred to as the first eye.
  • the right eye 15R is also referred to as the second eye. When the left eye 15L and the right eye 15R are not distinguished, the left eye 15L and the right eye 15R are collectively referred to as the eye 15.
  • the detection unit 2 may include a visible light camera or an infrared camera.
  • the detection unit 2 may include both a visible light camera and an infrared camera.
  • the detection unit 2 may have the functions of both a visible light camera and an infrared camera.
  • the detection unit 2 may include, for example, a charge-coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor.
  • CCD charge-coupled device
  • CMOS complementary metal oxide semiconductor
  • the detection unit 2 is not provided with a camera and may be connected to a camera outside the device.
  • the detection unit 2 may include an input terminal for inputting a signal from a camera outside the device. Cameras outside the device may be directly connected to the input terminals. Cameras outside the device may be indirectly connected to the input terminals via a shared network.
  • the detection unit 2 without a camera may include an input terminal for inputting a video signal by the camera. The detection unit 2 without a camera may detect the positions of the left eye and the right eye from the video signal input to the input terminal.
  • the detection unit 2 may include, for example, a sensor.
  • the sensor may be an ultrasonic sensor, an optical sensor, or the like.
  • the detection unit 2 may detect the position of the user's head by a sensor and detect the positions of the left eye 15L and the right eye 15R based on the position of the head.
  • the detection unit 2 may detect the positions of the left eye 15L and the right eye 15R as coordinate values in three-dimensional space by one or two or more sensors.
  • the three-dimensional display device 1 does not have to include the detection unit 2.
  • the three-dimensional display device 1 may include an input terminal for inputting a signal from a detection device outside the device.
  • a detection device outside the device may be connected to an input terminal.
  • the detection device outside the device may use an electric signal and an optical signal as a transmission signal to the input terminal.
  • the detection device outside the device may be indirectly connected to the input terminal via a shared communication network.
  • the three-dimensional display device 1 may be configured to input position coordinates indicating the positions of the left eye and the right eye acquired from a detection device outside the device.
  • the detection unit 2 may have a function of detecting the position of the user's eye 15.
  • the detection unit 2 does not have to have a function of detecting the position of the eye 15.
  • the three-dimensional display device 1 may be configured such that the control unit 7 detects the position of the eye 15, or may have a position acquisition unit 3 that detects the position of the eye 15 and outputs the position to the control unit 7.
  • the display panel 5 displays a parallax image including a left eye image (first image) and a right eye image (second image) having a parallax with respect to the left eye image.
  • the left eye image is an image projected on the user's first eye 15L
  • the right eye image is an image projected on the user's second eye 15R.
  • the parallax image is also referred to as a mixed image.
  • the barrier unit 6 is an optical element that defines the traveling direction of the image light emitted from the display panel 5.
  • the barrier portion 6 is also referred to as a parallax barrier.
  • the control unit 7 combines the first image and the second image to generate a parallax image.
  • the control unit 7 may synthesize the first image and the second image based on at least one of the position of the first eye 15L and the position of the second eye 15R detected by the detection unit 2.
  • the control unit 7 displays the generated parallax image on the display panel 5.
  • the display panel 5 may have a plurality of display areas in the active area. Each of the plurality of display areas may correspond to any of a plurality of reference indexes. The reference index is also simply referred to as an index.
  • the control unit 7 synthesizes the parallax images to be displayed in each of the plurality of display areas with reference to the reference index of the display areas.
  • the display panel 5 may be a transmissive display panel or a self-luminous display panel.
  • a transmissive display panel for example, a liquid crystal display panel can be used.
  • the self-luminous display panel include a light emitting diode (LED) element, an organic electroluminescence (OEL) element, an organic light emitting diode (OLED) element, and a semiconductor laser (Laser).
  • a display panel including a self-luminous element such as a Diode; LD) element can be used.
  • a liquid crystal display panel is used as the display panel 5.
  • the three-dimensional display device 1 includes an irradiator 4.
  • the irradiator 4 can irradiate the display panel 5 with light in a plane.
  • the irradiator 4 may be configured to include a light source, a light guide plate, a diffusion plate, a diffusion sheet, and the like.
  • the irradiator 4 emits irradiation light by a light source, and the irradiation light can be made uniform in the surface direction of the display panel 5 by a light guide plate, a diffusion plate, a diffusion sheet, or the like.
  • the irradiator 4 may emit uniformed light toward the display panel 5.
  • the irradiator 4 is configured to include a visible light source that emits visible light.
  • the visible light source may be, for example, an LED element, a cold cathode fluorescent lamp, a halogen lamp or a xenon lamp.
  • the irradiator 4 may be configured to include an infrared light source that emits infrared light.
  • the infrared light source may be, for example, an infrared LED element.
  • the three-dimensional display device 1 may be configured to drive the visible light source and the infrared light source separately. When the three-dimensional display device 1 drives a visible light source and an infrared light source, the three-dimensional image displayed by the three-dimensional display device 1 includes a visible light component and an infrared light component.
  • the three-dimensional display device 1 drives only an infrared light source
  • the three-dimensional image displayed by the three-dimensional display device 1 contains only an infrared light component.
  • the detection unit 2 includes an infrared camera or the detection unit 2 has the function of an infrared camera, the detection unit 2 can detect the infrared light component of the three-dimensional image projected on the user's face.
  • the irradiator 4 may be configured to include a plurality of infrared LED elements.
  • the plurality of infrared LED elements may be dispersedly arranged in the entire irradiator 4, or may be unevenly arranged in a part of the irradiator 4.
  • the irradiator 4 may have a configuration in which a visible light light source is arranged at the center of the light emitting surface thereof, and a plurality of infrared LED elements are arranged so as to surround the periphery of the visible light light source.
  • the display panel 5 has a plurality of partition areas on the active area 51 formed in a planar shape.
  • the active area 51 displays a parallax image.
  • the parallax image includes a first image and a second image having a parallax with respect to the first image.
  • the compartmentalized area is a region partitioned by a grid-like black matrix 52 in a first direction and a second direction orthogonal to the first direction.
  • the direction orthogonal to the first direction and the second direction is referred to as a third direction.
  • the first direction may be referred to as the horizontal direction.
  • the second direction may be referred to as the vertical direction.
  • the third direction may be referred to as the depth direction.
  • the first direction, the second direction, and the third direction are not limited to these, respectively.
  • the first direction is represented as the x-axis direction
  • the second direction is represented as the y-axis direction
  • the third direction is represented as the z-axis direction.
  • the active area 51 includes a plurality of sub-pixels arranged in a grid pattern along the horizontal direction and the vertical direction.
  • Each sub-pixel corresponds to any of the colors red (R), green (G), and blue (B), and one pixel can be composed of three sub-pixels R, G, and B as a set. ..
  • One pixel can be referred to as one pixel.
  • the horizontal direction is, for example, a direction in which a plurality of subpixels constituting one pixel are arranged.
  • the vertical direction is, for example, the direction in which subpixels of the same color are lined up.
  • a plurality of sub-pixels arranged in the active area 51 as described above constitute a sub-pixel group Pg.
  • the subpixel group Pg is repeatedly arranged in the horizontal direction.
  • the sub-pixel group Pg is repeatedly arranged adjacent to a position shifted by one sub-pixel in the horizontal direction in the vertical direction.
  • a subpixel group Pg including 12 subpixels P1 to P12 arranged in succession, one in the vertical direction and 12 in the horizontal direction is arranged.
  • some subpixel groups Pg are coded.
  • the sub-pixel group Pg is the smallest unit in which the control unit 7 controls to display an image.
  • the barrier portion 6 is formed by a plane along the active area 51.
  • the barrier portion 6 may be arranged at a distance of a predetermined distance (gap) g from the active area 51.
  • the barrier portion 6 may be located on the opposite side of the irradiator 4 with respect to the display panel 5.
  • the barrier portion 6 may be located on the irradiator 4 side of the display panel 5.
  • the barrier unit 6 may be configured to be movable in the traveling direction of the image light emitted from the display panel 5.
  • the barrier portion 6 may be configured to be movable in the third direction shown in FIG.
  • the three-dimensional display device 1 may include a drive unit 11 that drives the barrier unit 6 in the third direction.
  • the drive unit 11 may be controlled by the control unit 7.
  • the drive unit 11 may drive the barrier unit 6 in the third direction by a motor, a piezoelectric element, or the like.
  • the drive unit 11 may drive the barrier unit 6 in the positive direction in the third direction, or may drive the barrier unit 6 in the negative direction in the third direction.
  • the barrier portion 6 defines the light ray direction, which is the propagation direction of the image light emitted from the subpixel, for each of the translucent regions 62, which are a plurality of strip-shaped regions extending in a predetermined direction in the plane. ..
  • the predetermined direction is a direction forming a predetermined angle other than 0 degrees with the vertical direction.
  • the barrier portion 6 by defining the image light emitted from the sub-pixels arranged in the active area 51 by the barrier portion 6, the area on the active area 51 visible to the user's eyes 15 is determined. ..
  • the area in the active area 51 that emits the image light propagating to the position of the user's eye 15 is referred to as a visible area 51a.
  • the area in the active area 51 that emits the image light propagating to the position of the user's left eye 15L is referred to as the left visible area 51aL (first visible area).
  • the area in the active area 51 that emits the image light propagating to the position of the user's right eye 15R is referred to as the right visible area 51aR (second visible area).
  • the barrier portion 6 has a plurality of light-shielding regions 61 that block image light.
  • the plurality of light-shielding regions 61 define a light-transmitting region 62 between the light-shielding regions 61 adjacent to each other.
  • the light-transmitting region 62 has a higher light transmittance than the light-shielding region 61.
  • the light-shielding region 61 has a lower light transmittance than the light-transmitting region 62.
  • the translucent region 62 is a portion that transmits light incident on the barrier portion 6.
  • the light transmitting region 62 may transmit light with a transmittance of a first predetermined value or more.
  • the first predetermined value may be, for example, a value of approximately 100% or a value of less than 100%.
  • the value of the first predetermined value may be 100% or less as long as the image light emitted from the active area 51 is in a range where the image light can be clearly seen, and may be, for example, 80% or 50%.
  • the light-shielding region 61 is a portion that blocks the light incident on the barrier portion 6 and hardly transmits it. In other words, the shading area 61 blocks the image displayed in the active area 51 of the display panel 5 from reaching the user's eyes.
  • the light-shielding region 61 may block light with a transmittance of a second predetermined value or less.
  • the second predetermined value may be, for example, a value of approximately 0% or a value larger than 0%.
  • the second predetermined value may be a value close to 0% such as 0.5%, 1% or 3%.
  • the first predetermined value may be several times or more, for example, 10 times or more larger than the second predetermined value.
  • the translucent area 62 and the light-shielding area 61 extend in a predetermined direction along the active area 51, and are repeatedly and alternately arranged in a direction orthogonal to the predetermined direction.
  • the translucent region 62 defines the light ray direction of the image light emitted from the subpixel.
  • the barrier pitch Bp which is the horizontal arrangement interval of the translucent region 62, and the gap g between the active area 51 and the barrier portion 6 are the appropriate viewing distance d and the standard distance E0. It is specified that the following equations (1) and (2) hold.
  • the suitable viewing distance d is the distance between each of the user's right eye and left eye and the barrier portion 6 so that the horizontal length of the visible region 51a is equivalent to n subpixels.
  • the direction of the straight line passing through the right eye and the left eye (inter-eye direction) is the horizontal direction.
  • the standard distance E0 is the standard of the user's inter-eye distance E.
  • the standard distance E0 may be, for example, 61.1 mm to 64.4 mm, which is a value calculated by research by the National Institute of Advanced Industrial Science and Technology.
  • Hp is the horizontal length of the subpixel as shown in FIG.
  • the barrier portion 6 may be composed of a film or a plate-shaped member having a transmittance of less than the second predetermined value.
  • the light-shielding region 61 is composed of the film or plate-shaped member.
  • the translucent region 62 is composed of openings provided in the film or plate-like member.
  • the film may be made of resin or may be made of other materials.
  • the plate-shaped member may be made of resin, metal, or the like, or may be made of other materials.
  • the barrier portion 6 is not limited to the film or plate-shaped member, and may be composed of other types of members.
  • the base material may have a light-shielding property, or the base material may contain an additive having a light-shielding property.
  • the barrier portion 6 may be configured by a liquid crystal shutter.
  • the liquid crystal shutter can control the light transmittance according to the applied voltage.
  • the liquid crystal shutter is composed of a plurality of pixels, and the transmittance of light in each pixel may be controlled.
  • the liquid crystal shutter can form a region having a high light transmittance or a region having a low light transmittance into an arbitrary shape.
  • the translucent region 62 may be a region having a transmittance of a first predetermined value or more.
  • the light-shielding region 61 may be a region having a transmittance of a second predetermined value or less.
  • the barrier unit 6 can allow the image light emitted from a part of the subpixels of the active area 51 to pass through the translucent region 62 and propagate to the user's right eye.
  • the barrier unit 6 can allow the image light emitted from some of the other sub-pixels to pass through the translucent region 62 and propagate to the left eye of the user.
  • the left visible region 51aL shown in FIG. 4 is visually recognized by the user's left eye 15L when the image light that has passed through the translucent region 62 of the barrier portion 6 reaches the user's left eye 15L. It is an area on the active area 51.
  • the left invisible region 51bL is an region that cannot be visually recognized by the user's left eye 15L because the image light is blocked by the light-shielding region 61 of the barrier portion 6.
  • the left visible region 51aL includes half of subpixel P1, the whole of subpixels P2 to P6, and half of subpixel P7.
  • the right visible region 51aR shown in FIG. 5 is the user's right eye when the image light from some other subpixels transmitted through the translucent region 62 of the barrier portion 6 reaches the user's right eye 15R. It is an area on the active area 51 visually recognized by the 15R.
  • the right invisible region 51bR is a region that cannot be visually recognized by the user's right eye 15R because the image light is blocked by the light-shielding region 61 of the barrier portion 6.
  • the right visible region 51aR includes half of subpixel P7, the whole of subpixels P8 to P12, and half of subpixel P1.
  • the left eye 15L and the right eye 15R visually recognize the left eye image and the right eye image, respectively.
  • the left eye image and the right eye image are parallax images having parallax with each other.
  • the left eye 15L is half of the left eye image displayed on the subpixel P1, the entire left eye image displayed on the subpixels P2 to P6, and the right eye image displayed on the subpixel P7. Visualize half of.
  • the right eye 15R visually recognizes half of the right eye image displayed on the subpixel P7, the entire right eye image displayed on the subpixels P8 to P12, and half of the left eye image displayed on the subpixel P1. do.
  • the subpixels displaying the left-eye image are designated by the reference numeral “L”
  • the subpixels displaying the right-eye image are designated by the reference numeral “R”.
  • the area of the left eye image visually recognized by the user's left eye 15L is the maximum, and the area of the right eye image is the minimum.
  • the area of the right eye image visually recognized by the user's right eye 15R is the maximum, and the area of the left eye image is the minimum. Therefore, the user visually recognizes the three-dimensional image in the state where the crosstalk is most reduced.
  • the left eye image and the right eye image having a difference in distance from each other are displayed in the subpixels included in the left visible region 51aL and the right visible region 51aR, the eye.
  • a user whose distance E is a standard distance E0 can appropriately visually recognize a three-dimensional image.
  • the left eye image is displayed in the subpixel in which more than half is visually recognized by the left eye 15L
  • the right eye image is displayed in the subpixel in which more than half is visually recognized by the right eye 15R.
  • the subpixels that display the left eye image and the right eye image are the left visible area 51aL and the right visible area 51aR so that the crosstalk is minimized according to the design of the active area 51, the barrier portion 6, and the like. It may be determined as appropriate based on.
  • the left eye image is displayed on a subpixel in which a predetermined ratio or more is visually recognized by the left eye 15L according to the aperture ratio of the barrier portion 6, and the right eye is displayed on the subpixel in which a predetermined ratio or more is visually recognized by the right eye 15R.
  • the image may be displayed.
  • the control unit 7 is connected to each component of the three-dimensional display device 1 and can control each component.
  • the components controlled by the control unit 7 may include a detection unit 2, a display panel 5, and a drive unit 11.
  • the three-dimensional display device 1 may include a control unit that controls the detection unit 2 in addition to the control unit 7 that controls the display panel 5 and the drive unit 11.
  • the control unit 7 is configured as, for example, a processor.
  • the control unit 7 may include one or more processors.
  • the processor may include a general-purpose processor that reads a specific program and performs a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • ASIC application specific integrated circuit
  • the processor may include, for example, a Programmable Logic Device (PLD).
  • the programmable logic device may include an FPGA (Field-Programmable Gate Array).
  • the control unit 7 may be either a SoC (System-on a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).
  • the control unit 7 includes a memory 8, and may store various information, a program for operating each component of the three-dimensional display device 1, and the like in the memory 8.
  • the memory 8 may be configured by, for example, a semiconductor memory or the like.
  • the memory 8 may function as a work memory of the control unit 7.
  • the memory 8 is composed of an arbitrary storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory). The memory 8 may store the first table described later.
  • the positions of the right eye 15R and the left eye 15L in the horizontal direction are identified by information 0 to 11, respectively.
  • the information for identifying the position of the right eye 15R when the inter-eye distance E is the standard distance E0 is attached in the same manner as the information for identifying the position of the left eye 15L.
  • the left subpixel and the right subpixel containing are stored correspondingly.
  • the information 0 to 11 for identifying the position of the eye 15 is shown in the column direction, and the information P1 to P12 for identifying the subpixel is shown in the row direction.
  • the information that identifies the position of the eye 15 is referred to as an index or reference index.
  • the first table shows whether each subpixel is a left subpixel or a right subpixel when the eye 15 is in each position. In FIG.
  • the left subpixel is indicated by “left” and the right subpixel is indicated by “right”.
  • the intereye distance E is the standard distance E0
  • the left eye 15L is in the position indicated by “0”
  • the right eye 15R is in the position indicated by “0”.
  • the subpixels P1 to P6 are the left subpixels and the subpixels P7 to P12 are the right subpixels.
  • the left eye 15L is in the position indicated by "1
  • the right eye 15R is in the position indicated by "1”.
  • the subpixels P2 to P7 are the left subpixels
  • P1 and P8 to P12 are the right subpixels.
  • the control unit 7 selects any of the indexes 0 to 11.
  • the control unit 7 defines the arrangement of the left-eye image and the right-eye image to be displayed on the display surface of the display panel 5 based on the information P1 to P12 that identify the subpixels corresponding to the selected index.
  • the control unit 7 has a first image and a second image based on the position of the left eye 15L or the position of the right eye 15R detected by the detection unit 2 or the position acquisition unit 3, and the index stored in the first table. And are combined to generate a parallax image.
  • the control unit 7 may adjust the arrangement of the first image and the second image displayed on the display surface of the display panel 5 based on the position of the left eye 15L or the position of the right eye 15R and the index. As a result, the user whose inter-eye distance E is the standard distance E0 can appropriately visually recognize the three-dimensional image.
  • the position of the user's eyes 15 can move in the first direction (horizontal direction).
  • the control unit 7 fixes the index to any of the indexes 0 to 11 stored in the first table and generates a parallax image based on the fixed index, it crosses the three-dimensional image visually recognized by the user. Talk may occur.
  • the three-dimensional display device 1 of the present embodiment is configured such that the control unit 7 adjusts the index.
  • the control unit 7 When adjusting the index, the control unit 7 generates a parallax image for index adjustment and displays the generated parallax image for index adjustment on the display panel.
  • the parallax image for index adjustment is also referred to as a reference image.
  • the reference image is an image obtained by synthesizing the first image and the second image that are different from each other.
  • the first image and the second image constituting the reference image may be monochromatic images having different colors from each other.
  • One of the first image and the second image constituting the reference image may be a black image and the other (second image) may be a white image.
  • the reference image is a striped image in which white regions and black regions are alternately and periodically arranged, as shown in FIG.
  • the reference image may be a visible light image or an infrared light image.
  • the visible light image may be a black-and-white striped image or a color striped image.
  • the infrared light image may be a fringe image obtained by synthesizing a first image and a second image having different wavelengths of image light.
  • the control unit 7 synthesizes a first image and a second image different from each other based on a predetermined index to generate a reference image.
  • the predetermined index may be any of indexes 0 to 11 stored in the first table.
  • the reference image may be a composite image assuming that the right eye 15R is in the position indicated by "0" in the first table, and both the left eye 15L and the right eye 15R are "0" in the first table.
  • the image may be a composite image assuming that it is in the position indicated by.
  • the reference image generated based on the predetermined index is also referred to as the first reference image 14.
  • the control unit 7 displays the generated first reference image 14 on the display panel 5.
  • FIG. 8 shows an example of the reference image displayed on the display panel 5 viewed from the depth direction.
  • the first reference image 14 displayed on the display panel 5 is propagated to the user's left eye 15L and right eye 15R via the barrier portion 6 and the optical element.
  • the first reference image 14 is projected on the user
  • FIG. 9 is a diagram showing an example of an image captured by the detection unit 2.
  • the image captured by the detection unit 2 is also referred to as the first detection image 12.
  • FIG. 9 shows an example of the first detected image 12 when the first reference image 14 shown in FIG. 8 is used.
  • the first detected image 12 includes the user's left eye 15L and right eye 15R, and the first reference image 14 projected on the user's face.
  • the first reference image 14 projected on the user's face can form a striped pattern in the first detected image 12, for example, as shown in FIG.
  • the striped pattern is also referred to as a shading pattern.
  • the detection unit 2 detects at least one of the position of the left eye 15L and the position of the right eye 15R, and the position of the shading pattern. In the following, it is assumed that the detection unit 2 detects the position of the right eye 15R.
  • the position of the shading pattern may be the luminance value distribution of the shading pattern.
  • the shading pattern includes a high-luminance region 12a and a low-luminance region 12b.
  • the high-luminance region 12a is a band-shaped region where the brightness in the shade pattern is bright
  • the low-luminance region 12b is a band-shaped region where the brightness in the shade pattern is dark.
  • the high-luminance region 12a and the right eye 15R overlap in the first detection image 12.
  • the fact that the high-luminance region 12a and the right eye 15R do not overlap means that the index used to generate the first reference image 14 is not an appropriate index according to the actual position of the user's eye 15. ..
  • the control unit 7 adjusts the index based on the first detected image 12. In the following, it is assumed that the index used to generate the first reference image 14 is “0”.
  • the control unit 7 detects the deviation amount Dd between the position of the right eye 15R and the position of the high-luminance region 12a in the first direction (horizontal direction) as the deviation amount of the index.
  • the position of the high-luminance region 12a may be a position within the high-luminance region 12a where the luminance value is highest in the first direction. For example, when the deviation amount Dd between the position of the right eye 15R and the position of the high-luminance region 12a in the first direction is three subpixels, the deviation amount of the index is “+3”, and the control unit 7 sets the index. Change from "0" to "3".
  • the control unit 7 sets the index to "0". To "6". In this way, the control unit 7 can adjust the index based on the image of the user's face on which the first reference image 14 is projected.
  • the three-dimensional display device 1 since the index adjustment is performed based on the image of the user's face on which the first reference image 14 is projected, the adjustment excluding the user's subjective judgment is performed. It can be carried out. Therefore, the three-dimensional display device 1 can appropriately make the user visually recognize the three-dimensional image.
  • the three-dimensional display device 1 does not require the user's judgment when adjusting the index. Therefore, according to the three-dimensional display device 1, the index adjustment can be repeated a plurality of times without causing the user to feel annoyed, and the index adjustment accuracy can be improved.
  • the control unit 7 may adjust the index based on the amount of deviation between the position of the left eye 15L and the position of the low-luminance region 12b in the first direction. As a result, even when it is difficult to discriminate the high-luminance region 12a in the shading pattern due to the influence of light coming from the outside, etc., based on the image of the user's face on which the first reference image 14 is projected. , The index can be adjusted.
  • the control unit 7 may generate a reference image in which the left eye image which is a white image and the right eye image which is a black image are combined.
  • a reference image obtained by synthesizing a left eye image which is a white image and a right eye image which is a black image is also referred to as an inversion reference image.
  • the control unit 7 may adjust the index based on the image of the face of the user who is visually recognizing the inversion reference image captured by the detection unit 2.
  • the control unit 7 may adjust the index based on the amount of deviation between the position of the right eye 15R and the position of the low-luminance region of the shading pattern included in the inversion reference image projected on the user's face. As a result, even when it is difficult to discriminate the high-luminance region 12a of the shading pattern due to the influence of light coming from the outside, the index is based on the image of the user's face on which the inversion reference image is projected. Can be adjusted.
  • the three-dimensional display device 1 may be configured to adjust the index at night. As a result, it is possible to reduce the possibility that the position of the user's eye 15 or the first reference image 14 projected on the user's face becomes difficult to detect due to the influence of light coming from the outside.
  • the night may be, for example, a time zone from sunset to sunrise. At night, the surrounding brightness may be dark regardless of the time of day.
  • the three-dimensional display device 1 may be configured to readjust the index after adjusting the index as described above.
  • the control unit 7 synthesizes a first image and a second image different from each other based on the adjusted index to generate a second reference image.
  • the control unit 7 displays the second reference image on the display panel 5.
  • the second reference image displayed on the display panel 5 is propagated to the user's left eye 15L and right eye 15R via the barrier unit 6, the optical element, and the like.
  • the second reference image is projected on the user's face.
  • the control unit 7 controls the detection unit 2 to capture the face of the user on which the second reference image is projected.
  • the image of the user's face on which the second reference image is projected, which is captured by the detection unit 2, is the same as that of the first detection image 12 shown in FIG. 9, but the position and shading pattern of the user's eyes 15 The position of may be different from that of the first detection image 12 shown in FIG. Since the process performed by the three-dimensional display device 1 for readjusting the index is the same as the process performed for adjusting the index, detailed description thereof will be omitted.
  • the three-dimensional display device 1 Since the three-dimensional display device 1 performs index readjustment, the index adjustment accuracy can be improved. Therefore, the three-dimensional display device 1 can appropriately make the user visually recognize the three-dimensional image. According to the three-dimensional display device 1, the index adjustment can be repeated a plurality of times, and the index adjustment accuracy can be improved.
  • the three-dimensional display device 1 only needs to display the reference image when the index is being adjusted.
  • the three-dimensional display device 1 may display various information about a moving body such as a vehicle, a ship, or an aircraft equipped with the three-dimensional display device 1.
  • the three-dimensional display device 1 may display a reference image between frames of continuous images showing various information, and have the detection unit 2 capture the face of the user on which the reference image is projected.
  • the three-dimensional display device 1 can repeatedly adjust the index while displaying various information about the moving body.
  • the three-dimensional display device 1 can always use an appropriate index according to the position of the user's eye 15, so that the user can appropriately visually recognize the three-dimensional image.
  • the detection unit 2 detects at least one of the position of the left eye 15L and the position of the right eye 15R and the position of the shading pattern, but the detection unit 2 detects the position of the left eye 15L and the right. It is not necessary to detect at least one of the positions of the eye 15R and the position of the shading pattern.
  • the three-dimensional display device 1 may be configured such that the position acquisition unit 3 detects at least one of the position of the left eye 15L and the position of the right eye 15R and the position of the shading pattern.
  • the display panel 5 may have a plurality of display areas having different indexes in the active area 51.
  • the control unit 7 may adjust the index of the display area located in the central portion of the active area 51 as described above, and adjust the index of another display area in synchronization with the index of the display area.
  • the three-dimensional display device 1 may be configured to correct the first detected image 12 and adjust the index based on the corrected first detected image 12.
  • the correction of the first detected image 12 may be performed based on the reflectance of the user's face.
  • the correction of the first detected image 12 and the adjustment of the index using the corrected first detected image 12 will be described.
  • the control unit 7 displays the test image on the display panel 5 at a time point before displaying the first reference image 14 on the display panel 5.
  • the test image may be a monochromatic image.
  • the monochromatic image may be a white image.
  • the test image may be generated, for example, by synthesizing a white first image and a white second image.
  • the control unit 7 may display the test image on the display panel 5 before generating the first reference image 14, or may display the test image on the display panel 5 after generating the first reference image 14.
  • the control unit 7 causes the detection unit 2 to capture an image of the user's face on which the test image is projected.
  • the detection unit 2 measures the reflectance of the user's face based on the reflectance measurement image (hereinafter, also simply referred to as a measurement image) obtained by imaging.
  • the reflectance of the user's face can be measured for each pixel of the measurement image based on the luminance value of the test image displayed on the display panel 5 and the luminance value of each pixel of the measurement image.
  • the detection unit 2 detects at least one of the position of the left eye 15L and the position of the right eye 15R based on the measurement image. In the following, it is assumed that the detection unit 2 detects the position of the right eye 15R.
  • the control unit 7 displays the first reference image 14 on the display panel 5 after the detection unit 2 detects the reflectance of the user's face and the position of the right eye 15R.
  • the control unit 7 causes the detection unit 2 to image the face of the user on which the first reference image 14 is projected, and obtains the first detection image 12.
  • the control unit 7 corrects the first detected image 12 by dividing the luminance value of each pixel in the first detected image 12 by the reflectance of the pixel measured from the measurement image.
  • the corrected first detection image 12 is an image in which the influence of the reflectance of the user's face is reduced.
  • the corrected first detection image 12 may be an image that does not substantially include the user's face and contains only the shading pattern.
  • the detection unit 2 detects the position of the high-luminance region 12a of the shading pattern based on the corrected first detection image 12. Since the corrected second detection image 13 is an image in which the influence of the reflectance of the user's face is reduced, the position of the high-luminance region 12a is detected from the corrected second detection image 13 to obtain high brightness. The position of the region 12a can be detected with high accuracy.
  • the index it is determined how many sub-pixels the deviation amount Dd between the position of the right eye 15R and the position of the high-luminance region 12a in the first direction (x-axis direction) corresponds to.
  • the position of the right eye 15R and the position of the high-luminance region 12a are represented by the coordinates with respect to the origin of the camera included in the detection unit 2, in order to make the above determination, first, the coordinates of the right eye 15R and the position are expressed. It is necessary to convert the coordinates of the high-luminance region 12a into the coordinates with respect to the origin of the display panel 5.
  • the coordinate transformation is also referred to as origin correction.
  • FIG. 10 is a diagram for explaining origin correction.
  • the origin O5 of the display panel 5 is located in the high luminance region 12a. It is assumed that the origin O2 of the camera is at the position shown in FIG.
  • the control unit 7 converts the coordinates of the right eye 15R with respect to the origin O2 and the coordinates of the high-luminance region 12a (collectively referred to as “x”) into the coordinates x + xd-xe with respect to the origin O5.
  • xd is the distance between the right eye 15R and the high-luminance region 12a in the x-axis direction
  • xe is the x-coordinate of the right eye 15R with respect to the origin O2.
  • the control unit 7 determines how many sub-pixels the deviation amount Dd corresponds to by using the above-mentioned origin correction, and adjusts the index based on the determination.
  • the position of the right eye 15R is detected from the measurement image, and the position of the high-luminance region 12a is detected from the corrected first detection image 12. And the position of the high-luminance region 12a can be detected accurately. As a result, the index can be adjusted accurately.
  • the control unit 7 may detect the position of the left eye 15L based on the measurement image.
  • the control unit 7 calculates an index based on the amount of deviation between the position of the left eye 15L detected from the measurement image and the position of the low-luminance region 12b detected from the corrected first detection image 12 in the first direction. You may adjust.
  • the control unit 7 may display the inversion reference image on the display panel 5 instead of the first reference image 14.
  • the control unit 7 may have the detection unit 2 capture an image of the user's face on which the inversion reference image is projected to obtain a detection image.
  • the control unit 7 may correct the detected image using the reflectance of the user's face, and detect the position of the right eye and the position of the low-luminance region based on the corrected detected image.
  • the control unit 7 may adjust the index based on the amount of deviation between the position of the right eye and the position of the low-luminance region in the first direction.
  • the index is indexed based on the image of the user's face on which the inversion reference image is projected. Can be adjusted.
  • control unit 7 displays the test image on the display panel 5 before generating the first reference image 14, at least one color of the first image and the second image or based on the reflectance of the user's face You may change the brightness. This makes it possible to accurately detect the position of the eye 15 and the shading pattern.
  • FIG. 11 is a flowchart illustrating an example of processing for adjusting the index.
  • the control unit 7 starts this flowchart, in step S1, the test image is displayed on the display panel 5, and the detection unit 2 is made to capture an image of the user's face (measurement image) on which the test image is projected. ..
  • the control unit 7 detects the position of the right eye 15R based on the measurement image.
  • the control unit 7 measures the reflectance of the user's face based on the measurement image.
  • the control unit 7 displays the first reference image 14 on the display panel 5, and causes the detection unit 2 to display the image of the user's face (first detection image 12) on which the first reference image 14 is projected. Have an image taken.
  • step S5 the control unit 7 corrects the first detected image 12 by using the reflectance of the user's face, and obtains the corrected first detected image 12.
  • step S6 the control unit 7 detects the position of the high-luminance region 12a based on the corrected first detection image 12.
  • step S7 the control unit 7 corrects the origin based on the position of the right eye 15R detected in step S2 and the position of the high-luminance region 12a detected in step S6.
  • step S8 the control unit 7 adjusts the index based on the deviation amount Dd with respect to the origin O5 of the display panel 5, and ends this flowchart.
  • the three-dimensional display device 1 uses the reflectance of the user's face to capture the image of the user's face captured by the detection unit 2 on which the second reference image is projected. It may be corrected and the index may be readjusted based on the corrected image.
  • the left subpixel (first subpixel) that is determined to display the left eye image based on the left visible region 51aL and that the right eye image should be displayed based on the right visible region 51aR.
  • the right subpixel (second subpixel).
  • the left subpixel is, for example, a subpixel in which a predetermined ratio (for example, half) or more is included in the left visible region 51aL.
  • the right subpixel is, for example, a subpixel in which a predetermined ratio or more is included in the right visible region 51aR.
  • the control unit 7 causes a cross talk generated when a user having an intereye distance E1 different from the standard distance E0 visually recognizes a three-dimensional image displayed by the three-dimensional display device 1 configured based on the standard distance E0. In order to reduce the distance, the distance between the eyes may be corrected.
  • the control unit 7 When the control unit 7 corrects the interocular distance, the control unit 7 generates a parallax image for the interocular distance correction and displays the generated parallax image on the display panel.
  • the parallax image for interocular distance correction may be a first reference image 14 synthesized based on a predetermined index, or may be a second reference image synthesized based on the adjusted index.
  • the parallax image for interocular distance correction may be an image different from the first reference image and the second reference image. In the following, it is assumed that the parallax image for correcting the interocular distance is the first reference image 14.
  • the control unit 7 displays the first reference image 14 on the display panel 5.
  • the first reference image 14 displayed on the display panel 5 is propagated to the user's left eye 15L and right eye 15R via the barrier portion 6 and the optical element.
  • the first reference image 14 is projected on the user's face.
  • FIG. 13 is a diagram showing an example of an image captured by the detection unit 2.
  • the image captured by the detection unit 2 is also referred to as a second detection image 13.
  • the second detected image 13 includes the user's left eye 15L and right eye 15R, and the first reference image 14 projected on the user's face.
  • the first reference image 14 projected on the user's face can form a striped pattern in the second detected image 13, for example, as shown in FIG.
  • the striped pattern is also referred to as a shading pattern.
  • the detection unit 2 detects the position of the left eye 15L, the position of the right eye 15R, and the position of the shading pattern.
  • the position of the shading pattern may be the luminance value distribution of the shading pattern.
  • the shading pattern includes a high-luminance region 13a and a low-luminance region 13b.
  • the high-luminance region 13a is a band-shaped region where the brightness in the shade pattern is bright
  • the low-luminance region 13b is a band-shaped region where the brightness in the shade pattern is dark.
  • the three-dimensional display device 1 in which the inter-eye distance correction is not performed is configured based on the standard distance E0. Therefore, when the inter-eye distance E1 of the user is the standard distance E0, the distance between the high brightness region 13a and the low brightness region 13b in the first direction (horizontal direction) is the left eye 15L and the right eye 15R in the horizontal direction. Is equal to the distance of. In other words, when the inter-eye distance E1 of the user is the standard distance E0, the horizontal distance between the adjacent high-brightness regions 13a is twice the distance between the first eye 15L and the second eye 15R in the horizontal direction. become. The horizontal distance between adjacent high-luminance regions 13a is also referred to as the horizontal distance Dh.
  • the distance between the first eye 15L and the second eye 15R in the horizontal direction is also referred to as the horizontal distance De.
  • the horizontal distance Dh can be calculated based on the position of the high-luminance region 12a.
  • the horizontal distance De can be calculated based on the position of the left eye 15L and the position of the right eye 15R.
  • the horizontal distance Dh is larger than twice the horizontal distance De, it can be determined that the inter-eye distance E1 of the user is smaller than the standard distance E0.
  • the horizontal distance Dh is smaller than twice the horizontal distance De, it can be determined that the inter-eye distance E1 of the user is larger than the standard distance E0.
  • the control unit 7 controls the drive unit 11 based on the horizontal distance Dh and the horizontal distance De, and moves the barrier unit 6 in the third direction.
  • the control unit 7 determines that the inter-eye distance E1 of the user is larger than the standard distance E0
  • the control unit 7 moves the barrier unit 6 along the third direction, for example, as shown in FIG. 14, and the barrier unit 6 and the active area. Reduce the distance to 51.
  • the image light emitted from the subpixel included in the left visible region 51aL is propagated to the left eye of the user whose eye distance E1 is larger than the standard distance E0, and is emitted from the subpixel included in the right visible region 51aR.
  • the resulting image light can be propagated to the right eye of the user whose intereye distance E1 is larger than the standard distance E0.
  • the control unit 7 determines that the inter-eye distance E1 of the user is smaller than the standard distance E0, the control unit 7 moves the barrier unit 6 along the third direction to increase the distance between the barrier unit 6 and the active area 51.
  • the image light emitted from the subpixel included in the left visible region 51aL is propagated to the left eye 15L of the user whose eye distance E1 is smaller than the standard distance, and is emitted from the subpixel included in the right visible region 51aR.
  • the resulting image light can be propagated to the right eye 15R of the user whose intereye distance E1 is smaller than the standard distance E0.
  • the three-dimensional display device 1 since the correction of the inter-eye distance is performed based on the image of the user's face on which the first reference image is projected, the correction excluding the subjective judgment of the user. It can be performed. Therefore, the three-dimensional display device 1 can appropriately make the user visually recognize the three-dimensional image.
  • the memory 8 may store a table for interocular distance correction in which the relationship between the ratio of the horizontal distance Dh and the horizontal distance De and the amount of movement of the barrier portion 6 in the third direction is defined.
  • the control unit 7 may control the drive unit 11 by using the interocular distance correction table stored in the memory 8.
  • the three-dimensional display device 1 does not require the user's judgment in correcting the intereye distance. Therefore, according to the three-dimensional display device 1, it is possible to repeat the correction of the inter-eye distance a plurality of times without causing the user to feel annoyed, and it is possible to improve the correction accuracy of the inter-eye distance.
  • the three-dimensional display device 1 may be configured to correct the second detected image 13 and correct the intereye distance based on the corrected second detected image 13.
  • the correction of the second detected image 13 may be performed based on the reflectance of the user's face.
  • the correction of the second detected image 13 and the correction of the interocular distance using the corrected second detected image 13 will be described.
  • the control unit 7 displays the test image on the display panel 5 at a time point before displaying the first reference image 14 on the display panel 5.
  • the test image may be a monochromatic image.
  • the monochromatic image may be a white image.
  • the test image may be generated, for example, by synthesizing a white first image and a white second image.
  • the control unit 7 may display the test image on the display panel 5 before generating the first reference image 14, or may display the test image on the display panel 5 after generating the first reference image 14.
  • the control unit 7 captures an image of the user's face on which the test image is projected on the detection unit 2 to obtain an image for measurement.
  • the control unit 7 measures the reflectance of the user's face based on the measurement image, and detects the position of the left eye 15L and the position of the right eye 15R.
  • the reflectance of the user's face can be measured for each pixel of the measurement image based on the luminance value of the test image displayed on the display panel 5 and the luminance value of each pixel of the measurement image.
  • the control unit 7 may store the reflectance measured when the index is adjusted in the memory 8 and use the reflectance read from the memory 8, or may use the reflectance when correcting the interocular distance. The rate may be measured again.
  • the control unit 7 calculates the horizontal distance De based on the position of the left eye 15L and the position of the right eye 15R.
  • the control unit 7 displays the first reference image 14 on the display panel 5.
  • the control unit 7 causes the detection unit 2 to image the face of the user on which the first reference image 14 is projected, and obtains the second detection image 13.
  • the control unit 7 corrects the second detected image 13 by dividing the luminance value of each pixel in the second detected image 13 by the reflectance of the pixel measured from the measurement image.
  • the control unit 7 detects the position of the high-luminance region 12a based on the corrected second detection image 13, and calculates the horizontal distance Dh based on the position of the high-luminance region 12a. Since the subsequent processing is the same as the case where the interocular distance is corrected by using the second detected image 13 which is not corrected, detailed description thereof will be omitted.
  • the corrected second detection image 13 the influence of the reflectance of the user's face is reduced, so that the shading pattern can be easily detected. Therefore, by using the corrected second detection image 13, it is possible to accurately correct the inter-eye distance.
  • the distance between adjacent high-luminance regions 13a in the horizontal direction may be set as the horizontal distance Dh.
  • the control unit 7 may generate a reference image in which the left eye image which is a white image and the right eye image which is a black image are combined.
  • a reference image obtained by synthesizing a left eye image which is a white image and a right eye image which is a black image is also referred to as an inversion reference image.
  • the control unit 7 may correct the intereye distance based on the image of the face of the user who is visually recognizing the inversion reference image captured by the detection unit 2.
  • the control unit 7 may correct the inter-eye distance based on the distance between adjacent high-luminance regions in the horizontal direction and the horizontal distance De.
  • the eyes are based on the image of the user's face on which the inversion reference image is projected. The distance can be corrected.
  • the three-dimensional display device 1 may be configured to correct the inter-eye distance at night. As a result, it is possible to reduce the possibility that the position of the user's eye 15 or the first reference image 14 projected on the user's face becomes difficult to detect due to the influence of light coming from the outside.
  • the night may be, for example, a time zone from sunset to sunrise. At night, the surrounding brightness may be dark regardless of the time of day.
  • the three-dimensional display device 1 may be configured to correct the inter-eye distance after correcting the inter-eye distance as described above.
  • the control unit 7 synthesizes a first image and a second image different from each other to generate a parallax image for re-correcting the inter-eye distance.
  • the control unit 7 displays the generated parallax image on the display panel.
  • the parallax image for re-correcting the interocular distance may be a first reference image, a second reference image, or an image different from the first reference image and the second reference image. In the following, it is assumed that the parallax image for re-correcting the interocular distance is the second reference image.
  • the second reference image displayed on the display panel 5 is propagated to the left eye and the right eye of the user via the barrier unit 6, the optical element, and the like.
  • the second reference image is projected on the user's face.
  • the control unit 7 controls the detection unit 2 to capture the face of the user on which the second reference image is projected.
  • the image of the user's face on which the second reference image is projected, which is captured by the detection unit 2 is the same as that of the second detection image 13 shown in FIG. 13, but the position and shading pattern of the user's eyes 15
  • the position of may be different from the second detection image 13 shown in FIG. Since the process performed by the three-dimensional display device 1 for re-correcting the inter-eye distance is the same as the above-mentioned process performed for correcting the inter-eye distance, detailed description thereof will be omitted.
  • the three-dimensional display device 1 Since the three-dimensional display device 1 re-corrects the inter-eye distance, the accuracy of correcting the inter-eye distance can be improved. Therefore, the three-dimensional display device 1 can appropriately make the user visually recognize the three-dimensional image. According to the three-dimensional display device 1, the correction of the inter-eye distance can be repeated a plurality of times, and the correction accuracy of the inter-eye distance can be improved.
  • the three-dimensional display device 1 need only display the reference image when the distance between the eyes is being corrected.
  • the three-dimensional display device 1 may display various information about a moving body such as a vehicle, a ship, or an aircraft equipped with the three-dimensional display device 1.
  • the three-dimensional display device 1 may display a reference image between frames of continuous images showing various information, and have the detection unit 2 capture the face of the user on which the reference image is projected.
  • the three-dimensional display device 1 can repeatedly correct the inter-eye distance while displaying various information about the moving body.
  • the three-dimensional display device 1 can always display a three-dimensional image according to the distance between the eyes of the user, so that the user can appropriately visually recognize the three-dimensional image.
  • the detection unit 2 detects the position of the eye 15 and the position of the shading pattern, but the detection unit 2 does not have to detect the position of the eye 15 and the position of the shading pattern.
  • the three-dimensional display device 1 may be configured such that the control unit 7 detects the position of the eye 15 and the position of the shading pattern, and the position acquisition unit 3 may detect the position of the eye 15 and the shading pattern. It may be configured to detect the position and output it to the control unit 7.
  • the image of the user's face captured by the detection unit 2 on which the second reference image is projected is used to obtain the reflectance of the user's face. It may be corrected using and the interocular distance may be re-corrected based on the corrected image.
  • the three-dimensional display device 1 can be mounted on the head-up display 100.
  • the head-up display 100 is also referred to as a HUD (Head Up Display) 100.
  • the HUD 100 includes a three-dimensional display device 1, an optical member 110, and a projected member 120 having a projected surface 130.
  • the HUD 100 causes the image light emitted from the three-dimensional display device 1 to reach the projected member 120 via the optical member 110.
  • the HUD 100 causes the image light reflected by the projected member 120 to reach the first eye and the second eye of the user.
  • the HUD 100 advances the image light from the three-dimensional display device 1 to the first eye and the second eye of the user along the optical path 140 shown by the broken line in FIG.
  • the user can visually recognize the image light that has reached along the optical path 140 as a virtual image 150.
  • the HUD 100 Since the index of the three-dimensional display device 1 is adjusted based on the image of the user's face on which the first reference image is projected, the HUD 100 makes adjustments excluding the user's subjective judgment. be able to. Therefore, the HUD 100 can appropriately make the user visually recognize the three-dimensional image.
  • the HUD100 does not require user judgment to adjust the index. Therefore, according to the HUD 100, the index adjustment can be repeated a plurality of times without causing the user to feel annoyed, and the index adjustment accuracy can be improved.
  • the HUD 100 including the three-dimensional display device 1 may be mounted on a moving body 10 such as a vehicle, a ship, or an aircraft.
  • the HUD 100 may use a part of the configuration as other devices and parts included in the moving body 10.
  • the moving body 10 may also use the windshield as the projected member 120.
  • the other configuration can be referred to as a HUD module or a three-dimensional display component.
  • the HUD 100 may be mounted on the moving body 10.
  • the moving body 10 Since the index of the three-dimensional display device 1 is adjusted based on the image of the user's face on which the first reference image is projected, the moving body 10 is adjusted excluding the subjective judgment of the user. It can be performed. Therefore, the moving body 10 can appropriately make the user visually recognize the three-dimensional image.
  • the mobile body 10 does not require the user's judgment in adjusting the index. Therefore, according to the mobile body 10, the index adjustment can be repeated a plurality of times without causing the user to feel annoyed, and the index adjustment accuracy can be improved.
  • the "vehicle” in the present disclosure includes, but is not limited to, automobiles and industrial vehicles, and may include railway vehicles, living vehicles, and fixed-wing aircraft traveling on runways.
  • Automobiles include, but are not limited to, passenger cars, trucks, buses, motorcycles, trolleybuses and the like, and may include other vehicles traveling on the road.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include, but are not limited to, forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combines, and lawnmowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, mobile cranes, dump trucks, and road rollers. Vehicles include those that run manually.
  • the classification of vehicles is not limited to the above.
  • an automobile may include an industrial vehicle capable of traveling on a road, and the same vehicle may be included in a plurality of categories.
  • Vessels in the present disclosure include marine jets, boats and tankers.
  • Aircraft in the present disclosure include fixed-wing aircraft and rotary-wing aircraft.
  • the descriptions such as “first” and “second” are identifiers for distinguishing the configuration.
  • the configurations distinguished by the descriptions such as “first” and “second” in the present disclosure can exchange numbers in the configurations.
  • the first eye can exchange the identifiers “first” and “second” with the second eye.
  • the exchange of identifiers takes place at the same time.
  • the configuration is distinguished.
  • the identifier may be deleted.
  • Configurations with the identifier removed are distinguished by a code. Based solely on the description of identifiers such as "1st” and “2nd” in the present disclosure, it shall not be used as an interpretation of the order of the configurations or as a basis for the existence of identifiers with smaller numbers.
  • the x-axis, y-axis, and z-axis are provided for convenience of explanation and may be interchanged with each other.
  • the configuration according to the present disclosure has been described using a Cartesian coordinate system composed of x-axis, y-axis, and z-axis.
  • the positional relationship of each configuration according to the present disclosure is not limited to being orthogonal.
  • the three-dimensional display device includes a display panel, a barrier unit, a detection unit, and a control unit.
  • the display panel is configured to display a parallax image including a first image and a second image having parallax with respect to the first image.
  • the barrier portion is configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image.
  • the detection unit is configured to capture the face of the user who is visually recognizing the parallax image.
  • the control unit synthesizes the first image and the second image that are different from each other based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, and first.
  • a reference image is generated, and the first reference image is displayed on the display panel.
  • the control unit adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.
  • the head-up display includes a display panel, a barrier unit, an optical member, a detection unit, and a control unit.
  • the display panel is configured to display a parallax image including a first image and a second image having parallax with respect to the first image.
  • the barrier portion is configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image.
  • the optical member is configured to make the user visually recognize the image light emitted from the display panel as a virtual image.
  • the detection unit is configured to capture the face of the user who is visually recognizing the parallax image.
  • the control unit synthesizes the first image and the second image that are different from each other based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, and first.
  • a reference image is generated, and the first reference image is displayed on the display panel.
  • the control unit adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.
  • the mobile body includes a head-up display.
  • the head-up display includes a display panel, a barrier unit, an optical member, a detection unit, and a control unit.
  • the display panel is configured to display a parallax image including a first image and a second image having parallax with respect to the first image.
  • the barrier portion is configured to give parallax to the first eye and the second eye of the user by defining the traveling direction of the image light of the parallax image.
  • the optical member is configured to make the user visually recognize the image light emitted from the display panel as a virtual image.
  • the detection unit is configured to capture the face of the user who is visually recognizing the parallax image.
  • the control unit synthesizes the first image and the second image that are different from each other based on a predetermined index that defines the arrangement of the first image and the second image displayed on the display panel, and first.
  • a reference image is generated, and the first reference image is displayed on the display panel.
  • the control unit adjusts the index based on the image of the user's face imaged by the detection unit on which the first reference image is projected.
  • the user can appropriately visually recognize the three-dimensional image.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

3次元表示装置は、表示パネル、バリア部、検出部および制御部を備える。表示パネルは、第1画像と第1画像に対して視差を有する第2画像とを含む視差画像を表示する。バリア部は、視差画像の画像光の進行方向を規定し、利用者の第1眼および第2眼に視差を与える。検出部は、視差画像を視認している利用者の顔を撮像する。制御部は、表示パネルに表示する第1画像および第2画像の並びを規定するインデックスに基づいて、互いに異なる第1画像と第2画像とを合成して第1基準画像を生成し、第1基準画像を前記表示パネルに表示させる。制御部は、第1基準画像が投影されている、検出部によって撮像された利用者の顔の像に基づいて、インデックスを調整する。

Description

3次元表示装置、ヘッドアップディスプレイおよび移動体
 本開示は、3次元表示装置、ヘッドアップディスプレイおよび移動体に関する。
 従来技術の一例は、特許文献1に記載されている。
特開2001-166259号公報
 本開示の一実施形態に係る3次元表示装置は、表示パネルと、バリア部と、検出部と、制御部とを備える。前記表示パネルは、第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成される。前記検出部は、前記視差画像を視認している前記利用者の顔を撮像するように構成される。前記制御部は、前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、前記第1基準画像を前記表示パネルに表示させる。前記制御部は、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する。
 本開示の一実施形態に係るヘッドアップディスプレイは、表示パネルと、バリア部と、光学部材と、検出部と、制御部とを備える。前記表示パネルは、第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成される。前記光学部材は、前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される。前記検出部は、前記視差画像を視認している前記利用者の顔を撮像するように構成される。前記制御部は、前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、前記第1基準画像を前記表示パネルに表示させる。前記制御部は、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する。
 本開示の一実施形態に係る移動体は、ヘッドアップディスプレイを備える。前記ヘッドアップディスプレイは、表示パネルと、バリア部と、光学部材と、検出部と、制御部とを備える。前記表示パネルは、第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成される。前記光学部材は、前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される。前記検出部は、前記視差画像を視認している前記利用者の顔を撮像するように構成される。前記制御部は、前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、前記第1基準画像を前記表示パネルに表示させる。前記制御部は、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する。
 本開示の目的、特色、および利点は、下記の詳細な説明と図面とからより明確になるであろう。
本開示の一実施形態に係る3次元表示装置を上下方向から見た例を示す図である。 図1に示す3次元表示装置の表示パネルを奥行方向から見た例を示す図である。 図1に示す3次元表示装置のバリア部を奥行方向から見た例を示す図である。 図1に示す3次元表示装置の表示パネルにおける左可視領域を説明するための図である。 図1に示す3次元表示装置の表示パネルにおける右可視領域を説明するための図である。 左眼の位置および右眼の位置を識別するための情報を説明するための図である。 眼間距離が標準距離である場合における、左眼および右眼の位置と、各サブピクセルに表示させる画像との対応を示す画像テーブルの例を示す図である。 インデックスを調整するために用いられる基準画像の例を示す図である。 検出部によって撮像される、基準画像が投影されている利用者の像の例を示す図である。 原点補正を説明するための図である。 インデックスを調整するための処理の一例を説明するフローチャートである。 図1に示す3次元表示システムにおける両眼可視領域を説明するための図である。 検出部によって撮像される、基準画像が投影されている利用者の像の例を示す図である。 眼間距離の補正処理を説明するための図である。 本開示の一実施形態に係るヘッドアップディスプレイを示す図である。 本開示の一実施形態に係る移動体を示す図である。
 本開示の3次元表示装置の基礎となる構成である3次元表示装置として、眼鏡を用いずに3次元表示を行うために、表示パネルから出射された光の一部を右眼に到達させ、表示パネルから出射された光の他の一部を左眼に到達させる光学素子を備える3次元表示装置が知られている。
 以下、本開示の実施形態について、図面を参照しながら説明がされる。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
 図1は、本開示の一実施形態に係る3次元表示装置を上下方向から見た例を示す図である。本実施形態に係る3次元表示装置1は、表示パネル5と、バリア部6と、検出部2と、制御部7とを含んで構成される。
 検出部2は、利用者の顔を撮像するように構成されている。検出部2は、3次元表示装置1が表示する3次元画像を視認している利用者の顔を撮像するように構成されている。検出部2は、利用者の左眼15Lの位置および右眼15Rの位置を検出し、制御部7に出力してよい。検出部2は、例えば、カメラを備えてよい。検出部2は、カメラによって利用者の顔を撮像してよい。検出部2は、カメラによって撮像された利用者の顔の像から、左眼15Lの位置および右眼15Rの位置を検出してよい。検出部2は、1つのカメラの撮影画像から、左眼15Lおよび右眼15Rの位置を3次元空間の座標として検出してよい。検出部2は、2個以上のカメラの撮像画像から、左眼15Lの位置および右眼15Rの位置を3次元空間の座標として検出してよい。検出部2は、カメラの撮像画像から、利用者の顔に投影された3次元画像を検出してよい。左眼15Lは、第1眼とも称される。右眼15Rは、第2眼とも称される。左眼15Lと右眼15Rとを区別しない場合、左眼15Lおよび右眼15Rは、眼15と総称される。
 検出部2は、可視光カメラまたは赤外線カメラを備えてよい。検出部2は、可視光カメラおよび赤外線カメラの両方を備えてよい。検出部2は、可視光カメラおよび赤外線カメラの両方の機能を有してよい。検出部2は、例えば電荷結合素子(Charge Coupled Device;CCD)または相補型金属酸化物半導体(Complementary Metal Oxide Semiconductor;CMOS)イメージセンサを含んでよい。
 検出部2は、カメラを備えず、装置外のカメラに接続されていてよい。検出部2は、装置外のカメラからの信号を入力する入力端子を備えてよい。装置外のカメラは、入力端子に直接的に接続されてよい。装置外のカメラは、共有のネットワークを介して入力端子に間接的に接続されてよい。カメラを備えない検出部2は、カメラが映像信号を入力する入力端子を備えてよい。カメラを備えない検出部2は、入力端子に入力された映像信号から左眼および右眼の位置を検出してよい。
 検出部2は、例えば、センサを備えてよい。センサは、超音波センサまたは光センサ等であってよい。検出部2は、センサによって利用者の頭部の位置を検出し、頭部の位置に基づいて左眼15Lおよび右眼15Rの位置を検出してよい。検出部2は、1個または2個以上のセンサによって、左眼15Lおよび右眼15Rの位置を3次元空間の座標値として検出してよい。
 3次元表示装置1は、検出部2を備えなくてよい。3次元表示装置1が検出部2を備えない場合、3次元表示装置1は、装置外の検出装置からの信号を入力する入力端子を備えてよい。装置外の検出装置は、入力端子に接続されてよい。装置外の検出装置は、入力端子に対する伝送信号として、電気信号および光信号を用いてよい。装置外の検出装置は、共有の通信ネットワークを介して入力端子に間接的に接続されてよい。3次元表示装置1には、装置外の検出装置から取得した左眼および右眼の位置を示す位置座標が入力される構成であってよい。
 検出部2は、利用者の眼15の位置を検出する機能を有してよい。検出部2は、眼15の位置を検出する機能を有さなくてよい。3次元表示装置1は、制御部7が眼15の位置を検出するように構成されてよいし、眼15の位置を検出し、制御部7に出力する位置取得部3を有してよい。
 表示パネル5は、左眼画像(第1画像)と左眼画像に対して視差を有する右眼画像(第2画像)とを含む視差画像を表示する。左眼画像は、利用者の第1眼15Lに投影する画像であり、右眼画像は、利用者の第2眼15Rに投影する画像である。視差画像は、混合画像とも称される。バリア部6は、表示パネル5から出射される画像光の進行方向を規定する光学素子である。バリア部6は、視差バリアとも称される。制御部7は、第1画像と第2画像とを合成して、視差画像を生成する。制御部7は、検出部2によって検出された、第1眼15Lの位置および第2眼15Rの位置の少なくとも一方に基づいて、第1画像と第2画像とを合成してよい。
 制御部7は、生成した視差画像を表示パネル5に表示させる。表示パネル5は、複数の表示領域をアクティブエリア内に有してよい。複数の表示領域の各々には、複数の基準インデックスのいずれかが対応してよい。基準インデックスは、単に、インデックスとも称される。制御部7は、複数の表示領域の各々に表示する視差画像を、該表示領域の基準インデックスを基準にして合成する。
 表示パネル5は、透過型の表示パネルであってよいし、自発光型の表示パネルであってよい。透過型の表示パネルとしては、例えば液晶表示パネルを使用しうる。自発光型の表示パネルとしては、例えば発光ダイオード(Light Emitting Diode;LED)素子、有機エレクトロルミネッセンス(Organic Electro Luminescence;OEL)素子、有機発光ダイオード(Organic Light Emitting Diode;OLED)素子、半導体レーザ(Laser Diode;LD)素子等の自発光素子を含む表示パネルを使用しうる。本実施形態では、表示パネル5として、液晶表示パネルを使用する。
 表示パネル5が透過型の表示パネルである場合、3次元表示装置1は照射器4を含んで構成される。照射器4は、表示パネル5に光を面的に照射しうる。照射器4は、光源、導光板、拡散板および拡散シート等を含んで構成されてよい。照射器4は、光源により照射光を出射し、導光板、拡散板および拡散シート等により照射光を表示パネル5の面方向に均一化しうる。照射器4は、均一化された光を表示パネル5に向かって出射しうる。
 照射器4は、可視光を射出する可視光光源を含んで構成される。可視光光源は、例えばLED素子、冷陰極蛍光ランプ、ハロゲンランプまたはキセノンランプであってよい。照射器4は、赤外光を射出する赤外光光源を含んで構成されてよい。赤外光光源は、例えば赤外線LED素子であってよい。3次元表示装置1は、可視光光源と赤外光光源とを別個に駆動するように構成されてよい。3次元表示装置1が可視光光源および赤外光光源を駆動する場合、3次元表示装置1が表示する3次元画像は、可視光成分および赤外光成分を含む。3次元表示装置1が赤外光光源のみを駆動する場合、3次元表示装置1が表示する3次元画像は、赤外光成分のみを含む。検出部2が赤外線カメラを備える、または、検出部2が赤外線カメラの機能を有する場合、検出部2は、利用者の顔に投影された3次元画像の赤外光成分を検出しうる。
 照射器4は、複数の赤外線LED素子を含んで構成されてよい。複数の赤外線LED素子は、照射器4の全体に分散して配置されてよいし、照射器4の一部に偏って配置されてよい。照射器4は、その光射出面の中央部に可視光光源が配置され、可視光光源の周囲を取り囲むように複数の赤外線LED素子が配置されている構成であってよい。
 表示パネル5は、例えば図2に示すように、面状に形成されたアクティブエリア51上に複数の区画領域を有する。アクティブエリア51は、視差画像を表示する。視差画像は、第1画像と第1画像に対して視差を有する第2画像とを含む。区画領域は、格子状のブラックマトリックス52により第1方向および第1方向に直交する第2方向に区画された領域である。第1方向および第2方向に直交する方向は第3方向と称される。第1方向は水平方向と称されてよい。第2方向は上下方向と称されてよい。第3方向は奥行方向と称されてよい。第1方向、第2方向、および第3方向はそれぞれこれらに限られない。図面において、第1方向はx軸方向として表され、第2方向はy軸方向として表され、第3方向はz軸方向として表される。
 区画領域の各々には、1つのサブピクセルが対応する。したがって、アクティブエリア51は、水平方向および上下方向に沿って格子状に配列された複数のサブピクセルを備える。
 各サブピクセルは、赤(R)、緑(G)、青(B)のいずれかの色に対応し、R,G,Bの3つのサブピクセルを一組として1ピクセルを構成することができる。1ピクセルは、1画素と称されうる。水平方向は、例えば、1ピクセルを構成する複数のサブピクセルが並ぶ方向である。上下方向は、例えば、同じ色のサブピクセルが並ぶ方向である。
 上述のようにアクティブエリア51に配列された複数のサブピクセルは、サブピクセル群Pgを構成する。サブピクセル群Pgは、水平方向に繰り返して配列される。サブピクセル群Pgは、上下方向においては、水平方向に1サブピクセル分ずれた位置に隣接して繰り返して配列される。サブピクセル群Pgは、所定の行および列のサブピクセルを含む。具体的には、サブピクセル群Pgは、上下方向にb個(b行)、水平方向に2×n個(n列)、連続して配列された(2×n×b)個のサブピクセルP1~Pk(k=2×n×b)を含む。図2に示す例では、n=6、b=1である。アクティブエリア51には、上下方向に1個、水平方向に12個、連続して配列された12個のサブピクセルP1~P12を含むサブピクセル群Pgが配置される。図2に示す例では、一部のサブピクセル群Pgに符号を付している。
 サブピクセル群Pgは、制御部7が画像を表示するための制御を行う最小単位である。全てのサブピクセル群Pgの同じ識別情報を有するサブピクセルP1~Pk(k=2×n×b)は、制御部7によって同時に制御される。例えば、制御部7は、サブピクセルP1に表示させる画像を左眼画像から右眼画像に切換える場合、全てのサブピクセル群PgにおけるサブピクセルP1に表示させる画像を左眼画像から右眼画像に同時的に切換えうる。
(視差バリア)
 バリア部6は、図1に示したように、アクティブエリア51に沿う平面により形成される。バリア部6は、アクティブエリア51から所定距離(ギャップ)gだけ離れて配置されてよい。バリア部6は、表示パネル5に対して照射器4の反対側に位置してよい。バリア部6は、表示パネル5の照射器4側に位置してよい。
 バリア部6は、表示パネル5から出射される画像光の進行方向に移動可能に構成されてよい。言い換えれば、バリア部6は、図1に示す第3方向に移動可能に構成されてよい。3次元表示装置1は、バリア部6を第3方向に駆動する駆動部11を備えてよい。駆動部11は、制御部7によって制御されてよい。駆動部11は、モータまたは圧電素子等によってバリア部6を第3方向に駆動してよい。駆動部11は、バリア部6を第3方向の正方向に駆動してよいし、バリア部6を第3方向の負方向に駆動してよい。
 バリア部6は、図3に示すように、面内の所定方向に伸びる複数の帯状領域である透光領域62ごとに、サブピクセルから出射される画像光の伝播方向である光線方向を規定する。所定方向は、上下方向と0度でない所定角度をなす方向である。図1に示したように、バリア部6がアクティブエリア51に配列されたサブピクセルから出射された画像光を規定することによって、利用者の眼15が視認可能なアクティブエリア51上の領域が定まる。以降において、利用者の眼15の位置に伝播する画像光を出射するアクティブエリア51内の領域は可視領域51aと称される。利用者の左眼15Lの位置に伝播する画像光を出射するアクティブエリア51内の領域は左可視領域51aL(第1可視領域)と称される。利用者の右眼15Rの位置に伝播する画像光を出射するアクティブエリア51内の領域は右可視領域51aR(第2可視領域)と称される。
 バリア部6は、図3に示されるように、複数の、画像光を遮光する遮光領域61を有する。複数の遮光領域61は、互いに隣接する該遮光領域61の間の透光領域62を画定する。透光領域62は、遮光領域61に比べて光透過率が高い。言い換えれば、遮光領域61は、透光領域62に比べて光透過率が低い。
 透光領域62は、バリア部6に入射する光を透過させる部分である。透光領域62は、第1所定値以上の透過率で光を透過させてよい。第1所定値は、例えば、略100%の値であってよいし、100%未満の値であってよい。第1所定値の値は、アクティブエリア51から出射される画像光が良好に視認できる範囲の値であれば100%以下であってよく、例えば、80%または50%等としうる。遮光領域61は、バリア部6に入射する光を遮って殆ど透過させない部分である。言い換えれば、遮光領域61は、表示パネル5のアクティブエリア51に表示される画像が、利用者の眼に到達することを遮る。遮光領域61は、第2所定値以下の透過率で光を遮ってよい。第2所定値は、例えば、略0%の値であってよいし、0%より大きい値であってよい。第2所定値は、0.5%、1%または3%等の0%に近い値であってよい。第1所定値は、第2所定値よりも数倍以上、例えば、10倍以上大きい値としうる。
 透光領域62と遮光領域61とは、アクティブエリア51に沿う所定方向に延び、所定方向と直交する方向に繰り返し交互に配列される。透光領域62は、サブピクセルから出射される画像光の光線方向を規定する。
 図1に示したように、透光領域62の水平方向における配置間隔であるバリアピッチBp、アクティブエリア51とバリア部6との間のギャップgは、適視距離dおよび標準距離E0を用いた次の式(1)および式(2)が成り立つように規定される。
    E0:d=(n×Hp):g …(1)
    d:Bp=(d+g):(2×n×Hp) …(2)
 適視距離dは、可視領域51aの水平方向の長さがサブピクセルn個分となるような利用者の右眼および左眼のそれぞれとバリア部6との間の距離である。右眼と左眼とを通る直線の方向(眼間方向)は水平方向である。標準距離E0は利用者の眼間距離Eの標準である。標準距離E0は、例えば、産業技術総合研究所の研究によって算出された値である61.1mm~64.4mmであってよい。Hpは、図2に示すような、サブピクセルの水平方向の長さである。
 バリア部6は、第2所定値未満の透過率を有するフィルムまたは板状部材によって構成されてよい。この場合、遮光領域61は、該フィルムまたは板状部材によって構成される。透光領域62は、フィルムまたは板状部材に設けられた開口によって構成される。フィルムは、樹脂によって構成されてよいし、他の材料によって構成されてよい。板状部材は、樹脂または金属等によって構成されてよいし、他の材料によって構成されてよい。バリア部6は、フィルムまたは板状部材に限られず、他の種類の部材によって構成されてよい。バリア部6は、基材が遮光性を有してよいし、基材に遮光性を有する添加物が含有されてよい。
 バリア部6は、液晶シャッタによって構成されてよい。液晶シャッタは、印加する電圧に応じて光の透過率を制御しうる。液晶シャッタは、複数の画素によって構成され、各画素における光の透過率を制御してよい。液晶シャッタは、光の透過率が高い領域または光の透過率が低い領域を任意の形状に形成しうる。バリア部6が液晶シャッタによって構成される場合、透光領域62は、第1所定値以上の透過率を有する領域としてよい。バリア部6が液晶シャッタによって構成される場合、遮光領域61は、第2所定値以下の透過率を有する領域としてよい。
 上述のように構成されることによって、バリア部6は、アクティブエリア51の一部のサブピクセルから出射した画像光を、透光領域62を通過させ利用者の右眼に伝播させうる。バリア部6は、他の一部のサブピクセルから出射した画像光を、透光領域62を通過させ利用者の左眼に伝播させうる。
(視差画像)
 利用者によって視認される画像について、図4および図5を参照して詳細に説明する。図4に示す左可視領域51aLは、上述のように、バリア部6の透光領域62を通過した画像光が利用者の左眼15Lに到達することによって、利用者の左眼15Lが視認するアクティブエリア51上の領域である。左不可視領域51bLは、バリア部6の遮光領域61によって画像光が遮られることによって、利用者の左眼15Lが視認することのできない領域である。左可視領域51aLには、サブピクセルP1の半分と、サブピクセルP2~P6の全体と、サブピクセルP7の半分とが含まれる。
 図5に示す右可視領域51aRは、バリア部6の透光領域62を透過した他の一部のサブピクセルからの画像光が利用者の右眼15Rに到達することによって、利用者の右眼15Rが視認するアクティブエリア51上の領域である。右不可視領域51bRは、バリア部6の遮光領域61によって画像光が遮られることによって、利用者の右眼15Rが視認することのできない領域である。右可視領域51aRには、サブピクセルP7の半分と、サブピクセルP8~P12の全体と、サブピクセルP1の半分とが含まれる。
 サブピクセルP1~P6に左眼画像が表示され、サブピクセルP7~P12に右眼画像が表示されると、左眼15Lおよび右眼15Rは左眼画像および右眼画像をそれぞれ視認する。左眼画像および右眼画像は互いに視差を有する視差画像である。具体的には、左眼15Lは、サブピクセルP1に表示された左眼画像の半分と、サブピクセルP2~P6に表示された左眼画像の全体と、サブピクセルP7に表示された右眼画像の半分とを視認する。右眼15Rは、サブピクセルP7に表示された右眼画像の半分と、サブピクセルP8~P12に表示された右眼画像の全体と、サブピクセルP1に表示された左眼画像の半分とを視認する。図4および図5において、左眼画像を表示するサブピクセルには符号「L」が付され、右眼画像を表示するサブピクセルには符号「R」が付されている。
 この状態において、利用者の左眼15Lが視認する左眼画像の領域は最大となり、右眼画像の面積は最小となる。利用者の右眼15Rが視認する右眼画像の領域は最大となり、左眼画像の面積は最小となる。したがって、利用者は、クロストークが最も低減された状態で3次元画像を視認する。
 上述のように構成された3次元表示装置1において、互いに視差を有する左眼画像と右眼画像とが左可視領域51aLおよび右可視領域51aRのそれぞれに含まれるサブピクセルに表示されると、眼間距離Eが標準距離E0である利用者は3次元画像を適切に視認しうる。上述の構成では、左眼15Lによって半分以上が視認されるサブピクセルに左眼画像が表示され、右眼15Rによって半分以上が視認されるサブピクセルに右眼画像が表示される。これに限られず、左眼画像および右眼画像を表示させるサブピクセルは、アクティブエリア51、バリア部6等の設計に応じて、クロストークが最小になるように左可視領域51aLおよび右可視領域51aRに基づいて適宜判定されてよい。例えば、バリア部6の開口率等に応じて、左眼15Lによって所定割合以上が視認されるサブピクセルに左眼画像を表示させ、右眼15Rによって所定割合以上が視認されるサブピクセルに右眼画像を表示させてよい。
(制御部の構成)
 制御部7は、3次元表示装置1の各構成要素に接続され、各構成要素を制御しうる。制御部7によって制御される構成要素は、検出部2、表示パネル5および駆動部11を含んでよい。3次元表示装置1は、表示パネル5および駆動部11を制御する制御部7とは別に、検出部2を制御する制御部を備えてよい。制御部7は、例えばプロセッサとして構成される。制御部7は、1つ以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込んで特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用プロセッサを含んでよい。専用プロセッサは、特定用途向けIC(Application Specific Integrated Circuit;ASIC)を含んでよい。プロセッサは、例えばプログラマブルロジックデバイス(Programmable Logic Device;PLD)を含んでよい。プログラマブルロジックデバイスは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部7は、1つまたは複数のプロセッサが協働するSoC(System-on a-Chip)、およびSiP(System In a Package)のいずれかであってよい。制御部7は、メモリ8を備え、メモリ8に各種情報、または3次元表示装置1の各構成要素を動作させるためのプログラム等を格納してよい。メモリ8は、例えば半導体メモリ等によって構成されてよい。メモリ8は、制御部7のワークメモリとして機能してよい。メモリ8は、例えばRAM(Random Access Memory)、およびROM(Read Only Memory)等、任意の記憶デバイスにより構成される。メモリ8は、後述する第1テーブルを記憶してよい。
(インデックスの調整)
 図6に示すように、右眼15Rおよび左眼15Lの水平方向における位置はそれぞれ情報0~11で識別される。眼間距離Eが標準距離E0である場合の右眼15Rの位置を識別する情報は、左眼15Lの位置を識別する情報と同一に付されている。
 図7に示すように、第1テーブルには、眼間距離Eが標準距離E0である場合の左眼15Lおよび右眼15Rの位置と、左可視領域51aLおよび右可視領域51aRそれぞれに所定割合以上が含まれる左サブピクセルおよび右サブピクセルとが対応して記憶されている。図7に示す例では、列方向に眼15の位置を識別する情報0~11が示され、行方向にはサブピクセルを識別する情報P1~P12が示されている。眼15の位置を識別する情報は、インデックスまたは基準インデックスと称される。第1テーブルには、眼15が各位置にあるときに、各サブピクセルが左サブピクセルであるか、右サブピクセルであるかが示されている。図7では、左サブピクセルに「左」が示され、右サブピクセルに「右」が示されている。図6を参照して説明したように、眼間距離Eが標準距離E0であるとき、左眼15Lが「0」で示す位置にある場合、右眼15Rは「0」で示す位置にある。この場合、図7に示す例では、サブピクセルP1~P6が左サブピクセルであり、サブピクセルP7~P12が右サブピクセルであることが示されている。左眼15Lが「1」で示す位置にある場合、右眼15Rは「1」で示す位置にある。この場合、サブピクセルP2~P7が左サブピクセルであり、P1、およびP8~P12が右サブピクセルであることが示されている。制御部7は、インデックス0~11のいずれかを選択する。制御部7は、選択したインデックスに対応する、サブピクセルを識別する情報P1~P12に基づいて、表示パネル5の表示面に表示する左眼画像および右眼画像の並びを規定する。
 制御部7は、検出部2または位置取得部3によって検出された左眼15Lの位置または右眼15Rの位置、および第1テーブルに記憶されているインデックスに基づいて、第1画像と第2画像とを合成し、視差画像を生成する。制御部7は、左眼15Lの位置または右眼15Rの位置、およびインデックスに基づいて、表示パネル5の表示面に表示する第1画像および第2画像の並びを調整してよい。これにより、眼間距離Eが標準距離E0である利用者は、3次元画像を適切に視認しうる。
 利用者の眼15の位置は、第1方向(水平方向)において移動しうる。制御部7が、インデックスを第1テーブルに記憶されたインデックス0~11のいずれかに固定し、固定されたインデックスに基づいて、視差画像を生成する場合、利用者が視認する3次元画像にクロストークが発生することがある。
 本実施形態の3次元表示装置1は、制御部7がインデックスを調整するように構成されている。制御部7は、インデックスの調整を行う場合、インデックス調整用の視差画像を生成し、生成したインデックス調整用の視差画像を表示パネルに表示させる。インデックス調整用の視差画像は、基準画像とも称される。
 基準画像は、互いに異なる第1画像および第2画像を合成した画像である。基準画像を構成する第1画像および第2画像は、色が互いに異なる単色画像であってよい。基準画像を構成する第1画像および第2画像は、一方(第1画像)が黒色画像であり、他方(第2画像)が白色画像であってよい。この場合、基準画像は、図8に示すような、白色領域と黒色領域とが交互に周期的に並ぶ縞画像となる。基準画像は、可視光画像であってよいし、赤外光画像であってよい。可視光画像は、白黒の縞画像であってよいし、カラーの縞画像であってよい。赤外光画像は、画像光の波長が互いに異なる第1画像と第2画像とを合成した縞画像であってよい。
 制御部7は、所定のインデックスに基づいて、互いに異なる第1画像および第2画像を合成し、基準画像を生成する。所定のインデックスは、第1テーブルに記憶されているインデックス0~11のいずれかであってよい。基準画像は、右眼15Rが第1テーブルにおける「0」で示す位置にあると仮定して合成した画像であってよいし、左眼15Lおよび右眼15Rの両方が第1テーブルにおける「0」で示す位置にあると仮定して合成した画像であってよい。所定のインデックスに基づいて生成された基準画像は、第1基準画像14とも称される。制御部7は、生成した第1基準画像14を表示パネル5に表示させる。図8は、表示パネル5に表示された基準画像を奥行方向から見た例を示している。表示パネル5に表示された第1基準画像14は、バリア部6および光学素子等を介して、利用者の左眼15Lおよび右眼15Rに伝播される。第1基準画像14は、利用者の顔に投影される。
 制御部7は、検出部2を制御し、第1基準画像14が投影されている利用者の顔を撮像させる。図9は、検出部2によって撮像された画像の一例を示す図である。以下、検出部2によって撮像された画像は、第1検出画像12とも称される。図9は、図8に示す第1基準画像14を用いる場合の第1検出画像12の一例を示している。図9に示すように、第1検出画像12は、利用者の左眼15Lおよび右眼15Rならびに利用者の顔に投影された第1基準画像14を含む。利用者の顔に投影された第1基準画像14は、例えば図9に示すように、第1検出画像12における縞状パターンを形成しうる。縞状パターンは、濃淡パターンとも称される。
 以下、3次元表示装置1が第1検出画像12に基づいて行うインデックスの調整について説明する。検出部2は、左眼15Lの位置および右眼15Rの位置の少なくとも一方と、濃淡パターンの位置とを検出する。以下では、検出部2が右眼15Rの位置を検出するものとする。濃淡パターンの位置とは、濃淡パターンの輝度値分布であってよい。濃淡パターンは、高輝度領域12aと低輝度領域12bとを含む。高輝度領域12aは、濃淡パターンにおける明るさが明るい帯状領域であり、低輝度領域12bは、濃淡パターンにおける明るさが暗い帯状領域である。
 第1基準画像14が利用者の眼15の位置に応じた適切なインデックスに基づいて生成されている場合、第1検出画像12において、高輝度領域12aと右眼15Rとが重なる。高輝度領域12aと右眼15Rとが重ならないことは、第1基準画像14を生成するために用いたインデックスが、利用者の眼15の実際の位置に応じた適切なインデックスでないことを意味する。
 制御部7は、第1検出画像12に基づいて、インデックスの調整を行う。以下では、第1基準画像14を生成するために用いられたインデックスが「0」であったとする。
 制御部7は、第1方向(水平方向)における右眼15Rの位置と高輝度領域12aの位置とのずれ量Ddをインデックスのずれ量として検出する。高輝度領域12aの位置とは、第1方向において輝度値が最も高くなる、高輝度領域12a内の位置であってよい。例えば、第1方向における右眼15Rの位置と高輝度領域12aの位置とのずれ量Ddがサブピクセル3個分である場合、インデックスのずれ量は「+3」となり、制御部7は、インデックスを「0」から「3」に変更する。第1方向における右眼15Rの位置と高輝度領域12aの位置とのずれ量Ddがサブピクセル6個分である場合、インデックスの変化量は「+6」となり、制御部7は、インデックスを「0」から「6」に変更する。このようにして、制御部7は、第1基準画像14が投影されている利用者の顔の像に基づいて、インデックスを調整することができる。
 3次元表示装置1によれば、インデックスの調整が、第1基準画像14が投影されている利用者の顔の像に基づいて行われることから、利用者の主観的な判断を排除した調整を行うことができる。したがって、3次元表示装置1は、利用者に3次元画像を適切に視認させることができる。
 3次元表示装置1は、インデックスを調整するにあたって、利用者の判断を必要としない。したがって、3次元表示装置1によれば、利用者に煩わしさを感じさせることなく、インデックスの調整を複数回繰り返すことが可能になり、インデックスの調整精度を向上させることができる。
 制御部7は、第1方向における左眼15Lの位置と低輝度領域12bの位置とのずれ量に基づいて、インデックスを調整してよい。これにより、外部から到来する光の影響等により濃淡パターンにおける高輝度領域12aの判別が困難である場合であっても、第1基準画像14が投影されている利用者の顔の像に基づいて、インデックスを調整することができる。
 制御部7は、濃淡パターンにおける高輝度領域12aの判別が困難であると判断した場合、白色画像である左眼画像と黒色画像である右眼画像とを合成した基準画像を生成してよい。白色画像である左眼画像と黒色画像である右眼画像とを合成した基準画像は、反転基準画像とも称される。制御部7は、検出部2によって撮像された、反転基準画像を視認している利用者の顔の像に基づいて、インデックスを調整してよい。制御部7は、右眼15Rの位置と、利用者の顔に投影された反転基準画像に含まれる濃淡パターンの低輝度領域の位置とのずれ量に基づいて、インデックスを調整してよい。これにより、外部から到来する光の影響等により濃淡パターンの高輝度領域12aの判別が困難である場合であっても、反転基準画像が投影されている利用者の顔の像に基づいて、インデックスを調整することができる。
 3次元表示装置1は、インデックスの調整を夜間に行うように構成されてよい。これにより、外部から到来する光の影響等によって、利用者の眼15の位置、または利用者の顔に投影された第1基準画像14が検出しにくくなる虞を低減できる。夜間は、例えば、日没から日の出までの時間帯であってよい。夜間は、時間帯によらず、周囲の明るさが暗い環境であってよい。
 3次元表示装置1は、上述のようにインデックスを調整した後に、インデックスの再調整を行うように構成されてよい。制御部7は、インデックスの再調整を行う際、調整したインデックスに基づいて、互いに異なる第1画像および第2画像を合成し、第2基準画像を生成する。制御部7は、第2基準画像を表示パネル5に表示させる。表示パネル5に表示された第2基準画像は、バリア部6および光学素子等を介して、利用者の左眼15Lおよび右眼15Rに伝播される。第2基準画像は、利用者の顔に投影される。制御部7は、検出部2を制御し、第2基準画像が投影されている利用者の顔を撮像させる。検出部2によって撮像される、第2基準画像が投影されている利用者の顔の像は、図9に示す第1検出画像12と同様であるが、利用者の眼15の位置および濃淡パターンの位置は、図9に示す第1検出画像12と異なってよい。3次元表示装置1がインデックスを再調整するために行う処理は、インデックスを調整するために行った処理と同様であるので、詳細な説明を省略する。
 3次元表示装置1は、インデックスの再調整を行うことから、インデックスの調整精度を向上させることができる。したがって、3次元表示装置1は、利用者に3次元画像を適切に視認させることができる。3次元表示装置1によれば、インデックスの調整を複数回繰り返すことが可能になり、インデックスの調整精度を向上させることができる。
 3次元表示装置1は、インデックスの調整を行っている時だけ基準画像を表示すればよい。3次元表示装置1は、インデックスの調整を行っていない時、3次元表示装置1を搭載した車両、船舶、航空機等の移動体に関する各種情報を表示してよい。3次元表示装置1は、各種情報を示す連続画像のフレーム間に基準画像を表示させ、該基準画像が投影された利用者の顔を検出部2に撮像させてもよい。これにより、3次元表示装置1は、移動体に関する各種情報を表示させながら、インデックスの調整を繰り返して行うことができる。その結果、3次元表示装置1は、利用者の眼15の位置に応じた適切なインデックスを常に使用できるため、利用者に3次元画像を適切に視認させることができる。
 3次元表示装置1では、検出部2が左眼15Lの位置および右眼15Rの位置の少なくとも一方と濃淡パターンの位置とを検出しているが、検出部2は、左眼15Lの位置および右眼15Rの位置の少なくとも一方と濃淡パターンの位置とを検出しなくてよい。この場合、3次元表示装置1は、位置取得部3が、左眼15Lの位置および右眼15Rの位置の少なくとも一方と濃淡パターンの位置とを検出するように構成されてよい。
 表示パネル5は、インデックスが互いに異なる複数の表示領域をアクティブエリア51内に有してよい。制御部7は、アクティブエリア51の中央部に位置する表示領域のインデックスを上述のように調整し、該表示領域のインデックスと同期して、他の表示領域のインデックスを調整してよい。
 3次元表示装置1は、第1検出画像12を補正し、補正された第1検出画像12に基づいて、インデックスを調整するように構成されてよい。第1検出画像12の補正は、利用者の顔の反射率に基づいて行われてよい。以下、第1検出画像12の補正、および、補正された第1検出画像12を用いたインデックスの調整について説明する。
 制御部7は、第1基準画像14を表示パネル5に表示させるより前の時点において、試験画像を表示パネル5に表示させる。試験画像は、単色画像であってよい。単色画像は、白色画像であってよい。試験画像は、例えば、白色の第1画像と白色の第2画像とを合成することによって生成されてよい。制御部7は、第1基準画像14を生成する前に試験画像を表示パネル5に表示させてよいし、第1基準画像14を生成した後に試験画像を表示パネル5に表示させてよい。
 制御部7は、検出部2に試験画像が投影されている利用者の顔の像を撮像させる。検出部2は、撮像して得られた反射率測定用画像(以下、単に、測定用画像ともいう)に基づいて、利用者の顔の反射率を測定する。利用者の顔の反射率は、表示パネル5に表示された試験画像の輝度値と、測定用画像の各画素の輝度値とに基づいて、測定用画像の画素毎に測定することができる。検出部2は、測定用画像に基づいて、左眼15Lの位置および右眼15Rの位置の少なくとも一方を検出する。以下では、検出部2が右眼15Rの位置を検出するものとする。
 制御部7は、検出部2が利用者の顔の反射率および右眼15Rの位置を検出した後、表示パネル5に第1基準画像14を表示させる。制御部7は、検出部2に第1基準画像14が投影されている利用者の顔を撮像させ、第1検出画像12を得る。制御部7は、第1検出画像12における各画素の輝度値を、測定用画像から測定された該画素の反射率で除算して、第1検出画像12を補正する。
 補正された第1検出画像12は、利用者の顔の反射率の影響が低減された画像である。補正された第1検出画像12は、実質的に、利用者の顔を含まず、濃淡パターンのみを含む画像でありうる。検出部2は、補正された第1検出画像12に基づいて、濃淡パターンの高輝度領域12aの位置を検出する。補正された第2検出画像13は利用者の顔の反射率の影響が低減された画像であるため、高輝度領域12aの位置を補正された第2検出画像13から検出することで、高輝度領域12aの位置を精度よく検出することができる。
 インデックスの調整を行うためには、第1方向(x軸方向)における右眼15Rの位置と高輝度領域12aの位置とのずれ量Ddが、サブピクセルの何個分に相当するかを決定する必要がある。右眼15Rの位置および高輝度領域12aの位置は、検出部2が備えるカメラの原点を基準とする座標で表現されているため、上記決定を行うためには、先ず、右眼15Rの座標および高輝度領域12aの座標を、表示パネル5の原点を基準とする座標に変換する必要がある。該座標変換は、原点補正とも称される。図10は、原点補正を説明するための図である。表示パネル5の原点O5は、高輝度領域12aに位置している。カメラの原点O2は、図10中に示す位置にあるとする。制御部7は、原点O2を基準とする右眼15Rの座標および高輝度領域12aの座標(「x」と総称する)を、原点O5を基準とする座標x+xd-xeに変換する。ここで、xdは、x軸方向における右眼15Rと高輝度領域12aとの距離であり、xeは、原点O2を基準とする右眼15Rのx座標である。制御部7は、上記の原点補正を利用して、ずれ量Ddがサブピクセルの何個分に相当するかを決定し、該決定に基づいて、インデックスを調整する。
 上記構成の3次元表示装置1によれば、測定用画像から右眼15Rの位置を検出し、補正された第1検出画像12から高輝度領域12aの位置を検出するため、右眼15Rの位置および高輝度領域12aの位置を精度よく検出することができる。その結果、インデックスを精度よく調整することができる。
 制御部7は、測定用画像に基づいて、左眼15Lの位置を検出してよい。制御部7は、第1方向における、測定用画像から検出した左眼15Lの位置と、補正された第1検出画像12から検出した低輝度領域12bの位置とのずれ量に基づいて、インデックスを調整してよい。
 制御部7は、第1基準画像14の代わりに、反転基準画像を表示パネル5に表示させてよい。制御部7は、検出部2に反転基準画像が投影されている利用者の顔を撮像させ、検出画像を得てよい。制御部7は、検出画像を利用者の顔の反射率を用いて補正し、補正された検出画像に基づいて、右眼の位置と低輝度領域の位置とを検出してよい。制御部7は、第1方向における右眼の位置と低輝度領域の位置とのずれ量に基づいて、インデックスを調整してよい。これにより、外部から到来する光の影響等により濃淡パターンの高輝度領域の判別が困難である場合であっても、反転基準画像が投影されている利用者の顔の像に基づいて、インデックスを調整することができる。
 制御部7は、第1基準画像14を生成する前に試験画像を表示パネル5に表示させる場合、利用者の顔の反射率に基づいて、第1画像および第2画像の少なくとも一方の色または輝度を変更してよい。これにより、眼15の位置および濃淡パターンを精度よく検出することが可能となる。
 図11は、インデックスを調整するための処理の一例を説明するフローチャートである。制御部7は、本フローチャートを開始すると、ステップS1において、試験画像を表示パネル5に表示させ、試験画像が投影されている利用者の顔の像(測定用画像)を検出部2に撮像させる。ステップS2において、制御部7は、測定用画像に基づいて、右眼15Rの位置を検出する。ステップS3において、制御部7は、測定用画像に基づいて、利用者の顔の反射率を測定する。ステップS4において、制御部7は、第1基準画像14を表示パネル5に表示させ、第1基準画像14が投影されている利用者の顔の像(第1検出画像12)を検出部2に撮像させる。ステップS5において、制御部7は、利用者の顔の反射率を用いて第1検出画像12を補正し、補正された第1検出画像12を得る。ステップS6において、制御部7は、補正された第1検出画像12に基づいて、高輝度領域12aの位置を検出する。ステップS7において、制御部7は、ステップS2で検出した右眼15Rの位置と、ステップS6で検出した高輝度領域12aの位置とに基づいて、原点補正を行う。ステップS8において、制御部7は、表示パネル5の原点O5を基準とするずれ量Ddに基づいて、インデックスを調整し、本フローチャートを終了する。
 3次元表示装置1は、インデックスの再調整を行う際、第2基準画像が投影されている、検出部2によって撮像された利用者の顔の像を、利用者の顔の反射率を用いて補正し、補正された像に基づいて、インデックスを再調整してよい。
(眼間距離の補正)
 利用者の眼間距離E1が標準距離E0とは異なる場合、例えば図12に示すように左可視領域51aLの一部が右可視領域51aRの一部と重なった両眼可視領域51aLRが存在することがある。したがって、左可視領域51aLに基づいて左眼画像を表示させるべきと判定された左サブピクセル(第1サブピクセル)であって、右可視領域51aRに基づいて右眼画像を表示させるべきと判定された右サブピクセル(第2サブピクセル)であるサブピクセルが存在することがある。左サブピクセルは、例えば、左可視領域51aLに所定割合(例えば、半分)以上が含まれるサブピクセルである。右サブピクセルは、例えば、右可視領域51aRに所定割合以上が含まれるサブピクセルである。
 左サブピクセルであって右ピクセルであるサブピクセルに右眼画像が表示されると、左眼15Lが視認する右眼画像が増加する。左サブピクセルであって右ピクセルであるサブピクセルに左眼画像が表示されると、右眼15Rが視認する左眼画像が増加する。そのため、重なったサブピクセルに左眼画像および右眼画像のいずれを表示させても、クロストークが増加することがある。制御部7は、標準距離E0と異なる眼間距離E1を有する利用者が、標準距離E0に基づいて構成された3次元表示装置1が表示する3次元画像を視認したときに発生するクロストークを低減すべく、眼間距離の補正を行ってよい。
 制御部7は、眼間距離の補正を行う場合、眼間距離補正用の視差画像を生成し、生成した視差画像を表示パネルに表示させる。眼間距離補正用の視差画像は、所定のインデックスに基づいて合成された第1基準画像14であってよいし、調整したインデックスに基づいて合成された第2基準画像であってよい。眼間距離補正用の視差画像は、第1基準画像および第2基準画像とは異なる画像であってよい。以下では、眼間距離補正用の視差画像が第1基準画像14であるとする。
 制御部7は、第1基準画像14を表示パネル5に表示させる。表示パネル5に表示された第1基準画像14は、バリア部6および光学素子等を介して、利用者の左眼15Lおよび右眼15Rに伝播される。第1基準画像14は、利用者の顔に投影される。
 制御部7は、検出部2を制御し、第1基準画像14が投影されている利用者の顔を撮像させる。図13は、検出部2によって撮像された画像の一例を示す図である。検出部2によって撮像された画像は、第2検出画像13とも称される。図13に示すように、第2検出画像13は、利用者の左眼15Lおよび右眼15Rならびに利用者の顔に投影された第1基準画像14を含む。利用者の顔に投影された第1基準画像14は、例えば図13に示すように、第2検出画像13における縞状パターンを形成しうる。縞状パターンは、濃淡パターンとも称される。
 以下、3次元表示装置1が第2検出画像13に基づいて行う眼間距離の補正について説明する。検出部2は、左眼15Lの位置および右眼15Rの位置と、濃淡パターンの位置とを検出する。濃淡パターンの位置とは、濃淡パターンの輝度値分布であってよい。濃淡パターンは、高輝度領域13aと低輝度領域13bとを含む。高輝度領域13aは、濃淡パターンにおける明るさが明るい帯状領域であり、低輝度領域13bは、濃淡パターンにおける明るさが暗い帯状領域である。
 眼間距離の補正が行われていない3次元表示装置1は、標準距離E0に基づいて構成されている。したがって、利用者の眼間距離E1が標準距離E0である場合、第1方向(水平方向)における高輝度領域13aと低輝度領域13bとの距離が、水平方向における左眼15Lと右眼15Rとの距離に等しくなる。言い換えれば、利用者の眼間距離E1が標準距離E0である場合、隣り合う高輝度領域13a間の水平方向における距離が、水平方向における第1眼15Lと第2眼15Rとの距離の2倍になる。隣り合う高輝度領域13a間の水平方向における距離は、水平距離Dhとも称される。水平方向における第1眼15Lと第2眼15Rとの距離は、水平距離Deとも称される。水平距離Dhは、高輝度領域12aの位置に基づいて算出することができる。水平距離Deは、左眼15Lの位置および右眼15Rの位置に基づいて算出することができる。水平距離Dhが水平距離Deの2倍より大きい場合、利用者の眼間距離E1が標準距離E0より小さいと判断しうる。水平距離Dhが水平距離Deの2倍より小さい場合、利用者の眼間距離E1が標準距離E0より大きいと判断しうる。
 制御部7は、水平距離Dhおよび水平距離Deに基づいて、駆動部11を制御し、バリア部6を第3方向において移動させる。制御部7は、利用者の眼間距離E1が標準距離E0より大きいと判断した場合、例えば図14に示すように、バリア部6を第3方向に沿って移動させ、バリア部6とアクティブエリア51との距離を減少させる。これにより、左可視領域51aLに含まれるサブピクセルから射出される画像光を、眼間距離E1が標準距離E0より大きい利用者の左眼に伝播させ、右可視領域51aRに含まれるサブピクセルから射出される画像光を、眼間距離E1が標準距離E0より大きい利用者の右眼に伝播させることができる。
 制御部7は、利用者の眼間距離E1が標準距離E0より小さいと判断した場合、バリア部6を第3方向に沿って移動させ、バリア部6とアクティブエリア51との距離を増加させる。これにより、左可視領域51aLに含まれるサブピクセルから射出される画像光を、眼間距離E1が標準距離より小さい利用者の左眼15Lに伝播させ、右可視領域51aRに含まれるサブピクセルから射出される画像光を、眼間距離E1が標準距離E0より小さい利用者の右眼15Rに伝播させることができる。
 3次元表示装置1によれば、眼間距離の補正が、第1基準画像が投影されている利用者の顔の像に基づいて行われることから、利用者の主観的な判断を排除した補正を行うことができる。したがって、3次元表示装置1は、利用者に3次元画像を適切に視認させることができる。
 メモリ8は、水平距離Dhと水平距離Deとの比率と、バリア部6の第3方向における移動量との関係が規定された眼間距離補正用のテーブルを記憶してよい。制御部7は、メモリ8に記憶された眼間距離補正用のテーブルを用いて、駆動部11を制御してよい。
 3次元表示装置1は、眼間距離を補正するにあたって、利用者の判断を必要としない。したがって、3次元表示装置1によれば、利用者に煩わしさを感じさせることなく、眼間距離の補正を複数回繰り返すことが可能になり、眼間距離の補正精度を向上させることができる。
 3次元表示装置1は、第2検出画像13を補正し、補正された第2検出画像13に基づいて、眼間距離を補正するように構成されてよい。第2検出画像13の補正は、利用者の顔の反射率に基づいて行われてよい。以下、第2検出画像13の補正、および、補正された第2検出画像13を用いた眼間距離の補正について説明する。
 制御部7は、第1基準画像14を表示パネル5に表示させるより前の時点において、試験画像を表示パネル5に表示させる。試験画像は、単色画像であってよい。単色画像は、白色画像であってよい。試験画像は、例えば、白色の第1画像と白色の第2画像とを合成することによって生成されてよい。制御部7は、第1基準画像14を生成する前に試験画像を表示パネル5に表示させてよいし、第1基準画像14を生成した後に試験画像を表示パネル5に表示させてよい。
 制御部7は、検出部2に試験画像が投影されている利用者の顔の像を撮像させて、測定用画像を得る。制御部7は、測定用画像に基づいて、利用者の顔の反射率を測定し、左眼15Lの位置および右眼15Rの位置を検出する。利用者の顔の反射率は、表示パネル5に表示された試験画像の輝度値と、測定用画像の各画素の輝度値とに基づいて、測定用画像の画素毎に測定することができる。制御部7は、インデックスの調整を行った際に測定した反射率をメモリ8に記憶させておき、メモリ8から読み出した反射率を用いてよいし、眼間距離の補正を行う際に、反射率を改めて測定してよい。制御部7は、左眼15Lの位置および右眼15Rの位置に基づいて、水平距離Deを算出する。
 制御部7は、表示パネル5に第1基準画像14を表示させる。制御部7は、検出部2に第1基準画像14が投影されている利用者の顔を撮像させ、第2検出画像13を得る。制御部7は、第2検出画像13における各画素の輝度値を、測定用画像から測定された該画素の反射率で除算して、第2検出画像13を補正する。制御部7は、補正された第2検出画像13に基づいて、高輝度領域12aの位置を検出し、高輝度領域12aの位置に基づいて、水平距離Dhを算出する。以降の処理は、補正しない第2検出画像13を用いて眼間距離を補正する場合と同様であるので、詳細な説明を省略する。補正された第2検出画像13は、利用者の顔の反射率の影響が低減されているので、濃淡パターンが検出し易くなっている。このため、補正された第2検出画像13を用いることで、眼間距離を精度よく補正することが可能となる。
 制御部7は、濃淡パターンにおける低輝度領域13bの判別が困難であると判断した場合、水平方向における隣り合う高輝度領域13a間の距離を水平距離Dhとしてよい。これにより、外部から到来する光の影響等により濃淡パターンにおける低輝度領域13bの判別が困難である場合であっても、第1基準画像が投影されている利用者の顔の像に基づいて、眼間距離を補正することができる。
 制御部7は、濃淡パターンにおける低輝度領域13bの判別が困難であると判断した場合、白色画像である左眼画像と黒色画像である右眼画像とを合成した基準画像を生成してよい。白色画像である左眼画像と黒色画像である右眼画像とを合成した基準画像は、反転基準画像とも称される。制御部7は、検出部2によって撮像された、反転基準画像を視認している利用者の顔の像に基づいて、眼間距離を補正してよい。制御部7は、水平方向における隣り合う高輝度領域間の距離と水平距離Deとに基づいて、眼間距離を補正してよい。これにより、外部から到来する光の影響等により濃淡パターンの低輝度領域13bの判別が困難である場合であっても、反転基準画像が投影されている利用者の顔の像に基づいて、眼間距離を補正することができる。
 3次元表示装置1は、眼間距離の補正を夜間に行うように構成されてよい。これにより、外部から到来する光の影響等によって、利用者の眼15の位置、または利用者の顔に投影された第1基準画像14が検出しにくくなる虞を低減できる。夜間は、例えば、日没から日の出までの時間帯であってよい。夜間は、時間帯によらず、周囲の明るさが暗い環境であってよい。
 3次元表示装置1は、上述のように眼間距離を補正した後に、眼間距離の再補正を行うように構成されてよい。制御部7は、眼間距離の再補正を行う際、互いに異なる第1画像および第2画像を合成し、眼間距離再補正用の視差画像を生成する。制御部7は、生成した視差画像を表示パネルに表示させる。眼間距離再補正用の視差画像は、第1基準画像であってよいし、第2基準画像であってよいし、第1基準画像および第2基準画像とは異なる画像であってよい。以下では、眼間距離再補正用の視差画像が、第2基準画像であるとする。
 表示パネル5に表示された第2基準画像は、バリア部6および光学素子等を介して、利用者の左眼および右眼に伝播される。第2基準画像は、利用者の顔に投影される。制御部7は、検出部2を制御し、第2基準画像が投影されている利用者の顔を撮像させる。検出部2によって撮像される、第2基準画像が投影されている利用者の顔の像は、図13に示す第2検出画像13と同様であるが、利用者の眼15の位置および濃淡パターンの位置は、図13に示す第2検出画像13と異なってよい。3次元表示装置1が眼間距離を再補正するために行う処理は、眼間距離を補正するために行う上述の処理と同様であるので、詳細な説明を省略する。
 3次元表示装置1は、眼間距離の再補正を行うことから、眼間距離の補正精度を向上させることができる。したがって、3次元表示装置1は、利用者に3次元画像を適切に視認させることができる。3次元表示装置1によれば、眼間距離の補正を複数回繰り返すことが可能になり、眼間距離の補正精度を向上させることができる。
 3次元表示装置1は、眼間距離の補正を行っている時だけ基準画像を表示すればよい。3次元表示装置1は、眼間距離の補正を行っていない時、3次元表示装置1を搭載した車両、船舶、航空機等の移動体に関する各種情報を表示してよい。3次元表示装置1は、各種情報を示す連続画像のフレーム間に基準画像を表示させ、該基準画像が投影された利用者の顔を検出部2に撮像させてもよい。これにより、3次元表示装置1は、移動体に関する各種情報を表示させながら、眼間距離の補正を繰り返して行うことができる。その結果、3次元表示装置1は、利用者の眼間距離に応じた3次元画像を常に表示できるため、利用者に3次元画像を適切に視認させることができる。
 3次元表示装置1では、検出部2が眼15の位置と濃淡パターンの位置とを検出しているが、検出部2は、眼15の位置と濃淡パターンの位置とを検出しなくてよい。この場合、3次元表示装置1は、制御部7が、眼15の位置と濃淡パターンの位置とを検出するように構成されてよいし、位置取得部3が、眼15の位置と濃淡パターンの位置とを検出し、制御部7に出力するように構成されてよい。
 3次元表示装置1は、眼間距離の再補正を行う場合、第2基準画像が投影されている、検出部2によって撮像された利用者の顔の像を、利用者の顔の反射率を用いて補正し、補正された像に基づいて、眼間距離を再補正してよい。
 図15に示すように、3次元表示装置1は、ヘッドアップディスプレイ100に搭載されうる。ヘッドアップディスプレイ100は、HUD(Head Up Display)100とも称される。HUD100は、3次元表示装置1と、光学部材110と、被投影面130を有する被投影部材120とを備える。
 HUD100は、3次元表示装置1から射出される画像光を、光学部材110を介して被投影部材120に到達させる。HUD100は、被投影部材120で反射させた画像光を、利用者の第1眼および第2眼に到達させる。言い換えれば、HUD100は、図15において破線で示される光路140に沿って、3次元表示装置1から利用者の第1眼および第2眼まで画像光を進行させる。利用者は、光路140に沿って到達した画像光を、虚像150として視認しうる。
 HUD100は、3次元表示装置1のインデックスの調整が、第1基準画像が投影されている利用者の顔の像に基づいて行われることから、利用者の主観的な判断を排除した調整を行うことができる。したがって、HUD100は、利用者に3次元画像を適切に視認させることができる。HUD100は、インデックスを調整するにあたって、利用者の判断を必要としない。したがって、HUD100によれば、利用者に煩わしさを感じさせることなく、インデックスの調整を複数回繰り返すことが可能になり、インデックスの調整精度を向上させることができる。
 図16に示すように、3次元表示装置1を含むHUD100は、車両、船舶、航空機等の移動体10に搭載されてよい。HUD100は、構成の一部を、該移動体10が備える他の装置、部品と兼用してよい。例えば、移動体10は、ウインドシールドを被投影部材120として兼用してよい。構成の一部を該移動体10が備える他の装置、部品と兼用する場合、他の構成をHUDモジュールまたは3次元表示コンポーネントと呼びうる。HUD100は、移動体10に搭載されてよい。
 移動体10は、3次元表示装置1のインデックスの調整が、第1基準画像が投影されている利用者の顔の像に基づいて行われることから、利用者の主観的な判断を排除した調整を行うことができる。したがって、移動体10は、利用者に3次元画像を適切に視認させることができる。移動体10は、インデックスを調整するにあたって、利用者の判断を必要としない。したがって、移動体10によれば、利用者に煩わしさを感じさせることなく、インデックスの調整を複数回繰り返すことが可能になり、インデックスの調整精度を向上させることができる。
 本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでもよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むが、これに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーパー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
 以上、本開示の実施形態について詳細に説明したが、また、本開示は上述の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲内において、種々の変更、改良等が可能である。上述の各実施形態をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。
 本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1眼は、第2眼と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 本開示において、x軸、y軸、及びz軸は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、x軸、y軸、及びz軸によって構成される直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。
 本開示は次の実施の形態が可能である。
 本開示の一実施形態に係る3次元表示装置は、表示パネルと、バリア部と、検出部と、制御部とを備える。前記表示パネルは、第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成される。前記検出部は、前記視差画像を視認している前記利用者の顔を撮像するように構成される。前記制御部は、前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、前記第1基準画像を前記表示パネルに表示させる。前記制御部は、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する。
 本開示の一実施形態に係るヘッドアップディスプレイは、表示パネルと、バリア部と、光学部材と、検出部と、制御部とを備える。前記表示パネルは、第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成される。前記光学部材は、前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される。前記検出部は、前記視差画像を視認している前記利用者の顔を撮像するように構成される。前記制御部は、前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、前記第1基準画像を前記表示パネルに表示させる。前記制御部は、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する。
 本開示の一実施形態に係る移動体は、ヘッドアップディスプレイを備える。前記ヘッドアップディスプレイは、表示パネルと、バリア部と、光学部材と、検出部と、制御部とを備える。前記表示パネルは、第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される。前記バリア部は、前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成される。前記光学部材は、前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される。前記検出部は、前記視差画像を視認している前記利用者の顔を撮像するように構成される。前記制御部は、前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定する所定のインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、前記第1基準画像を前記表示パネルに表示させる。前記制御部は、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する。
 本開示の一実施形態に係る3次元表示装置、ヘッドアップディスプレイおよび移動体によれば、利用者に3次元画像を適切に視認させることができる。
 以上、本開示の実施形態について詳細に説明したが、また、本開示は上述の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲内において、種々の変更、改良等が可能である。上記各実施形態をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。
 1   3次元表示装置
 2   検出部
 3   位置取得部
 4   照射器
 5   表示パネル
 51  アクティブエリア
 51a 可視領域
 51aL 左可視領域
 51aR 右可視領域
 51bL 左不可視領域
 51bR 右不可視領域
 51aLR 両眼可視領域
 6   バリア部
 61  遮光領域
 62  透光領域
 7   制御部
 8   メモリ
 10  移動体
 11  駆動部
 12  第1検出画像
 13  第2検出画像
 12a,13a 高輝度領域
 12b,13b 低輝度領域
 14  基準画像(第1基準画像)
 15  眼
 15L 左眼
 15R 右眼
 100 ヘッドアップディスプレイ(HUD)
 110 光学部材
 120 被投影部材
 130 被投影面
 140 光路
 150 虚像

Claims (14)

  1.  第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される表示パネルと、
     前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成されるバリア部と、
     前記視差画像を視認している前記利用者の顔を撮像するように構成される検出部と、
     制御部と、を備え、
     前記制御部は、
      前記表示パネルに表示する前記第1画像および前記第2画像の並びを規定するインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、
      前記第1基準画像を前記表示パネルに表示して、当該第1基準画像を前記利用者に投影させ、
      前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整するように構成される、3次元表示装置。
  2.  請求項1に記載の3次元表示装置であって、
     前記制御部は、前記第1基準画像が投影されている前記利用者の顔の像に基づいて、前記画像光の前記進行方向における前記バリア部の位置を調整する、3次元表示装置。
  3.  請求項1または2に記載の3次元表示装置であって、
     前記第1画像および前記第2画像は、互いに異なる単色画像であり、
     前記制御部は、前記検出部によって撮像された前記利用者の顔の像から得られた、前記利用者の第1眼の位置および第2眼の位置の少なくとも一方と、前記利用者の顔に投影されている前記第1基準画像の濃淡パターンとに基づいて、前記インデックスを調整する、3次元表示装置。
  4.  請求項3に記載の3次元表示装置であって、
     前記制御部は、前記検出部によって撮像された前記利用者の顔の像から得られた、前記利用者の第1眼の位置および第2眼の位置と、前記利用者の顔に投影されている前記第1基準画像の濃淡パターンとに基づいて、前記画像光の前記進行方向における前記バリア部の位置を調整する、3次元表示装置。
  5.  請求項1~4のいずれか1項に記載の3次元表示装置であって、
     前記制御部は、
      調整した前記インデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第2基準画像を生成し、
      前記第2基準画像を前記表示パネルに表示させ、
      前記第2基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを再調整する、3次元表示装置。
  6.  請求項5に記載の3次元表示装置であって、
     前記制御部は、前記第2基準画像が投影されている前記利用者の顔の像に基づいて、前記画像光の前記進行方向における前記バリア部の位置を再調整する、3次元表示装置。
  7.  請求項1~6のいずれか1項に記載の3次元表示装置であって、
     前記制御部は、前記第1基準画像を前記表示パネルに表示させる前に、単色の試験画像を前記表示パネルに表示させる、3次元表示装置。
  8.  請求項7に記載の3次元表示装置であって、
     前記試験画像は、白色の単色画像である、3次元表示装置。
  9.  請求項7または8に記載の3次元表示装置であって、
     前記制御部は、前記検出部に、前記試験画像が投影されている前記利用者の顔の像を撮像させる、3次元表示装置。
  10.  請求項9に記載の3次元表示装置であって、
     前記制御部は、前記試験画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記利用者の顔の反射率を測定する、3次元表示装置。
  11.  請求項10に記載の3次元表示装置であって、
     前記制御部は、前記反射率に基づいて、前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像を補正する、3次元表示装置。
  12.  請求項11に記載の3次元表示装置であって、
     前記制御部は、補正した前記利用者の顔の像に基づいて、前記インデックスを調整する、3次元表示装置。
  13.  第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される表示パネルと、
     前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成されるバリア部と、
     前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される光学部材と、
     前記視差画像を視認している前記利用者の顔を撮像するように構成される検出部と、
     制御部と、を備え、
     前記制御部は、
      前記表示パネルに表示する前記第1画像および前記第2画像の並びを指定するインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、
      前記第1基準画像を前記表示パネルに表示させ、
      前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する、ヘッドアップディスプレイ。
  14.  第1画像と前記第1画像に対して視差を有する第2画像とを含む視差画像を表示するように構成される表示パネルと、
     前記視差画像の画像光の進行方向を規定することによって、利用者の第1眼および第2眼に視差を与えるように構成されるバリア部と、
     前記表示パネルから出射される前記画像光を、前記利用者に虚像として視認させるように構成される光学部材と、
     前記視差画像を視認している前記利用者の顔を撮像するように構成される検出部と、
     制御部と、を備え、
     前記制御部は、
      前記表示パネルに表示する前記第1画像および前記第2画像の並びを指定するインデックスに基づいて、互いに異なる前記第1画像と前記第2画像とを合成して第1基準画像を生成し、
      前記第1基準画像を前記表示パネルに表示させ、
      前記第1基準画像が投影されている、前記検出部によって撮像された前記利用者の顔の像に基づいて、前記インデックスを調整する、ヘッドアップディスプレイを備える、移動体。
PCT/JP2021/026664 2020-07-22 2021-07-15 3次元表示装置、ヘッドアップディスプレイおよび移動体 WO2022019215A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/016,844 US20230291888A1 (en) 2020-07-22 2021-07-15 Three-dimensional display device, head-up display, and movable body
EP21846379.2A EP4187310A1 (en) 2020-07-22 2021-07-15 Three-dimensional display device, head-up display, and mobile object
CN202180061408.8A CN116194823A (zh) 2020-07-22 2021-07-15 三维显示装置、平视显示器以及移动体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020-125729 2020-07-22
JP2020125729 2020-07-22
JP2021045097A JP2022022078A (ja) 2020-07-22 2021-03-18 3次元表示装置、ヘッドアップディスプレイおよび移動体
JP2021-045097 2021-03-18

Publications (1)

Publication Number Publication Date
WO2022019215A1 true WO2022019215A1 (ja) 2022-01-27

Family

ID=79729563

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/026664 WO2022019215A1 (ja) 2020-07-22 2021-07-15 3次元表示装置、ヘッドアップディスプレイおよび移動体

Country Status (4)

Country Link
US (1) US20230291888A1 (ja)
EP (1) EP4187310A1 (ja)
CN (1) CN116194823A (ja)
WO (1) WO2022019215A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281438A (ja) * 1996-04-09 1997-10-31 Toshiba Corp ディスプレイ装置
JP2000287224A (ja) * 1999-03-30 2000-10-13 Sanyo Electric Co Ltd 立体表示装置
JP2001166259A (ja) 1999-09-24 2001-06-22 Sanyo Electric Co Ltd 眼鏡無し立体映像表示装置
US20130307948A1 (en) * 2012-05-16 2013-11-21 Samsung Display Co., Ltd. 3-dimensional image display device and display method thereof
WO2020090712A1 (ja) * 2018-11-02 2020-05-07 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム
JP2020077913A (ja) * 2018-11-05 2020-05-21 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014110568A (ja) * 2012-12-03 2014-06-12 Sony Corp 画像処理装置、画像処理方法、およびプログラム
WO2015168464A1 (en) * 2014-04-30 2015-11-05 Visteon Global Technologies, Inc. System and method for calibrating alignment of a three-dimensional display within a vehicle
JP6924637B2 (ja) * 2017-07-05 2021-08-25 京セラ株式会社 3次元表示装置、3次元表示システム、移動体、および3次元表示方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09281438A (ja) * 1996-04-09 1997-10-31 Toshiba Corp ディスプレイ装置
JP2000287224A (ja) * 1999-03-30 2000-10-13 Sanyo Electric Co Ltd 立体表示装置
JP2001166259A (ja) 1999-09-24 2001-06-22 Sanyo Electric Co Ltd 眼鏡無し立体映像表示装置
US20130307948A1 (en) * 2012-05-16 2013-11-21 Samsung Display Co., Ltd. 3-dimensional image display device and display method thereof
WO2020090712A1 (ja) * 2018-11-02 2020-05-07 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイ、移動体、およびプログラム
JP2020077913A (ja) * 2018-11-05 2020-05-21 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、移動体、およびプログラム

Also Published As

Publication number Publication date
EP4187310A1 (en) 2023-05-31
US20230291888A1 (en) 2023-09-14
CN116194823A (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
WO2019009243A1 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
JP7129789B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
US11616940B2 (en) Three-dimensional display device, three-dimensional display system, head-up display, and mobile object
WO2020130049A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2020004275A1 (ja) 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
WO2019163817A1 (ja) 画像表示装置、ヘッドアップディスプレイシステム、および移動体
WO2022019215A1 (ja) 3次元表示装置、ヘッドアップディスプレイおよび移動体
US11874464B2 (en) Head-up display, head-up display system, moving object, and method of designing head-up display
CN113614619B (zh) 图像显示模块、图像显示系统、移动体、图像显示方法以及图像显示程序
JP2022022078A (ja) 3次元表示装置、ヘッドアップディスプレイおよび移動体
JP6668564B1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
WO2020130048A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
JP7336782B2 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
CN114730096A (zh) 平视显示器系统以及移动体
WO2022019154A1 (ja) 3次元表示装置
CN114746794A (zh) 平视显示器、平视显示器系统以及移动体
WO2023228887A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2021220832A1 (ja) 眼間距離測定方法および較正方法
WO2022149599A1 (ja) 3次元表示装置
WO2021066111A1 (ja) 3次元表示装置、3次元表示システム及び移動体
JP2022055171A (ja) 3次元表示装置、3次元表示方法、3次元表示システム、および移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21846379

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021846379

Country of ref document: EP

Effective date: 20230222