WO2022019154A1 - 3次元表示装置 - Google Patents

3次元表示装置 Download PDF

Info

Publication number
WO2022019154A1
WO2022019154A1 PCT/JP2021/026013 JP2021026013W WO2022019154A1 WO 2022019154 A1 WO2022019154 A1 WO 2022019154A1 JP 2021026013 W JP2021026013 W JP 2021026013W WO 2022019154 A1 WO2022019154 A1 WO 2022019154A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
eye
subpixel
control unit
display panel
Prior art date
Application number
PCT/JP2021/026013
Other languages
English (en)
French (fr)
Inventor
薫 草深
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US18/016,649 priority Critical patent/US20230296914A1/en
Priority to CN202180060569.5A priority patent/CN116134366A/zh
Priority to EP21845189.6A priority patent/EP4184238A1/en
Publication of WO2022019154A1 publication Critical patent/WO2022019154A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • G02B30/31Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers involving active parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • H04N13/125Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction

Definitions

  • This disclosure relates to a three-dimensional display device.
  • a three-dimensional display device including an optical element is known.
  • the three-dimensional display device of the present disclosure includes a display panel that displays a mixed image including a first image and a second image having a parallax with respect to the first image in an active area, and image light emitted from the display panel.
  • An optical element that defines the direction of the light beam, a position acquisition unit that acquires a first position that is the position of the first eye of the observer, and a second position that is a position of the second eye that is different from the first eye.
  • a control unit for displaying the mixed image in which the arrangement of the first image and the second image is changed based on at least one of the first position and the second position is provided on the display panel.
  • the active area includes a plurality of display areas.
  • the control unit is the first image based on one of the plurality of reference indexes corresponding to the display area and at least one of the first position and the second position in each of the plurality of display areas. And, the arrangement of the second image is changed, the mixed image is combined, and the combined image is displayed on the display panel.
  • the three-dimensional display device of the present disclosure includes a display panel for displaying a mixed image including a first image and a second image having a parallax with respect to the first image in an active area, and an image emitted from the display panel.
  • An optical element that defines the direction of the light beam, and a position acquisition unit that acquires the first position, which is the position of the first eye of the observer, and the second position, which is the position of the second eye different from the first eye.
  • the active area includes a plurality of display areas.
  • control unit changes the arrangement of the first image and the second image with reference to one of the plurality of switching origins corresponding to the display areas, and the mixed image. Is synthesized, and the combined image is displayed on the display panel.
  • FIG. 1 It is a figure which shows the example which looked at the 3D display system provided with the 3D display device in one Embodiment from the vertical direction. It is a figure which shows the example which looked at the display panel shown in FIG. 1 from the depth direction. It is a figure which shows the example which looked at the parallax barrier shown in FIG. 1 from the depth direction. It is a figure for demonstrating the left visible region in the display panel shown in FIG. It is a figure for demonstrating the right visible area in the display panel shown in FIG. It is a figure for demonstrating the binocular visible region in the 3D display system shown in FIG. It is a figure for demonstrating in detail the left visible region on the display panel according to the position of the left eye.
  • a three-dimensional display device which is a basic configuration of the three-dimensional display device of the present disclosure, in order to perform three-dimensional display without using glasses, a part of the light emitted from the display panel reaches the right eye.
  • a three-dimensional display device including an optical element that allows another part of the light emitted from the display panel to reach the left eye is known.
  • the emitted light is reflected by a reflective member such as a mirror. At this time, distortion occurs due to the reflective surface of the reflective member. This distortion is removed by using another optical member or the like.
  • FIG. 1 is a diagram showing an example of a three-dimensional display system 100 provided with a three-dimensional display device 2 in one embodiment as viewed from above. First, the configuration on which this embodiment is based will be described.
  • the three-dimensional display system 100 according to the embodiment of the present disclosure includes a detection device 1 and a three-dimensional display device 2.
  • the detection device 1 detects the positions of the left eye (first eye) and the right eye (second eye) of the observer and outputs the positions to the three-dimensional display device 2.
  • the detection device 1 may include, for example, a camera.
  • the detection device 1 may photograph the face of the observer with a camera.
  • the detection device 1 may detect the positions of the left eye and the right eye from the captured image including the image of the face of the observer of the camera.
  • the detection device 1 may detect the positions of the left eye and the right eye as coordinates in three-dimensional space from the images captured by one camera.
  • the detection device 1 may detect the position of the left eye and the position of the right eye as coordinates in three-dimensional space from images taken by two or more cameras.
  • the detection device 1 does not have a camera and may be connected to a camera outside the device.
  • the detection device 1 may include an input terminal for inputting a signal from a camera outside the device. Cameras outside the device may be directly connected to the input terminals. Cameras outside the device may be indirectly connected to the input terminals via a shared network.
  • the detection device 1 without a camera may include an input terminal for inputting a video signal by the camera. The detection device 1 without a camera may detect the positions of the left eye and the right eye from the video signal input to the input terminal.
  • the detection device 1 may include, for example, a sensor.
  • the sensor may be an ultrasonic sensor, an optical sensor, or the like.
  • the detection device 1 may detect the position of the observer's head by a sensor and detect the positions of the left eye and the right eye based on the position of the head.
  • the detection device 1 may detect the positions of the left eye and the right eye as coordinate values in three-dimensional space by one or two or more sensors.
  • the three-dimensional display system 100 does not have to include the detection device 1.
  • the three-dimensional display device 2 may include an input terminal for inputting a signal from a detection device outside the device.
  • a detection device outside the device may be connected to an input terminal.
  • the detection device outside the device may use an electric signal and an optical signal as a transmission signal to the input terminal.
  • the detection device outside the device may be indirectly connected to the input terminal via a shared communication network.
  • the three-dimensional display device 2 may be configured to input position coordinates indicating the positions of the left eye and the right eye acquired from a detection device outside the device.
  • the three-dimensional display device 2 includes a position acquisition unit 3, an irradiator 4, a display panel 5, a parallax barrier 6 as an optical element, a control unit 7, and a memory 8.
  • the display panel 5 displays a mixed image including the first image and the second image having parallax with respect to the first image.
  • the parallax barrier 6 defines the light ray direction of the image light emitted from the display panel 5.
  • the position acquisition unit 3 acquires the position of the right eye, which is the first eye of the observer, and the position of the left eye, which is the second eye.
  • the control unit 7 changes the arrangement of the left eye image and the right eye image based on the position of the left eye and the position of the right eye, and synthesizes the mixed image.
  • the control unit 7 displays the mixed image on the display panel 5.
  • the display panel 5 has a plurality of display areas in the active area. Each of the plurality of display areas corresponds to one of a plurality of reference indexes.
  • the control unit 7 synthesizes a mixed image to be displayed in the display area with the reference index of the display area as a reference. The details of the procedure for synthesizing such mixed images will be described later.
  • the position acquisition unit 3 acquires the position of the left eye and the position of the right eye detected by the detection device 1.
  • the irradiator 4 can irradiate the display panel 5 with light in a plane.
  • the irradiator 4 may be configured to include a light source, a light guide plate, a diffusion plate, a diffusion sheet, and the like.
  • the irradiator 4 emits irradiation light by a light source, and the irradiation light is made uniform in the surface direction of the display panel 5 by a light guide plate, a diffusion plate, a diffusion sheet, or the like. Then, the irradiator 4 can emit the uniformed light toward the display panel 5.
  • the display panel 5 for example, a display panel such as a transmissive liquid crystal display panel can be adopted. As shown in FIG. 2, the display panel 5 has a plurality of partition areas on the active area 51 formed in a planar shape.
  • the active area 51 displays a mixed image.
  • the mixed image includes a left eye image (first image) described later and a right eye image (second image) having parallax with respect to the left eye image.
  • the mixed image may include a third image, which will be described later.
  • the compartmentalized area is a region partitioned by a grid-like black matrix 52 in a first direction and a second direction orthogonal to the first direction. The direction orthogonal to the first direction and the second direction is referred to as a third direction.
  • the first direction may be referred to as the horizontal direction.
  • the second direction may be referred to as the vertical direction.
  • the third direction may be referred to as the depth direction.
  • the first direction, the second direction, and the third direction are not limited to these, respectively.
  • the first direction is represented as the x-axis direction
  • the second direction is represented as the y-axis direction
  • the third direction is represented as the z-axis direction.
  • the active area 51 includes a plurality of sub-pixels arranged in a grid pattern along the horizontal direction and the vertical direction.
  • Each sub-pixel corresponds to any of the colors R (Red), G (Green), and B (Blue), and one pixel can be configured by combining the three sub-pixels R, G, and B as a set. ..
  • One pixel can be referred to as one pixel.
  • the horizontal direction is, for example, a direction in which a plurality of subpixels constituting one pixel are arranged.
  • the vertical direction is, for example, the direction in which subpixels of the same color are lined up.
  • the display panel 5 is not limited to the transmissive liquid crystal panel, and other display panels 5 such as organic EL can be used. When a self-luminous display panel is used as the display panel 5, the three-dimensional display device 2 does not have to include the irradiator 4.
  • a plurality of sub-pixels arranged in the active area 51 as described above constitute a sub-pixel group Pg.
  • the subpixel group Pg is repeatedly arranged in the horizontal direction.
  • the sub-pixel group Pg is repeatedly arranged adjacent to a position shifted by one sub-pixel in the horizontal direction in the vertical direction.
  • a subpixel group Pg including 12 subpixels P1 to P12 arranged in succession, one in the vertical direction and 12 in the horizontal direction is arranged.
  • some subpixel groups Pg are coded.
  • the sub-pixel group Pg is the smallest unit in which the control unit 7, which will be described later, controls to display an image.
  • the sub-pixels P1 to P (2 ⁇ n ⁇ b) having the same identification information of all the sub-pixel groups Pg are simultaneously controlled by the control unit 7. For example, when the control unit 7 switches the image to be displayed on the subpixel P1 from the left eye image to the right eye image, the control unit 7 simultaneously changes the image to be displayed on the subpixel P1 in all the subpixel group Pg from the left eye image to the right eye image. Can be switched.
  • the parallax barrier 6 is formed by a plane along the active area 51, and is arranged at a predetermined distance (gap) g from the active area 51.
  • the parallax barrier 6 may be located on the opposite side of the irradiator 4 with respect to the display panel 5.
  • the parallax barrier 6 may be located on the irradiator 4 side of the display panel 5.
  • the parallax barrier 6 defines the light ray direction, which is the propagation direction of the image light emitted from the subpixel, for each of the translucent regions 62, which are a plurality of strip-shaped regions extending in a predetermined direction in the plane. ..
  • the predetermined direction is a direction forming a predetermined angle other than 0 degrees with the vertical direction.
  • the parallax barrier 6 defines the image light emitted from the sub-pixels arranged in the active area 51, thereby determining the area on the active area 51 that is visible to the observer's eyes.
  • the region in the active area 51 that emits the image light propagating to the position of the observer's eyes is referred to as a visible region 51a.
  • the area in the active area 51 that emits the image light propagating to the position of the left eye of the observer is referred to as the left visible area 51aL (first visible area).
  • the area in the active area 51 that emits the image light propagating to the position of the observer's right eye is referred to as the right visible area 51aR (second visible area).
  • the parallax barrier 6 has a plurality of light-shielding regions 61 that block image light.
  • the plurality of light-shielding regions 61 define a light-transmitting region 62 between the light-shielding regions 61 adjacent to each other.
  • the light-transmitting region 62 has a higher light transmittance than the light-shielding region 61.
  • the light-shielding region 61 has a lower light transmittance than the light-transmitting region 62.
  • the translucent region 62 is a portion that transmits light incident on the parallax barrier 6.
  • the light transmitting region 62 may transmit light with a transmittance of a first predetermined value or more.
  • the first predetermined value may be, for example, approximately 100%, or may be a value less than 100%.
  • the first predetermined value may be a value of 100% or less, for example, 80% or 50%, as long as the image light emitted from the active area 51 can be satisfactorily visually recognized.
  • the light-shielding region 62 is a portion that blocks the light incident on the parallax barrier 6 and hardly transmits it. In other words, the shading area 62 blocks the image displayed in the active area 51 of the display panel 5 from reaching the observer's eyes.
  • the light-shielding region 62 may block light with a transmittance of a second predetermined value or less.
  • the second predetermined value may be, for example, approximately 0%, or may be a value closer to 0%, such as 0.5%, 1%, or 3%, which is larger than 0%.
  • the first predetermined value may be several times or more, for example, 10 times or more larger than the second predetermined value.
  • the translucent area 62 and the light-shielding area 61 extend in a predetermined direction along the active area 51, and are repeatedly and alternately arranged in a direction orthogonal to the predetermined direction.
  • the translucent region 62 defines the light ray direction of the image light emitted from the subpixel.
  • the barrier pitch Bp which is the horizontal arrangement interval of the translucent region 62, and the gap g between the active area 51 and the parallax barrier 6 are the appropriate viewing distance d and the standard distance E0. It is specified that the following equations (1) and (2) hold.
  • the appropriate viewing distance d is the distance between each of the observer's right eye and left eye and the parallax barrier 6 such that the horizontal length of the visible region 51a is equivalent to n subpixels.
  • the direction of the straight line passing through the right eye and the left eye (inter-eye direction) is the horizontal direction.
  • the standard distance E0 is the standard of the observer's intereye distance E.
  • the standard distance E0 may be, for example, 61.1 mm to 64.4 mm, which is a value calculated by research by the National Institute of Advanced Industrial Science and Technology.
  • Hp is the horizontal length of the subpixel as shown in FIG.
  • the parallax barrier 6 may be composed of a film or a plate-shaped member having a transmittance of less than the second predetermined value.
  • the light-shielding region 61 is composed of the film or plate-shaped member.
  • the translucent region 62 is composed of openings provided in the film or plate-like member.
  • the film may be made of resin or may be made of other materials.
  • the plate-shaped member may be made of resin, metal, or the like, or may be made of other materials.
  • the parallax barrier 6 is not limited to the film or plate-shaped member, but may be composed of other types of members.
  • the base material may have a light-shielding property, or the base material may contain an additive having a light-shielding property.
  • the parallax barrier 6 may be configured by a liquid crystal shutter.
  • the liquid crystal shutter can control the light transmittance according to the applied voltage.
  • the liquid crystal shutter is composed of a plurality of pixels, and the transmittance of light in each pixel may be controlled.
  • the liquid crystal shutter can form a region having a high light transmittance or a region having a low light transmittance into an arbitrary shape.
  • the translucent region 62 may be a region having a transmittance of a first predetermined value or more.
  • the light-shielding region 61 may be a region having a transmittance of a second predetermined value or less.
  • the parallax barrier 6 allows the image light emitted from a part of the subpixels of the active area 51 to pass through the translucent region 62 and propagate to the observer's right eye.
  • the parallax barrier 6 allows the image light emitted from some of the other subpixels to pass through the translucent region 62 and propagate to the left eye of the observer.
  • An image that is visible to the observer's eye by propagating the image light to each of the observer's left and right eyes will be described in detail with reference to FIGS. 4 and 5.
  • the left visible region 51aL shown in FIG. 4 is an active area visually recognized by the observer's left eye when the image light transmitted through the translucent region 62 of the parallax barrier 6 reaches the observer's left eye. It is the area on 51.
  • the left invisible region 51bL is a region that cannot be visually recognized by the left eye of the observer because the image light is blocked by the light-shielding region 61 of the parallax barrier 6.
  • the left visible region 51aL includes half of subpixel P1, the whole of subpixels P2 to P6, and half of subpixel P7.
  • the image light from some other subpixels transmitted through the translucent region 62 of the parallax barrier 6 reaches the observer's right eye, so that the observer's right eye can see it. It is an area on the active area 51 to be visually recognized.
  • the right invisible region 51bR is a region that cannot be visually recognized by the observer's right eye because the image light is blocked by the light-shielding region 61 of the parallax barrier 6.
  • the right visible region 51aR includes half of subpixel P7, the whole of subpixels P8 to P12, and half of subpixel P1.
  • the left eye image is displayed in the sub-pixels P1 to P6 and the right eye image is displayed in the sub-pixels P7 to P12
  • the left eye and the right eye each visually recognize the image.
  • the right eye image and the left eye image are parallax images having parallax with each other.
  • the left eye is half of the left eye image displayed on the subpixel P1, the entire left eye image displayed on the subpixels P2 to P6, and the right eye image displayed on the subpixel P7.
  • the right eye visually recognizes half of the right eye image displayed on the subpixel P7, the entire right eye image displayed on the subpixels P8 to P12, and half of the left eye image displayed on the subpixel P1. ..
  • the subpixels displaying the left-eye image are designated by the reference numeral “L”
  • the subpixels displaying the right-eye image are designated by the reference numeral “R”.
  • the area of the left eye image visually recognized by the observer's left eye is the maximum, and the area of the right eye image is the minimum.
  • the area of the right eye image visually recognized by the observer's right eye is the maximum, and the area of the left eye image is the minimum. Therefore, the observer visually recognizes the three-dimensional image in the state where the crosstalk is most reduced.
  • the left eye image and the right eye image having a difference in distance from each other are displayed in the subpixels included in the left visible region 51aL and the right visible region 51aR, the eye.
  • An observer whose distance E is the standard distance E0 can properly view the three-dimensional image.
  • the left eye image is displayed in the subpixel in which more than half is visually recognized by the left eye
  • the right eye image is displayed in the subpixel in which more than half is visually recognized by the right eye.
  • the subpixels that display the left eye image and the right eye image are the left visible area 51aL and the right visible area 51aR so that the crosstalk is minimized according to the design of the active area 51, the parallax barrier 6, and the like. It may be determined as appropriate based on. For example, the left eye image is displayed on a subpixel in which a predetermined ratio or more is visually recognized by the left eye according to the aperture ratio of the parallax barrier 6, and the right eye image is displayed on the subpixel in which a predetermined ratio or more is visually recognized by the right eye. You may display it.
  • the control unit 7 is connected to each component of the three-dimensional display system 100 and can control each component.
  • the components controlled by the control unit 7 include the detection device 1 and the display panel 5.
  • the control unit 7 is configured as, for example, a processor.
  • the control unit 7 may include one or more processors.
  • the processor may include a general-purpose processor that loads a specific program and performs a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • the processor may include a programmable logic device (PLD).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the control unit 7 may be either a SoC (System-on a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).
  • the control unit 7 includes a storage unit, and may store various information, a program for operating each component of the three-dimensional display system 100, or the like in the storage unit.
  • the storage unit may be configured by, for example, a semiconductor memory or the like.
  • the storage unit may function as a work memory of the control unit 7.
  • the memory 8 is composed of an arbitrary storage device such as a RAM (RandomAccessMemory) and a ROM (ReadOnlyMemory).
  • the memory 8 stores one or more of the first table and the second table, which will be described in detail later.
  • the observer's inter-eye distance E is an inter-eye distance E1 different from the standard distance E0, as shown in FIG. 6, a part of the left visible region 51aL overlaps with a part of the right visible region 51aR. 51aLR may be present. Therefore, it is determined that the left subpixel (first subpixel) that is determined to display the left eye image based on the left visible region 51aL and that the right eye image should be displayed based on the right visible region 51aR.
  • the left subpixel is, for example, a subpixel in which a predetermined ratio (for example, half) or more is included in the left visible region 51aL.
  • the right subpixel is, for example, a subpixel in which a predetermined ratio or more is included in the right visible region 51aR.
  • the control unit 7 controls to reduce the crosstalk that occurs when the observer having the intereye distance E1 visually recognizes the three-dimensional display device 2 configured based on the standard distance E0.
  • the control unit 7 will be described in detail.
  • the control unit 7 determines the third subpixel based on the horizontal position of the observer's eye.
  • the third subpixel is a left subpixel in which the left visible region 51aL contains a predetermined ratio or more, and is a right subpixel in which the right visible region 51aR contains a predetermined ratio or more. An example of the determination method of the third subpixel will be described below.
  • the control unit 7 When the detection device 1 detects the position of the left eye, the control unit 7 performs a calculation based on the position of the left eye, the gap g, the appropriate viewing distance d, and the position of the translucent region 62, thereby making the left visible.
  • the region 51aL may be determined.
  • the control unit 7 when the left eye is in the position indicated by "6", the control unit 7 performs a calculation based on the position of the gap g, the appropriate viewing distance d, and the position of the translucent region 62. Therefore, it is determined that the left visible region 51aL is the left visible region 51aL6.
  • the control unit 7 determines the left subpixel in which the left visible region 51aL6 contains a predetermined ratio or more. In the example shown in FIG. 7, the control unit 7 may determine the subpixels P9 to P12, P1 and P2 as the left subpixel in the left visible region 51aL.
  • the control unit 7 may determine the left subpixel by any method based on the left visible region 51aL so that the left eye image visually recognized by the left eye is maximized.
  • control unit 7 When the left eye is in the position indicated by "7", the control unit 7 performs a calculation based on the positions of the gap g, the appropriate viewing distance d, and the translucent region 62, so that the left visible region 51aL is left visible. It is determined that the region is 51aL7.
  • the control unit 7 determines the left subpixel in which the left visible region 51aL7 contains a predetermined ratio or more. In the example shown in FIG. 7, the control unit 7 may determine the subpixels P10 to P12 and P1 to P3 as the left subpixel.
  • the barrier pitch Bp, the gap g, and the appropriate viewing distance d are preconfigured so that the left visible region 51aL and the right visible region 51aR do not overlap when the intereye distance E is the standard distance E0. There is. Therefore, in the configuration underlying the three-dimensional display device of the present disclosure, for example, the control unit 7 acquires only the position of the left eye, determines the left visible region 51aL based on the position of the left eye, and determines the left visible region 51aL. A region that is not 51aL is determined to be a right visible region 51aR.
  • the control unit 7 performs a calculation based on the position of the observer's right eye, the position of the barrier opening region, the gap g, and the appropriate viewing distance d detected by the detection device 1. Determines the right visible region 51aR.
  • the control unit 7 may determine the right subpixel to display the right eye image based on the right visible region 51aR.
  • the method by which the control unit 7 determines the right subpixel based on the right visible region 51aR is the same as the method of determining the left subpixel based on the left visible region 51aL.
  • control unit 7 determines the left subpixel and the right subpixel, it determines the third subpixel which is the left subpixel and the right subpixel.
  • the control unit 7 may determine the third subpixel using the first table stored in the memory 8 in advance.
  • the horizontal positions of the right eye and the left eye are identified by the information 0 to 11, respectively.
  • the information for identifying the position of the right eye when the inter-eye distance is the standard distance is attached in the same manner as the information for identifying the position of the left eye.
  • the first table includes the positions of the left eye and the right eye when the inter-eye distance E is the standard distance E0, and a predetermined ratio or more in each of the left visible region 51aL and the right visible region 51aR.
  • the left subpixel and the right subpixel are stored correspondingly.
  • information 0 to 11 for identifying the position of the eye is shown in the column direction
  • information P1 to P12 for identifying the subpixel is shown in the row direction.
  • the first table shows whether each subpixel is a left subpixel or a right subpixel when the eye is in each position.
  • the left subpixel is indicated by "left"
  • the right subpixel is indicated by "right".
  • the inter-eye distance E is not the standard distance E0
  • the right image is displayed in the subpixel to which the left eye image should be displayed for the left eye. Is displayed.
  • the control unit 7 controls the subpixels P1 to P6 based on the position "0" of the right eye.
  • the left eye image is displayed on the subpixels P7 to P12
  • the right eye image is displayed on the subpixels P7 to P12.
  • the left eye image should be displayed in the subpixels P1 to P5, and P12 based on the position "11" of the left eye. Therefore, when an image is displayed in each subpixel based on the position of the right eye, the right eye image displayed in the subpixel P12 is visually recognized. Therefore, the image of the right eye visually recognized by the left eye increases, and the crosstalk increases.
  • control unit 7 is a right subpixel in which the right visible region 51aR based on the position of the right eye contains a predetermined ratio or more, and the left visible region 51aL based on the position of the left eye contains a predetermined ratio or more.
  • a subpixel that is a subpixel is determined to be a third subpixel.
  • the control unit 7 uses the first table and subpixels P7 to P12 based on the position "0" of the right eye. Is determined to be the right subpixel.
  • the control unit 7 uses the first table to set the subpixels P1 to P5 and P12 to the left sub based on the position of the left eye. Judged as a pixel. Therefore, the control unit 7 determines that the third subpixel is the subpixel P12.
  • the control unit 7 determines the third subpixel using a second table (not shown) showing the correspondence between the position of the right eye and the position of the left eye and the third subpixel stored in the memory 8 in advance. It's okay.
  • the left visible region 51aL and the right visible region 51aR can be determined based on the position of the left eye and the position of the right eye. Then, the left subpixel and the right subpixel can be determined based on the left visible region 51aL and the right visible region 51aR, respectively.
  • FIG. 10 is a flowchart showing an example of the processing flow of the three-dimensional display device when the distance between the eyes is not the standard distance.
  • the control unit 7 acquires information indicating the positions of the user's left eye and right eye from the detection device 1 from the detection device 1 (step S11).
  • control unit 7 determines the left visible region 51aL based on the position of the left eye, and determines the left subpixel based on the left visible region 51aL ( Step S12).
  • control unit 7 determines the right visible region 51aR based on the position of the right eye indicated by the information acquired in step S11, and determines the right visible region 51aR based on the right visible region 51aR.
  • the subpixel is determined (step S13).
  • control unit 7 determines the third subpixel based on the left subpixel and the right subpixel (step S14).
  • the control unit 7 may determine the third subpixel based on the information indicating the positions of the right eye and the left eye acquired in step S11.
  • control unit 7 determines the fourth subpixel based on the left subpixel and the right subpixel (step S15).
  • the control unit 7 may determine the fourth subpixel based on the information indicating the positions of the right eye and the left eye acquired in step S11.
  • control unit 7 displays the left eye image on the subpixel that is the left subpixel and not the right subpixel (step S16).
  • control unit 7 displays the right eye image on a subpixel that is a right subpixel and not a left subpixel (step S17).
  • control unit 7 displays the third image on the third subpixel (step S18).
  • control unit 7 displays the black image on the fourth subpixel (step S19). It was
  • the icon may include, for example, a vehicle speed display, a shift position, an interior temperature, lighting of a light, a turn signal, and various warnings.
  • the screen is divided into a plurality of areas in the vertical direction to acquire the origin of the switching position. For example, the number of divisions of the area is determined based on the image acquired by moving the camera that captures the display area and the display configuration of the home screen that is displayed most frequently. Determine if an icon is displayed in each area. If there is only one area where the icon is displayed, eye tracking is performed based on the origin of that area.
  • the depth information of each icon is compared and eye tracking is performed based on the origin of the area where the icon with the maximum depth is displayed.
  • eye tracking is performed based on the average value of the origins of the target areas. If there is a black display area of a certain width over the entire boundary of each area, independent eye tracking is performed based on the origin of each area.
  • the control unit 7 determines the left visible region 51aL based on the position of the left eye, and determines the right visible region 51aR based on the position of the right eye.
  • the left visible region 51aL is determined not based on the position of the right eye and the standard distance E0, but based on the position of the left eye.
  • the right visible region 51aR is determined based on the position of the right eye, not based on the position of the left eye and the standard distance E0. Therefore, even when the inter-eye distance E is not the standard distance E0, the regions in which the right eye and the left eye are visually recognized can be accurately determined.
  • the control unit 7 determines the left subpixel and the right subpixel, respectively, based on the left visible region 51aL and the right visible region 51aR.
  • the control unit 7 displays the left eye image in the subpixel which is the left subpixel and is not the right subpixel, and displays the right eye image in the subpixel which is the right subpixel and is not the left subpixel.
  • the control unit 7 displays the third image on the third subpixel. Therefore, when the inter-eye distance is not a standard distance, the image visually recognized by both eyes of the observer can be controlled so that the cross talk is reduced, and the observer can appropriately view the three-dimensional image. It will be possible.
  • the control unit 7 displays the mixed image on the display panel 5.
  • the display panel 5 has a plurality of display areas in the active area 51. Each of the plurality of display areas corresponds to one of a plurality of reference indexes.
  • the control unit 7 is configured to synthesize a mixed image to be displayed in the display area with the reference index of the display area as a reference.
  • the windshield which is one of the image light reflectors, has a free curve and draws an arc when viewed from above in the vertical direction in order to reduce air resistance.
  • the head-up display (HUD) which will be described later, is located on the driver's seat side, the left and right curvatures are different, and the vertical curvatures are also different. Therefore, the surface is not uniform. From the optical level, the curvature varies greatly in manufacturing from side to side and up and down, and individual differences are also large.
  • the concave mirror existing between the three-dimensional display device 2 and the observer's eyes corrects the distortion to some extent, the distortion remains in the image observed by the observer. Naturally, it also affects the separation of parallax images.
  • the origin is different in each display area, that is, when the origin is unified, the index that is the reference of each display area is different.
  • the index changes by moving from a different origin to a unified origin, so the origin can be unified by using the index at the unified origin as a reference.
  • the screen is divided into a plurality of display areas, each display area has a separate reference index, and the parallax image is changed based on the reference index, or the screen is divided into a plurality of display areas. It can be realized by having different switching origins in each display area and switching by deviation from the origin.
  • the active area 51 includes, for example, a first display area and a second display area.
  • the first display area may correspond to the first reference index
  • the second display area may correspond to the second reference index.
  • one reference index may correspond to a plurality of display areas.
  • the first reference index may correspond to the first display area and the second display area.
  • each of the plurality of reference indexes corresponds to one or more display areas.
  • the reference index is the position of the eye shown in FIG. 9, and the reference index is 0.
  • each of the first display area and the second display area has 12 indexes 0 to 11; 6 to 11, 0 to 5, so that, for example, the left eye is L and the right eye is R.
  • the reference index is changed for each display area, and an independent reference index is set for each display area, such as "0" in the first display area F1 and "6" in the second display area F2. ..
  • the position of the eye moves, the movement is detected as a change in the reference index.
  • the reference index F1 in the first display area is changed from “0” to "3”
  • the reference index F2 in the second display area is changed from “6” to "9”.
  • the reference index F1 in the first display area is changed from "0” to "6”
  • the reference index F2 in the second display area is "6”. Is changed to "0” (circular to 0 because it is a duodecimal number).
  • the reference index “0” is LLLRRRRRRLL
  • the reference index “3” is RRRRRRLLLLLL
  • the reference index “6” is RRRRLLLLLLRL.
  • the three-dimensional display device 2 of the present embodiment has a display panel 5 for displaying a mixed image including a first image and a second image having a parallax with respect to the first image, and an image light emitted from the display panel 5.
  • An optical element that defines the direction of the light beam, a position acquisition unit 3 that acquires the position of the first eye of the observer and the position of the second eye different from the first eye, the position of the first eye, and the position of the second eye.
  • a control unit for displaying a mixed image in which the arrangement of the first image and the second image is changed on the display panel 5 is provided.
  • the control unit is based on one of the plurality of reference indexes and at least one of the position of the first eye and the position of the second eye for each of the plurality of display areas divided in the active area 51 of the display panel 5.
  • the arrangement of the first image and the second image is changed to synthesize the mixed image, the combined mixed image is displayed on the display panel 5, and each of the plurality of reference indexes corresponds to any of the plurality of display areas. May be.
  • the three-dimensional display device 2 defines a display panel 5 for displaying a mixed image including a first image and a second image having a parallax with respect to the first image, and a ray direction of image light emitted from the display panel 5.
  • the position acquisition unit 3 for acquiring the position of the first eye of the observer and the position of the second eye different from the first eye, and the position and the first eye of the first eye acquired by the position acquisition unit 3.
  • a control unit for displaying a mixed image on the display panel 5 based on the positions of the two eyes is provided.
  • the control unit changes the arrangement of the first image and the second image based on one of the plurality of switching origins in each of the plurality of display areas divided in the active area 51 of the display panel 5 to display a mixed image.
  • the combined image may be displayed on the display panel 5, and each of the plurality of switching origins may be configured to correspond to any of the plurality of display areas.
  • the control unit 7 determines the first visible region based on the position of the first eye acquired by the position acquisition unit 3, and determines the second visible region based on the position of the second eye acquired by the position acquisition unit 3. It may be a configuration to be determined.
  • the control unit 7 determines the first visible region based on the position of the first eye in the vertical direction parallel to the screen of the display panel 5, and determines the second visible region based on the position of the second eye in the vertical direction. It may be a configuration to be determined.
  • the position acquisition unit 3 sets the position of the observer's first eye parallel to the screen of the display panel 5 and sets the first projection position projected onto a surface at an appropriate viewing distance from the optical element as the position of the first eye.
  • the second eye position may be obtained as the position of the second eye by projecting the position of the second eye on the surface.
  • the control unit 7 acquires information indicating the positions of the observer's left eye and right eye from the detection device 1 from the detection device 1 (step S11).
  • control unit 7 determines the left visible region 51aL based on the position of the left eye, and determines the left subpixel based on the left visible region 51aL ( Step S12).
  • control unit 7 determines the right visible region 51aR based on the position of the right eye indicated by the information acquired in step S11, and determines the right visible region 51aR based on the right visible region 51aR.
  • the subpixel is determined (step S13).
  • control unit 7 determines the third subpixel based on the left subpixel and the right subpixel (step S14).
  • the control unit 7 may determine the third subpixel based on the information indicating the positions of the right eye and the left eye acquired in step S11.
  • control unit 7 determines the fourth subpixel based on the left subpixel and the right subpixel (step S15).
  • the control unit 7 may determine the fourth subpixel based on the information indicating the positions of the right eye and the left eye acquired in step S11.
  • step S15 When the fourth sub-pixel is determined in step S15, the control unit 7, the sub-pixel groups not right subpixel a left sub-pixel, the P A (sub-pixel corresponding to) the reference index as the origin, the left The eye image is displayed (step S16).
  • control unit 7 displays the right eye image on the subpixel group which is the right subpixel and not the left subpixel with the reference index P B as the origin (step S17). ).
  • control unit 7 displays the third image on the third subpixel group with the reference index CC as the origin (step S18).
  • control unit 7 displays a black image on the fourth subpixel group with the reference index P D as the origin (step S19).
  • the reference index is used as the origin for each of a plurality of display areas. It is possible to display the disparity image corrected according to the curved surface and allow the observer to visually recognize an appropriate three-dimensional image without distortion.
  • the control unit 7 uses a first table showing the correspondence between the position of the left eye and the position of the right eye when it is at a standard distance from the left eye and the image to be displayed in the subpixel.
  • the left subpixel can be determined based on the position of the left eye.
  • the control unit 7 can determine the right subpixel based on the position of the right eye using the first table. Therefore, each time the control unit 7 acquires information indicating the position of each eye, the left visible region 51aL and the right visible region 51aR are based on the position of each eye and the configuration of the parallax barrier 6 and the display panel 5. It is not necessary to perform the process of calculating. Therefore, the processing load of the control unit 7 can be reduced.
  • control unit 7 can display the left eye image or the right eye image as a third image in the binocular visible region 51aLR based on the characteristics of the observer. Therefore, for example, the discomfort of the observer can be reduced by visually recognizing only the image corresponding to the dominant eye.
  • the control unit 7 can display an image having a luminance value which is an average value of the luminance values of the left eye image and the right eye image as the third image. Therefore, the left eye of the observer visually recognizes an image having a brightness closer to the brightness of the left eye image than the right eye image. The observer's right eye visually recognizes an image having a brightness closer to the brightness of the right eye image than the left eye image. Therefore, an image with less discomfort can be visually recognized as compared with the case where the left eye visually recognizes the right eye image or the right eye visually recognizes the left eye image.
  • control unit 7 can display a black image having a luminance value of a predetermined value or less as a third image. Therefore, it is possible to prevent both the left eye and the right eye of the observer from visually recognizing the images corresponding to different eyes. Therefore, crosstalk is reduced and a distortion-free three-dimensional image can be visually recognized.
  • the three-dimensional display device 2 can include a memory 8 that stores a second table showing the correspondence between the position of the left eye and the position of the right eye and the third subpixel.
  • the control unit 7 can determine the third subpixel using the second table based on the position of the left eye and the position of the right eye. Therefore, each time the control unit 7 acquires information indicating the position of each eye, the left visible region 51aL and the right visible region 51aR are based on the position of each eye and the configuration of the parallax barrier 6 and the display panel 5. Does not have to be calculated.
  • the control unit 7 does not have to perform a process of determining the left subpixel and the right subpixel, respectively, based on the left visible region 51aL and the right visible region 51aR. Therefore, the processing load of the control unit 7 can be reduced.
  • the control unit 7 displays a black image on the fourth subpixel. Therefore, the image light is not emitted from the fourth subpixel. Therefore, it is possible to prevent the stray light generated by the secondary reflection of the image light emitted from the fourth subpixel by the member or the like constituting the parallax barrier 6 from reaching the observer's eyes. Therefore, the left eye and the right eye of the observer can clearly see the left eye image and the right eye image, respectively, without being interfered by the stray light.
  • control unit 7 determines the left subpixel based on the horizontal position and the vertical position of the left eye.
  • the control unit 7 determines the right subpixel based on the horizontal position and the vertical position of the right eye. Therefore, even when the inter-eye direction is not the horizontal direction, the control unit 7 causes cross-talk when displaying the three-dimensional image by using the parallax barrier 6 and the display panel 5 configured so that the inter-eye direction is the horizontal direction. Can be reduced.
  • control unit 7 determines the left subpixel based on the projected left eye position.
  • the control unit 7 determines the right subpixel based on the projected right eye position. Therefore, even if the horizontal component of the interocular distance E is not the standard distance E0, the control unit 7 displays a three-dimensional image using the parallax barrier 6 and the display panel 5 configured based on the standard distance E0. Cross talk can be reduced.
  • a display panel 5 that displays a mixed image including a right eye image (first image) and a left eye image (second image) having a parallax with respect to the right eye image.
  • An optical element that defines the direction of the image light emitted from the display panel 5, a position acquisition unit that acquires the position of the first eye of the observer and the position of the second eye different from the first eye, and the first
  • a control unit 7 for displaying a mixed image on the display panel 5 based on the position of one eye and the position of the second eye is provided.
  • the control unit 7 divides the screen of the display panel 5 into a plurality of areas, and each divided area has an individual switching origin, and switches the area based on the deviation from the switching origin.
  • the image of the area may be configured to be displayed on the display panel 5.
  • control unit 7 determines the right subpixel after determining the left subpixel, but this is not the case.
  • the control unit 7 may determine the left subpixel after determining the right subpixel.
  • control unit 7 has described a configuration in which an image is displayed in the order of a left-eye image, a right-eye image, a third image, and a black image, but the present disclosure is not limited to this, and the left eye is not limited to this.
  • the image, the right eye image, the third image, and the black image may be displayed in any order. Further, the control unit 7 may simultaneously display two or more of the left eye image, the right eye image, the third image, and the black image.
  • the control unit 7 determines the fourth subpixel based on the left visible region 51aL and the right visible region 51aR, and causes the fourth subpixel to display a black image, but this is not the case.
  • the control unit 7 displays a left eye image, a right eye image, and a third image in the left subpixel, the right subpixel, and the third subpixel, respectively, and displays a black image in the subpixel in which none of the images is displayed. You may let me.
  • the optical element is the parallax barrier 6, but the present invention is not limited to this.
  • the optical element included in the three-dimensional display device 2 may be a lenticular lens 91.
  • the lenticular lens 91 is configured by horizontally arranging a plurality of cylindrical lenses 92 extending in the vertical direction. Similar to the parallax barrier 6, the lenticular lens 91 propagates the image light emitted from the subpixel of the left visible region 51aL so as to reach the position of the observer's left eye.
  • the lenticular lens 91 propagates the image light emitted from the subpixel of the right visible region 51aR so as to reach the position of the observer's right eye.
  • the three-dimensional display system 100 can be mounted on the head-up display system 400.
  • the head-up display system 400 is also referred to as a HUD (Head Up Display) 400.
  • the HUD 400 includes a three-dimensional display system 100, an optical member 410, and a projected member 420 having a projected surface 430.
  • the HUD 400 causes the image light emitted from the three-dimensional display system 100 to reach the projected member 420 via the optical member 410.
  • the HUD 400 causes the image light reflected by the projected member 420 to reach the left eye and the right eye of the observer. That is, the HUD 400 advances the image light from the three-dimensional display system 100 to the left eye and the right eye of the observer along the optical path 440 indicated by the broken line.
  • the observer can visually recognize the image light arriving along the optical path 440 as a virtual image 450.
  • the HUD 400 including the three-dimensional display system 200 may be mounted on the moving body 10.
  • the HUD 400 may use a part of the configuration as other devices and parts included in the moving body 10.
  • the moving body 10 may also use the windshield as the projected member 420.
  • the other configuration can be referred to as a HUD module or a three-dimensional display component.
  • the HUD 400 and the three-dimensional display system 100 may be mounted on the moving body 10.
  • "Mobile" in the present disclosure includes vehicles, ships and aircraft.
  • the unit for switching the parallax image is made independent from the entire screen in a plurality of areas of the screen.
  • the origin is different in each region, in other words, when the origin is unified, the reference index that is the reference for each region is different. This is because the reference index changes by moving from a different origin to a unified origin, so the origin can be unified by using the reference index at the unified origin as a reference.
  • the "vehicle” in the present disclosure includes, but is not limited to, automobiles and industrial vehicles, and may include railway vehicles, living vehicles, and fixed-wing aircraft traveling on runways.
  • Automobiles include, but are not limited to, passenger cars, trucks, buses, motorcycles, trolleybuses and the like, and may include other vehicles traveling on the road.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include, but are not limited to, forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combines, and lawnmowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, mobile cranes, dump trucks, and road rollers. Vehicles include those that run manually.
  • the classification of vehicles is not limited to the above.
  • an automobile may include an industrial vehicle capable of traveling on a road, and the same vehicle may be included in a plurality of categories.
  • Vessels in the present disclosure include marine jets, boats and tankers.
  • Aircraft in the present disclosure include fixed-wing aircraft and rotary-wing aircraft.
  • the three-dimensional display device of the present disclosure includes a display panel that displays a mixed image including a first image and a second image having a parallax with respect to the first image, and a ray direction of image light emitted from the display panel.
  • An optical element that defines the above a position acquisition unit that acquires the position of the observer's first eye and the position of the second eye different from the first eye, the position of the first eye, and the position of the second eye.
  • a control unit for displaying the mixed image in which the arrangement of the first image and the second image is changed on the display panel is provided.
  • the control unit is based on one of the plurality of reference indexes and the position of at least one of the first eye and the second eye for each of the plurality of display areas divided in the active area of the display panel.
  • the order of the first image and the second image is changed to synthesize the mixed image, and the combined image is displayed on the display panel, and each of the plurality of reference indexes has a plurality of display areas. It is configured to correspond to either.
  • the three-dimensional display device of the present disclosure includes a display panel for displaying a mixed image including a first image and a second image having a parallax with respect to the first image, and a light beam of image light emitted from the display panel.
  • An optical element that defines the direction
  • a position acquisition unit that acquires the position of the observer's first eye and the position of the second eye that is different from the first eye, and the first eye acquired by the position acquisition unit.
  • a control unit for displaying a mixed image on the display panel based on the position of the second eye and the position of the second eye is provided.
  • the control unit changes the arrangement of the first image and the second image based on any one of the plurality of switching origins in each of the plurality of display areas divided in the active area of the display panel.
  • the mixed images are combined, the combined images are displayed on the display panel, and each of the plurality of switching origins is configured to correspond to any of the plurality of display areas.
  • the curved surface of the image light is a curved surface of a free curve such as a windshield which is one of the reflecting members, the curved surface is formed with the reference index as the origin for each of a plurality of display areas. It is possible to display the disparity image corrected accordingly and allow the observer to visually recognize an appropriate three-dimensional image without distortion.
  • Detection device 2 3D display device 3 Position acquisition unit 4 Irradiator 5 Display panel 6 Disparity barrier 7 Control unit 8 Memory 10 Moving object 51 Active area 51aL Left visible area 51aR Right invisible area 51bL Left invisible area 51bR Right invisible area 51aLR Both Visible area 51bLR Binocular invisible area 60 Disparity barrier 61 Shading area 62 Translucent area 91 Lenticular lens 92 Cylindrical lens 100 3D display system 400 Head-up display system 410 Optical member 420 Projected member 430 Projected surface 440 Optical path 450 Virtual image

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

第1画像と前記第1画像に対して視差を有する第2画像とを含む混合画像を表示するアクティブエリアを含む表示パネルと、アクティブエリアから出射される画像光の光線方向を規定する視差バリアと、観察者の第1眼の位置と第1眼とは異なる第2眼の位置とを取得する位置取得部と、第1眼の位置および第2眼の位置に基づいて、アクティブエリアに混合画像を表示させる制御部と、を備える。アクティブエリアは、複数のサブピクセルを含み、制御部は、表示パネルの画面を複数の領域に分割し、分割された個々の領域は個別の基準インデックスを有し、基準インデックスのそれぞれを基準として視差画像の変更処理を行う。

Description

3次元表示装置
 本開示は、3次元表示装置に関する。
 従来技術の一例として、光学素子を備える3次元表示装置が知られている。
 本開示の3次元表示装置は、第1画像と前記第1画像に対して視差を有する第2画像とを含む混合画像をアクティブエリアに表示する表示パネルと、前記表示パネルから出射される画像光の光線方向を規定する光学素子と、観察者の第1眼の位置である第1位置と前記第1眼とは異なる第2眼の位置である第2位置とを取得する位置取得部と、前記第1位置および前記第2位置の少なくとも一方に基づいて、前記第1画像および前記第2画像の並びを変更した前記混合画像を、前記表示パネルに表示させる制御部と、を備える。前記アクティブエリアは、複数の表示領域を含む。前記制御部は、前記複数の表示領域の各々で、当該表示領域に対応する複数の基準インデックスのうちの1つと、前記第1位置および前記第2位置の少なくとも一方に基づいて、前記第1画像および前記第2画像の並びを変更して前記混合画像を合成し、合成した前記混合画像を、前記表示パネルに表示させる、ように構成される。
 また本開示の3次元表示装置は、第1画像と前記第1画像に対して視差を有する第2画像とを含む混合画像をアクティブエリアに表示する表示パネルと、前記表示パネルから出射される画像光の光線方向を規定する光学素子と、観察者の第1眼の位置である第1位置と前記第1眼とは異なる第2眼の位置である第2位置とを取得する位置取得部と、前記位置取得部によって取得された前記第1位置および前記第2位置に基づいて、前記表示パネルに混合画像を表示させる制御部と、を備える。前記アクティブエリアは、複数の表示領域を含む。前記制御部は、前記複数の表示領域の各々で、前記表示領域に対応する複数の切換え原点のうちの1つを基準として前記第1画像および前記第2画像の並びを変更して前記混合画像を合成し、合成した前記混合画像を前記表示パネルに表示させる、ように構成される。
 本開示の目的、特色、および利点は、下記の詳細な説明と図面とからより明確になるであろう。
一実施形態における3次元表示装置を備えた3次元表示システムを上下方向から見た例を示す図である。 図1に示す表示パネルを奥行方向から見た例を示す図である。 図1に示す視差バリアを奥行方向から見た例を示す図である。 図1に示す表示パネルにおける左可視領域を説明するための図である。 図1に示す表示パネルにおける右可視領域を説明するための図である。 図1に示す3次元表示システムにおける両眼可視領域を説明するための図である。 左眼の位置に応じた、表示パネル上の左可視領域について詳細に説明するための図である。 左眼の位置および右眼の位置を識別するための情報を説明するための図である。 眼間距離が標準距離である場合における、左眼および右眼の位置と、各サブピクセルに表示させる画像との対応を示す画像テーブルの例を示す図である。 眼間距離が標準距離でない場合の3次元表示装置の処理フローの一例を示すフローチャートである。 光学素子をレンチキュラレンズとした場合の3次元表示装置の概略構成を示す図である。 本実施形態に係る3次元表示システムを搭載したHUDの例を示す図である。 図11に示すHUDを搭載した移動体の例を示す図である。
 本開示の3次元表示装置の基礎となる構成である3次元表示装置として、眼鏡を用いずに3次元表示を行うために、表示パネルから出射された光の一部を右眼に到達させ、表示パネルから出射された光の他の一部を左眼に到達させる光学素子を備える3次元表示装置が知られている。
 出射された光は、ミラーなどの反射部材で反射される。このときに反射部材の反射面による歪が発生する。この歪は、別の光学部材などを用いて取り除かれる。
 以下、添付図面を参照して、本開示の3次元表示装置の実施形態について説明する。
 図1は、一実施形態における3次元表示装置2を備えた3次元表示システム100を上方から見た例を示す図である。まず、本実施形態が基礎とする構成について述べる。本開示の一実施形態に係る3次元表示システム100は、検出装置1と、3次元表示装置2とを含んで構成される。
 検出装置1は、観察者の左眼(第1眼)および右眼(第2眼)の位置を検出し、3次元表示装置2に出力する。検出装置1は、例えば、カメラを備えてよい。検出装置1は、カメラによって観察者の顔を撮影してよい。検出装置1は、カメラの観察者の顔の像を含む撮影画像から左眼および右眼の位置を検出してよい。検出装置1は、1つのカメラの撮影画像から、左眼および右眼の位置を3次元空間の座標として検出してよい。検出装置1は、2個以上のカメラの撮影画像から、左眼の位置および右眼の位置を3次元空間の座標として検出してよい。
 検出装置1は、カメラを備えず、装置外のカメラに接続されていてよい。検出装置1は、装置外のカメラからの信号を入力する入力端子を備えてよい。装置外のカメラは、入力端子に直接的に接続されてよい。装置外のカメラは、共有のネットワークを介して入力端子に間接的に接続されてよい。カメラを備えない検出装置1は、カメラが映像信号を入力する入力端子を備えてよい。カメラを備えない検出装置1は、入力端子に入力された映像信号から左眼および右眼の位置を検出してよい。
 検出装置1は、例えば、センサを備えてよい。センサは、超音波センサまたは光センサ等であってよい。検出装置1は、センサによって観察者の頭部の位置を検出し、頭部の位置に基づいて左眼および右眼の位置を検出してよい。検出装置1は、1個または2個以上のセンサによって、左眼および右眼の位置を3次元空間の座標値として検出してよい。
 3次元表示システム100は、検出装置1を備えなくてよい。3次元表示システム100が検出装置1を備えない場合、3次元表示装置2は、装置外の検出装置からの信号を入力する入力端子を備えてよい。装置外の検出装置は、入力端子に接続されてよい。装置外の検出装置は、入力端子に対する伝送信号として、電気信号および光信号を用いてよい。装置外の検出装置は、共有の通信ネットワークを介して入力端子に間接的に接続されてもよい。3次元表示装置2には、装置外の検出装置から取得した左眼および右眼の位置を示す位置座標が入力される構成であってもよい。
 3次元表示装置2は、位置取得部3と、照射器4と、表示パネル5と、光学素子としての視差バリア6と、制御部7と、メモリ8とを含んで構成される。表示パネル5は、第1画像と前記第1画像に対して視差を有する第2画像とを含む混合画像を表示する。視差バリア6は、表示パネル5から出射される画像光の光線方向を規定する。位置取得部3は、観察者の第1眼である右眼の位置と第2眼である左眼の位置とを取得する。制御部7は、左眼の位置および右眼の位置に基づいて、左眼画像および右眼画像の並びを変更して混合画像を合成する。
 制御部7は、混合画像を表示パネル5に表示させる。表示パネル5は、複数の表示領域をアクティブエリア内に有する。複数の表示領域の個々は複数の基準インデックスのいずれかが対応する。制御部7は、当該表示領域の基準インデックスを基準として、当該表示領域に表示する混合画像を合成する。このような混合画像の合成手順の詳細については、後述する。
 位置取得部3は、検出装置1によって検出された左眼の位置および右眼の位置を取得する。
 照射器4は、表示パネル5に光を面的に照射しうる。照射器4は、光源、導光板、拡散板、拡散シート等を含んで構成されてよい。照射器4は、光源により照射光を出射し、導光板、拡散板、拡散シート等により照射光を表示パネル5の面方向に均一化する。そして、照射器4は均一化された光を表示パネル5の方に出射しうる。
 表示パネル5は、例えば透過型の液晶表示パネルなどの表示パネルを採用しうる。図2に示すように、表示パネル5は、面状に形成されたアクティブエリア51上に複数の区画領域を有する。アクティブエリア51は、混合画像を表示する。混合画像は、後述する左眼画像(第1画像)と左眼画像に対して視差を有する右眼画像(第2画像)とを含む。混合画像は、後述する、第3画像を含みうる。区画領域は、格子状のブラックマトリックス52により第1方向および第1方向に直交する第2方向に区画された領域である。第1方向および第2方向に直交する方向は第3方向と称される。第1方向は水平方向と称されてよい。第2方向は上下方向と称されてよい。第3方向は奥行方向と称されてよい。しかし、第1方向、第2方向、および第3方向はそれぞれこれらに限られない。図面において、第1方向はx軸方向として表され、第2方向はy軸方向として表され、第3方向はz軸方向として表される。
 区画領域の各々には、1つのサブピクセルが対応する。したがって、アクティブエリア51は、水平方向および上下方向に沿って格子状に配列された複数のサブピクセルを備える。
 各サブピクセルは、R(Red)、G(Green)、B(Blue)のいずれかの色に対応し、R,G,Bの3つのサブピクセルを一組として1ピクセルを構成することができる。1ピクセルは、1画素と称されうる。水平方向は、例えば、1ピクセルを構成する複数のサブピクセルが並ぶ方向である。上下方向は、例えば、同じ色のサブピクセルが並ぶ方向である。表示パネル5としては、透過型の液晶パネルに限られず、有機EL等他の表示パネル5を使用しうる。表示パネル5として、自発光型の表示パネルを使用した場合、3次元表示装置2は照射器4を備えなくてよい。
 上述のようにアクティブエリア51に配列された複数のサブピクセルは、サブピクセル群Pgを構成する。サブピクセル群Pgは、水平方向に繰り返して配列される。サブピクセル群Pgは、上下方向においては、水平方向に1サブピクセル分ずれた位置に隣接して繰り返して配列される。サブピクセル群Pgは、所定の行および列のサブピクセルを含む。具体的には、サブピクセル群Pgは、上下方向にb個(b行)、水平方向に2×n個(n列)、連続して配列された(2×n×b)個のサブピクセルP1~P(2×n×b)を含む。図2に示す例では、n=6、b=1である。アクティブエリア51には、上下方向に1個、水平方向に12個、連続して配列された12個のサブピクセルP1~P12を含むサブピクセル群Pgが配置される。図2に示す例では、一部のサブピクセル群Pgに符号を付している。
 サブピクセル群Pgは、後述する制御部7が画像を表示するための制御を行う最小単位である。全てのサブピクセル群Pgの同じ識別情報を有するサブピクセルP1~P(2×n×b)は、制御部7によって同時に制御される。例えば、制御部7は、サブピクセルP1に表示させる画像を左眼画像から右眼画像に切換える場合、全てのサブピクセル群PgにおけるサブピクセルP1に表示させる画像を左眼画像から右眼画像に同時的に切換えられる。
(視差バリア)
 視差バリア6は、図1に示したように、アクティブエリア51に沿う平面により形成され、アクティブエリア51から所定距離(ギャップ)g、離れて配置される。視差バリア6は、表示パネル5に対して照射器4の反対側に位置してよい。視差バリア6は、表示パネル5の照射器4側に位置してよい。
 視差バリア6は、図3に示すように、面内の所定方向に伸びる複数の帯状領域である透光領域62ごとに、サブピクセルから出射される画像光の伝播方向である光線方向を規定する。所定方向は、上下方向と0度でない所定角度をなす方向である。図1に示したように、視差バリア6がアクティブエリア51に配列されたサブピクセルから出射された画像光を規定することによって、観察者の眼が視認可能なアクティブエリア51上の領域が定まる。以降において、観察者の眼の位置に伝播する画像光を出射するアクティブエリア51内の領域は可視領域51aと称される。観察者の左眼の位置に伝播する画像光を出射するアクティブエリア51内の領域は左可視領域51aL(第1可視領域)と称される。観察者の右眼の位置に伝播する画像光を出射するアクティブエリア51内の領域は右可視領域51aR(第2可視領域)と称される。
 具体的には、図3に示したように、視差バリア6は、複数の、画像光を遮光する遮光領域61を有する。複数の遮光領域61は、互いに隣接する該遮光領域61の間の透光領域62を画定する。透光領域62は、遮光領域61に比べて光透過率が高い。遮光領域61は、透光領域62に比べて光透過率が低い。
 透光領域62は、視差バリア6に入射する光を透過させる部分である。透光領域62は、第1所定値以上の透過率で光を透過させてよい。第1所定値は、例えば略100%であってよいし、100%未満の値であってよい。アクティブエリア51から出射される画像光が良好に視認できる範囲であれば、第1所定値は、100%以下の値、例えば、80%または50%などとしうる。遮光領域62は、視差バリア6に入射する光を遮って殆ど透過させない部分である。言い換えれば、遮光領域62は、表示パネル5のアクティブエリア51に表示される画像が、観察者の眼に到達することを遮る。遮光領域62は、第2所定値以下の透過率で光を遮ってよい。第2所定値は、例えば略0%であってもよく、あるいは0%より大きく、0.5%、1%または3%等、0%に近い値であってもよい。第1所定値は、第2所定値よりも数倍以上、例えば、10倍以上大きい値としうる。
 透光領域62と遮光領域61とは、アクティブエリア51に沿う所定方向に延び、所定方向と直交する方向に繰り返し交互に配列される。透光領域62は、サブピクセルから出射される画像光の光線方向を規定する。
 図1に示したように、透光領域62の水平方向における配置間隔であるバリアピッチBp、アクティブエリア51と視差バリア6との間のギャップgは、適視距離dおよび標準距離E0を用いた次の式(1)および式(2)が成り立つように規定される。
Figure JPOXMLDOC01-appb-I000001
Figure JPOXMLDOC01-appb-I000002
 適視距離dは、可視領域51aの水平方向の長さがサブピクセルn個分となるような観察者の右眼および左眼のそれぞれと視差バリア6との間の距離である。右眼と左眼とを通る直線の方向(眼間方向)は水平方向である。標準距離E0は観察者の眼間距離Eの標準である。標準距離E0は、例えば、産業技術総合研究所の研究によって算出された値である61.1mm~64.4mmであってよい。Hpは、図2に示すような、サブピクセルの水平方向の長さである。
 視差バリア6は、第2所定値未満の透過率を有するフィルムまたは板状部材によって構成されてよい。この場合、遮光領域61は、当該フィルムまたは板状部材によって構成される。透光領域62は、フィルムまたは板状部材に設けられた開口によって構成される。フィルムは、樹脂によって構成されてよいし、他の材料によって構成されてよい。板状部材は、樹脂または金属等によって構成されてよいし、他の材料によって構成されてよい。視差バリア6は、フィルムまたは板状部材に限られず、他の種類の部材によって構成されてよい。視差バリア6は、基材が遮光性を有してよいし、基材に遮光性を有する添加物が含有されてよい。
 視差バリア6は、液晶シャッタによって構成されてよい。液晶シャッタは、印加する電圧に応じて光の透過率を制御しうる。液晶シャッタは、複数の画素によって構成され、各画素における光の透過率を制御してよい。液晶シャッタは、光の透過率が高い領域または光の透過率が低い領域を任意の形状に形成しうる。視差バリア6が液晶シャッタによって構成される場合、透光領域62は、第1所定値以上の透過率を有する領域としてよい。視差バリア6が液晶シャッタによって構成される場合、遮光領域61は、第2所定値以下の透過率を有する領域としてよい。
 このように構成されることによって、視差バリア6は、アクティブエリア51の一部のサブピクセルから出射した画像光を、透光領域62を通過させ観察者の右眼に伝搬させる。視差バリア6は、他の一部のサブピクセルから出射した画像光を、透光領域62を通過させ観察者の左眼に伝搬させる。画像光が観察者の左眼および右眼のそれぞれに伝播されることによって、観察者の眼に視認される画像について、図4および図5を参照して詳細に説明する。
(視差画像)
 図4に示す左可視領域51aLは、上述のように、視差バリア6の透光領域62を透過した画像光が観察者の左眼に到達することによって、観察者の左眼が視認するアクティブエリア51上の領域である。左不可視領域51bLは、視差バリア6の遮光領域61によって画像光が遮られることによって、観察者の左眼が視認することのできない領域である。左可視領域51aLには、サブピクセルP1の半分と、サブピクセルP2~P6の全体と、サブピクセルP7の半分とが含まれる。
 図5に示す右可視領域51aRは、視差バリア6の透光領域62を透過した他の一部のサブピクセルからの画像光が観察者の右眼に到達することによって、観察者の右眼が視認するアクティブエリア51上の領域である。右不可視領域51bRは、視差バリア6の遮光領域61によって画像光が遮られることによって、観察者の右眼が視認することのできない領域である。右可視領域51aRには、サブピクセルP7の半分と、サブピクセルP8~P12の全体と、サブピクセルP1の半分とが含まれる。
 サブピクセルP1~P6に左眼画像が表示され、サブピクセルP7~P12に右眼画像が表示されると、左眼および右眼はそれぞれ画像を視認する。右眼画像および左眼画像は互いに視差を有する視差画像である。具体的には、左眼は、サブピクセルP1に表示された左眼画像の半分と、サブピクセルP2~P6に表示された左眼画像の全体と、サブピクセルP7に表示された右眼画像の半分とを視認する。右眼は、サブピクセルP7に表示された右眼画像の半分と、サブピクセルP8~P12に表示された右眼画像の全体と、サブピクセルP1に表示された左眼画像の半分とを視認する。図4および図5において、左眼画像を表示するサブピクセルには符号「L」が付され、右眼画像を表示するサブピクセルには符号「R」が付されている。
 この状態において、観察者の左眼が視認する左眼画像の領域は最大となり、右眼画像の面積は最小となる。観察者の右眼が視認する右眼画像の領域は最大となり、左眼画像の面積は最小となる。したがって、観察者は、クロストークが最も低減された状態で3次元画像を視認する。
 上述のように構成された3次元表示装置2で、互いに視差を有する左眼画像と右眼画像とが左可視領域51aLおよび右可視領域51aRのそれぞれに含まれるサブピクセルに表示されると、眼間距離Eが標準距離E0である観察者は3次元画像を適切に視認しうる。上述した構成では、左眼によって半分以上が視認されるサブピクセルに左眼画像が表示され、右眼によって半分以上が視認されるサブピクセルに右眼画像が表示される。これに限られず、左眼画像および右眼画像を表示させるサブピクセルは、アクティブエリア51、視差バリア6等の設計に応じて、クロストークが最小になるように左可視領域51aLおよび右可視領域51aRに基づいて適宜判定されてよい。例えば、視差バリア6の開口率等に応じて、左眼によって所定割合以上が視認されるサブピクセルに左眼画像を表示させ、右眼によって所定割合以上が視認されるサブピクセルに右眼画像を表示させてよい。
(制御部の構成)
 制御部7は、3次元表示システム100の各構成要素に接続され、各構成要素を制御しうる。制御部7によって制御される構成要素は、検出装置1および表示パネル5を含む。制御部7は、例えばプロセッサとして構成される。制御部7は、1以上のプロセッサを含んでもよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでもよい。専用のプロセッサは、特定用途向けIC(Application Specific Integrated Circuit;ASIC)を含んでもよい。プロセッサは、プログラマブルロジックデバイス(Programmable Logic Device;PLD)を含んでもよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでもよい。制御部7は、1つまたは複数のプロセッサが協働するSoC(System-on a-Chip)、およびSiP(System In a Package)のいずれかであってもよい。制御部7は、記憶部を備え、記憶部に各種情報、または3次元表示システム100の各構成要素を動作させるためのプログラム等を格納してよい。記憶部は、例えば半導体メモリ等によって構成されてもよい。記憶部は、制御部7のワークメモリとして機能してもよい。
 メモリ8は、例えばRAM(Random Access Memory)およびROM(Read Only Memory)など、任意の記憶デバイスにより構成される。メモリ8は、追って詳細に説明する第1テーブル、第2テーブルの1つ以上を記憶する。
(眼間距離が標準距離でない場合)
 観察者の眼間距離Eが標準距離E0とは異なる眼間距離E1である場合、図6に示すように左可視領域51aLの一部が右可視領域51aRの一部と重なった両眼可視領域51aLRが存在することがある。したがって、左可視領域51aLに基づいて左眼画像を表示させるべきと判定された左サブピクセル(第1サブピクセル)であって、右可視領域51aRに基づいて右眼画像を表示させるべきと判定された右サブピクセル(第2サブピクセル)であるサブピクセルが存在することがある。左サブピクセルは、例えば、左可視領域51aLに所定割合(例えば、半分)以上が含まれるサブピクセルである。右サブピクセルは、例えば、右可視領域51aRに所定割合以上が含まれるサブピクセルである。
 このような構成において、左サブピクセルであって右ピクセルであるサブピクセルに右眼画像が表示されると、左眼が視認する右眼画像が増加する。左サブピクセルであって右ピクセルであるサブピクセルに左眼画像が表示されると、右眼が視認する左眼画像が増加する。そのため、重なったサブピクセルに左画像および右眼画像のいずれを表示させても、クロストークが増加することがある。そこで、制御部7は、眼間距離E1を有する観察者が、標準距離E0に基づいて構成された3次元表示装置2を視認したときに発生するクロストークを低減すべく制御を行う。以降において、制御部7について詳細に説明する。
(第3サブピクセルの判定)
 制御部7は、観察者の眼の水平方向の位置に基づいて第3サブピクセルを判定する。第3サブピクセルは、左可視領域51aLに所定割合以上が含まれる左サブピクセルであって、右可視領域51aRに所定割合以上が含まれる右サブピクセルである。以下に、第3サブピクセルの判定方法の例を説明する。
(第1例)
 制御部7は、検出装置1が左眼の位置を検出すると、左眼の位置と、ギャップg、適視距離d、および透光領域62の位置とに基づいて演算を行うことによって、左可視領域51aLを判定してよい。
 例えば、図7に示すように、左眼が「6」で示される位置にある場合、制御部7は、ギャップg、適視距離d、および透光領域62の位置に基づいて演算を行うことによって、左可視領域51aLが左可視領域51aL6であると判定する。制御部7は、左可視領域51aL6に所定割合以上が含まれる左サブピクセルを判定する。図7に示す例では、制御部7は、左可視領域51aLにサブピクセルP9~P12、P1、およびP2を左サブピクセルと判定してよい。制御部7は、左可視領域51aLに基づいて、左眼が視認する左眼画像が最大となるような任意の方法で左サブピクセルを判定してよい。
 左眼が「7」で示される位置にある場合、制御部7は、ギャップg、適視距離d、および透光領域62の位置に基づいて演算を行うことによって、左可視領域51aLが左可視領域51aL7であると判定する。制御部7は、左可視領域51aL7に所定割合以上が含まれる左サブピクセルを判定する。図7に示す例では、制御部7は、サブピクセルP10~P12、およびP1~P3を左サブピクセルと判定してよい。
 上述したように、バリアピッチBp、ギャップg、および適視距離dは、眼間距離Eが標準距離E0である場合に左可視領域51aLと右可視領域51aRとが重ならないように予め構成されている。したがって、本開示の3次元表示装置の基礎となる構成において、制御部7は、例えば、左眼の位置のみを取得し、左眼の位置に基づいて左可視領域51aLを判定し、左可視領域51aLではない領域を右可視領域51aRと判定している。本実施形態においては、制御部7は、検出装置1によって検出された、観察者の右眼の位置と、バリア開口領域の位置、ギャップg、および適視距離dとに基づいて演算を行うことによって、右可視領域51aRを判定する。制御部7は、右可視領域51aRに基づいて右眼画像を表示させるべき右サブピクセルを判定してよい。制御部7が右可視領域51aRに基づいて右サブピクセルを判定する方法は、左可視領域51aLに基づいて左サブピクセルを判定する方法と同じである。
 制御部7は、左サブピクセルおよび右サブピクセルを判定すると、左サブピクセルであって右サブピクセルである第3サブピクセルを判定する。
 制御部7は、予めメモリ8に記憶されている第1テーブルを用いて第3サブピクセルを判定してよい。本例の説明においては、図8に示すように、右眼および左眼の水平方向における位置はそれぞれ情報0~11で識別される。眼間距離が標準距離である場合の右眼の位置を識別する情報は、左眼の位置を識別する情報と同一に付されている。 
 図9に示すように、第1テーブルには、眼間距離Eが標準距離E0である場合の左眼および右眼の位置と、左可視領域51aLおよび右可視領域51aRそれぞれに所定割合以上が含まれる左サブピクセルおよび右サブピクセルとが対応して記憶されている。図9に示す例では、列方向に眼の位置を識別する情報0~11が示され、行方向にはサブピクセルを識別する情報P1~P12が示されている。第1テーブルには、眼が各位置にあるときに、各サブピクセルが左サブピクセルであるか、右サブピクセルであるかが示されている。図9では、左サブピクセルに「左」が示され、右サブピクセルに「右」が示されている。図8を参照して説明したように、眼間距離が標準距離であるとき、左眼が「0」で示す位置にある場合、右眼は「0」で示す位置にある。この場合、図9に示す例では、サブピクセルP1~P6が左サブピクセルであり、サブピクセルP7~P12が右サブピクセルであることが示されている。左眼が「1」で示す位置にある場合、右眼は「1」で示す位置にある。この場合、サブピクセルP2~P7が左サブピクセルであり、P1、およびP8~P12が右サブピクセルであることが示されている。 
 眼間距離Eが標準距離E0ではない場合、右眼の位置に基づいて図9の第1テーブルに従い画像を表示させると、左眼に対して左眼画像を表示すべきサブピクセルに右画像が表示される。具体的には、左眼が「11」で示す位置にあり、右眼が「0」で示す位置にある場合、制御部7が、右眼の位置「0」に基づいてサブピクセルP1~P6に左眼画像を表示させ、サブピクセルP7~P12に右眼画像を表示させる。この場合、第1テーブルに示されるように、左眼の位置「11」に基づいては、サブピクセルP1~P5、およびP12に左眼画像が表示されるべきである。したがって、右眼の位置に基づいて各サブピクセルに画像が表示されると、サブピクセルP12に表示された右眼画像を視認する。このため、左眼が視認する右眼画像が増加してクロストークが増加する。
 そこで、制御部7は、右眼の位置に基づく右可視領域51aRに所定割合以上が含まれる右サブピクセルであって、かつ左眼の位置に基づく左可視領域51aLに所定割合以上が含まれる左サブピクセルであるサブピクセルを第3サブピクセルと判定する。
 例えば、検出装置1によって右眼が「0」に示す位置にあると検出された場合、制御部7は、第1テーブルを用いて、右眼の位置「0」に基づいてサブピクセルP7~P12を右サブピクセルと判定する。このとき、左眼が「11」に示す位置にあると検出された場合、制御部7は、第1テーブルを用いて、左眼の位置に基づいてサブピクセルP1~P5、およびP12を左サブピクセルと判定する。したがって、制御部7は、第3サブピクセルがサブピクセルP12であると判定する。
 制御部7は、予めメモリ8に記憶されている右眼の位置および左眼の位置と第3サブピクセルとの対応を示す第2テーブル(図示せず)を用いて第3サブピクセルを判定してよい。
 上述したように、左眼の位置および右眼の位置に基づいて左可視領域51aLおよび右可視領域51aRが判定されうる。そして、左可視領域51aLおよび右可視領域51aRに基づいて、それぞれ左サブピクセルおよび右サブピクセルが判定されうる。
 次に、眼間距離Eが標準距離E0でない場合に3次元表示装置2が行う処理の一例について図10を参照して説明する。
 図10は眼間距離が標準距離でない場合の3次元表示装置の処理フローの一例を示すフローチャートである。制御部7は、検出装置1から利用者の左眼および右眼の位置を示す情報を検出装置1から取得する(ステップS11)。
 ステップS11で左眼の位置を示す情報が取得されると、制御部7は、左眼の位置に基づいて左可視領域51aLを判定し、左可視領域51aLに基づいて左サブピクセルを判定する(ステップS12)。
 ステップS12で左可視領域51aLが判定されると、制御部7は、ステップS11で取得された情報が示す右眼の位置に基づいて右可視領域51aRを判定し、右可視領域51aRに基づいて右サブピクセルを判定する(ステップS13)。
 ステップS12およびステップS13で、それぞれ左サブピクセルおよび右サブピクセルが判定されると、制御部7は、左サブピクセルおよび右サブピクセルに基づいて第3サブピクセルを判定する(ステップS14)。制御部7は、ステップS11で取得された右眼および左眼の位置を示す情報に基づいて、第3サブピクセルを判定してよい。
 ステップS14で第3サブピクセルが判定されると、制御部7は、左サブピクセルおよび右サブピクセルに基づいて第4サブピクセルを判定する(ステップS15)。制御部7は、ステップS11で取得された右眼および左眼の位置を示す情報に基づいて第4サブピクセルを判定してよい。
 ステップS15で第4サブピクセルが判定されると、制御部7は、左サブピクセルであって右サブピクセルではないサブピクセルに左眼画像を表示する(ステップS16)。
 ステップS16で左眼画像が表示されると、制御部7は、右サブピクセルであって左サブピクセルではないサブピクセルに右眼画像を表示する(ステップS17)。
 ステップS17で右眼画像が表示されると、制御部7は、第3サブピクセルに第3画像を表示する(ステップS18)。
 ステップS18で第3サブピクセルに第3画像が表示されると、制御部7は、第4サブピクセルに黒画像を表示する(ステップS19)。 
(画像分割アイトラッキング)
 アイコンの位置と深度情報を元にアイトラッキング(視線計測)の画面切換え位置を調整する。アイコンは、例えば、車速表示、シフトポジション、車内温度、ライトの点灯、方向指示、および、種々の警告を含みうる。画面を垂直方向に複数の領域に分けて切換え位置の原点取得を行う。例えば、表示領域を撮影するカメラを移動させて取得した画像と最も頻度が高く表示されるホーム画面の表示構成をもとに領域の分割数を決定する。各領域にアイコンが表示されているかを判定する。アイコンが表示されている領域が1つの場合は、その領域の原点に基づくアイトラッキングを実施する。アイコンが表示されている領域が複数ある場合は、各アイコンの深度情報を比較し最大深度となるアイコンが表示されている領域の原点に基づくアイトラッキングを実施する。1つのアイコンが複数の領域にまたがる場合は、対象領域の原点の平均値に基づくアイトラッキングを実施する。各領域の境界の全体にわたって一定幅の黒表示領域がある場合は、各領域の原点に基づき、独立したアイトラッキングを実施する。
 制御部7は、左眼の位置に基づいて左可視領域51aLを判定し、右眼の位置に基づいて右可視領域51aRを判定する。このように、左可視領域51aLは、右眼の位置と標準距離E0とに基づいてではなく、左眼の位置に基づいて判定される。右可視領域51aRは、左眼の位置と標準距離E0とに基づいてではなく、右眼の位置に基づいて判定される。このため、眼間距離Eが標準距離E0でない場合も、正確に右眼および左眼がそれぞれ視認される領域が判定される。
 制御部7は、左可視領域51aLおよび右可視領域51aRに基づいて、それぞれ左サブピクセルおよび右サブピクセルを判定する。制御部7は、左サブピクセルであって右サブピクセルでないサブピクセルに左眼画像を表示し、右サブピクセルであって左サブピクセルでないサブピクセルに右眼画像を表示する。制御部7は、第3サブピクセルに第3画像を表示する。したがって、眼間距離が標準距離でない場合に、観察者の両眼が視認する画像を、クロストークが低減されるように制御することができ、観察者は適切に3次元画像を視認することが可能となる。
(基準インデックスによる表示領域の切り換え)
 制御部7は、前述したように、混合画像を表示パネル5に表示させる。表示パネル5は、複数の表示領域をアクティブエリア51内に有する。複数の表示領域の個々は複数の基準インデックスのいずれかが対応する。制御部7は、当該表示領域の基準インデックスを基準として、当該表示領域に表示する混合画像を合成するように構成される。
 視差画像の左眼画像および右眼画像の切り換えを、一つの座標を基準に固定して行う技術がある。しかしながら、画像光の反射装置の一つであるウインドシールドは、フリーカーブであり、空気抵抗を低減するため、鉛直方向に上方から俯瞰すると弧を描いている。後述するヘッドアップディスプレイ(Head Up Display;HUD)は、運転席側に位置しているため、左右の曲率が異なり、上下にも曲率が異なる。そのため、均一な面となっていない。光学的な水準からすると、曲率は左右、上下ともに製造上のばらつきが大きく、個体差も大きい。3次元表示装置2と観察者の眼との間に存在する凹面鏡である程度の歪を矯正するものの、観察者が観測する画像には歪が残っている。当然に、視差画像の分離にも影響を与えている。
 そこで、本実施形態では、視差画像の切り換えをおこなう単位を画面全体から画面の複数の領域で独立させることに着目した。各表示領域で原点が異なることを換言すると、原点を統一した際に、各表示領域の基準となるインデックスが異なることとなる。これは、個々に異なる原点から、統一した原点まで移動させることによってインデックスが変化するため、統一した原点でのインデックスを基準とすることで原点を統一できるからである。要するに、画面を複数の表示領域に分けて、個々の表示領域で別々の基準インデックスを有し、当該基準インデックスを基準として視差画像の変更処理を行う、または画面を複数の表示領域に分けて、個々の表示領域で別々の切り換え原点を有し、当該原点からずれによって切り換えを行うことによって実現することができる。
 例えば、アクティブエリア51は、例えば第1表示領域および第2表示領域を含む。このとき、第1表示領域が第1基準インデックスに対応し、第2表示領域が第2基準インデックスに対応しうる。なお、1つの基準インデックスが複数の表示領域に対応してよい。例えば、第1基準インデックスが、第1表示領域および第2表示領域に対応してよい。言い替えると、複数の基準インデックスの各々は、1または複数の表示領域に対応する。
 基準インデックスは、具体例としては、図9に示される眼の位置になり、基準となる基準インデックスは0となる。図9の例では、第1表示領域および第2表示領域の各々は、12個のインデックス0~11;6~11,0~5が有るので、例えば、左眼をL、右眼をRとしたとき、LLLRRRRRRLLのような組み合わせの合成画像が生成される。本実施形態では、表示領域ごとに基準インデックスが変更され、第1表示領域F1では“0”、第2表示領域F2では“6”のように、表示領域ごとに独立した基準インデックスが設定される。眼の位置が移動した際、その移動を基準インデックスの変化として検出する。例えば、左眼の位置の移動量がサブピクセル3個分であれば、“+3”、右眼の位置の移動量がサブピクセル6個分であれば、“+6”となる。“+3”の場合には、第1表示領域の基準インデックスF1は“0”から“3”に変更され、第2表示領域の基準インデックスF2は“6”から“9”に変更される。また、左眼の位置の移動量が“+6”の場合には、第1表示領域の基準インデックスF1は“0”から“6”に変更され、第2表示領域の基準インデックスF2は“6”から“0”(12進数であるため、0に循環)に変更される。このとき、合成画像は、基準インデックス“0”はLLLRRRRRRLL、基準インデックス“3”はRRRRRRLLLLLL、基準インデックス“6”はRRRLLLLLLRRRとなる。
 本実施形態の3次元表示装置2は、第1画像と第1画像に対して視差を有する第2画像とを含む混合画像を表示する表示パネル5と、表示パネル5から射出される画像光の光線方向を規定する光学素子と、観察者の第1眼の位置と第1眼とは異なる第2眼の位置とを取得する位置取得部3と、第1眼の位置および第2眼の位置に基づいて、第1画像および第2画像の並びを変更した混合画像を、表示パネル5に表示させる制御部と、を備える。制御部は、表示パネル5のアクティブエリア51内で分かれている複数の表示領域ごとに、複数の基準インデックスのいずれか、ならびに第1眼の位置および第2眼の少なくとも一方の位置に基づいて、第1画像および第2画像の並びを変更して混合画像を合成し、合成した混合画像を表示パネル5に表示させ、複数の基準インデックスの各々は、複数の表示領域のいずれかに対応する構成としてよい。
 3次元表示装置2は、第1画像と第1画像に対して視差を有する第2画像とを含む混合画像を表示する表示パネル5と、表示パネル5から射出される画像光の光線方向を規定する光学素子と、観察者の第1眼の位置と第1眼とは異なる第2眼の位置とを取得する位置取得部3と、位置取得部3によって取得された第1眼の位置および第2眼の位置に基づいて、表示パネル5に混合画像を表示させる制御部と、を備える。制御部は、表示パネル5のアクティブエリア51内で分かれている複数の表示領域の各々で、複数の切換え原点のいずれかを基準として第1画像および第2画像の並びを変更して混合画像を合成し、合成した混合画像を表示パネル5に表示させ、複数の切換え原点の各々は、複数の表示領域のいずれかに対応する構成としてよい。
 制御部7は、位置取得部3によって取得された第1眼の位置に基づいて第1可視領域を決定し、位置取得部3によって取得された第2眼の位置に基づいて第2可視領域を決定する構成としてよい。
 制御部7は、表示パネル5の画面に平行であって上下方向における第1眼の位置に基づいて第1可視領域を決定し、上下方向における第2眼の位置に基づいて第2可視領域を決定する構成としてよい。
 位置取得部3は、観察者の第1眼の位置を表示パネル5の画面に平行で、光学素子から適視距離にある面に投影した投影第1位置を第1眼の位置とし、観察者の第2眼の位置を面に投影した投影第2位置を第2眼の位置として取得する構成としてよい。
 次に、眼間距離Eが標準距離E0でない場合に3次元表示装置2が行う処理の一例について図11を参照して説明する。
 制御部7は、検出装置1から観察者の左眼および右眼の位置を示す情報を検出装置1から取得する(ステップS11)。
 ステップS11で左眼の位置を示す情報が取得されると、制御部7は、左眼の位置に基づいて左可視領域51aLを判定し、左可視領域51aLに基づいて左サブピクセルを判定する(ステップS12)。
 ステップS12で左可視領域51aLが判定されると、制御部7は、ステップS11で取得された情報が示す右眼の位置に基づいて右可視領域51aRを判定し、右可視領域51aRに基づいて右サブピクセルを判定する(ステップS13)。
 ステップS12およびステップS13でそれぞれ左サブピクセルおよび右サブピクセルが判定されると、制御部7は、左サブピクセルおよび右サブピクセルに基づいて第3サブピクセルを判定する(ステップS14)。制御部7は、ステップS11で取得された右眼および左眼の位置を示す情報に基づいて、第3サブピクセルを判定してもよい。
 ステップS14で第3サブピクセルが判定されると、制御部7は、左サブピクセルおよび右サブピクセルに基づいて第4サブピクセルを判定する(ステップS15)。制御部7は、ステップS11で取得された右眼および左眼の位置を示す情報に基づいて第4サブピクセルを判定してもよい。
 ステップS15で第4サブピクセルが判定されると、制御部7は、左サブピクセルであって右サブピクセルではないサブピクセル群に、基準インデックス(に対応するサブピクセル)Pを原点として、左眼画像を表示する(ステップS16)。
 ステップS16で左眼画像が表示されると、制御部7は、右サブピクセルであって左サブピクセルではないサブピクセル群に、基準インデックスPを原点として、右眼画像を表示する(ステップS17)。
 ステップS17で右眼画像が表示されると、制御部7は、第3サブピクセル群に、基準インデックスPを原点として、第3画像を表示する(ステップS18)。
 ステップS18で第3サブピクセルに第3画像が表示されると、制御部7は、第4サブピクセル群に、基準インデックスPを原点として、黒画像を表示する(ステップS19)。
 本実施形態の3次元表示装置2によれば、画像光の投影面が反射部材の1つであるウインドシールドなどのフリーカーブの曲面であっても、複数の表示領域ごとに基準インデックスを原点として曲面に応じて修正した視差画像を表示し、観察者に歪のない適切な3次元画像を視認させることが可能となる。
 本実施形態では、制御部7は、左眼の位置、および左眼から標準距離にある場合の右眼の位置と、サブピクセルに表示させるべき画像との対応を示す第1テーブルを用いて、左眼の位置に基づいて左サブピクセルを判定することができる。制御部7は、第1テーブルを用いて、右眼の位置に基づいて右サブピクセルを判定することができる。このため、制御部7は、各眼の位置を示す情報を取得するたびに、各眼の位置と、視差バリア6および表示パネル5の構成とに基づいて、左可視領域51aLおよび右可視領域51aRを演算する処理を行わなくてもよい。したがって、制御部7の処理負荷が軽減されうる。
 本実施形態では、制御部7は、観察者の特性に基づいて、左眼画像または右眼画像を第3画像として両眼可視領域51aLRに表示することができる。このため、例えば利き目が、利き目に対応する画像のみを視認することによって観察者の違和感が低減されうる。
 本実施形態では、制御部7は、左眼画像および右眼画像の輝度値の平均値となる輝度値を有する画像を第3画像とし表示することができる。このため、観察者の左眼は、右眼画像よりは左眼画像の輝度に近い輝度を有する画像を視認する。観察者の右眼は、左眼画像よりは右眼画像の輝度に近い輝度を有する画像を視認する。したがって、左眼が右眼画像を視認する場合、あるいは、右眼が左眼画像を視認する場合に比べて違和感の少ない画像が視認されうる。
 本実施形態では、制御部7は、輝度値が所定値以下である黒画像を第3画像として表示することができる。このため、観察者の左眼および右眼のいずれの眼も、異なる眼に対応する画像を視認することを回避することができる。したがって、クロストークが低減され、歪みのない3次元画像を視認することができる。
 本実施形態では、3次元表示装置2は、左眼の位置および右眼の位置と第3サブピクセルとの対応を示す第2テーブルを記憶するメモリ8を備えることができる。制御部7は、左眼の位置および右眼の位置に基づいて第2テーブルを用いて第3サブピクセルを判定することができる。このため、制御部7は、各眼の位置を示す情報を取得するたびに、各眼の位置と、視差バリア6および表示パネル5の構成とに基づいて、左可視領域51aLおよび右可視領域51aRを演算しなくてもよい。制御部7は、左可視領域51aLおよび右可視領域51aRに基づいて、それぞれ左サブピクセルおよび右サブピクセルを判定する処理を行わなくてもよい。したがって、制御部7の処理負荷が軽減されうる。
 本実施形態では、制御部7は、第4サブピクセルに黒画像を表示する。このため、第4サブピクセルから画像光が出射されない。したがって、第4サブピクセルから出射された画像光が視差バリア6を構成する部材等に2次反射されることによって発生した迷光が観察者の眼に到達するのを防ぐことができる。したがって、観察者の左眼および右眼は、迷光によって干渉されることなく、それぞれ左眼画像および右眼画像を明確に視認することができる。
 本実施形態では、制御部7は、左眼の水平方向の位置と上下方向の位置とに基づいて左サブピクセルを判定する。制御部7は、右眼の水平方向の位置と上下方向の位置とに基づいて右サブピクセルを判定する。このため、眼間方向が水平方向でない場合も、制御部7は、眼間方向が水平方向であるとして構成した視差バリア6および表示パネル5を用いて3次元画像を表示させるにあたって、クロストークを低減することができる。
 本実施形態では、制御部7は、投影左眼位置に基づいて左サブピクセルを判定する。制御部7は、投影右眼位置に基づいて右サブピクセルを判定する。このため、眼間距離Eの水平方向の成分が標準距離E0でない場合も、制御部7は、標準距離E0に基づいて構成した視差バリア6および表示パネル5を用いて3次元画像を表示させるに際のクロストークを低減することができる。
 他の実施形態の3次元表示装置2では、右眼画像(第1画像)と右眼画像に対して視差を有する左眼画像(第2画像)とを含む混合画像を表示する表示パネル5と、表示パネル5から出射される画像光の光線方向を規定する光学素子と、観察者の第1眼の位置と第1眼とは異なる第2眼の位置とを取得する位置取得部と、第1眼の位置および第2眼の位置に基づいて、表示パネル5に混合画像を表示させる制御部7と、を備える。制御部7は、表示パネル5の画面を複数の領域に分割し、分割された個々の領域は、個別の切換え原点を有し、前記切換え原点からのずれに基づいて、領域の切換えを行い、領域の画像を表示パネル5に表示させるように構成されてもよい。
 上述の実施形態は代表的な例として説明したが、本開示の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本開示は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形および変更が可能である。例えば、実施形態および実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。
 上述の実施形態では、制御部7は、左サブピクセルを判定した後に右サブピクセルを判定したが、この限りではない。制御部7は、右サブピクセルを判定した後に左サブピクセルを判定してよい。
 上述の実施形態では、制御部7は、左眼画像、右眼画像、第3画像、および黒画像の順に画像を表示させる構成について述べたが、本開示はこれに限るものではなく、左眼画像、右眼画像、第3画像、および黒画像を任意の順で表示させる構成であってもよい。また制御部7は、左眼画像、右眼画像、第3画像、および黒画像の2つ以上を同時に表示させてもよい。
 上述の実施形態では、制御部7は、左可視領域51aLおよび右可視領域51aRに基づいて第4サブピクセルを判定し、第4サブピクセルに黒画像を表示させたが、この限りではない。例えば、制御部7は、左サブピクセル、右サブピクセル、第3サブピクセルにそれぞれ左眼画像、右眼画像、および第3画像を表示させ、いずれの画像も表示されないサブピクセルに黒画像を表示させてよい。
 上述の実施形態では、光学素子が視差バリア6であるとしたが、これに限られない。例えば、図11に示すように、3次元表示装置2が備える光学素子は、レンチキュラレンズ91としてよい。レンチキュラレンズ91は、垂直方向に延びる複数のシリンドリカルレンズ92を水平方向に配列して構成される。レンチキュラレンズ91は、視差バリア6と同様に、左可視領域51aLのサブピクセルから出射した画像光を、観察者の左眼の位置に到達させるように伝播させる。レンチキュラレンズ91は、右可視領域51aRのサブピクセルから出射した画像光を、観察者の右眼の位置に到達させるように伝播させる。
 図12に示すように、3次元表示システム100は、ヘッドアップディスプレイシステム400に搭載されうる。ヘッドアップディスプレイシステム400は、HUD(Head Up Display)400ともいう。HUD400は、3次元表示システム100と、光学部材 410と、被投影面430を有する被投影部材420とを備える。HUD400は、3次元表示システム100から出射される画像光を、光学部材410を介して被投影部材420に到達させる。HUD400は、被投影部材420で反射させた画像光を、観察者の左眼および右眼に到達させる。つまり、HUD400は、破線で示される光路440に沿って、3次元表示システム100から観察者の左眼および右眼まで画像光を進行させる。観察者は、光路440に沿って到達した画像光を、虚像450として視認しうる。
 図13に示すように、3次元表示システム200を含むHUD400は、移動体10に搭載されてよい。HUD400は、構成の一部を、当該移動体10が備える他の装置、部品と兼用してよい。例えば、移動体10は、ウインドシールドを被投影部材420として兼用してよい。構成の一部を当該移動体10が備える他の装置、部品と兼用する場合、他の構成をHUDモジュールまたは3次元表示コンポーネントと呼びうる。HUD400、3次元表示システム100は、移動体10に搭載されてよい。本開示における「移動体」には、車両、船舶、航空機を含む。
 本実施形態では、視差画像の切換えを行う単位を、画面全体から画面の複数の領域で独立させる。各領域で原点が異なること、換言すると、原点を統一した際に、各領域の基準となる基準インデックスが異なることになる。これは、個々に異なる原点から統一した原点まで移動することで基準インデックスが変化するため、統一した原点での基準インデックスを基準とすることによって、原点を統一することができる。
 本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでもよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むが、これに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
 本開示は次の実施の形態が可能である。
 本開示の3次元表示装置は、第1画像と前記第1画像に対して視差を有する第2画像とを含む混合画像を表示する表示パネルと、前記表示パネルから出射される画像光の光線方向を規定する光学素子と、観察者の第1眼の位置と前記第1眼とは異なる第2眼の位置とを取得する位置取得部と、前記第1眼の位置および前記第2眼の位置に基づいて、前記第1画像および前記第2画像の並びを変更した前記混合画像を、前記表示パネルに表示させる制御部と、を備える。前記制御部は、前記表示パネルのアクティブエリア内で分かれている複数の表示領域ごとに、複数の基準インデックスのいずれか、ならびに前記第1眼および前記第2眼の少なくとも一方の位置に基づいて、前記第1画像および前記第2画像の並びを変更して前記混合画像を合成し、合成した前記混合画像を、前記表示パネルに表示させ、前記複数の基準インデックスの各々は、複数の表示領域のいずれかに対応するように構成される。
 また本開示の3次元表示装置は、第1画像と前記第1画像に対して視差を有する第2画像とを含む混合画像を表示する表示パネルと、前記表示パネルから出射される画像光の光線方向を規定する光学素子と、観察者の第1眼の位置と前記第1眼とは異なる第2眼の位置とを取得する位置取得部と、前記位置取得部によって取得された前記第1眼の位置および前記第2眼の位置に基づいて、前記表示パネルに混合画像を表示させる制御部と、を備える。前記制御部は、前記表示パネルのアクティブエリア内で分かれている複数の表示領域の各々で、複数の切換え原点のいずれかを基準として前記第1画像および前記第2画像の並びを変更して前記混合画像を合成し、合成した前記混合画像を前記表示パネルに表示させ、前記複数の切換え原点の各々は、複数の表示領域のいずれかに対応するように構成される。
 本開示の3次元表示装置によれば、画像光の投影面が反射部材の1つであるウインドシールドなどのフリーカーブの曲面であっても、複数の表示領域ごとに基準インデックスを原点として曲面に応じて修正した視差画像を表示し、観察者に歪のない適切な3次元画像を視認させることが可能となる。
 以上、本開示の実施形態について詳細に説明したが、また、本開示は上述の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲内において、種々の変更、改良等が可能である。上記各実施形態をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。
 1 検出装置
 2 3次元表示装置
 3 位置取得部
 4 照射器
 5 表示パネル
 6 視差バリア
 7 制御部
 8 メモリ
 10 移動体
 51 アクティブエリア
 51aL 左可視領域
 51aR 右可視領域
 51bL 左不可視領域
 51bR 右不可視領域
 51aLR 両眼可視領域
 51bLR 両眼不可視領域
 60 視差バリア
 61 遮光領域
 62 透光領域
 91 レンチキュラレンズ
 92 シリンドリカルレンズ
 100 3次元表示システム
 400 ヘッドアップディスプレイシステム
 410 光学部材
 420 被投影部材
 430 被投影面
 440 光路
 450 虚像

Claims (5)

  1.  第1画像と前記第1画像に対して視差を有する第2画像とを含む混合画像をアクティブエリアに表示する表示パネルと、
     前記表示パネルから射出される画像光の光線方向を規定する光学素子と、
     観察者の第1眼の位置である第1位置と前記第1眼とは異なる第2眼の位置である第2位置とを取得する位置取得部と、
     前記第1位置および前記第2位置の少なくとも一方に基づいて、前記第1画像および前記第2画像の並びを変更した前記混合画像を、前記表示パネルに表示させる制御部と、を備え、
     前記アクティブエリアは、複数の表示領域を含み、
      前記制御部は、
      前記複数の表示領域の各々で、当該表示領域に対応する複数の基準インデックスのうちの1つと、前記第1位置および前記第2位置の少なくとも一方とに基づいて、前記第1画像および前記第2画像の並びを変更して前記混合画像を合成し、
      合成した前記混合画像を前記表示パネルに表示させる、ように構成される、3次元表示装置。
  2.  第1画像と前記第1画像に対して視差を有する第2画像とを含む混合画像をアクティブエリアに表示する表示パネルと、
     前記表示パネルから射出される画像光の光線方向を規定する光学素子と、
     観察者の第1眼の位置である第1位置と前記第1眼とは異なる第2眼の位置である第2位置とを取得する位置取得部と、
     前記位置取得部によって取得された前記第1位置および前記第2位置に基づいて、前記表示パネルに混合画像を表示させる制御部と、を備え、
     前記アクティブエリアは、複数の表示領域を含み、
     前記制御部は、
      前記複数の表示領域の各々で、当該表示領域に対応する複数の切換え原点のうちの1つを基準として前記第1画像および前記第2画像の並びを変更して前記混合画像を合成し、
      合成した前記混合画像を前記表示パネルに表示させる、3次元表示装置。
  3.  前記制御部は、
     前記位置取得部によって取得された前記第1位置に基づいて前記第1可視領域を決定し、
     前記位置取得部によって取得された前記第2位置に基づいて前記第2可視領域を決定する、請求項1または2に記載の3次元表示装置。
  4.  前記制御部は、
     前記表示パネルの画面に平行であって上下方向における前記第1位置に基づいて前記第1可視領域を決定し、
     前記上下方向における前記第2位置に基づいて前記第2可視領域を決定する、請求項1~3のいずれか1項に記載の3次元表示装置。
  5.  前記位置取得部は、
      前記表示パネルの画面に平行で、前記光学素子から適視距離にある面に前記第1眼を投影した位置である第1投影位置を前記第1位置とし、
      前記面に前記第2眼を投影した位置である第2投影位置を前記第2位置として取得する、請求項1~4のいずれか1項に記載の3次元表示装置。
PCT/JP2021/026013 2020-07-20 2021-07-09 3次元表示装置 WO2022019154A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/016,649 US20230296914A1 (en) 2020-07-20 2021-07-09 Three-dimensional display device
CN202180060569.5A CN116134366A (zh) 2020-07-20 2021-07-09 三维显示装置
EP21845189.6A EP4184238A1 (en) 2020-07-20 2021-07-09 Three-dimensional display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020123919A JP7475231B2 (ja) 2020-07-20 2020-07-20 3次元表示装置
JP2020-123919 2020-07-20

Publications (1)

Publication Number Publication Date
WO2022019154A1 true WO2022019154A1 (ja) 2022-01-27

Family

ID=79728782

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/026013 WO2022019154A1 (ja) 2020-07-20 2021-07-09 3次元表示装置

Country Status (5)

Country Link
US (1) US20230296914A1 (ja)
EP (1) EP4184238A1 (ja)
JP (1) JP7475231B2 (ja)
CN (1) CN116134366A (ja)
WO (1) WO2022019154A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024128264A1 (ja) * 2022-12-13 2024-06-20 公立大学法人大阪 映像表示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106532A (ja) * 2012-11-27 2014-06-09 Samsung Display Co Ltd 立体画像表示装置
WO2020004275A1 (ja) * 2018-06-26 2020-01-02 京セラ株式会社 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
WO2020090626A1 (ja) * 2018-10-31 2020-05-07 京セラ株式会社 画像表示装置、画像表示システム、及び移動体
WO2020130048A1 (ja) * 2018-12-21 2020-06-25 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4987487A (en) * 1988-08-12 1991-01-22 Nippon Telegraph And Telephone Corporation Method of stereoscopic images display which compensates electronically for viewer head movement
US7190518B1 (en) * 1996-01-22 2007-03-13 3Ality, Inc. Systems for and methods of three dimensional viewing
US7365908B2 (en) * 2001-11-08 2008-04-29 Eugene Dolgoff Tiling of panels for multiple-image displays
GB0412651D0 (en) * 2004-06-07 2004-07-07 Microsharp Corp Ltd Autostereoscopic rear projection screen and associated display system
KR20060023392A (ko) * 2004-09-09 2006-03-14 삼성전자주식회사 3차원 영상 표시 장치의 제조 방법 및 그에 사용되는 결합장치
JP5648299B2 (ja) * 2010-03-16 2015-01-07 株式会社ニコン 眼鏡販売システム、レンズ企業端末、フレーム企業端末、眼鏡販売方法、および眼鏡販売プログラム
JP5874197B2 (ja) * 2011-05-26 2016-03-02 ソニー株式会社 表示装置および方法、並びにプログラム
JP2013251593A (ja) * 2012-05-30 2013-12-12 Seiko Epson Corp 表示装置、及び、表示装置の制御方法
US11442273B2 (en) * 2018-05-17 2022-09-13 Lumus Ltd. Near-eye display having overlapping projector assemblies
KR20210048946A (ko) * 2019-10-24 2021-05-04 삼성전자주식회사 넓은 시야창을 갖는 디스플레이 장치
US11190754B2 (en) * 2020-01-22 2021-11-30 3D Media Ltd. 3D display device having a processor for correcting pseudostereoscopic effect

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014106532A (ja) * 2012-11-27 2014-06-09 Samsung Display Co Ltd 立体画像表示装置
WO2020004275A1 (ja) * 2018-06-26 2020-01-02 京セラ株式会社 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
WO2020090626A1 (ja) * 2018-10-31 2020-05-07 京セラ株式会社 画像表示装置、画像表示システム、及び移動体
WO2020130048A1 (ja) * 2018-12-21 2020-06-25 京セラ株式会社 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体

Also Published As

Publication number Publication date
CN116134366A (zh) 2023-05-16
JP7475231B2 (ja) 2024-04-26
JP2022020434A (ja) 2022-02-01
US20230296914A1 (en) 2023-09-21
EP4184238A1 (en) 2023-05-24

Similar Documents

Publication Publication Date Title
JP6924637B2 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
JP7129789B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
JP7483604B2 (ja) 3次元表示システム、光学素子、設置方法、制御方法、および移動体
JP2020017935A (ja) 表示装置、表示システムおよび移動体
US11616940B2 (en) Three-dimensional display device, three-dimensional display system, head-up display, and mobile object
WO2021066110A1 (ja) 3次元表示装置、コントローラ、3次元表示方法、3次元表示システム、及び、移動体
WO2021106688A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2022019154A1 (ja) 3次元表示装置
WO2020004275A1 (ja) 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
WO2020130048A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2020130049A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
CN113614613A (zh) 立体虚像显示模块、立体虚像显示系统以及移动体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
US11874464B2 (en) Head-up display, head-up display system, moving object, and method of designing head-up display
WO2021106664A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
CN113614619A (zh) 图像显示模块、图像显示系统、移动体、图像显示方法以及图像显示程序
WO2022149599A1 (ja) 3次元表示装置
JP2020101660A (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
WO2022065355A1 (ja) 3次元表示装置、3次元表示方法、3次元表示システム、および移動体
WO2023228887A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2022019215A1 (ja) 3次元表示装置、ヘッドアップディスプレイおよび移動体
JP7475191B2 (ja) 眼間距離測定方法および較正方法
WO2021066111A1 (ja) 3次元表示装置、3次元表示システム及び移動体
JP2022022078A (ja) 3次元表示装置、ヘッドアップディスプレイおよび移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21845189

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021845189

Country of ref document: EP

Effective date: 20230220