WO2019009243A1 - 3次元表示装置、3次元表示システム、移動体、および3次元表示方法 - Google Patents

3次元表示装置、3次元表示システム、移動体、および3次元表示方法 Download PDF

Info

Publication number
WO2019009243A1
WO2019009243A1 PCT/JP2018/025068 JP2018025068W WO2019009243A1 WO 2019009243 A1 WO2019009243 A1 WO 2019009243A1 JP 2018025068 W JP2018025068 W JP 2018025068W WO 2019009243 A1 WO2019009243 A1 WO 2019009243A1
Authority
WO
WIPO (PCT)
Prior art keywords
sub
controller
pixels
display surface
user
Prior art date
Application number
PCT/JP2018/025068
Other languages
English (en)
French (fr)
Inventor
薫 草深
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US16/627,665 priority Critical patent/US11422383B2/en
Priority to CN201880040671.7A priority patent/CN110799894B/zh
Priority to EP18828429.3A priority patent/EP3650922B1/en
Publication of WO2019009243A1 publication Critical patent/WO2019009243A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • H04N13/125Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues for crosstalk reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/305Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0118Head-up displays characterised by optical features comprising devices for improving the contrast of the display / brillance control visibility
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Definitions

  • the present disclosure relates to a three-dimensional display device, a three-dimensional display system, a moving object, and a three-dimensional display method.
  • the three-dimensional display device of the present disclosure includes a display surface, an optical element, and a controller.
  • the display surface includes a plurality of sub-pixels arranged in a grid along a first direction corresponding to a direction in which the user's eyes are aligned and a second direction orthogonal to the first direction.
  • the optical element defines a ray direction of light emitted from the display surface for each of a plurality of band-like regions extending in a direction forming a predetermined angle which is not 0 degrees with the second direction on the display surface.
  • the controller displays an image on the display surface. The controller obtains information on brightness.
  • the controller is configured to, based on the information related to the brightness, at least a part of sub-pixels of the binocular sub-pixels partially included in the first visible region and partially included in the second visible region. Decrease the brightness.
  • the first visible area is an area on the display surface that emits light propagating to the position of the first eye of the user.
  • the second visible area is an area on the display surface that emits light propagating to the position of the second eye of the user.
  • the three-dimensional display system of the present disclosure includes a measurement device and a three-dimensional display device.
  • the measuring device measures brightness.
  • the three-dimensional display device includes a display surface, an optical element, and a controller.
  • the display surface includes a plurality of sub-pixels arranged in a grid along a first direction corresponding to a direction in which the user's eyes are aligned and a second direction orthogonal to the first direction.
  • the optical element defines a ray direction of light emitted from the display surface for each of a plurality of band-like regions extending in a direction forming a predetermined angle which is not 0 degrees with the second direction on the display surface.
  • the controller displays an image on the display surface. The controller obtains information on brightness from the measuring device.
  • the controller is configured to, based on the information related to the brightness, at least a part of sub-pixels of the binocular sub-pixels partially included in the first visible region and partially included in the second visible region. Decrease the brightness.
  • the first visible area is an area on the display surface that emits light propagating to the position of the first eye of the user.
  • the second visible area is an area on the display surface that emits light propagating to the position of the second eye of the user.
  • the mobile unit of the present disclosure includes a three-dimensional display system.
  • the three-dimensional display system includes a measuring device and a three-dimensional display device.
  • the measuring device measures brightness.
  • the three-dimensional display device has a display surface, an optical element, and a controller.
  • the display surface includes a plurality of sub-pixels arranged in a grid along a first direction corresponding to a direction in which the user's eyes are aligned and a second direction orthogonal to the first direction.
  • the optical element defines a ray direction of light emitted from the display surface for each of a plurality of band-like regions extending in a direction forming a predetermined angle which is not 0 degrees with the second direction on the display surface.
  • the controller displays an image on the display surface.
  • the controller obtains information on brightness from the measuring device.
  • the controller is configured to, based on the information related to the brightness, at least a part of sub-pixels of the binocular sub-pixels partially included in the first visible region and partially included in the second visible region. Decrease the brightness.
  • the first visible area is an area on the display surface that emits light propagating to the position of the first eye of the user.
  • the second visible area is an area on the display surface that emits light propagating to the position of the second eye of the user.
  • the display method of the present disclosure is a three-dimensional display method executed by a three-dimensional display device.
  • the three-dimensional display device includes a display surface, an optical element, and a controller.
  • the display surface includes a plurality of sub-pixels arranged in a grid along a first direction corresponding to a direction in which the user's eyes are aligned and a second direction orthogonal to the first direction.
  • the optical element defines a ray direction of light emitted from the display surface for each of a plurality of band-like regions extending in a direction forming a predetermined angle which is not 0 degrees with the second direction on the display surface.
  • the controller displays an image on the display surface. The controller obtains information on brightness from the measuring device.
  • the controller is configured to, based on the information related to the brightness, at least a part of sub-pixels of the binocular sub-pixels partially included in the first visible region and partially included in the second visible region. Decrease the brightness.
  • the first visible area is an area on the display surface that emits light propagating to the position of the first eye of the user.
  • the second visible area is an area on the display surface that emits light propagating to the position of the second eye of the user.
  • FIG. 1 is a diagram showing an example in which the three-dimensional display system in the first embodiment is viewed from the vertical direction.
  • FIG. 2 is a view showing an example in which the display panel shown in FIG. 1 is viewed from the depth direction.
  • FIG. 3 is a view showing an example in which the optical element shown in FIG. 1 is viewed from the depth direction.
  • FIG. 4 is a schematic diagram for explaining an example of an image displayed on the display surface when the eye of the user is at the reference position and the illuminance of the surrounding environment is equal to or higher than the first threshold.
  • FIG. 1 is a diagram showing an example in which the three-dimensional display system in the first embodiment is viewed from the vertical direction.
  • FIG. 2 is a view showing an example in which the display panel shown in FIG. 1 is viewed from the depth direction.
  • FIG. 3 is a view showing an example in which the optical element shown in FIG. 1 is viewed from the depth direction.
  • FIG. 4 is a schematic diagram for explaining an example of an image displayed on
  • FIG. 5 is a schematic view for explaining an example of an image displayed on the display surface when the eye of the user is at the reference position and the illuminance of the surrounding environment is less than the first threshold and greater than or equal to the second threshold. is there.
  • FIG. 6 is a schematic diagram for explaining an example of an image displayed on the display surface when the eye of the user is at the reference position and the illuminance of the surrounding environment is less than the second threshold.
  • FIG. 7 is a schematic diagram for explaining an example of an image displayed on the display surface when the eye of the user is at the displacement position and the illuminance of the surrounding environment is equal to or higher than the first threshold.
  • FIG. 8 is a schematic view for explaining an example of an image displayed on the display surface when the user's eye is at the displacement position and the illuminance of the surrounding environment is less than the first threshold and greater than or equal to the second threshold. is there.
  • FIG. 9 is a schematic diagram for explaining an example of an image displayed on the display surface when the eye of the user is at the displacement position and the illuminance of the surrounding environment is less than the second threshold.
  • FIG. 10 is a schematic diagram for explaining another example of the image displayed on the display surface when the user's eye is at the displacement position and the illuminance of the surrounding environment is less than the first threshold and greater than or equal to the second threshold.
  • FIG. 11 is a schematic diagram for explaining another example of the image displayed on the display surface when the user's eye is at the displacement position and the illuminance of the surrounding environment is less than the second threshold.
  • FIG. 12 is a flow chart showing an example of the processing flow of the three-dimensional display device of the first embodiment.
  • FIG. 13 is a diagram showing an example in which the three-dimensional display system in the second embodiment is viewed from the vertical direction.
  • FIG. 14 is a schematic configuration diagram of a three-dimensional display device when the optical element is a lenticular lens.
  • FIG. 15 is a diagram showing an example of a HUD equipped with the three-dimensional display system according to the present embodiment.
  • FIG. 16 is a view showing an example of a mobile unit on which the HUD shown in FIG. 15 is mounted.
  • the present disclosure provides a three-dimensional display device, a three-dimensional display system, a moving object, and a three-dimensional display method capable of causing a user to appropriately view a three-dimensional image.
  • the three-dimensional display system 100 includes a detection device 1, a measurement device 2, and a three-dimensional display device 3.
  • the detection device 1 detects the positions of the left eye (first eye) and the right eye (second eye) of the user, and outputs the positions to the controller 7.
  • the detection device 1 may include, for example, a camera.
  • the detection device 1 may capture the face of the user with a camera.
  • the detection device 1 may detect the positions of the left eye and the right eye from the captured image including the image of the face of the user of the camera.
  • the detection device 1 may detect the positions of the left eye and the right eye as coordinates in a three-dimensional space from the captured image of one camera.
  • the detection device 1 may detect the positions of the left eye and the right eye as coordinates in a three-dimensional space from captured images of two or more cameras.
  • the detection device 1 may be connected to a camera outside the device without a camera.
  • the detection device 1 may have an input terminal for inputting a signal from a camera outside the device.
  • the camera outside the device may be directly connected to the input terminal.
  • the camera outside the device may be indirectly connected to the input terminal via a shared network.
  • the detection device 1 not equipped with a camera may include an input terminal through which the camera inputs a video signal.
  • the detection device 1 not equipped with a camera may detect the position of the left eye and the right eye from the video signal input to the input terminal.
  • the detection device 1 may, for example, comprise a sensor.
  • the sensor may be an ultrasonic sensor or an optical sensor or the like.
  • the detection device 1 may detect the position of the head of the user by a sensor, and may detect the positions of the left eye and the right eye based on the position of the head.
  • the detection device 1 may detect the positions of the left eye and the right eye as coordinates in a three-dimensional space by one or more sensors.
  • the three-dimensional display system 100 may not include the detection device 1.
  • the three-dimensional display device 3 may include an input terminal for inputting a signal from a detection device outside the device.
  • a detection device outside the device may be connected to the input terminal.
  • the detection device outside the device may use electrical and optical signals as transmission signals to the input terminals.
  • the detection device outside the device may be connected indirectly to the input terminal via a shared network.
  • the controller 7 may receive position coordinates indicating the positions of the left eye and the right eye acquired from a detection device outside the device.
  • the controller 7 may calculate the movement distance of the left eye and the right eye along the horizontal direction based on the position coordinates.
  • the measuring device 2 can measure the illuminance of the surrounding environment.
  • the measuring device 2 outputs the illuminance information indicating the measured illuminance to the three-dimensional display device 3.
  • the measuring device 2 may be an illuminance sensor.
  • the illuminance sensor may measure the illuminance of the surrounding environment.
  • the illuminance sensor may have light receiving elements such as photocells, phototubes, photomultipliers and the like.
  • the illuminance sensor may measure the illuminance of the surrounding environment by converting the light incident on the light receiving element into an electrical signal.
  • the measuring device 2 may be a device that measures the illuminance of the surrounding environment to control other devices.
  • the measuring device 2 may be, for example, a headlight with an automatic lighting function.
  • the three-dimensional display 3 includes an irradiator 4, a display panel 5, a parallax barrier 6 as an optical element, and a controller 7.
  • the irradiator 4 can illuminate the display panel 5 planarly.
  • the irradiator 4 may be configured to include a light source, a light guide plate, a diffusion plate, a diffusion sheet, and the like.
  • the irradiator 4 emits irradiation light by a light source, and makes the irradiation light uniform in the surface direction of the display panel 5 by a light guide plate, a diffusion plate, a diffusion sheet or the like. Then, the irradiator 4 can emit the homogenized light to the display panel 5.
  • the display panel 5 can employ, for example, a display panel such as a transmissive liquid crystal display panel. As shown in FIG. 2, the display panel 5 has a plurality of divided areas divided in a first direction and a second direction orthogonal to the first direction by a grid-like black matrix 52 on a plate-like display surface 51, as shown in FIG. Have.
  • the direction orthogonal to the first direction and the second direction is referred to as a third direction.
  • the first direction may be referred to as the horizontal direction.
  • the second direction may be referred to as the vertical direction.
  • the third direction may be referred to as the depth direction.
  • the first direction, the second direction, and the third direction are not limited to these.
  • the first direction is represented as the x-axis direction
  • the second direction is represented as the y-axis direction
  • the third direction is represented as the z-axis direction.
  • the black matrix 52 includes a first black line 52a extending in the vertical direction and a second black line 52b extending in the horizontal direction.
  • the plurality of first black lines 52a are arranged in the horizontal direction, for example, at a constant pitch.
  • the plurality of second black lines 52b are arranged in the vertical direction, for example, at a constant pitch.
  • the display surface 51 includes a plurality of sub-pixels arranged in a grid along the horizontal direction and the vertical direction.
  • Each sub-pixel corresponds to one of R (Red), G (Green), and B (Blue), and one sub-pixel of R, G, and B can constitute one pixel.
  • One pixel may be referred to as one pixel.
  • the horizontal direction is, for example, a direction in which a plurality of sub-pixels constituting one pixel are arranged.
  • the vertical direction is, for example, a direction in which sub-pixels of the same color are arranged.
  • the display panel 5 is not limited to the transmissive liquid crystal panel, and another display panel such as an organic EL can be used. When a self-luminous display panel is used as the display panel 5, the three-dimensional display device 3 may not include the irradiator 4.
  • the plurality of sub-pixels arranged on the display surface 51 as described above constitute a sub-pixel group Pg.
  • the sub-pixel group Pg includes a left sub-pixel group Pgl (first sub-pixel group) and a right sub-pixel group Pgr (second sub-pixel group).
  • the left sub-pixel group Pgl and the right sub-pixel group Pgr are arranged adjacent to each other in the horizontal direction.
  • the plurality of sub-pixel groups Pg are repeatedly arranged adjacent to each other in the horizontal direction.
  • the sub-pixel group Pg is repeatedly arranged adjacent to a position shifted by one sub-pixel in the horizontal direction in the vertical direction.
  • the left sub-pixel group Pgl includes sub-pixels of predetermined rows and columns. Specifically, the left sub-pixel group Pgl includes (n ⁇ b) (n ⁇ b) (in the following, n ⁇ b) sequentially arranged in the vertical direction in the number of b (b rows) vertically and in the horizontal direction n (n columns) sub-pixels P1 to Pm of b).
  • the right sub-pixel group Pgr includes sub-pixels of predetermined rows and columns similar to the left sub-pixel group Pgl.
  • the right sub-pixel group Pgr includes n sub-pixels in the horizontal direction and b in the vertical direction, and includes m sub-pixels P (m + 1) to P (2 ⁇ m) arranged in series.
  • n may be referred to as the horizontal alignment number.
  • b may be referred to as the vertical alignment number.
  • a left sub-pixel group Pgl including six sub-pixels P1 to P6 arranged in series, two in the vertical direction and three in the horizontal direction is disposed on the display surface 51.
  • a right sub-pixel including six sub-pixels P7 to P12 continuously arranged two each in the vertical direction and three each in the horizontal direction adjacent to the left sub-pixel group Pgl in the horizontal direction A group Pgr is arranged.
  • the parallax barrier 6 is formed by a plane along the display surface 51, and is disposed apart from the display surface 51 by a predetermined distance (gap) g.
  • the parallax barrier 6 may be located on the opposite side of the irradiator 4 with respect to the display panel 5.
  • the parallax barrier 6 may be located on the irradiator 4 side of the display panel 5.
  • the parallax barrier 6 defines the light beam direction, which is the propagation direction of the image light emitted from the sub-pixel, for each of the plurality of light transmitting regions 62 which are a plurality of strip regions extending in a predetermined direction in the plane.
  • the predetermined direction is a direction forming a predetermined angle which is not 0 degrees with the vertical direction.
  • left visible area 51aL first visible area
  • right visible area 51aR second visible area
  • the parallax barrier 6 has a plurality of light shielding surfaces 61 that shield the image light.
  • the plurality of light blocking surfaces 61 define light transmitting regions 62 between the light blocking surfaces 61 adjacent to each other.
  • the light transmitting region 62 has a light transmittance higher than that of the light shielding surface 61.
  • the light shielding surface 61 has a light transmittance lower than that of the light transmitting region 62.
  • the light transmitting region 62 is a portion that transmits light incident on the parallax barrier 6.
  • the light transmitting region 62 may transmit light with a transmittance of a first predetermined value or more.
  • the first predetermined value may be, for example, 100%, or a value close to 100%.
  • the light blocking surface 61 is a portion that blocks and does not transmit light incident on the parallax barrier 6. In other words, the light blocking surface 61 blocks the image displayed on the three-dimensional display 3.
  • the light blocking surface 61 may block light with a transmittance equal to or less than a second predetermined value.
  • the second predetermined value may be, for example, 0% or a value close to 0%.
  • the light transmitting region 62 and the light shielding surface 61 extend in a predetermined direction along the display surface 51, and are alternately and repeatedly arranged in a direction orthogonal to the predetermined direction.
  • the light transmitting region 62 defines the ray direction of the image light emitted from the sub-pixel.
  • a line indicating the end of the light transmitting region 62 extends in the second direction, moiré may occur between the pattern of the opening of the parallax barrier 6 and the pixel pattern displayed by the display panel 5.
  • the line indicating the end of the translucent region 62 extends in a predetermined direction having a predetermined angle that is not 0 degrees with respect to the second direction, generation of moiré in the display image is reduced.
  • the barrier pitch Bp which is the arrangement interval of the light transmitting regions 62 of the parallax barrier 6, and the gap g between the display surface 51 and the parallax barrier 6 have the following equations (1) and It is defined that (2) holds.
  • d is a suitable viewing distance.
  • the appropriate viewing distance d is the distance between the eye of the user and the parallax barrier 6 such that the horizontal length of the visible region 51 a is n subpixels.
  • E is the interocular distance of the user.
  • Hp is the horizontal length of the sub-pixel.
  • E: d (n ⁇ Hp): g
  • Bp (d + g): (2 ⁇ n ⁇ Hp) Formula (2)
  • the parallax barrier 6 may be composed of a film or a plate-like member having a transmittance less than the second predetermined value.
  • the light shielding surface 61 is formed of the film or the plate-like member.
  • the light transmitting region 62 is configured by an opening provided in a film or a plate-like member.
  • the film may be made of resin or other material.
  • the plate-like member may be made of resin, metal or the like, or may be made of another material.
  • the parallax barrier 6 is not limited to a film or a plate-like member, and may be composed of other kinds of members.
  • the base material may have a light shielding property, and the base material may contain an additive having a light shielding property.
  • the parallax barrier 6 may be configured of a liquid crystal shutter.
  • the liquid crystal shutter can control the light transmittance in accordance with the applied voltage.
  • the liquid crystal shutter may be composed of a plurality of pixels, and may control the transmittance of light in each pixel.
  • the liquid crystal shutter may form an area with high light transmittance or an area with low light transmittance in an arbitrary shape.
  • the light transmitting region 62 may be a region having a transmittance equal to or more than a first predetermined value.
  • the light blocking surface 61 may be a region having a transmittance equal to or less than a second predetermined value.
  • the parallax barrier 6 transmits the image light emitted from a part of sub-pixels of the display surface 51 through the light transmitting region 62 to the user's right eye.
  • the parallax barrier 6 transmits the image light emitted from some other sub-pixels through the light transmitting area 62 to the user's left eye.
  • the left visible region 51aL shown in FIG. 4 is displayed by the left eye of the user as the image light transmitted through the light transmitting region 62 of the parallax barrier 6 reaches the left eye of the user. It is an area on the surface 51.
  • the left invisible region 51bL is a region where the image light is blocked by the light shielding surface 61 of the parallax barrier 6 so that the left eye of the user can not visually recognize. Therefore, for example, when the left eye image is displayed in the sub-pixel included in the left visible area 51aL and the right image is displayed in the left invisible area 51bL, the left eye of the user visually recognizes the left eye image.
  • the sub-pixels that display the left-eye image are given the symbol "L".
  • the image light from the other part of the sub-pixels transmitted through the light transmitting area 62 of the parallax barrier 6 is displayed by the right eye of the user as it reaches the right eye of the user It is an area on the surface 51.
  • the right invisible region 51bR is a region where the user's right eye can not visually recognize because the image light is blocked by the light shielding surface 61 of the parallax barrier 6. Therefore, for example, when the left eye image (first image) is displayed in the sub-pixel included in the left visible region 51aL and the right image is displayed in the left invisible region 51bL, the right eye (second image) of the user is Visualize the right eye image.
  • the sub-pixels that display the right-eye image are given the symbol "R".
  • the barrier aperture ratio which is the horizontal length of the light transmitting region 62 with respect to the barrier pitch Bp, is 50%.
  • the right visible area 51aR may correspond to the left invisible area 51bL.
  • the right invisible region 51bR may correspond to the left visible region 51aL.
  • the right eye of the user can view the right eye image
  • the left eye can view the left eye image. Therefore, when there is parallax between the left eye image and the right eye image, the user can visually recognize the three-dimensional image.
  • the light transmission region 62 of the parallax barrier 6 in the present embodiment extends in a direction forming a predetermined angle which is not 0 degree with the vertical direction.
  • the subpixels are arranged in a grid along the horizontal direction and the vertical direction. Therefore, some of the sub-pixels on the display surface 51 (for example, the sub-pixels P1, P6, P7, and P12 shown in FIG. 4) are binocular sub-pixels.
  • the binocular sub-pixel is a sub-pixel in which a part is included in the left visible area 51aL and a part is included in the right visible area 51aR.
  • the binocular sub-pixel is partially recognized by the left eye and the other is visually recognized by the right eye. As a result, crosstalk occurs in the eyes of the user.
  • the controller 7 can display an image on each of the sub-pixels so as to reduce crosstalk generated due to the binocular sub-pixels.
  • the controller 7 can be connected to each component of the three-dimensional display system 100 to control each component.
  • the components controlled by the controller 7 include the detection device 1 and the display panel 5.
  • the controller 7 is configured as, for example, a processor.
  • the controller 7 may include one or more processors.
  • the processor may include a general purpose processor that loads a specific program to execute a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • the processor may include a programmable logic device (PLD).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the controller 7 may be either a system-on-a-chip (SoC) with which one or more processors cooperate, and a system in package (SiP).
  • SoC system-on-a-chip
  • SiP system in package
  • the controller 7 may be provided with a storage unit, and the storage unit may store various information, a program for operating each component of the three-dimensional display system 100, and the like.
  • the storage unit may be configured of, for example, a semiconductor memory or the like.
  • the storage unit may function as a work memory of the controller 7.
  • the controller 7 can acquire information on the position of the user's eye and information on the brightness, and can display an image on each of the plurality of sub-pixels on the display surface 51 based on the position and the brightness.
  • the controller 7 can obtain information on the position of the user's eye detected by the detection device 1.
  • the controller 7 can acquire information indicating the brightness measured by the measuring device 2.
  • the information indicating the brightness may be, for example, the illuminance of the surrounding environment.
  • straight lines which form the boundary between the left visible area 51aL and the right visible area 51aR are the first black line 52a and the second black line 52b.
  • Position of the user's eye such as passing through the intersection of
  • the controller 7 may determine the left sub-pixel group Pgl based on the position of the user's eye. Specifically, the controller 7 determines the left visible area 51aL based on the position of the user's eye. Then, the controller 7 may determine a set of subpixels of a predetermined row and column in which the left visible region 51aL includes the most part as the left subpixel group Pgl. In the example shown in FIG. 4, the predetermined rows and columns are two rows and three columns. In this example, the controller 7 determines the set of sub-pixels formed by the sub-pixels P1 to P6 as the left sub-pixel group Pgl.
  • the controller 7 may determine the right sub-pixel group Pgr based on the position of the user's eye. Specifically, the controller 7 determines the right visible area 51aR based on the position of the user's eye. Then, the controller 7 may determine a set of sub-pixels of a predetermined row and column in which the right visible region 51aR includes the most part as the right sub-pixel group Pgr. In the example shown in FIG. 4, the controller 7 determines the set of sub-pixels formed by the sub-pixels P7 to P12 as the right sub-pixel group Pgr.
  • the controller 7 may reduce the brightness of the number of binocular sub-pixels based on the illumination.
  • Lowering the luminance may be, for example, setting the luminance to a predetermined luminance or less.
  • the predetermined luminance may be, for example, 10.
  • To reduce the brightness may be to set the brightness to zero.
  • Making the luminance of the sub-pixel 0 is also referred to as turning off the sub-pixel.
  • the sub-pixels whose brightness is lowered are given the symbol "B".
  • the controller 7 determines a sub-pixel in which a part is included in the left visible area 51aL and a remaining part is included in the right visible area 51aR as a binocular sub-pixel. Then, the controller 7 can lower the brightness of many binocular sub-pixels as the acquired degree of brightness is lower. For example, the controller 7 may lower the luminance of many binocular sub-pixels as the illuminance is lower.
  • the controller 7 displays the left-eye image in the sub-pixels included in the left sub-pixel group Pgl and not included in the binocular sub-pixel whose luminance is lowered.
  • the controller 7 displays the right eye image in the sub-pixels that are at least partially included in the right sub-pixel group Pgr and are not included in the binocular sub-pixels whose luminance is lowered.
  • the controller 7 does not lower the luminance of any binocular sub-pixel as shown in FIG.
  • the crosstalk generated by the left eye visually recognizing the right eye image displayed in the binocular sub-pixel and the right eye visualizing the left eye image displayed in the binocular sub-pixel is the user's eye It is the illuminance of the surrounding environment that is difficult to recognize.
  • the first illuminance may be appropriately determined by the barrier aperture ratio, the horizontal arrangement number n, and the like.
  • the controller 7 can cause the left eye image to be displayed on all the sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 can cause the right eye image to be displayed on all the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 causes the left eye image to be displayed on the sub-pixels P1 to P6.
  • the controller 7 causes the subpixels P7 to P12 to display a right eye image.
  • the left eye can visually recognize the right eye image displayed in the sub-pixels P7 and P12.
  • the right eye can visually recognize the left eye image displayed in the sub-pixels P1 and P6.
  • This causes cross talk.
  • the human eye has a characteristic that it is difficult to detect crosstalk when the illuminance of the surrounding environment is high. Therefore, the user can appropriately view an image with a maintained resolution by displaying the left-eye image or the right-eye image without the controller 7 reducing the luminance of the binocular sub-pixels.
  • the controller 7 can lower the luminance of the first predetermined number of binocular sub-pixels as shown in FIG.
  • the second illuminance is illuminance lower than the first illuminance.
  • the first predetermined number is one or more.
  • the first predetermined number is less than the number of all binocular sub-pixels.
  • the controller 7 can lower the luminance of the sub-pixels constituting the right sub-pixel group Pgr among the binocular sub-pixels. At this time, the controller 7 can cause the left eye image to be displayed on all the sub-pixels constituting the left sub-pixel group Pgl. The controller 7 can cause the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 reduces the brightness of the sub-pixels P7 and P12.
  • the controller 7 causes the left eye image to be displayed on the sub-pixels P1 to P6.
  • the controller 7 causes the subpixels P8 to P11 to display a right eye image.
  • the human eye has a characteristic that it is difficult to detect crosstalk when the illuminance of the surrounding environment is high. In other words, the lower the illuminance of the surrounding environment, the easier the human eye is to perceive crosstalk. Therefore, while the controller 7 lowers the brightness of some binocular sub-pixels and causes the other part of the binocular sub-pixels to display the left eye image or the right eye image, the user can suppress the reduction in resolution. The image with reduced crosstalk can be viewed properly.
  • the controller 7 can lower the luminance of the second predetermined number of binocular sub-pixels as shown in FIG.
  • the second predetermined number is equal to or greater than the first predetermined number.
  • the second predetermined number is less than or equal to the number of all binocular sub-pixels.
  • controller 7 may reduce the brightness of all binocular sub-pixels.
  • the controller 7 can cause the left eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 can cause the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 reduces the brightness of the sub-pixels P1, P6, P7 and P12.
  • the controller 7 causes the left eye image to be displayed on the sub-pixels P2 to P5.
  • the controller 7 causes the subpixels P8 to P11 to display a right eye image.
  • the lower the illumination of the surrounding environment the easier the human eye is to perceive crosstalk. Therefore, the user can appropriately view the image in which the crosstalk is suppressed by the controller 7 lowering the luminance of all the binocular sub-pixels.
  • Second Example An example in which the controller 7 displays an image for each sub-pixel when the user's eye is at a distance of less than E / n from the reference position and in a horizontal displaced position is shown as a second example from FIG. This will be described in detail with reference to FIG.
  • the straight line forming the boundary between the left visible area 51aL and the right visible area 51aR is the intersection of the first black line 52a and the second black line 52b. Do not pass
  • the controller 7 can determine the left sub-pixel group Pgl and the right sub-pixel group Pgr, as in the first example. In the example shown in FIG. 7, the controller 7 determines the set of sub-pixels constituted by the sub-pixels P1 to P6 as the left sub-pixel group Pgl. The controller 7 determines a set of sub-pixels constituted by the sub-pixels P7 to P12 as a right sub-pixel group Pgr.
  • the controller 7 When the illuminance measured by the measuring device 2 is equal to or higher than the first illuminance, the controller 7 does not lower the luminance of any binocular sub-pixel as shown in FIG.
  • the controller 7 can cause the left eye image to be displayed on all the sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 can cause the right eye image to be displayed on all the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 causes the left eye image to be displayed on P1 to P6.
  • the controller 7 displays the right eye image on P7 to P12.
  • the controller 7 When the illuminance is less than the first illuminance and greater than or equal to the second illuminance, the controller 7 includes a portion included in the right visible region 51aR among the binocular subpixels constituting the left subpixel group Pgl as shown in FIG. Reduces the brightness of the largest sub-pixel.
  • the controller 7 can lower the brightness of the sub-pixel having the largest portion included in the left visible region 51aL among the binocular sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 can cause the left eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 can cause the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 reduces the luminance of the sub-pixels P1 and P7. At this time, the controller 7 causes the subpixels P2 to P6 to display a left eye image. The controller 7 causes the subpixels P8 to P12 to display a right eye image.
  • the illuminance is medium (less than the first illuminance and greater than or equal to the second illuminance)
  • the user can appropriately view the image in which the crosstalk is suppressed while suppressing the reduction in the resolution.
  • the controller 7 can lower the luminance of the second predetermined number of binocular sub-pixels as shown in FIG. For example, the controller 7 can lower the luminance of the sub-pixel having the largest portion included in the right visible area 51aR and the second largest sub-pixel among the binocular sub-pixels constituting the left visible area 51aL. The controller 7 can lower the luminance of the sub-pixel having the largest portion included in the left visual region 51aL and the second largest sub-pixel among the binocular sub-pixels constituting the right visual region 51aR.
  • the controller 7 can cause the left eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 can cause the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 reduces the brightness of the sub-pixels P1, P6, P7 and P12.
  • the controller 7 causes the left eye image to be displayed on the sub-pixels P2 to P5.
  • the controller 7 causes the subpixels P8 to P11 to display a right eye image.
  • the controller 7 can determine the left sub-pixel group Pgl and the right sub-pixel group Pgr, as in the first example. In the example shown in FIG. 7, the controller 7 determines the set of sub-pixels formed by the sub-pixels P1 to P6 as the left sub-pixel group Pgl. The controller 7 determines a set of sub-pixels formed by the sub-pixels P7 to P12 as a right sub-pixel group Pgr.
  • the controller 7 When the illuminance measured by the measuring device 2 is equal to or higher than the first illuminance, the controller 7 does not lower the luminance of any binocular sub-pixel as shown in FIG.
  • the controller 7 can cause the left eye image to be displayed on all the sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 can cause the right eye image to be displayed on all the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 causes the left eye image to be displayed on P1 to P6.
  • the controller 7 displays the right eye image on P7 to P12.
  • the controller 7 When the illuminance measured by the measuring device 2 is less than the first illuminance and equal to or higher than the second illuminance lower than the first illuminance, the controller 7, as shown in FIG. 10, the right sub-pixel among the binocular sub-pixels The luminance of the sub-pixels constituting the group Pgr can be reduced.
  • the controller 7 can cause the left eye image to be displayed on all of the sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 can cause the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 reduces the brightness of the sub-pixels P7, P8 and P12. At this time, the controller 7 causes the subpixels P1 to P6 to display the left eye image.
  • the controller 7 causes the subpixels P9 to P11 to display a right eye image.
  • the controller 7 reduces the luminance of all the binocular sub-pixels as shown in FIG. At this time, the controller 7 can cause the left eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the left sub-pixel group Pgl. The controller 7 can cause the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr. In the example shown in FIG. 11, the controller 7 reduces the luminance of the sub-pixels P1, P2, P6, P7, P8 and P12. The controller 7 causes the left eye image to be displayed on the sub-pixels P3 to P5. The controller 7 causes the subpixels P9 to P11 to display a right eye image.
  • the controller 7 acquires information indicating the position of the user's eye from the detection device 1 (step S11).
  • step S11 When the information indicating the position of the eye is acquired in step S11, the controller 7 acquires information indicating the illuminance of the surrounding environment from the measuring device 2 (step S12).
  • the controller 7 determines the left sub-pixel group Pgl and the right sub-pixel group Pgr based on the position of the eye indicated by the information acquired in step S11 (step S13). ).
  • the controller 7 determines whether the illuminance indicated by the information acquired in step S12 is equal to or higher than the first illuminance (step S14). ).
  • step S15 the controller 7 does not lower the luminance of any binocular sub-pixel (step S15). Specifically, the controller 7 causes the binocular sub-pixel to display a left eye image or a right eye image. At this time, the controller 7 causes the left eye image to be displayed on all the sub-pixels constituting the left sub-pixel group Pgl. The controller 7 causes the right eye image to be displayed on all the sub-pixels constituting the right sub-pixel group Pgr.
  • step S14 If it is determined in step S14 that the illuminance is less than the first illuminance, the controller 7 determines whether the illuminance is greater than or equal to the second illuminance (step S16).
  • step S16 If it is determined in step S16 that the illuminance is equal to or higher than the second illuminance, the controller 7 lowers the luminance of the first predetermined number of binocular subpixels (step S17). At this time, the controller 7 causes the left eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the left sub-pixel group Pgl. The controller 7 causes the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr.
  • step S18 the controller 7 reduces the luminance of the second predetermined number of binocular subpixels (step S18). At this time, the controller 7 causes the left eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the left sub-pixel group Pgl. The controller 7 causes the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 causes the plurality of sub-pixels to display an image based on the illuminance of the surrounding environment.
  • the human eye has a characteristic that the illuminance of the surrounding environment changes the sensitivity to crosstalk. Specifically, the human eye has a characteristic that it is difficult to detect crosstalk as the illuminance of the surrounding environment is higher. Therefore, when the illuminance of the surrounding environment is relatively high, the controller 7 does not lower the luminance of the binocular sub-pixel, and the user hardly detects crosstalk by displaying the left eye image or the right eye image. The image with the maintained resolution can be viewed properly. The lower the illuminance of the surrounding environment, the easier the human eye perceives crosstalk. As the illuminance is lower, the user can appropriately view an image in which crosstalk is suppressed by the controller 7 decreasing the luminance of many binocular sub-pixels. Therefore, the user can appropriately view the three-dimensional image.
  • the three-dimensional display system 200 in the second embodiment is configured to include the detection device 1 of the three-dimensional display system 100 in the first embodiment and the three-dimensional display device 3.
  • the detection device 1 and the three-dimensional display device 3 can be configured in the same manner as the detection device 1 and the three-dimensional display device 3 in the first embodiment, respectively.
  • the controller 7 of the second embodiment acquires information on brightness.
  • the controller 7 acquires image information acquired by the three-dimensional display device 3 from an external device or image information stored in the memory in order to cause the display surface 51 to display the image.
  • the controller 7 acquires information on brightness contained in the image information.
  • the information on the brightness may be information on the brightness of the image.
  • the information on the brightness may be, for example, a statistical value of the brightness of the pixels constituting the image.
  • the statistical value may be, for example, any statistical value such as an intermediate value or an average value.
  • the controller 7 does not lower the luminance of any binocular sub-pixel when the luminance of the image is equal to or higher than the first luminance.
  • the controller 7 causes the left eye image to be displayed on all the sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 causes the right eye image to be displayed on all the sub-pixels constituting the right sub-pixel group Pgr.
  • the first luminance is a value related to the luminance of the image, which is high enough to make crosstalk difficult to be recognized by the user's eyes.
  • the controller 7 reduces the luminance of the first predetermined number of binocular sub-pixels when the luminance of the image is less than the first luminance and greater than or equal to the second luminance.
  • the second luminance is lower than the first luminance.
  • the controller 7 causes the left eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 causes the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 reduces the brightness of the second predetermined number of binocular sub-pixels when the brightness of the image is less than the second brightness. At this time, the controller 7 causes the left eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the left sub-pixel group Pgl. The controller 7 causes the right eye image to be displayed on the sub-pixels whose luminance can not be reduced among the sub-pixels constituting the right sub-pixel group Pgr.
  • the controller 7 may lower the brightness of the binocular sub-pixels and increase the brightness of the right-eye and left-eye images in order to maintain the brightness of the entire image.
  • the three-dimensional display device 3 displays an image in each of the plurality of sub-pixels based on the information on the luminance of the image to be displayed in each sub-pixel on the display surface 51.
  • Display Specifically, the human eye has a characteristic that it is difficult to detect crosstalk as the luminance of the image displayed on the display surface 51 is higher. Therefore, when the brightness of the image is relatively high, the controller 7 does not lower the brightness in the binocular sub-pixels, and the user can not easily detect crosstalk by displaying the left eye image or the right eye image. An image with maintained resolution can be appropriately viewed. The lower the luminance of the image displayed on the display surface 51, the easier the human eye perceives crosstalk.
  • the user can appropriately view the image in which the crosstalk is suppressed by the controller 7 decreasing the luminance of many binocular sub-pixels. Therefore, the user can appropriately view the three-dimensional image, and the same effect as that of the first embodiment can be obtained.
  • controller 7 compared the illumination intensity acquired from measuring device 2 with the 1st illumination intensity and the 2nd illumination intensity, it is not restricted to this.
  • the controller 7 may compare the illuminance with each of the first illuminance to the Nth illuminance (N is an integer), and reduce the luminance of many binocular sub-pixels as the illuminance is larger.
  • the controller 7 controls the luminance of the binocular subpixels constituting the right subpixel group Pgr. To lower it. However, the controller 7 may lower the luminance of the binocular sub-pixels constituting the left sub-pixel group Pgl.
  • the controller 7 when the illuminance is less than the first illuminance and equal to or higher than the second illuminance, the controller 7 includes a portion included in the right visible region 51aR among binocular subpixels constituting the left subpixel group Pgl. Reduced the brightness of the largest sub-pixel.
  • the sub-pixel in which the controller 7 reduces the brightness is not limited to this.
  • the controller 7 may lower the luminance of the sub-pixel having the smallest portion included in the right visible region 51aR among the binocular sub-pixels constituting the left sub-pixel group Pgl. In this case, although the occurrence of crosstalk can not be suppressed so much, a reduction in resolution can be prevented.
  • the sub-pixel that lowers the luminance when the illuminance is less than the first illuminance and greater than or equal to the second illuminance may be appropriately designed according to the balance between the occurrence of crosstalk and the reduction in resolution.
  • the optical element is the parallax barrier 6, but the present invention is not limited to this.
  • the optical element provided in the three-dimensional display device 3 may be a lenticular lens 8.
  • the lenticular lens 8 is configured by arranging the cylindrical lenses 9 in the xy plane.
  • the lenticular lens 8 propagates the image light emitted from the sub-pixels in the visible area 51a to the position of the user's left eye, and emits the other sub-pixels in the visible area 51a.
  • the transmitted image light is propagated to the position of the user's right eye.
  • the three-dimensional display system 100 may be mounted on a head-up display system 300.
  • the head up display system 300 is also referred to as a HUD (Head Up Display) 300.
  • the HUD 300 includes a three-dimensional display system 100, an optical member 310, and a projection target 320 having a projection surface 330.
  • the HUD 300 causes the image light emitted from the three-dimensional display system 100 to reach the projection target member 320 via the optical member 310.
  • the HUD 300 causes the image light reflected by the projection target member 320 to reach the left eye and the right eye of the user. That is, the HUD 300 advances the image light from the three-dimensional display system 100 to the user's left eye and right eye along the optical path 340 indicated by the broken line.
  • the user can view the image light arriving along the light path 340 as a virtual image 350.
  • the three-dimensional display system 100 can provide stereoscopic vision according to the movement of the user by controlling the display according to the position of the left eye and the right
  • the HUD 300, the three-dimensional display system 100, and the three-dimensional display system 200 may be mounted on the mobile object 10.
  • the HUD 300, the three-dimensional display system 100, and the three-dimensional display system 200 may share part of the configuration with other devices and components included in the moving object 10.
  • the moving body 10 may use a windshield as the projection target member 320.
  • the other configuration may be called a HUD module or a three-dimensional display component.
  • the HUD 300, the three-dimensional display system 100, and the three-dimensional display system 200 may be mounted on the mobile object 10.
  • the "mobile" in the present disclosure includes vehicles, ships, and aircraft.
  • the "vehicle” in the present disclosure includes, but is not limited to, a car and an industrial vehicle, and may include a railway vehicle and a living vehicle, and a fixed wing aircraft traveling on a runway.
  • Automobiles include but are not limited to passenger cars, trucks, buses, two-wheeled vehicles, trolley buses, etc., and may include other vehicles traveling on the road.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include, but are not limited to, forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combine harvesters, and lawn mowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, cranes, dump trucks, and road rollers.
  • Vehicles include those that travel by human power.
  • the classification of vehicles is not limited to the above.
  • a car may include an industrial vehicle capable of traveling on a road, and a plurality of classifications may include the same vehicle.
  • the vessels in the present disclosure include marine jets, boats, and tankers.
  • the aircraft in the present disclosure includes fixed wing aircraft and rotary wing aircraft.
  • the moving body 10 may include an irradiation device that emits light to the surroundings.
  • the irradiation device is, for example, a headlight.
  • the HUD 300 mounted on the moving body 10 and the measuring device 2 of the three-dimensional display system 100 may control the irradiation device based on the brightness measured by the measuring device 2.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Nonlinear Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Combustion & Propulsion (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Liquid Crystal (AREA)

Abstract

本発明の3次元表示装置(100)は、表示面(51)と、光学素子(6)と、コントローラ(7)とを備える。表示面(51)は、利用者の両眼が並ぶ方向に対応する第1方向、および第1方向に直交する第2方向に沿って格子状に配列された複数のサブピクセルを備える。光学素子(6)は、表示面(51)上の第2方向と0度でない所定角度をなす方向に延びる複数の帯状領域ごとに、表示面(51)から射出される光の光線方向を規定する。コントローラは、表示面(51)に画像を表示させる。コントローラ(7)は、明るさに関する情報を取得する。コントローラ(7)は、該明るさに関する情報に基づいて、利用者の第1の眼の位置に伝播する光を射出する表示面(51)上の第1可視領域に一部が含まれ、利用者の第2の眼の位置に伝播する光を射出する表示面(51)上の第2可視領域に残りの一部が含まれる両眼サブピクセルのうち、少なくとも一部のサブピクセルの輝度を下げる。

Description

3次元表示装置、3次元表示システム、移動体、および3次元表示方法 関連出願の相互参照
 本出願は、2017年7月5日に出願された日本国特許出願2017-132221号の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本開示は、3次元表示装置、3次元表示システム、移動体、および3次元表示方法に関する。
 従来、表示パネルから射出された光を利用者の眼に到達させることによって画像を表示する表示装置が知られている(特許文献1参照)。眼鏡を用いずに3次元表示を行うために、表示パネルから射出された光の一部を右眼に到達させ、表示パネルから射出された光の他の一部を左眼に到達させる光学素子を備える3次元表示装置も知られている。
特開第2013-214008号公報
 本開示の3次元表示装置は、表示面と、光学素子と、コントローラとを備える。前記表示面は、利用者の両眼が並ぶ方向に対応する第1方向、および前記第1方向に直交する第2方向に沿って格子状に配列された複数のサブピクセルを備える。前記光学素子は、前記表示面上の前記第2方向と0度でない所定角度をなす方向に延びる複数の帯状領域ごとに、前記表示面から射出される光の光線方向を規定する。前記コントローラは、前記表示面に画像を表示させる。前記コントローラは、明るさに関する情報を取得する。前記コントローラは、該明るさに関する情報に基づいて、第1可視領域に一部が含まれ、第2可視領域に残りの一部が含まれる両眼サブピクセルのうち、少なくとも一部のサブピクセルの輝度を下げる。前記第1可視領域は、前記利用者の第1の眼の位置に伝播する光を射出する前記表示面上の領域である。前記第2可視領域は、前記利用者の第2の眼の位置に伝播する光を射出する前記表示面上の領域である。
 本開示の3次元表示システムは、計測装置と、3次元表示装置とを備える。前記計測装置は、明るさを計測する。前記3次元表示装置は、表示面と、光学素子と、コントローラとを含む。前記表示面は、利用者の両眼が並ぶ方向に対応する第1方向、および前記第1方向に直交する第2方向に沿って格子状に配列された複数のサブピクセルを備える。前記光学素子は、前記表示面上の前記第2方向と0度でない所定角度をなす方向に延びる複数の帯状領域ごとに、前記表示面から射出される光の光線方向を規定する。前記コントローラは、前記表示面に画像を表示させる。前記コントローラは、前記計測装置から明るさに関する情報を取得する。前記コントローラは、該明るさに関する情報に基づいて、第1可視領域に一部が含まれ、第2可視領域に残りの一部が含まれる両眼サブピクセルのうち、少なくとも一部のサブピクセルの輝度を下げる。前記第1可視領域は、前記利用者の第1の眼の位置に伝播する光を射出する前記表示面上の領域である。前記第2可視領域は、前記利用者の第2の眼の位置に伝播する光を射出する前記表示面上の領域である。
 本開示の移動体は、3次元表示システムを備える。前記3次元表示システムは、計測装置と、3次元表示装置とを含む。前記計測装置は、明るさを計測する。前記3次元表示装置は、表示面と、光学素子と、コントローラとを有する。前記表示面は、利用者の両眼が並ぶ方向に対応する第1方向、および前記第1方向に直交する第2方向に沿って格子状に配列された複数のサブピクセルを備える。前記光学素子は、前記表示面上の前記第2方向と0度でない所定角度をなす方向に延びる複数の帯状領域ごとに、前記表示面から射出される光の光線方向を規定する。前記コントローラは、前記表示面に画像を表示させる。前記コントローラは、前記計測装置から明るさに関する情報を取得する。前記コントローラは、該明るさに関する情報に基づいて、第1可視領域に一部が含まれ、第2可視領域に残りの一部が含まれる両眼サブピクセルのうち、少なくとも一部のサブピクセルの輝度を下げる。前記第1可視領域は、前記利用者の第1の眼の位置に伝播する光を射出する前記表示面上の領域である。前記第2可視領域は、前記利用者の第2の眼の位置に伝播する光を射出する前記表示面上の領域である。
 本開示の表示方法は、3次元表示装置が実行する3次元表示方法である。前記3次元表示装置は、表示面と、光学素子と、コントローラとを含む。前記表示面は、利用者の両眼が並ぶ方向に対応する第1方向、および前記第1方向に直交する第2方向に沿って格子状に配列された複数のサブピクセルを備える。前記光学素子は、前記表示面上の前記第2方向と0度でない所定角度をなす方向に延びる複数の帯状領域ごとに、前記表示面から射出される光の光線方向を規定する。前記コントローラは、前記表示面に画像を表示させる。前記コントローラは、前記計測装置から明るさに関する情報を取得する。前記コントローラは、該明るさに関する情報に基づいて、第1可視領域に一部が含まれ、第2可視領域に残りの一部が含まれる両眼サブピクセルのうち、少なくとも一部のサブピクセルの輝度を下げる。前記第1可視領域は、前記利用者の第1の眼の位置に伝播する光を射出する前記表示面上の領域である。前記第2可視領域は、前記利用者の第2の眼の位置に伝播する光を射出する前記表示面上の領域である。
図1は、第1の実施形態における3次元表示システムを鉛直方向から見た例を示す図である。 図2は、図1に示す表示パネルを奥行方向から見た例を示す図である。 図3は、図1に示す光学素子を奥行方向から見た例を示す図である。 図4は、利用者の眼が基準位置にあり、周囲環境の照度が第1閾値以上である場合に、表示面に表示される画像の例を説明するための模式図である。 図5は、利用者の眼が基準位置にあり、周囲環境の照度が第1閾値未満、第2閾値以上である場合に、表示面に表示される画像の例を説明するための模式図である。 図6は、利用者の眼が基準位置にあり、周囲環境の照度が第2閾値未満であるである場合に、表示面に表示される画像の例を説明するための模式図である。 図7は、利用者の眼が変位位置にあり、周囲環境の照度が第1閾値以上である場合に、表示面に表示される画像の例を説明するための模式図である。 図8は、利用者の眼が変位位置にあり、周囲環境の照度が第1閾値未満、第2閾値以上である場合に、表示面に表示される画像の例を説明するための模式図である。 図9は、利用者の眼が変位位置にあり、周囲環境の照度が第2閾値未満である場合に、表示面に表示される画像の例を説明するための模式図である。 図10は、利用者の眼が変位位置にあり、周囲環境の照度が第1閾値未満、第2閾値以上である場合に、表示面に表示される画像の他の例を説明するための模式図である。 図11は、利用者の眼が変位位置にあり、周囲環境の照度が第2閾値未満である場合に、表示面に表示される画像の他の例を説明するための模式図である。 図12は、第1の実施形態の3次元表示装置の処理フローの一例を示すフローチャートである。 図13は、第2の実施形態における3次元表示システムを鉛直方向から見た例を示す図である。 図14は、光学素子をレンチキュラレンズとした場合の3次元表示装置の概略構成図である。 図15は、本実施形態に係る3次元表示システムを搭載したHUDの例を示す図である。 図16は、図15に示すHUDを搭載した移動体の例を示す図である。
 本開示は、利用者に3次元画像を適切に視認させることができる3次元表示装置、3次元表示システム、移動体、および3次元表示方法を提供する。
 <<第1の実施形態>>
 以下、本開示の第1の実施形態について、図面を参照して説明がされる。
 本開示の第1の実施形態にかかる3次元表示システム100は、図1に示すように、検出装置1と、計測装置2と、3次元表示装置3とを含んで構成される。
 検出装置1は、利用者の左眼(第1の眼)および右眼(第2の眼)の位置を検出し、コントローラ7に出力する。検出装置1は、例えば、カメラを備えてよい。検出装置1は、カメラによって利用者の顔を撮影してよい。検出装置1は、カメラの利用者の顔の像を含む撮影画像から左眼および右眼の位置を検出してよい。検出装置1は、1個のカメラの撮影画像から、左眼および右眼の位置を3次元空間の座標として検出してよい。検出装置1は、2個以上のカメラの撮影画像から、左眼および右眼の位置を3次元空間の座標として検出してよい。
 検出装置1は、カメラを備えず、装置外のカメラに接続されていてよい。検出装置1は、装置外のカメラからの信号を入力する入力端子を備えてよい。装置外のカメラは、入力端子に直接的に接続されてよい。装置外のカメラは、共有のネットワークを介して入力端子に間接的に接続されてよい。カメラを備えない検出装置1は、カメラが映像信号を入力する入力端子を備えてよい。カメラを備えない検出装置1は、入力端子に入力された映像信号から左眼および右眼の位置を検出してよい。
 検出装置1は、例えば、センサを備えてよい。センサは、超音波センサまたは光センサ等であってよい。検出装置1は、センサによって利用者の頭部の位置を検出し、頭部の位置に基づいて左眼および右眼の位置を検出してよい。検出装置1は、1個または2個以上のセンサによって、左眼および右眼の位置を3次元空間の座標として検出してよい。
 3次元表示システム100は、検出装置1を備えなくてよい。3次元表示システム100が検出装置1を備えない場合、3次元表示装置3は、装置外の検出装置からの信号を入力する入力端子を備えてよい。装置外の検出装置は、入力端子に接続されてよい。装置外の検出装置は、入力端子に対する伝送信号として、電気信号および光信号を用いてよい。装置外の検出装置は、共有のネットワークを介して入力端子に間接的に接続されてよい。コントローラ7は、装置外の検出装置から取得した左眼および右眼の位置を示す位置座標が入力されてよい。コントローラ7は、位置座標に基づいて、水平方向に沿った、左眼および右眼の移動距離を算出してよい。
 計測装置2は、周囲環境の照度を計測しうる。計測装置2は、計測した照度示す照度情報を3次元表示装置3に出力する。計測装置2は、照度センサであってよい。照度センサは、周囲環境の照度を計測してよい。照度センサは、光電池,光電管,光電子増倍管等の受光素子を有してよい。照度センサは、受光素子に入射した光を電気信号に変換することによって周囲環境の照度を測定してよい。
 計測装置2は、他の装置を制御するために周囲環境の照度を計測する装置であってよい。計測装置2は、例えば、自動点灯機能付きヘッドライトであってよい。
 図1に示したように、3次元表示装置3は、照射器4、表示パネル5、光学素子としてのパララックスバリア6、コントローラ7を含んで構成される。
 照射器4は、表示パネル5を面的に照射しうる。照射器4は、光源、導光板、拡散板、拡散シート等を含んで構成されてよい。照射器4は、光源により照射光を射出し、導光板、拡散板、拡散シート等により照射光を表示パネル5の面方向に均一化する。そして、照射器4は均一化された光を表示パネル5の方に出射しうる。
 表示パネル5は、例えば透過型の液晶表示パネルなどの表示パネルを採用しうる。表示パネル5は、板状の表示面51上に、図2に示すように、格子状のブラックマトリックス52により第1方向および第1方向に直交する第2方向に区画された複数の区画領域を有する。第1方向および第2方向に直交する方向は第3方向と称される。第1方向は水平方向と称されてよい。第2方向は鉛直方向と称されてよい。第3方向は奥行方向と称されてよい。しかし、第1方向、第2方向、および第3方向はそれぞれこれらに限られない。図面において、第1方向はx軸方向として表され、第2方向はy軸方向として表され、第3方向はz軸方向として表される。
 ブラックマトリックス52は、鉛直方向に延びる第1ブラックライン52aと、水平方向に延びる第2ブラックライン52bとを含む。複数の第1ブラックライン52aは、水平方向に例えば一定のピッチで配列されている。複数の第2ブラックライン52bは、鉛直方向に例えば一定のピッチで配列されている。
 区画領域の各々には、1つのサブピクセルが対応する。したがって、表示面51は、水平方向および鉛直方向に沿って格子状に配列された複数のサブピクセルを備える。
 各サブピクセルはR(Red),G(Green),B(Blue)のいずれかの色に対応し、R,G,Bの3つのサブピクセルを一組として1ピクセルを構成することができる。1ピクセルは、1画素と称されうる。水平方向は、例えば、1ピクセルを構成する複数のサブピクセルが並ぶ方向である。鉛直方向は、例えば、同じ色のサブピクセルが並ぶ方向である。表示パネル5としては、透過型の液晶パネルに限られず、有機EL等他の表示パネルを使用しうる。表示パネル5として、自発光型の表示パネルを使用した場合、3次元表示装置3は照射器4を備えなくてよい。
 上述のように表示面51に配列された複数のサブピクセルはサブピクセル群Pgを構成する。サブピクセル群Pgは、左サブピクセル群Pgl(第1サブピクセル群)および右サブピクセル群Pgr(第2サブピクセル群)を含む。左サブピクセル群Pglおよび右サブピクセル群Pgrは、水平方向に互いに隣接して配置される。複数のサブピクセル群Pgは、水平方向に隣接して、繰り返して配列される。サブピクセル群Pgは、鉛直方向においては、水平方向に1サブピクセル分ずれた位置に隣接して繰り返して配列される。
 左サブピクセル群Pglは、所定の行および列のサブピクセルを含む。具体的には、左サブピクセル群Pglは、鉛直方向にb個(b行)、水平方向にn個(n列)、連続して配列された(n×b)個(以降において、n×b=mとする)のサブピクセルP1~Pmを含む。右サブピクセル群Pgrは、左サブピクセル群Pglと同様の所定の行および列のサブピクセルを含む。具体的には、右サブピクセル群Pgrは、水平方向にn個、鉛直方向にb個、連続して配列されたm個のサブピクセルP(m+1)~P(2×m)を含む。以降において、nは水平方向配列数と称されうる。bは鉛直方向配列数と称されうる。
 図2に示す例では、表示面51には、鉛直方向に2個、水平方向に3個、連続して配列された6個のサブピクセルP1~P6を含む左サブピクセル群Pglが配置される。表示面51には、左サブピクセル群Pglの水平方向に隣接して、鉛直方向に2個、水平方向に3個ずつ連続して配置された6個のサブピクセルP7~P12を含む右サブピクセル群Pgrが配置される。
 パララックスバリア6は、図1に示したように、表示面51に沿う平面により形成され、表示面51から所定距離(ギャップ)g、離れて配置される。パララックスバリア6は、表示パネル5に対して照射器4の反対側に位置してよい。パララックスバリア6は、表示パネル5の照射器4側に位置してよい。
 パララックスバリア6は、図3に示すように、面内の所定方向に伸びる複数の帯状領域である透光領域62ごとに、サブピクセルから射出される画像光の伝播方向である光線方向を規定する。所定方向は、鉛直方向と0度でない所定角度をなす方向である。パララックスバリア6がサブピクセルから射出される画像光を規定することによって、利用者の眼が視認可能な表示面51上の領域が定まる。以降において、当該領域は可視領域51aと称される。利用者の左眼が視認可能な表示面51上の領域は左可視領域51aL(第1可視領域)と称される。利用者の右眼が視認可能な表示面51上の領域は右可視領域51aR(第2可視領域)と称される。
 具体的には、パララックスバリア6は、複数の、画像光を遮光する遮光面61を有する。複数の遮光面61は、互いに隣接する該遮光面61の間の透光領域62を画定する。透光領域62は、遮光面61に比べて光透過率が高い。遮光面61は、透光領域62に比べて光透過率が低い。
 透光領域62は、パララックスバリア6に入射する光を透過させる部分である。透光領域62は、第1所定値以上の透過率で光を透過させてよい。第1所定値は、例えば100%であってよいし、100%に近い値であってよい。遮光面61は、パララックスバリア6に入射する光を遮って透過させない部分である。言い換えれば、遮光面61は、3次元表示装置3に表示される画像を遮る。遮光面61は、第2所定値以下の透過率で光を遮ってよい。第2所定値は、例えば0%であってよいし、0%に近い値であってよい。
 透光領域62と遮光面61とは、表示面51に沿う所定方向に延び、所定方向と直交する方向に繰り返し交互に配列される。透光領域62は、サブピクセルから射出される画像光の光線方向を規定する。
 仮に、透光領域62の端部を示す線が第2方向に延びる場合、パララックスバリア6の開口のパターンと、表示パネル5が表示する画素パターンとの間にモアレが発生する場合がある。透光領域62の端部を示す線が第2方向に対して0度でない所定角度を有する所定方向に延びる場合、表示画像においてモアレの発生が低減される。
 図1に示したように、パララックスバリア6の透光領域62の配置間隔であるバリアピッチBp、表示面51とパララックスバリア6との間のギャップgは、次の式(1)および式(2)が成り立つように規定される。式(1)および式(2)において、dは適視距離である。適視距離dは、可視領域51aの水平方向の長さがサブピクセルn個分となるような利用者の眼とパララックスバリア6との距離である。Eは利用者の眼間距離である。Hpは、サブピクセルの水平方向の長さである。
 E:d=(n×Hp):g               式(1)
 d:Bp=(d+g):(2×n×Hp)        式(2)
 パララックスバリア6は、第2所定値未満の透過率を有するフィルムまたは板状部材で構成されてよい。この場合、遮光面61は、当該フィルムまたは板状部材で構成される。透光領域62は、フィルムまたは板状部材に設けられた開口で構成される。フィルムは、樹脂で構成されてよいし、他の材料で構成されてよい。板状部材は、樹脂または金属等で構成されてよいし、他の材料で構成されてよい。パララックスバリア6は、フィルムまたは板状部材に限られず、他の種類の部材で構成されてよい。パララックスバリア6は、基材が遮光性を有してよいし、基材に遮光性を有する添加物が含有されてよい。
 パララックスバリア6は、液晶シャッターで構成されてよい。液晶シャッターは、印加する電圧に応じて光の透過率を制御しうる。液晶シャッターは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッターは、光の透過率が高い領域または光の透過率が低い領域を任意の形状に形成してうる。パララックスバリア6が液晶シャッターで構成される場合、透光領域62は、第1所定値以上の透過率を有する領域としてよい。パララックスバリア6が液晶シャッターで構成される場合、遮光面61は、第2所定値以下の透過率を有する領域としてよい。
 このように構成されることによって、パララックスバリア6は、表示面51の一部のサブピクセルから出射した画像光を、透光領域62を通過させ利用者の右眼に伝搬させる。パララックスバリア6は、他の一部のサブピクセルから出射した画像光を、透光領域62を通過させ利用者の左眼に伝搬させる。
 画像光が利用者の左眼および右眼に伝播されることによって、利用者の眼に視認される画像について、図4を参照して詳細に説明がされる。図4において、パララックスバリア6は省略されている。
 図4に示す左可視領域51aLは、上述のように、パララックスバリア6の透光領域62を透過した画像光が利用者の左眼に到達することによって、利用者の左眼が視認する表示面51上の領域である。左不可視領域51bLは、パララックスバリア6の遮光面61によって画像光が遮られることによって、利用者の左眼が視認することのできない領域である。したがって、例えば、左可視領域51aLに含まれサブピクセルに左眼画像が表示され、左不可視領域51bLに右画像が表示されると、利用者の左眼は左眼画像を視認する。図面において、左眼画像を表示するサブピクセルには符号「L」が付される。
 右可視領域51aRは、パララックスバリア6の透光領域62を透過した他の一部のサブピクセルからの画像光が利用者の右眼に到達することによって、利用者の右眼が視認する表示面51上の領域である。右不可視領域51bRは、パララックスバリア6の遮光面61によって画像光が遮られることによって、利用者の右眼が視認することのできない領域である。したがって、例えば、左可視領域51aLに含まれサブピクセルに左眼画像(第1画像)が表示され、左不可視領域51bLに右画像が表示されると、利用者の右眼(第2画像)は右眼画像を視認する。図面において、右眼画像を表示するサブピクセルには符号「R」が付される。
 図3に示す例では、バリアピッチBpに対する透光領域62の水平方向の長さであるバリア開口率は50%である。この場合、右可視領域51aRは、左不可視領域51bLに相当しうる。右不可視領域51bRは左可視領域51aLに相当しうる。
 このように、利用者の右眼は右眼画像を視認し、左眼は左眼画像を視認しうる。したがって、左眼画像と右眼画像との間に視差がある場合、利用者は3次元画像を視認しうる。しかし、本実施形態におけるパララックスバリア6の透光領域62は鉛直方向と0度でない所定角度をなす方向に伸びる。サブピクセルは、水平方向と鉛直方向とに沿って格子状に配列される。このため、表示面51上のサブピクセルのうちいくつかのサブピクセル(例えば、図4に示すサブピクセルP1、P6、P7、P12)は両眼サブピクセルとなる。両眼サブピクセルは、左可視領域51aLに一部が含まれ、右可視領域51aRに残りの一部が含まれるサブピクセルである。両眼サブピクセルは、左眼によって一部が視認され、右眼によって他の一部が視認される。これにより、利用者の眼にはクロストークが発生する。
 そこで、コントローラ7は、両眼サブピクセルに起因して発生するクロストークを低減させるように、サブピクセルそれぞれに画像を表示させうる。
 コントローラ7は、3次元表示システム100の各構成要素に接続され、各構成要素を制御しうる。コントローラ7によって制御される構成要素は、検出装置1および表示パネル5を含む。コントローラ7は、例えばプロセッサとして構成される。コントローラ7は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application SpecificIntegrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ7は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。コントローラ7は、記憶部を備え、記憶部に各種情報、または3次元表示システム100の各構成要素を動作させるためのプログラム等を格納してよい。記憶部は、例えば半導体メモリ等で構成されてよい。記憶部は、コントローラ7のワークメモリとして機能してよい。
 コントローラ7は、利用者の眼の位置に関する情報、および明るさに関する情報を取得し、位置と明るさとに基づいて、表示面51上の複数のサブピクセルそれぞれに画像を表示させうる。
 具体的には、コントローラ7は、検出装置1によって検出された利用者の眼の位置に関する情報を取得しうる。コントローラ7は、計測装置2によって計測された明るさを示す情報を取得しうる。明るさを示す情報は、例えば、周囲環境の照度であってよい。
 以降において、コントローラ7が位置および照度に基づいて各サブピクセルに表示させる画像について説明がされる。
 <第1例>
 利用者の眼が基準位置にある場合に、コントローラ7が各サブピクセルについて画像を表示させる例が、第1例として図4から図6を参照して詳細に説明される。
 基準位置は、図4に示すように、左可視領域51aLと右可視領域51aRとの境界を構成する直線(図4に示す斜めの線)が、第1ブラックライン52aと第2ブラックライン52bとの交点を所定の間隔で通るような、利用者の眼の位置である。
 コントローラ7は、利用者の眼の位置に基づいて、左サブピクセル群Pglを決定しうる。具体的には、コントローラ7は、利用者の眼の位置に基づいて、左可視領域51aLを判定する。そして、コントローラ7は、左可視領域51aLに最も多くの部分が含まれるような所定の行および列のサブピクセルの集合を左サブピクセル群Pglと決定しうる。図4に示した例では、所定の行および列は2行3列である。この例では、コントローラ7はサブピクセルP1~P6が構成するサブピクセルの集合を左サブピクセル群Pglと決定する。
 コントローラ7は、利用者の眼の位置に基づいて、右サブピクセル群Pgrを決定しうる。具体的には、コントローラ7は、利用者の眼の位置に基づいて、右可視領域51aRを判定する。そして、コントローラ7は、右可視領域51aRに最も多くの部分が含まれるような所定の行および列のサブピクセルの集合を右サブピクセル群Pgrと決定しうる。図4に示した例では、コントローラ7はサブピクセルP7~P12が構成するサブピクセルの集合を右サブピクセル群Pgrと決定する。
 コントローラ7は、照度に基づく数の両眼サブピクセルの輝度を下げうる。輝度を下げることは、例えば、輝度を所定輝度以下とすることであってよい。輝度が0~255の数値で表される場合、所定輝度は例えば10であってよい。輝度を下げることは、輝度を0にすることであってよい。サブピクセルの輝度を0にすることを、サブピクセルを消灯させるともいう。図面においては、輝度が下げられたサブピクセルには符号「B」が付される。
 具体的には、コントローラ7は、左可視領域51aLに一部が含まれ、右可視領域51aRに残りの一部が含まれるサブピクセルを両眼サブピクセルと判定する。そして、コントローラ7は、取得した明るさの度合いが低いほど、多くの両眼サブピクセルの輝度を下げうる。例えば、コントローラ7は、照度が低いほど、多くの両眼サブピクセルの輝度を下げうる。コントローラ7は、左サブピクセル群Pglに含まれ、且つ、輝度が下げられた両眼サブピクセルに含まれないサブピクセルに左眼画像を表示する。コントローラ7は、右サブピクセル群Pgrに少なくとも一部が含まれ、且つ、輝度が下げられた両眼サブピクセルに含まれないサブピクセルに右眼画像を表示する。
 例えば、コントローラ7は、計測装置2によって計測された照度が第1照度以上である場合、図4に示すように、いずれの両眼サブピクセルの輝度も下げない。第1照度は、左眼が両眼サブピクセルに表示される右眼画像を視認し、右眼が両眼サブピクセルに表示される左眼画像を視認ことによって発生するクロストークが利用者の眼に認識されにくい程度の周囲環境の照度である。第1照度は、バリア開口率、水平方向配列数n等により、適宜決定されてよい。コントローラ7は、左サブピクセル群Pglを構成する全てのサブピクセルに左眼画像を表示させうる。コントローラ7は、右サブピクセル群Pgrを構成する全てのサブピクセルに右眼画像を表示させうる。
 図4に示した例では、コントローラ7は、サブピクセルP1~P6に左眼画像を表示させる。コントローラ7は、サブピクセルP7~P12に右眼画像を表示させる。この場合、左眼はサブピクセルP7およびP12に表示される右眼画像を視認しうる。右眼はサブピクセルP1およびP6に表示される左眼画像を視認しうる。このため、クロストークが発生する。しかし、人間の眼には、周囲環境の照度が高い場合にクロストークを感知しにくいという特性がある。したがって、コントローラ7が両眼サブピクセルの輝度を下げず、左眼画像または右眼画像を表示させることによって、利用者は、解像度が保たれた画像を適切に視認することができる。
 コントローラ7は、計測装置2によって計測された照度が第1照度未満であり、第2照度以上である場合、図5に示すように、第1所定数の両眼サブピクセルの輝度を下げうる。第2照度は、第1照度より低い照度である。第1所定数は1以上である。第1所定数は、全ての両眼サブピクセルの数未満である。
 コントローラ7は、例えば、両眼サブピクセルのうち右サブピクセル群Pgrを構成するサブピクセルの輝度を下げうる。このとき、コントローラ7は、左サブピクセル群Pglを構成する全てのサブピクセルに左眼画像を表示させうる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させうる。
 図5に示す例では、コントローラ7はサブピクセルP7およびP12の輝度を下げる。コントローラ7は、サブピクセルP1~P6に左眼画像を表示させる。コントローラ7は、サブピクセルP8~P11に右眼画像を表示させる。上述のように、人間の眼には、周囲環境の照度が高い場合にクロストークを感知しにくいという特性がある。言い換えれば、人間の眼は、周囲環境の照度が低くなるほど、クロストークを感知しやすくなる。したがって、コントローラ7が一部の両眼サブピクセルの輝度を下げ、他の一部の両眼サブピクセルに左眼画像または右眼画像を表示させることによって、利用者は、解像度の低下を抑えつつ、クロストークが抑えられた画像を適切に視認することができる。
 コントローラ7は、計測装置2によって計測された照度が第2照度未満である場合、図6に示すように、第2所定数の両眼サブピクセルの輝度を下げうる。第2所定数は第1所定数以上である。第2所定数は、全ての両眼サブピクセル数以下である。例えば、コントローラ7は、全ての両眼サブピクセルの輝度を下げうる。このとき、コントローラ7は、左サブピクセル群Pglを構成するサブピクセルのうち輝度が下げられないサブピクセルに左眼画像を表示させうる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させうる。
 図6に示す例では、コントローラ7はサブピクセルP1、P6、P7、およびP12の輝度を下げる。コントローラ7は、サブピクセルP2~P5に左眼画像を表示させる。コントローラ7は、サブピクセルP8~P11に右眼画像を表示させる。上述のように、人間の眼は、周囲環境の照度が低くなるほど、クロストークを感知しやすくなる。したがって、コントローラ7が全ての両眼サブピクセルの輝度を下げることによって、利用者は、クロストークが抑えられた画像を適切に視認することができる。
 <第2例>
 利用者の眼が基準位置から、E/n未満の距離、水平方向に変位した変位位置にある場合に、コントローラ7が各サブピクセルについて画像を表示させる例が、第2例として図7から図9を参照して詳細に説明される。
 利用者の眼が変位位置にある場合、図7に示すように、左可視領域51aLと右可視領域51aRとの境界を構成する直線は、第1ブラックライン52aと第2ブラックライン52bとの交点を通らない。
 コントローラ7は、第1例と同様に、左サブピクセル群Pglおよび右サブピクセル群Pgrを決定しうる。図7に示す例では、コントローラ7は、サブピクセルP1~P6によって構成されるサブピクセルの集合を左サブピクセル群Pglと決定とする。コントローラ7は、サブピクセルP7~P12よって構成されるサブピクセルの集合を右サブピクセル群Pgrと決定する。
 コントローラ7は、計測装置2によって計測された照度が第1照度以上である場合、図7に示すように、いずれの両眼サブピクセルの輝度も下げない。コントローラ7は、左サブピクセル群Pglを構成する全てのサブピクセルに左眼画像を表示させうる。コントローラ7は、右サブピクセル群Pgrを構成する全てのサブピクセルに右眼画像を表示させうる。図7に示す例では、コントローラ7は、P1~P6に左眼画像を表示させる。コントローラ7はP7~P12に右眼画像を表示させる。これにより、照度が高い(第1照度以上)場合、利用者は、クロストークをあまり感知せずに、且つ、解像度が保たれた画像を適切に視認することができる。
 コントローラ7は、照度が第1照度未満であり、第2照度以上である場合、図8に示すように、左サブピクセル群Pglを構成する両眼サブピクセルのうち右可視領域51aRに含まれる部分が最も大きいサブピクセルの輝度を下げうる。コントローラ7は、右サブピクセル群Pgrを構成する両眼サブピクセルのうち左可視領域51aLに含まれる部分が最も大きいサブピクセルの輝度を下げうる。コントローラ7は、左サブピクセル群Pglを構成するサブピクセルのうち輝度が下げられないサブピクセルに左眼画像を表示させうる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させうる。
 図8に示す例では、コントローラ7は、サブピクセルP1およびP7の輝度を下げる。このとき、コントローラ7は、サブピクセルP2~P6に左眼画像を表示させる。コントローラ7は、サブピクセルP8~P12に右眼画像を表示させる。これにより、照度が中程度(第1照度未満、第2照度以上)である場合、利用者は、解像度の低下を抑えつつ、クロストークが抑えられた画像を適切に視認することができる。
 コントローラ7は、計測装置2によって計測された照度が第2照度未満である場合、図9に示すように、第2所定数の両眼サブピクセルの輝度を下げうる。例えば、コントローラ7は、左可視領域51aLを構成する両眼サブピクセルのうち右可視領域51aRに含まれる部分が最も大きいサブピクセルと2番目に大きいサブピクセルとの輝度を下げうる。コントローラ7は、右可視領域51aRを構成する両眼サブピクセルのうち左可視領域51aLに含まれる部分が最も大きいサブピクセルと2番目に大きいサブピクセルとの輝度を下げうる。このとき、コントローラ7は、左サブピクセル群Pglを構成するサブピクセルのうち輝度が下げられないサブピクセルに左眼画像を表示させうる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させうる。
 図9に示す例では、コントローラ7は、サブピクセルP1、P6、P7、およびP12の輝度を下げる。コントローラ7は、サブピクセルP2~P5に左眼画像を表示させる。コントローラ7は、サブピクセルP8~P11に右眼画像を表示させる。これにより、周囲環境の照度が低い(第2照度未満)場合、利用者は、クロストークが抑えられた画像を視認することができる。
 <第3例>
 眼が変位位置にある場合の、コントローラ7が各サブピクセルについて画像を表示させる例が、第3例として図7、図10、および図11を参照して詳細に説明される。
 コントローラ7は、第1例と同様に、左サブピクセル群Pglおよび右サブピクセル群Pgrを決定しうる。図7に示す例では、コントローラ7は、サブピクセルP1~P6が構成するサブピクセルの集合を左サブピクセル群Pglと決定する。コントローラ7は、サブピクセルP7~P12が構成するサブピクセルの集合を右サブピクセル群Pgrと決定する。
 コントローラ7は、計測装置2によって計測された照度が第1照度以上である場合、図7に示すように、いずれの両眼サブピクセルの輝度も下げない。コントローラ7は、左サブピクセル群Pglを構成する全てのサブピクセルに左眼画像を表示させうる。コントローラ7は、右サブピクセル群Pgrを構成する全てのサブピクセルに右眼画像を表示させうる。図7に示す例では、コントローラ7は、P1~P6に左眼画像を表示させる。コントローラ7はP7~P12に右眼画像を表示させる。
 コントローラ7は、計測装置2によって計測された照度が第1照度未満であり、第1照度より低い第2照度以上である場合、図10に示すように、両眼サブピクセルのうち、右サブピクセル群Pgrを構成するサブピクセルの輝度を下げうる。コントローラ7は、左サブピクセル群Pglを構成するサブピクセルの全てに左眼画像を表示させうる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させうる。図10に示す例では、コントローラ7は、サブピクセルP7、P8、およびP12の輝度を下げる。このとき、コントローラ7は、サブピクセルP1~P6に左眼画像を表示させる。コントローラ7は、サブピクセルP9~P11に右眼画像を表示させる。
 コントローラ7は、計測装置2によって計測された照度が第2照度未満である場合、図11に示すように、全ての両眼サブピクセルの輝度を下げる。このとき、コントローラ7は、左サブピクセル群Pglを構成するサブピクセルのうち輝度が下げられないサブピクセルに左眼画像を表示させうる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させうる。図11に示す例では、コントローラ7はサブピクセルP1、P2、P6、P7、P8、およびP12の輝度を下げる。コントローラ7は、サブピクセルP3~P5に左眼画像を表示させる。コントローラ7は、サブピクセルP9~P11に右眼画像を表示させる。
 次に、第1の実施形態に係る3次元表示装置3が行う処理の一例について、図12を参照して説明がされる。
 コントローラ7は、検出装置1から利用者の眼の位置を示す情報を取得する(ステップS11)。
 ステップS11で目の位置を示す情報が取得されると、コントローラ7は、計測装置2から周囲環境の照度を示す情報を取得する(ステップS12)。
 ステップS12で照度を示す情報が取得されると、コントローラ7は、ステップS11で取得された情報が示す眼の位置に基づいて、左サブピクセル群Pglおよび右サブピクセル群Pgrを決定する(ステップS13)。
 ステップS13で左サブピクセル群Pglおよび右サブピクセル群Pgrが決定されると、コントローラ7は、ステップS12で取得された情報が示す照度が第1照度以上であるか否かを判定する(ステップS14)。
 ステップS14で照度が第1照度以上であると判定されると、コントローラ7は、いずれの両眼サブピクセルの輝度も下げない(ステップS15)。具体的には、コントローラ7は、両眼サブピクセルに左眼画像または右眼画像を表示させる。このとき、コントローラ7は、左サブピクセル群Pglを構成する全てのサブピクセルに左眼画像を表示させる。コントローラ7は、右サブピクセル群Pgrを構成する全てのサブピクセルに右眼画像を表示させる。
 ステップS14で照度が第1照度未満であると判定されると、コントローラ7は、照度が第2照度以上であるか否かを判定する(ステップS16)。
 ステップS16で照度が第2照度以上であると判定されると、コントローラ7は、第1所定数の両眼サブピクセルの輝度を下げる(ステップS17)。このとき、コントローラ7は、左サブピクセル群Pglを構成するサブピクセルのうち輝度が下げられないサブピクセルに左眼画像を表示させる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させる。
 ステップS16で照度が第2照度未満であると判定されると、コントローラ7は、第2所定数の両眼サブピクセルの輝度を下げる(ステップS18)。このとき、コントローラ7は、左サブピクセル群Pglを構成するサブピクセルのうち輝度が下げられないサブピクセルに左眼画像を表示させる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させる。
 以上説明したように、第1の実施形態では、コントローラ7は、周囲環境の照度に基づいて、複数のサブピクセルそれぞれに画像を表示させる。人間の眼には、周囲環境の照度によってクロストークを感知しやすさが変化するという特性がある。具体的には、人間の眼には、周囲環境の照度が高いほど、クロストークを感知しにくいという特性がある。したがって、周囲環境の照度が比較的高い場合に、コントローラ7が両眼サブピクセルの輝度が下げず、左眼画像または右眼画像を表示させることによって、利用者は、クロストークを感知しにくい状態で解像度が保たれた画像を適切に視認することができる。人間の眼は、周囲環境の照度が低くなるほど、クロストークを感知しやすくなる。照度が低くなるほど、コントローラ7が多くの両眼サブピクセルの輝度を下げることによって、利用者は、クロストークが抑えられた画像を適切に視認することができる。したがって、利用者は適切に3次元画像を視認することが可能となる。
 <第2の実施形態>
 以下、本開示の第2の実施形態について、図面を参照して説明がされる。
 図13に示すように、第2の実施形態における3次元表示システム200は、第1の実施形態における3次元表示システム100の検出装置1と、3次元表示装置3とを含んで構成される。検出装置1と、3次元表示装置3とは、それぞれ第1の実施形態における検出装置1と、3次元表示装置3と同様に構成されうる。
 第2の実施形態のコントローラ7は、明るさに関する情報を取得する。例えば、コントローラ7は、表示面51に表示させるために3次元表示装置3が外部装置から取得した画像情報、あるいはメモリに記憶されている画像情報を取得する。コントローラ7は、画像情報に含まれる明るさに関する情報を取得する。明るさに関する情報は、画像の輝度に関する情報としてよい。輝度に関する情報は、例えば、画像を構成する画素の輝度の統計値としてよい。統計値は、例えば、中間値、平均値等の任意の統計的な値としてよい。
 具体的には、コントローラ7は、画像の輝度が第1輝度以上である場合、いずれの両眼サブピクセルの輝度も下げない。コントローラ7は、左サブピクセル群Pglを構成する全てのサブピクセルに左眼画像を表示させる。コントローラ7は、右サブピクセル群Pgrを構成する全てのサブピクセルに右眼画像を表示させる。第1輝度は、クロストークが利用者の眼によって認識されにくい程度に高い、画像の輝度に関する値である。
 コントローラ7は、画像の輝度が第1輝度未満であり、第2輝度以上である場合、第1所定数の両眼サブピクセルの輝度を下げる。第2輝度は、第1輝度より低い輝度である。コントローラ7は、左サブピクセル群Pglを構成するサブピクセルのうち輝度が下げられないサブピクセルに左眼画像を表示させる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させる。
 コントローラ7は、画像の輝度が第2輝度未満である場合、第2所定数の両眼サブピクセルの輝度を下げる。このとき、コントローラ7は、左サブピクセル群Pglを構成するサブピクセルのうち輝度が下げられないサブピクセルに左眼画像を表示させる。コントローラ7は、右サブピクセル群Pgrを構成するサブピクセルのうち輝度が下げられないサブピクセルに右眼画像を表示させる。
 この場合、画像の輝度が低いほど、両眼サブピクセルの輝度を下げるため、画像全体がより暗くなってしまうことがある。そのため、コントローラ7は、画像全体の明るさを保つために、両眼サブピクセルの輝度を下げるとともに、右眼画像および左眼画像の輝度を高くしてもよい。
 第2の実施形態におけるその他の構成、作用は第1の実施形態と同様なので、同一または対応する構成要素には、同一参照符号を付して説明を省略する。
 以上説明したように、第2の実施形態では、3次元表示装置3は、表示面51上各サブピクセルに表示させようとする画像の輝度に関する情報に基づいて、複数のサブピクセルそれぞれに画像を表示させる。具体的には、人間の眼には、表示面51に表示される画像の輝度が高いほど、クロストークを感知しにくいという特性がある。したがって、画像の輝度が比較的高い場合に、コントローラ7が両眼サブピクセルに輝度が下げず、左眼画像または右眼画像を表示させることによって、利用者は、クロストークを感知しにくい状態で解像度が保たれた画像を適切に視認することができる。人間の眼は、表示面51に表示される画像の輝度が低くなるほど、クロストークを感知しやすくなる。輝度が低くなるほど、コントローラ7が多くの両眼サブピクセルの輝度を下げることによって、利用者は、クロストークが抑えられた画像を適切に視認することができる。したがって、利用者は適切に3次元画像を視認することができ、第1の実施形態と同様の効果を奏する。
 上述の実施形態は代表的な例として説明したが、本開示の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。したがって、本開示は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形および変更が可能である。例えば、実施形態および実施例に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。
 上述の実施形態では、コントローラ7は、計測装置2から取得した照度を第1照度および第2照度と比較したが、これに限られない。例えば、コントローラ7は、照度を、第1照度から第N照度(Nは整数)までそれぞれと比較し、照度が大きいほど、多くの両眼サブピクセルの輝度下げるようにしてよい。
 上述の実施形態の第1例および第3の例では、コントローラ7は、照度が第1照度未満であり、第2照度以上である場合、右サブピクセル群Pgrを構成する両眼サブピクセルの輝度を下げるとした。しかし、コントローラ7は、左サブピクセル群Pglを構成する両眼サブピクセル輝度を下げるとしてよい。
 上述の第2例では、コントローラ7は、照度が第1照度未満であり、第2照度以上である場合、左サブピクセル群Pglを構成する両眼サブピクセルのうち右可視領域51aRに含まれる部分が最も大きいサブピクセルの輝度を下げた。しかし、コントローラ7が輝度を下げるサブピクセルは、これに限られない。例えば、コントローラ7は、左サブピクセル群Pglを構成する両眼サブピクセルのうち右可視領域51aRに含まれる部分が最も小さいサブピクセルの輝度を下げてよい。この場合、クロストークの発生はあまり抑えられないが、解像度の低下が防がれる。照度が第1照度未満であり、第2照度以上である場合に輝度を下げるサブピクセルは、クロストークの発生と解像度の低下とのバランスに応じて、適宜設計されてよい。
 上述の実施形態では、光学素子がパララックスバリア6であるとしたが、これに限られない。例えば、図14に示すように、3次元表示装置3が備える光学素子は、レンチキュラレンズ8としてよい。この場合、レンチキュラレンズ8は、シリンドリカルレンズ9を、xy平面内に配列して構成される。レンチキュラレンズ8は、パララックスバリア6と同様に、可視領域51aのサブピクセルを出射した画像光を、利用者の左眼の位置に伝搬させ、他の一部の可視領域51aのサブピクセルを出射した画像光を、利用者の右眼の位置に伝搬させる。
 図15に示すように、3次元表示システム100は、ヘッドアップディスプレイシステム300に搭載されうる。ヘッドアップディスプレイシステム300は、HUD(Head Up Display)300ともいう。HUD300は、3次元表示システム100と、光学部材310と、被投影面330を有する被投影部材320とを備える。HUD300は、3次元表示システム100から射出される画像光を、光学部材310を介して被投影部材320に到達させる。HUD300は、被投影部材320で反射させた画像光を、利用者の左眼および右眼に到達させる。つまり、HUD300は、破線で示される光路340に沿って、3次元表示システム100から利用者の左眼および右眼まで画像光を進行させる。利用者は、光路340に沿って到達した画像光を、虚像350として視認しうる。3次元表示システム100は、利用者の左眼および右眼の位置に応じて表示を制御することによって、利用者の動きに応じて立体視を提供しうる。
 図16に示すように、HUD300、3次元表示システム100、および3次元表示システム200は、移動体10に搭載されてよい。HUD300、3次元表示システム100、および3次元表示システム200は、構成の一部を、当該移動体10が備える他の装置、部品と兼用してよい。例えば、移動体10は、ウインドシールドを被投影部材320として兼用してよい。構成の一部を当該移動体10が備える他の装置、部品と兼用する場合、他の構成をHUDモジュールまたは3次元表示コンポーネントと呼びうる。HUD300、3次元表示システム100、および3次元表示システム200は、移動体10に搭載されてよい。本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
 移動体10は、周囲に光を照射する照射装置を備えてよい。照射装置は、例えば、ヘッドライトである。この場合、移動体10が搭載するHUD300および3次元表示システム100の計測装置2は、当該計測装置2が計測した明るさに基づいて照射装置を制御してよい。
1       検出装置
2       計測装置
3       3次元表示装置
4       照射器
5       表示パネル
6       パララックスバリア
7       コントローラ
8       レンチキュラレンズ
9       シリンドリカルレンズ
10      移動体
51      表示面
51aL    左可視領域
51aR    右可視領域
51bL    左不可視領域
51bR    右不可視領域
60      パララックスバリア
61      遮光面
62      透光領域
100,200 3次元表示システム
300     ヘッドアップディスプレイシステム
310     光学部材
320     被投影部材
330     被投影面
340     光路
350     虚像
 

Claims (11)

  1.  利用者の両眼が並ぶ方向に対応する第1方向、および前記第1方向に直交する第2方向に沿って格子状に配列された複数のサブピクセルを備える表示面と、
     前記表示面上の前記第2方向と0度でない所定角度をなす方向に延びる複数の帯状領域ごとに、前記表示面から射出される光の光線方向を規定する光学素子と、
     前記表示面に画像を表示させるコントローラと、
    を備え、
     前記コントローラは、明るさに関する情報を取得し、該明るさに関する情報に基づいて、前記利用者の第1の眼の位置に伝播する光を射出する前記表示面上の第1可視領域に一部が含まれ、前記利用者の第2の眼の位置に伝播する光を射出する前記表示面上の第2可視領域に残りの一部が含まれる両眼サブピクセルのうち、少なくとも一部のサブピクセルの輝度を下げる、3次元表示装置。
  2.  前記コントローラは、前記両眼サブピクセルの前記少なくとも一部のサブピクセルを消灯させる、請求項1に記載の3次元表示装置。
  3.  前記コントローラは、前記第1可視領域に少なくとも一部が含まれ、所定の行および列のサブピクセルで構成される第1サブピクセル群を決定し、前記第2可視領域に少なくとも一部が含まれ、前記所定の行および列のサブピクセルで構成される第2サブピクセル群を決定し、前記第1サブピクセル群に含まれ、且つ、前記輝度が下げられた前記両眼サブピクセルに含まれないサブピクセルに第1画像を表示し、前記第2サブピクセル群に含まれ、且つ、前記輝度が下げられた前記両眼サブピクセルに含まれないサブピクセルに第2画像を表示する、請求項1または2に記載の3次元表示装置。
  4.  前記コントローラは、前記明るさの度合いが低いほど、多くの前記両眼サブピクセルの輝度を下げる、請求項1から3のいずれか一項に記載の3次元表示装置。
  5.  前記コントローラは、利用者の眼の位置に関する情報を取得し、該利用者の眼の位置に関する情報に基づいて、前記両眼サブピクセル、前記第1可視領域、および前記第2可視領域を判定する、請求項1から4のいずれか一項に記載の3次元表示装置。
  6.  前記コントローラは、前記明るさに関する情報として、周囲環境の照度に関する情報を取得し、前記照度に基づいて、前記両眼サブピクセルの輝度を下げる、請求項1から5のいずれか一項に記載の3次元表示装置。
  7.  前記コントローラは、前記明るさに関する情報として、前記表示面に表示する画像の輝度に関する情報を取得し、前記画像の輝度に基づいて、前記両眼サブピクセルの輝度を下げる、請求項1から5のいずれか一項に記載の3次元表示装置。
  8.  明るさを計測する計測装置と、
     利用者の両眼が並ぶ方向に対応する第1方向、および前記第1方向に直交する第2方向に沿って格子状に配列された複数のサブピクセルを備える表示面と、前記表示面上の前記第2方向と0度でない所定角度をなす方向に延びる複数の帯状領域ごとに、前記表示面から射出される光の光線方向を規定する光学素子と、前記表示面に画像を表示させるコントローラと、を含み、前記コントローラは、前記計測装置から明るさに関する情報を取得し、該明るさに関する情報に基づいて、前記利用者の第1の眼の位置に伝播する光を射出する前記表示面上の第1可視領域に一部が含まれ、前記利用者の第2の眼の位置に伝播する光を射出する前記表示面上の第2可視領域に残りの一部が含まれる両眼サブピクセルのうち、少なくとも一部のサブピクセルの輝度を下げる、3次元表示装置と、
    を備える3次元表示システム。
  9.  明るさを計測する計測装置と、
     利用者の両眼が並ぶ方向に対応する第1方向、および前記第1方向に直交する第2方向に沿って格子状に配列された複数のサブピクセルを備える表示面と、前記表示面上の前記第2方向と0度でない所定角度をなす方向に延びる複数の帯状領域ごとに、前記表示面から射出される光の光線方向を規定する光学素子と、前記表示面に画像を表示させるコントローラと、を有し、前記コントローラは、前記計測装置から明るさに関する情報を取得し、該明るさに関する情報に基づいて、前記利用者の第1の眼の位置に伝播する光を射出する前記表示面上の第1可視領域に一部が含まれ、前記利用者の第2の眼の位置に伝播する光を射出する前記表示面上の第2可視領域に残りの一部が含まれる両眼サブピクセルのうち、少なくとも一部のサブピクセルの輝度を下げる、3次元表示装置と、
    を含む3次元表示システムを備える移動体。
  10.  周囲に光を照射する照射装置を備え、
     前記計測装置は、前記明るさに基づいて照射装置を制御する、請求項9に記載の移動体。
  11.  利用者の両眼が並ぶ方向に対応する第1方向、および前記第1方向に直交する第2方向に沿って格子状に配列された複数のサブピクセルを備える表示面と、前記表示面上の前記第2方向と0度でない所定角度をなす方向に延びる複数の帯状領域ごとに、前記表示面から射出される光の光線方向を規定する光学素子と、前記表示面に画像を表示させるコントローラと、を備える3次元表示装置が実行する3次元表示方法であって、
     明るさに関する情報を取得し、該明るさに関する情報に基づいて、前記利用者の第1の眼の位置に伝播する光を射出する前記表示面上の第1可視領域に一部が含まれ、前記利用者の第2の眼の位置に伝播する光を射出する前記表示面上の第2可視領域に残りの一部が含まれる両眼サブピクセルのうち、少なくとも一部のサブピクセルの輝度を下げる、3次元表示方法。
     
PCT/JP2018/025068 2017-07-05 2018-07-02 3次元表示装置、3次元表示システム、移動体、および3次元表示方法 WO2019009243A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/627,665 US11422383B2 (en) 2017-07-05 2018-07-02 Three-dimensional display apparatus, three-dimensional display system, mobile body, and three-dimensional display method
CN201880040671.7A CN110799894B (zh) 2017-07-05 2018-07-02 三维显示装置、三维显示系统、移动体和三维显示方法
EP18828429.3A EP3650922B1 (en) 2017-07-05 2018-07-02 Three-dimensional display device, three-dimensional display system, mobile body, and three-dimensional display method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017132221A JP6924637B2 (ja) 2017-07-05 2017-07-05 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
JP2017-132221 2017-07-05

Publications (1)

Publication Number Publication Date
WO2019009243A1 true WO2019009243A1 (ja) 2019-01-10

Family

ID=64950907

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/025068 WO2019009243A1 (ja) 2017-07-05 2018-07-02 3次元表示装置、3次元表示システム、移動体、および3次元表示方法

Country Status (5)

Country Link
US (1) US11422383B2 (ja)
EP (1) EP3650922B1 (ja)
JP (1) JP6924637B2 (ja)
CN (1) CN110799894B (ja)
WO (1) WO2019009243A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020256154A1 (ja) * 2019-06-21 2020-12-24 京セラ株式会社 3次元表示装置、3次元表示システム、および移動体
CN112752085A (zh) * 2020-12-29 2021-05-04 北京邮电大学 基于人眼跟踪的裸眼3d视频播放系统及方法
CN112801920A (zh) * 2021-03-30 2021-05-14 深圳市立体通科技有限公司 三维图像串扰优化方法、装置、存储介质和电子设备
CN113614613A (zh) * 2019-03-26 2021-11-05 京瓷株式会社 立体虚像显示模块、立体虚像显示系统以及移动体
US20230291888A1 (en) * 2020-07-22 2023-09-14 Kyocera Corporation Three-dimensional display device, head-up display, and movable body

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7317517B2 (ja) 2019-02-12 2023-07-31 株式会社ジャパンディスプレイ 表示装置
CN111796380B (zh) * 2020-06-01 2022-07-12 杭州奥创光子技术有限公司 一种光栅角度的调节装置
CN111752052B (zh) * 2020-07-29 2022-07-12 京东方科技集团股份有限公司 一种显示面板、显示装置及其驱动方法
CN113325573B (zh) * 2021-05-27 2022-10-18 京东方科技集团股份有限公司 显示模组及显示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100813492B1 (ko) * 2006-11-22 2008-03-13 엘지전자 주식회사 차량용 헤드 업 디스플레이 장치
JP2013214008A (ja) 2012-04-04 2013-10-17 Mitsubishi Electric Corp 表示装置及びこれを備えたヘッドアップディスプレイシステム
JP2014509399A (ja) * 2011-03-07 2014-04-17 シャープ株式会社 切り換え可能な映像化装置、切り換え可能な光学装置、およびディスプレイ
US20150181203A1 (en) * 2013-12-24 2015-06-25 Lg Display Co., Ltd. Display device and method of driving the same

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2422737A (en) 2005-01-26 2006-08-02 Sharp Kk Multiple-view display and display controller
US7775666B2 (en) 2005-03-16 2010-08-17 Panasonic Corporation Three-dimensional image communication terminal and projection-type three-dimensional image display apparatus
GB2426351A (en) * 2005-05-19 2006-11-22 Sharp Kk A dual view display
JP2007078923A (ja) * 2005-09-13 2007-03-29 Fujitsu Ten Ltd 表示制御装置、表示装置及び表示方法
JP4609805B2 (ja) * 2009-05-28 2011-01-12 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
TWI420152B (zh) * 2011-04-26 2013-12-21 Unique Instr Co Ltd A Method of Multi - view Three - dimensional Image Display
US9414049B2 (en) 2011-09-19 2016-08-09 Écrans Polaires Inc./Polar Screens Inc. Method and display for showing a stereoscopic image
KR101861275B1 (ko) * 2011-12-06 2018-05-25 엘지전자 주식회사 이동 단말기 및 그의 3d영상 제어방법
CN103135889B (zh) 2011-12-05 2017-06-23 Lg电子株式会社 移动终端及其3d图像控制方法
US9494797B2 (en) * 2012-07-02 2016-11-15 Nvidia Corporation Near-eye parallax barrier displays
JP6099892B2 (ja) * 2012-07-09 2017-03-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 映像表示装置
KR20140067575A (ko) * 2012-11-27 2014-06-05 삼성디스플레이 주식회사 삼차원 이미지 구동 방법 및 이를 수행하는 입체 영상 표시 장치
JP2015084079A (ja) * 2013-09-20 2015-04-30 パナソニックIpマネジメント株式会社 画像表示装置
CN103763540B (zh) * 2014-01-08 2017-01-04 深圳超多维光电子有限公司 立体显示方法和立体显示装置
JPWO2016047009A1 (ja) 2014-09-26 2017-07-13 パナソニックIpマネジメント株式会社 ヘッドアップディスプレイおよび移動体
US10552676B2 (en) * 2015-08-03 2020-02-04 Facebook Technologies, Llc Methods and devices for eye tracking based on depth sensing
CN105629490A (zh) * 2016-04-01 2016-06-01 京东方科技集团股份有限公司 显示装置及其驱动方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100813492B1 (ko) * 2006-11-22 2008-03-13 엘지전자 주식회사 차량용 헤드 업 디스플레이 장치
JP2014509399A (ja) * 2011-03-07 2014-04-17 シャープ株式会社 切り換え可能な映像化装置、切り換え可能な光学装置、およびディスプレイ
JP2013214008A (ja) 2012-04-04 2013-10-17 Mitsubishi Electric Corp 表示装置及びこれを備えたヘッドアップディスプレイシステム
US20150181203A1 (en) * 2013-12-24 2015-06-25 Lg Display Co., Ltd. Display device and method of driving the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3650922A4

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113614613A (zh) * 2019-03-26 2021-11-05 京瓷株式会社 立体虚像显示模块、立体虚像显示系统以及移动体
CN113614613B (zh) * 2019-03-26 2023-10-24 京瓷株式会社 立体虚像显示模块、立体虚像显示系统以及移动体
EP3992691A4 (en) * 2019-03-26 2024-01-31 Kyocera Corporation STEREOSCOPIC VIRTUAL IMAGE DISPLAY MODULE, STEREOSCOPIC VIRTUAL IMAGE DISPLAY SYSTEM AND MOBILE OBJECT
WO2020256154A1 (ja) * 2019-06-21 2020-12-24 京セラ株式会社 3次元表示装置、3次元表示システム、および移動体
JPWO2020256154A1 (ja) * 2019-06-21 2020-12-24
CN113950827A (zh) * 2019-06-21 2022-01-18 京瓷株式会社 三维显示装置、三维显示系统以及移动体
EP3989541A4 (en) * 2019-06-21 2023-05-24 Kyocera Corporation THREE-DIMENSIONAL DISPLAY DEVICE, THREE-DIMENSIONAL DISPLAY SYSTEM AND MOVABLE OBJECT
JP7337158B2 (ja) 2019-06-21 2023-09-01 京セラ株式会社 3次元表示装置、3次元表示システム、および移動体
US20230291888A1 (en) * 2020-07-22 2023-09-14 Kyocera Corporation Three-dimensional display device, head-up display, and movable body
CN112752085A (zh) * 2020-12-29 2021-05-04 北京邮电大学 基于人眼跟踪的裸眼3d视频播放系统及方法
CN112801920A (zh) * 2021-03-30 2021-05-14 深圳市立体通科技有限公司 三维图像串扰优化方法、装置、存储介质和电子设备

Also Published As

Publication number Publication date
EP3650922A1 (en) 2020-05-13
CN110799894A (zh) 2020-02-14
JP6924637B2 (ja) 2021-08-25
JP2019015824A (ja) 2019-01-31
US11422383B2 (en) 2022-08-23
US20200159015A1 (en) 2020-05-21
EP3650922B1 (en) 2023-11-22
CN110799894B (zh) 2022-05-24
EP3650922A4 (en) 2021-03-31

Similar Documents

Publication Publication Date Title
WO2019009243A1 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
JP7129789B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
US20200053352A1 (en) Three-dimensional display apparatus, three-dimensional display system, head-up display system, and mobile body
US11616940B2 (en) Three-dimensional display device, three-dimensional display system, head-up display, and mobile object
WO2021066110A1 (ja) 3次元表示装置、コントローラ、3次元表示方法、3次元表示システム、及び、移動体
WO2020130048A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2020130049A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
JP7145214B2 (ja) 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
JP7188888B2 (ja) 画像表示装置、ヘッドアップディスプレイシステム、および移動体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
WO2022019154A1 (ja) 3次元表示装置
US11693240B2 (en) Three-dimensional display device, three-dimensional display system, head-up display, and movable object
WO2023228887A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2021066111A1 (ja) 3次元表示装置、3次元表示システム及び移動体
WO2022019215A1 (ja) 3次元表示装置、ヘッドアップディスプレイおよび移動体
JP7475191B2 (ja) 眼間距離測定方法および較正方法
JP2022022078A (ja) 3次元表示装置、ヘッドアップディスプレイおよび移動体
CN116685897A (zh) 三维显示装置
JP2021056255A (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
CN116235241A (zh) 三维显示装置、三维显示方法、三维显示系统以及移动体
JP2021056254A (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18828429

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018828429

Country of ref document: EP

Effective date: 20200205