WO2019225400A1 - 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体 - Google Patents

画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体 Download PDF

Info

Publication number
WO2019225400A1
WO2019225400A1 PCT/JP2019/019091 JP2019019091W WO2019225400A1 WO 2019225400 A1 WO2019225400 A1 WO 2019225400A1 JP 2019019091 W JP2019019091 W JP 2019019091W WO 2019225400 A1 WO2019225400 A1 WO 2019225400A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
active area
user
eye
display panel
Prior art date
Application number
PCT/JP2019/019091
Other languages
English (en)
French (fr)
Inventor
薫 草深
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2019225400A1 publication Critical patent/WO2019225400A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/346Image reproducers using prisms or semi-transparent mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/376Image reproducers using viewer tracking for tracking left-right translational head movements, i.e. lateral movements

Definitions

  • the present disclosure relates to an image display device, an image display system, a head-up display, and a moving object.
  • an image display device including an optical element such as a parallax barrier to be reached is known (see, for example, Patent Document 1).
  • Such an image display device allows a user to visually recognize an image recognized as three-dimensional by causing a parallax image, which is an image having parallax, to reach the left eye and the right eye.
  • An image display device includes a display panel, a controller, and an optical element.
  • the display panel has a first active area and a second active area different from the first active area.
  • the controller displays a parallax image including a first image and a second image having parallax with each other in the first active area, and displays a third image in the second active area.
  • the optical element overlaps at least the first active area of the display panel and defines the light beam directions of the first image and the second image.
  • the optical element causes the user to visually recognize a three-dimensional image by causing the first image to reach the first eye of the user and causing the second image to reach the second eye of the user.
  • An image display system includes a display panel, a detection device, a controller, and an optical element.
  • the display panel has a first active area and a second active area different from the first active area.
  • the detection device detects the position of the user's eyes.
  • the controller displays a parallax image including a first image and a second image having parallax with each other in the first active area, and displays a third image in the second active area.
  • the optical element overlaps at least the first active area of the display panel and defines the light beam directions of the first image and the second image.
  • the controller causes the first image to be displayed in a first area of the first active area that is visible to the first eye of the user via the optical element based on the position of the eye of the user.
  • the second image is displayed in a second area different from the first area of the first active area that is visible to the user's second eye, thereby allowing the user to visually recognize the three-dimensional image.
  • a head-up display includes a display panel, a controller, an optical element, and an optical system.
  • the display panel has a first active area and a second active area different from the first active area.
  • the controller displays a parallax image including a first image and a second image having parallax with each other in the first active area, and displays a third image in the second active area.
  • the optical element overlaps at least the first active area of the display panel and defines the light beam directions of the first image and the second image.
  • the optical system projects virtual images of the first active area and the second active area.
  • the optical element allows the user to visually recognize the three-dimensional image as a virtual image by causing the first image to reach the first eye of the user and causing the second image to reach the second eye of the user.
  • a moving body includes a head-up display.
  • the head-up display includes a display panel, a controller, an optical element, and an optical system.
  • the display panel has a first active area and a second active area different from the first active area.
  • the controller displays a parallax image including a first image and a second image having parallax with each other in the first active area, and displays a third image in the second active area.
  • the optical element overlaps at least the first active area of the display panel and defines the light beam directions of the first image and the second image.
  • the optical system projects virtual images of the first active area and the second active area.
  • the optical element allows the user to visually recognize the three-dimensional image as a virtual image by causing the first image to reach the first eye of the user and causing the second image to reach the second eye of the user.
  • FIG. 1 is a schematic configuration diagram of an image display apparatus according to an embodiment.
  • FIG. 2 is a plan view (upper view) and a front view (lower view) for explaining a first configuration example of the display panel and the parallax barrier.
  • FIG. 3 is an enlarged view of the active area of the display panel.
  • FIG. 4 is a diagram illustrating a configuration example of the barrier layer of the parallax barrier.
  • FIG. 5 is a diagram for explaining a display example of sub-pixels of the display panel.
  • FIG. 6 is a diagram for explaining a display example of sub-pixels of the display panel.
  • FIG. 7 is a plan view (upper view) and a front view (lower view) for explaining a second configuration example of the display panel and the parallax barrier.
  • FIG. 1 is a schematic configuration diagram of an image display apparatus according to an embodiment.
  • FIG. 2 is a plan view (upper view) and a front view (lower view) for explaining a first configuration example of
  • FIG. 8 is a plan view (upper view) and a front view (lower view) for explaining a third configuration example of the display panel and the parallax barrier.
  • FIG. 9 is a schematic configuration diagram of an image display device when the optical element is a lenticular lens.
  • FIG. 10 is a schematic configuration diagram of a head-up display (HUD) according to an embodiment.
  • FIG. 11 is a diagram illustrating an example of a moving object on which the head-up display (HUD) illustrated in FIG. 10 is mounted.
  • FIG. 12 is a diagram illustrating a display example of the display panel of the head-up display.
  • a parallax image for displaying a three-dimensional image and a planar image that is a two-dimensional image using the same image display device.
  • a planar image is displayed on a display device in which an optical element such as a parallax barrier is provided on the entire surface of the display panel, only image light from some subpixels reaches the left eye and right eye of the user. For this reason, the resolution of the image displayed falls compared with the case where the planar image displayed on a display panel is directly viewed.
  • An image display system 1 according to one of a plurality of embodiments of the present disclosure includes a detection device 2 and an image display device 3 as illustrated in FIG. 1.
  • FIG. 1 shows a state in which the image display system 1 is viewed from above a user who observes an image with the image display device 3.
  • the detection device 2 detects the position of the user's eyes and outputs it to the image display device 3 described later.
  • the detection device 2 may include a camera, for example.
  • the detection apparatus 2 may photograph a user's face with a camera.
  • the detection device 2 may detect the position of at least one of the left eye as the first eye and the right eye as the second eye from the captured image of the camera.
  • the detection device 2 may detect the position of at least one of the left eye and the right eye as coordinates in a three-dimensional space from a captured image of one camera.
  • the detection device 2 may detect the position of at least one of the left eye and the right eye as coordinates in a three-dimensional space from images captured by two or more cameras.
  • Detecting device 2 may not be equipped with a camera and may be connected to a camera outside the device.
  • the detection device 2 may include an input terminal for inputting a signal from a camera outside the device.
  • the camera outside the apparatus may be directly connected to the input terminal.
  • the camera outside the apparatus may be indirectly connected to the input terminal via a shared network.
  • the detection device 2 that does not include a camera may include an input terminal through which the camera inputs a video signal.
  • the detection apparatus 2 that does not include a camera may detect the position of at least one of the left eye and the right eye from the video signal input to the input terminal.
  • the detection device 2 may include a sensor, for example.
  • the sensor may be an ultrasonic sensor or an optical sensor.
  • the detection device 2 may detect the position of the user's head using a sensor, and may detect the position of at least one of the left eye and the right eye based on the position of the head.
  • the detection device 2 may detect the position of at least one of the left eye and the right eye as coordinates in a three-dimensional space with one or more sensors.
  • the detection device 2 may detect the movement distance of the left eye and the right eye along the eyeball arrangement direction based on the detection result of the position of at least one of the left eye and the right eye.
  • the image display system 1 does not have to include the detection device 2.
  • the image display device 3 may receive a signal input from a detection device outside the image display system 1.
  • the external detection device may use an electric signal and an optical signal as signals input to the image display device 3.
  • the position coordinate indicating the position of at least one of the left eye and the right eye acquired from a detection device outside the device may be input to the controller 7 of the image display device 3.
  • the controller 7 may calculate the movement distance of the left eye and the right eye along the horizontal direction based on the position coordinates.
  • the controller 7 can estimate the position of the other eye from the information on the interocular distance of the user or the information on the general interocular distance.
  • the image display device 3 includes an irradiator 4, a display panel 5, a parallax barrier 6 as an optical element, and a controller 7.
  • the irradiator 4 is arranged on one surface side of the display panel 5 and irradiates the display panel 5 in a plane.
  • the irradiator 4 is arranged on the side opposite to the user when viewed from the display panel 5.
  • the irradiator 4 may include a light source, a light guide plate, a diffusion plate, a diffusion sheet, and the like.
  • the irradiator 4 emits irradiation light from a light source, and equalizes the irradiation light in the surface direction of the display panel 5 by a light guide plate, a diffusion plate, a diffusion sheet, or the like.
  • the irradiator 4 emits the uniformed light toward the display panel 5.
  • the display panel 5 may be a display panel such as a transmissive liquid crystal display panel.
  • an area where an actual image of the display panel 5 is displayed is referred to as an active area.
  • the display panel 5 displays various images in the active area 51.
  • the active area 51 of the display panel 5 in a space that is visually captured by the user is defined as a display surface 71.
  • the display surface 71 is This coincides with the position of the active area 51 of the display panel 5.
  • the display surface 71 coincides with the position of the virtual image of the active area 51 of the display panel 5.
  • the user visually captures the active area 51 on the display surface 71 in a space where the display panel 5 does not exist.
  • the display panel 5 and the parallax barrier 6 can be plate-like members.
  • the display panel 5 and the parallax barrier 6 can be configured integrally.
  • FIG. 2 for the sake of explanation, the positions of the end portions of the parallax barrier 6 in the positive and negative x directions and the negative y direction are drawn shifted from those of the display panel 5.
  • the parallax barrier 6 and the display panel 5 may have the same positive and negative x-direction end portions and negative y-direction end portions.
  • the area of the parallax barrier 6 is smaller than the area of the display panel 5.
  • the parallax barrier 6 overlaps the first active area 52 that is a part of the active area 51.
  • the parallax barrier 6 does not overlap with the second active area 53 included in a part other than the first active area 52 of the active area 51.
  • the second active area 53 is different from the first active area 52.
  • the second active area 53 may be provided below the first active area 52 as viewed from the user.
  • a liquid crystal display panel generally has a structure in which a liquid crystal layer and a color filter are sandwiched between glass substrates.
  • the active area 51 corresponds to the vicinity of the interface between the liquid crystal layer of the display panel 5 and the color filter. As shown in FIGS. 1 and 2, the active area 51 can be located near the center of the display panel 5 in the thickness direction.
  • the active area 51 of the display panel 5 includes a plurality of subpixels 11 that are arranged in a grid along a first direction (x direction) and a second direction that intersects the first direction.
  • the second direction can be a direction substantially orthogonal to the first direction.
  • the display surface 71 coincides with the active area 51.
  • the first direction (x direction) corresponds to a parallax direction that gives parallax to both eyes of the user.
  • the first direction can be a horizontal direction or a horizontal direction as viewed from the user.
  • the second direction can be the vertical direction or the vertical direction viewed from the user.
  • the first direction is the x direction and the second direction is the y direction.
  • the x direction is shown as a direction from right to left.
  • the y direction is shown as a direction from top to bottom.
  • a direction orthogonal to the x direction and the y direction and facing the user's eyes is defined as a z direction.
  • the plurality of subpixels 11 are arranged in a grid in the x direction and the y direction. In one embodiment, subpixel 11 is longer in the y direction than in the x direction.
  • Each sub-pixel 11 corresponds to one of R (Red), G (Green), and B (Blue).
  • the three subpixels 11 of R, G, and B can constitute one pixel 12 as a set. In FIG. 3, one of the pixels 12 is shown with its outer periphery highlighted for explanation.
  • One pixel 12 may be referred to as one pixel.
  • the length of one pixel in the x direction and the length in the y direction can be set to 1: 1, but are not limited thereto.
  • the x direction is, for example, a direction in which a plurality of subpixels 11 constituting one pixel 12 are arranged.
  • the arrangement of the sub-pixels 11 in the x direction is called “row”.
  • the y direction is, for example, a direction in which subpixels 11 having the same color are arranged.
  • the array of subpixels 11 in the y direction is referred to as a “column”.
  • the display panel 5 is not limited to a transmissive display panel, and other display panels such as a self-luminous display panel can also be used.
  • the transmission type display panel includes a MEMS (Micro Electro Mechanical Systems) shutter type display panel in addition to the liquid crystal panel.
  • the self-luminous display panel includes an organic EL (electro-luminescence) display panel and an inorganic EL display panel. When a self-luminous display panel is used as the display panel 5, the irradiator 4 is not necessary.
  • the parallax barrier 6 is an optical element that, when viewed from the user, overlaps the first active area 52 of the display panel 5 and defines the light beam direction of the image light that displays the parallax image emitted from the subpixel 11. “Defining the light beam direction” means that the light beam travel direction is limited to a specific direction.
  • the parallax barrier 6 limits the light beam direction of the image light emitted from the subpixel 11.
  • the parallax barrier 6 includes a barrier layer 61 and a plate-like base material 62 having translucency.
  • the barrier layer 61 can be formed on a different side of the base material 62 from the display panel 5.
  • the base material 62 is glass.
  • the barrier layer 61 is configured by patterning a resin black matrix or metal on a glass substrate 62.
  • the patterned resin black matrix or metal surface can be coated with a transparent protective film.
  • the parallax barrier 6 does not include the base material 62, and the barrier layer 61 may be directly formed on the glass substrate of the display panel 5.
  • the barrier layer 61 has a plurality of light-reducing regions 61a and a plurality of light-transmitting regions 61b.
  • the region where the resin or metal layer formed on the glass substrate 62 is formed becomes the dimming region 61a.
  • a region where the resin or metal layer on the base material 62 is not formed becomes a light transmitting region 61b.
  • the plurality of light-reducing regions 61a and the plurality of light-transmitting regions 61b can be formed in a strip shape (slit shape) extending in a predetermined direction.
  • the plurality of light reduction regions 61a and the plurality of light transmission regions 61b can be alternately arranged along the x direction.
  • the plurality of dimming regions 61a have substantially the same width and are periodically arranged in the x direction.
  • the plurality of translucent regions 61b have substantially the same width as each other and are periodically arranged along the x direction.
  • the range in which the image light emitted from the subpixel 11 is visible to the left eye and the right eye is determined by the barrier layer 61 of the parallax barrier 6.
  • the width in the x direction of the light reducing region 61a of the parallax barrier 6 can be the same as the width in the x direction of the light transmitting region 61b or wider than the width in the x direction of the light transmitting region 61b.
  • the width in the x direction of the dimming region 61a of the parallax barrier 6 is equal to the width in the x direction of the light transmitting region 61b.
  • the parallax barrier 6 can be located on the opposite side of the irradiator 4 with respect to the display panel 5.
  • the light transmissive region 61 b is a portion that transmits light incident on the barrier layer 61 of the parallax barrier 6.
  • the translucent region 61b may transmit light with a transmittance equal to or higher than the first predetermined value.
  • the first predetermined value may be approximately 100%, for example, or may be a value less than 100%. If the image light emitted from the first active area 52 is in a range where the image light can be satisfactorily viewed, the first predetermined value may be a value of 100% or less, for example, 80% or 50%.
  • the dimming region 61a is a portion that blocks light that enters the parallax barrier 6 and hardly transmits it.
  • the dimming area 61a blocks the image displayed in the first active area 52 of the display panel 5 from reaching the user's eyes.
  • the dimming area 61a may block light with a transmittance equal to or lower than the second predetermined value.
  • the second predetermined value may be approximately 0%, for example, or may be a value close to 0%, such as greater than 0%, 0.5%, 1%, or 3%.
  • the first predetermined value may be a value that is several times greater than the second predetermined value, for example, 10 times greater.
  • the dimming areas 61a and the translucent areas 61b are alternately arranged in the direction along the xy plane.
  • the line indicating the boundary between the light reducing region 61a and the light transmitting region 61b extends in a direction inclined at a predetermined angle ⁇ with respect to the y direction.
  • the line indicating the boundary between the dimming area 61a and the translucent area 61b is also referred to as a boundary line.
  • the predetermined angle ⁇ is also referred to as a barrier tilt angle. ⁇ may be an angle greater than 0 degrees and less than 90 degrees. If the boundary line coincides with the arrangement direction of the subpixels 11 along the y direction in FIG.
  • the controller 7 is connected to each component of the image display system 1 and controls each component.
  • the controller 7 is configured as a processor, for example.
  • the controller 7 may include one or more processors.
  • the processor may include a general-purpose processor that reads a specific program and executes a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific IC (ASIC: Application Specific Circuit).
  • the processor may include a programmable logic device (PLD: Programmable Logic Device).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the controller 7 may be one of SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, and SiP (System-In-a-Package).
  • the controller 7 includes a storage unit, and may store various information or a program for operating each component of the image display system 1 in the storage unit.
  • the storage unit may be configured by, for example, a semiconductor memory.
  • the image display system 1 is configured as described above. Thereby, the controller 7 can display a parallax image in the first active area 52 of the display panel 5 and can display a planar image in the second active area 53.
  • FIG. 5 shows the first active area 52 viewed from the left eye of the user when the user is at an appropriate viewing distance.
  • the appropriate viewing distance is the distance with the least crosstalk when the parallax image is observed by the image display device 3.
  • crosstalk means that an image displayed for the right eye enters the left eye, and an image displayed for the left eye enters the right eye.
  • the first region 52 a divided by a two-dot chain line is a region that is visible to the user's left eye via the light-transmitting region 61 b of the parallax barrier 6.
  • the second area 52b is an area that is blocked by the dimming area 61a of the parallax barrier 6 and cannot be seen by the user's left eye.
  • the boundary indicated by the two-dot chain line in FIG. 5 is the boundary between the dimming area 61a and the translucent area 61b of the parallax barrier 6 and the active area 51 from the point of the appropriate viewing distance where the left eye of the user is placed. It can be said that it was projected above.
  • "projection” is formed by connecting all points on the object from a certain reference point outside the target object with a straight line along the optical path, and the intersection of the straight line and the plane on which the object is projected. Means a figure to be made. Further, “project” means that the projection of the object is formed on a plane.
  • the straight line connecting the reference point and the point on the object is refracted, deflected, etc. by the optical effect of the optical element. It shall be along the optical path.
  • the user's right eye is blocked by the light-reducing area 61a of the parallax barrier 6 and visually recognizes the first area 52a. I can't. Further, the right eye of the user can visually recognize the second region 52b through the light transmitting region 61b of the parallax barrier 6.
  • the controller 7 displays an image for the left eye and an image for the right eye having parallax with each other in each of the first region 52a visible from the left eye and the second region 52b visible from the right eye.
  • An image to be projected onto the left eye is referred to as a left eye image
  • an image to be projected onto the right eye is referred to as a right eye image.
  • the left eye image is the first image.
  • the right eye image is the second image.
  • the image display system 1 separates the light beam of the left eye image visually recognized by the user's left eye and the light beam of the right eye image visually recognized by the user's right eye by the parallax barrier 6.
  • the parallax barrier 6 causes the left eye image from the first region 52a to reach the user's left eye, and causes the right eye image from the second region 52b to reach the user's right eye, thereby allowing the user's field of vision to be reached.
  • an image recognized as three-dimensional is displayed.
  • each of the first region 52a and the second region 52b has a width in the x direction for three subpixels.
  • the subpixels 11 are numbered 1 to 6 for explanation.
  • the sub-pixels 11 having the numbers 1 to 3 display the left eye image because the first region 52a includes an area of 1 ⁇ 2 or more.
  • the sub-pixels 11 having the numbers 4 to 6 display the right-eye image because the second region 52b includes an area of 1 ⁇ 2 or more.
  • the display of the image is controlled by the controller 7.
  • the position of the user's eyes may move.
  • the positions of the first area 52a and the second area 52b on the first active area 52 change.
  • the position of the parallax barrier 6 viewed from the user's eyes located at the appropriate viewing distance is The one active area 52 is apparently displaced in the right direction (negative x direction).
  • the first region 52a and the second region 52b can be displaced rightward as shown in FIG.
  • the controller 7 acquires the position of the user's eye detected by the detection device 2 and displays the left eye image and the right eye image on the first active area 52 based on the position of the user's eye. 11 is switched. In the example of FIG. 6, the controller 7 displays the left eye image on the subpixels 11 with numbers 2 to 4 and displays the right eye image on the subpixels 11 with numbers 5, 6, and 1. Accordingly, the user can observe an appropriate parallax image on the first active area 52 even when the position of the eye with respect to the display panel 5 changes. That is, the user can continue to view the image that is visually recognized as a three-dimensional image.
  • the controller 7 can change the amount of parallax between the left eye image and the right eye image. Thereby, the distance recognized by the user of the parallax image displayed in the first active area 52 can be changed.
  • the controller 7 can change the amount of parallax so that the parallax image is viewed farther than the positions of the first active area 52 and the second active area 53.
  • the controller 7 displays a planar image (two-dimensional image) on the second active area 53 of the display panel 5.
  • the planar image is the third image.
  • the second active area 53 does not overlap with the parallax barrier 6.
  • the image light emitted from all the subpixels 11 reaches the left and right eyes of the user without being blocked.
  • the resolution of the planar image displayed on the display panel 5 is transmitted to the user's eyes without lowering.
  • the parallax image and the planar image are displayed on the same display panel 5 while maintaining the resolution of the planar image displayed on the display panel 5. be able to.
  • the area of the parallax barrier 6 is smaller than the area of the display panel 5. As shown in FIG. 7, the area of the parallax barrier 6 may be equal to the area of the display panel 5. In the front view of FIG. 7, for the sake of explanation, the solid line indicating the outer edge of the parallax barrier 6 is drawn outside the broken line indicating the outer edge of the display panel 5.
  • the parallax barrier 6 is positioned so as to overlap the first active area 52 and the second active area 53 when viewed from the user side. In this case, the barrier layer 61 is formed only in the third region 63 of the parallax barrier 6 facing the first active area 52.
  • the barrier layer 61 is not formed on the transparent substrate 62 in the fourth region 64 of the parallax barrier 6 facing the second active area 53.
  • the fourth region 64 of the parallax barrier 6 transmits light rays from the planar image displayed in the second active area 53 when viewed from the user side.
  • the image light emitted from all the subpixels 11 passes through the base material 62 and reaches the left and right eyes of the user. Thereby, the same effect as the case where the parallax barrier 6 shown in FIG. 2 is used is obtained.
  • the parallax barrier 6 can be positioned on the irradiator 4 side with respect to the display panel 5 as shown in FIG. 8.
  • FIG. 8 is a view of the display panel 5 and the parallax barrier 6 as viewed from the user side.
  • the barrier layer 61 of the parallax barrier 6 is formed on the irradiator 4 side.
  • the parallax barrier 6 can define the direction of light rays that reach the left and right eyes of the user from a predetermined area of the first active area 52 of the display panel 5. Thereby, the same effect as the case where the parallax barrier 6 shown in FIG. 2 is used is obtained.
  • the boundary line between the light reduction region 61 a and the light transmission region 61 b extends in an oblique direction with respect to the x direction and the y direction.
  • the boundary line between the dimming area 61a and the translucent area 61b may be configured to extend in the y direction, which is the direction in which the subpixels 11 are arranged. That is, the barrier inclination angle ⁇ may be 0 degree. In this case, moire of the display image may be recognized, but the effect of displaying a stereoscopic image in the first active area 52 can be obtained.
  • the parallax barrier 6 is configured by patterning a resin black matrix or metal on a substrate, but is not limited thereto.
  • the parallax barrier 6 may be configured with a liquid crystal shutter.
  • the liquid crystal shutter can control the light transmittance according to the applied voltage.
  • the liquid crystal shutter may be composed of a plurality of pixels and may control the light transmittance in each pixel.
  • the liquid crystal shutter can form a region having a high light transmittance or a region having a low light transmittance in an arbitrary shape.
  • the parallax barrier 6 includes a shutter panel that can be changed between a light transmission state and a light reduction state for each minute region.
  • the shutter panel includes a MEMS shutter panel employing a MEMS (Micro Electro Mechanical System) shutter in addition to the liquid crystal shutter.
  • MEMS Micro Electro Mechanical System
  • the controller 7 may control the position of the parallax barrier 6 that is a liquid crystal shutter based on the position of the user's eyes detected by the detection device 2.
  • the parallax barrier 6, which is a liquid crystal shutter can dynamically change the light ray directions of the left eye image and the right eye image. Thereby, instead of switching the display image of the sub-pixel 11 between the right eye image and the left eye image, the first active area is changed by changing the positions of the light reduction area 61a and the light transmission area 61b of the parallax barrier 6.
  • the stereoscopic view of the parallax image displayed in the area 52 can be maintained.
  • the controller 7 controls the display of the sub-pixel 11 of the display panel 5 to be either the right-eye image or the left-eye image based on the position of the user's eye detected by the detection device 2. It was supposed to be. However, when the relationship between the display panel 5 and the position of the user's eyes is almost fixed, the detection device 2 is not necessary. In that case, the controller 7 does not need to switch the right eye image and the left eye image for the subpixel 11.
  • the width in the x direction of the light reducing region 61a and the light transmitting region 61b of the parallax barrier 6 illustrated above is assumed to be equal.
  • the translucent area 61b can be made narrower than the dimming area 61a.
  • the area on the first active area 52 where the left eye can visually recognize is narrower than the first area 52a of the above embodiment.
  • the region on the first active area 52 where the right eye can be visually recognized is narrower than the second region 52b.
  • FIG. 9 shows an image display system 1A according to one of a plurality of embodiments.
  • the image display device 3 has the parallax barrier 6 as an optical element.
  • the image display device 3A of the image display system 1A can include a lenticular lens 9 as an optical element instead of the parallax barrier 6.
  • the lenticular lens 9 can be configured by arranging minute elongated semi-cylindrical cylindrical lenses 10 extending in an oblique direction with respect to the x direction and the y direction.
  • the image display system 1A shown in FIG. 9 is of a type in which the user views the display panel 5 directly.
  • the display surface 71 in the space visually recognized by the user matches the active area 51.
  • the lenticular lens 9 overlaps the first active area 52 of the display panel 5.
  • the regions on the first active area 52 of the display panel 5 that can be viewed from the left eye and the right eye of the user located at the appropriate viewing distance can be the first region 52a and the second region 52b.
  • the lenticular lens 9 deflects at least a part of the image light of the left eye image emitted from the first region 52a of the display panel 5 toward the left eye of the user.
  • the lenticular lens 9 deflects at least a part of the image light of the right eye image emitted from the second region 52b of the display panel 5 toward the right eye of the user located at an appropriate viewing distance. That is, the lenticular lens 9 defines the light beam directions of the left eye image and the right eye image.
  • the image display system 1 defines the light beam of the left eye image visually recognized by the user's left eye and the light beam of the right eye image visually recognized by the user's right eye by the lenticular lens 9.
  • the same effect as that obtained when the parallax barrier 6 is used can be obtained.
  • the display positions of the sub-pixels 11 of the left eye image and the right eye image on the active area 51 take into consideration effects such as refraction and deflection of image light by the cylindrical lenses 10 of the lenticular lens 9.
  • the image display system 1 ⁇ / b> B can be mounted on the head-up display 100.
  • the image display system 1B has a configuration similar to that of the image display system 1 in FIG. 1 except that the user does not directly look at the display panel.
  • the head-up display 100 is also referred to as HUD (Head Up Display).
  • the HUD 100 includes an image display system 1 ⁇ / b> B, an optical member 110, and a projection member 120 having a projection surface 130.
  • the optical member 110 and the projection target member 120 are included in an optical system that projects an image displayed in the active area 51 so as to form a virtual image in the visual field of the user.
  • the optical member 110 and the projection member 120 may be collectively referred to simply as an optical system.
  • the optical system is located on the side of the display panel 5 and the parallax barrier 6 where the user's eyes are arranged on the optical path of the image light.
  • the HUD 100 causes the image light emitted from the image display system 1 ⁇ / b> B to reach the projection target member 120 via the optical member 110.
  • the HUD 100 causes the image light reflected by the projection member 120 to reach the left eye and right eye of the user. That is, the HUD 100 transmits the image light of the left eye image and the right eye image displayed in the first active area 52 of the image display system 1B along the optical path 140 indicated by the broken line, respectively, to the left eye and the right eye of the user.
  • the HUD 100 advances the planar image displayed in the second active area 53 of the image display system 1B to both the left eye and the right eye of the user along the optical path 140 indicated by the broken line.
  • the user can visually recognize the image light that has reached along the optical path 140 as a virtual image 150.
  • the controller 7 of the image display system 1 can provide a parallax image according to the movement of the user by controlling the display of the display panel 5 according to the positions of the left eye and the right eye of the user.
  • the display surface 71 is located at a position where the virtual image 150 is displayed.
  • the position where the virtual image 150 is displayed is a position where the user visually perceives the image displayed in the active area 51 as a virtual image.
  • the HUD 100 projects an image displayed on the active area 51 of the display panel 5 onto the display surface 71 via an optical system that forms a virtual image from a point of an appropriate viewing distance where the user's eyes are arranged.
  • the planar image displayed in the second active area 53 is visually recognized as an image on the display surface 71 by the user.
  • the parallax image displayed on the first active area 52 is recognized by the user so as to have further depth from the display surface 71 due to the parallax provided by the left eye image and the right eye image.
  • the HUD 100 may be mounted on the moving body 8.
  • a part of the configuration of the HUD 100 may be shared with other devices and parts included in the moving body 8.
  • the moving body 8 may also use the windshield as the projection member 120 of the HUD 100.
  • FIG. 12 is a diagram showing an example of image display on the display panel 5 when an image is displayed using the HUD 100 mounted on the moving body 8 such as a vehicle.
  • a direction indication in front of the moving body 8 is displayed in the first active area 52 of the display panel 5.
  • the second active area 53 information on the speed meter of the moving body 8 is displayed. Since the image of the speedometer of the moving body 8 displayed in the second active area 53 is visually recognized by the user without being blocked by the parallax barrier 6, the resolution of the planar image can be maintained.
  • the image indicating the direction indication displayed in the first active area 52 gives the user a sense of distance according to the position of changing the direction of the road ahead by giving parallax to the left eye image and the right eye image. Can be given.
  • the HUD 100 mounted on the moving body 8 such as a vehicle it is preferable to display various meter information such as a speed meter as a planar image at the bottom.
  • various meter information such as a speed meter
  • the controller 7 can adjust the amount of parallax between the left eye image and the right eye image so that the parallax image is visually recognized farther than the display surface 71 on which the planar image is displayed.
  • “Moving object” in the present disclosure includes vehicles, ships, and aircraft.
  • “Vehicle” in the present disclosure includes, but is not limited to, automobiles and industrial vehicles, and may include railway vehicles, domestic vehicles, and fixed-wing aircraft that run on the runway.
  • the automobile includes, but is not limited to, a passenger car, a truck, a bus, a two-wheeled vehicle, a trolley bus, and the like, and may include other vehicles that travel on the road.
  • Industrial vehicles include industrial vehicles for agriculture and construction. Industrial vehicles include but are not limited to forklifts and golf carts. Industrial vehicles for agriculture include, but are not limited to, tractors, tillers, transplanters, binders, combines, and lawn mowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, crane trucks, dump trucks, and road rollers. Vehicles include those that travel by human power.
  • the classification of the vehicle is not limited to the above.
  • an automobile may include an industrial vehicle capable of traveling on a road, and the same vehicle may be included in a plurality of classifications.
  • Ships in the present disclosure include marine jets, boats, and tankers.
  • the aircraft in the present disclosure includes fixed wing aircraft and rotary wing aircraft.
  • each component, each step, etc. can be rearranged so as not to be logically contradictory, and a plurality of components, etc. can be combined into one or divided. .
  • descriptions such as “first” and “second” are identifiers for distinguishing the configuration.
  • the configurations distinguished by the description of “first” and “second” in the present disclosure can exchange numbers in the configurations.
  • the first direction can exchange the identifiers “first” and “second” with the second direction.
  • the identifier exchange is performed at the same time.
  • the configuration is distinguished even after the identifier is exchanged.
  • the identifier may be deleted.
  • the configuration from which the identifier is deleted is distinguished by a code.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

画像表示装置は、表示パネルと、コントローラと、光学素子とを含む。表示パネルは、第1アクティブエリアおよび第1アクティブエリアと異なる第2アクティブエリアを有する。コントローラは、互いに視差を有する第1画像および第2画像を含む視差画像を第1アクティブエリアに表示させ、第2アクティブエリアに第3画像を表示させる。光学素子は、利用者から見たとき、表示パネルの少なくとも第1アクティブエリアに重なり、第1画像および第2画像の光線方向を規定する。光学素子は、利用者の第1眼に第1画像を到達させ、利用者の第2眼に第2画像を到達させることで、当該利用者に3次元画像を視認させる。

Description

画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体 関連出願の相互参照
 本出願は、2018年5月23日に出願された日本国特許出願2018-098817号の優先権を主張し、この先の出願の開示全体をここに参照のために取り込む。
 本開示は、画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体に関する。
 従来、眼鏡を用いずに3次元表示を行うために、表示パネルから射出される画像光の一部を右眼に到達させ、表示パネルから射出される画像光の他の一部を左眼に到達させる視差バリア等の光学素子を備える画像表示装置が知られている(例えば、特許文献1参照)。そのような画像表示装置は、左眼と右眼とに互いに視差のある画像である視差画像を到達させることにより、利用者に対して3次元と認識される画像を視認させる。
米国特許出願公開第2015/0362740号明細書
 本開示の一実施形態に係る画像表示装置は、表示パネルと、コントローラと、光学素子とを含む。表示パネルは、第1アクティブエリアおよび前記第1アクティブエリアと異なる第2アクティブエリアを有する。コントローラは、互いに視差を有する第1画像および第2画像を含む視差画像を前記第1アクティブエリアに表示させ、前記第2アクティブエリアに第3画像を表示させる。光学素子は、利用者から見たとき、前記表示パネルの少なくとも前記第1アクティブエリアに重なり、前記第1画像および前記第2画像の光線方向を規定する。前記光学素子は、前記利用者の第1眼に前記第1画像を到達させ、前記利用者の第2眼に前記第2画像を到達させることにより、当該利用者に3次元画像を視認させる。
 本開示の一実施形態に係る画像表示システムは、表示パネルと、検出装置と、コントローラと、光学素子とを含む。表示パネルは、第1アクティブエリアおよび前記第1アクティブエリアと異なる第2アクティブエリアを有する。検出装置は、利用者の眼の位置を検出する。コントローラは、互いに視差を有する第1画像および第2画像を含む視差画像を前記第1アクティブエリアに表示させ、前記第2アクティブエリアに第3画像を表示させる。光学素子は、前記利用者から見たとき、表示パネルの少なくとも前記第1アクティブエリアに重なり、前記第1画像および前記第2画像の光線方向を規定する。前記コントローラは、前記利用者の眼の位置に基づいて、前記光学素子を介して、前記利用者の第1眼が視認可能な前記第1アクティブエリアの第1領域に前記第1画像を表示させ、前記利用者の第2眼が視認可能な前記第1アクティブエリアの前記第1領域と異なる第2領域に前記第2画像を表示させることにより、前記利用者に3次元画像を視認させる。
 本開示の一実施形態に係るヘッドアップディスプレイは、表示パネルと、コントローラと、光学素子と、光学系とを含む。表示パネルは、第1アクティブエリアおよび前記第1アクティブエリアと異なる第2アクティブエリアを有する。コントローラは、互いに視差を有する第1画像および第2画像を含む視差画像を前記第1アクティブエリアに表示させ、前記第2アクティブエリアに第3画像を表示させる。光学素子は、利用者から見たとき、表示パネルの少なくとも前記第1アクティブエリアに重なり、前記第1画像および前記第2画像の光線方向を規定する。光学系は、前記第1アクティブエリアおよび前記第2アクティブエリアの虚像を投影する。前記光学素子は、前記利用者の第1眼に前記第1画像を到達させ、前記利用者の第2眼に前記第2画像を到達させることにより、当該利用者に3次元画像を虚像として視認させる。
 本開示の一実施形態に係る移動体は、ヘッドアップディスプレイを備える。ヘッドアップディスプレイは、表示パネルと、コントローラと、光学素子と、光学系とを含む。表示パネルは、第1アクティブエリアおよび前記第1アクティブエリアと異なる第2アクティブエリアを有する。コントローラは、互いに視差を有する第1画像および第2画像を含む視差画像を前記第1アクティブエリアに表示させ、前記第2アクティブエリアに第3画像を表示させる。光学素子は、利用者から見たとき、表示パネルの少なくとも前記第1アクティブエリアに重なり、前記第1画像および前記第2画像の光線方向を規定する。光学系は、前記第1アクティブエリアおよび前記第2アクティブエリアの虚像を投影する。前記光学素子は、前記利用者の第1眼に前記第1画像を到達させ、前記利用者の第2眼に前記第2画像を到達させることにより、当該利用者に3次元画像を虚像として視認させる。
図1は、一実施形態に係る画像表示装置の概略構成図である。 図2は、表示パネルおよび視差バリアの第1の構成例を説明する平面図(上図)および正面図(下図)である。 図3は、表示パネルのアクティブエリアの拡大図である 図4は、視差バリアのバリア層の構成例を示す図である。 図5は、表示パネルのサブピクセルの表示例を説明する図である。 図6は、表示パネルのサブピクセルの表示例を説明する図である。 図7は、表示パネルおよび視差バリアの第2の構成例を説明する平面図(上図)および正面図(下図)である。 図8は、表示パネルおよび視差バリアの第3の構成例を説明する平面図(上図)および正面図(下図)である。 図9は、光学素子をレンチキュラレンズとした場合の画像表示装置の概略構成図である。 図10は、一実施形態に係るヘッドアップディスプレイ(HUD)の概略構成図である。 図11は、図10に示すヘッドアップディスプレイ(HUD)を搭載した移動体の例を示す図である。 図12は、ヘッドアップディスプレイの表示パネルの表示例を示す図である。
 同一の画像表示装置を用いて、3次元画像を表示するための視差画像と2次元画像である平面画像とを表示したい場合がある。表示パネルの全面に視差バリア等の光学素子が設けられている表示装置に平面画像を表示すると、利用者の左眼および右眼に、それぞれ一部のサブピクセルからの画像光のみが到達する。このため、表示パネルに表示される平面画像を直視する場合に比べ表示される画像の解像度が低下する。
 表示パネルに表示される平面画像の解像度を維持しながら、平面画像および視差画像を表示することが好ましい。
 以下、本発明の実施形態について、図面を参照して説明する。以下の説明で用いられる図は模式的な図である。図面上の寸法比率等は現実の寸法比率等とは必ずしも一致していない。
[画像表示システムの構成]
 本開示の複数の実施形態の1つに係る画像表示システム1は、図1に示されるように、検出装置2および画像表示装置3を含んで構成される。図1は、画像表示システム1を、この画像表示装置3により画像を観察する利用者の上方から見た様子を示している。
(検出装置)
 検出装置2は、利用者の眼の位置を検出し、後述する画像表示装置3に出力する。検出装置2は、例えば、カメラを備えてよい。検出装置2は、カメラによって利用者の顔を撮影してよい。検出装置2は、カメラの撮影画像から第1眼である左眼および第2眼である右眼の少なくとも一方の位置を検出してよい。検出装置2は、1個のカメラの撮影画像から、左眼および右眼の少なくとも一方の位置を3次元空間の座標として検出してよい。検出装置2は、2個以上のカメラの撮影画像から、左眼および右眼の少なくとも一方の位置を3次元空間の座標として検出してよい。
 検出装置2は、カメラを備えず、装置外のカメラに接続されていてよい。検出装置2は、装置外のカメラからの信号を入力する入力端子を備えてよい。装置外のカメラは、入力端子に直接的に接続されてよい。装置外のカメラは、共有ネットワークを介して入力端子に間接的に接続されてよい。カメラを備えない検出装置2は、カメラが映像信号を入力する入力端子を備えてよい。カメラを備えない検出装置2は、入力端子に入力された映像信号から左眼および右眼の少なくとも一方の位置を検出してよい。
 検出装置2は、例えば、センサを備えてよい。センサは、超音波センサまたは光センサ等であってよい。検出装置2は、センサによって利用者の頭部の位置を検出し、頭部の位置に基づいて左眼および右眼の少なくとも一方の位置を検出してよい。検出装置2は、1個または2個以上のセンサによって、左眼および右眼の少なくとも一方の位置を3次元空間の座標として検出してよい。
 検出装置2は、左眼および右眼の少なくとも一方の位置の検出結果に基づいて、眼球配列方向に沿った、左眼および右眼の移動距離を検出してよい。
 画像表示システム1は、検出装置2を備えなくてよい。画像表示システム1が検出装置2を備えない場合、画像表示装置3は、画像表示システム1の外部の検出装置からの信号の入力を受けてよい。外部の検出装置は、画像表示装置3に入力する信号として電気信号および光信号を用いてよい。画像表示装置3のコントローラ7には、装置外の検出装置から取得した左眼および右眼の少なくとも一方の位置を示す位置座標が入力されてもよい。また、コントローラ7は、位置座標に基づいて、水平方向に沿った、左眼および右眼の移動距離を算出してよい。コントローラ7は、検出装置2から一方の眼の位置のみを取得する場合、使用者の眼間距離の情報または一般的な眼間距離の情報から、他方の眼の位置を推定しうる。
(画像表示装置)
 本開示の一実施形態において、画像表示装置3は、照射器4、表示パネル5、光学素子としての視差バリア6、及びコントローラ7を含んで構成される。
 照射器4は、表示パネル5の一方の面側に配置され、表示パネル5を面的に照射する。照射器4は、表示パネル5からみて利用者と反対側に配置される。照射器4は、光源、導光板、拡散板、拡散シート等を含んで構成されてよい。照射器4は、光源により照射光を射出し、導光板、拡散板、拡散シート等により照射光を表示パネル5の面方向に均一化する。照射器4は均一化された光を表示パネル5の方に出射する。
 表示パネル5は、例えば透過型の液晶表示パネルなどの表示パネルを採用しうる。本願において、表示パネル5の実際の画像が表示される領域をアクティブエリアとよぶ。表示パネル5は、種々な画像をアクティブエリア51に表示する。本開示において、利用者が視覚的に捉える空間での表示パネル5のアクティブエリア51を表示面71とする。利用者と表示パネル5のアクティブエリア51との間にレンズ、凹面鏡および/または凸面鏡等が介在せず、利用者が表示パネル5のアクティブエリア51を直接視覚的に捉えるとき、表示面71は、表示パネル5のアクティブエリア51の位置と一致する。利用者が表示パネル5のアクティブエリア51を虚像として捉えるとき、表示面71は、表示パネル5のアクティブエリア51の虚像の位置と一致する。利用者が表示パネル5のアクティブエリア51を虚像として捉えるとき、利用者は、表示パネル5の実体が無い空間において、表示面71上のアクティブエリア51を視覚的に捉える。
 図2に一構成例を示すように、表示パネル5と視差バリア6とは板状の部材とすることができる。表示パネル5と視差バリア6とは、一体として構成することができる。図2において、説明のため、視差バリア6の正負のx方向、および、負のy方向の端部の位置を表示パネル5のそれらから、ずらして描いている。視差バリア6と表示パネル5とは、正負のx方向の端部および負のy方向の端部の位置は一致してよい。図2の構成例において、視差バリア6の面積は表示パネル5の面積よりも小さい。視差バリア6は、アクティブエリア51の一部である第1アクティブエリア52と重なる。視差バリア6は、アクティブエリア51の第1アクティブエリア52以外の部分に含まれる第2アクティブエリア53とは重ならない。第2アクティブエリア53は、第1アクティブエリア52と異なる。一実施形態において、第2アクティブエリア53は、利用者から見て第1アクティブエリア52の下側に設けることができる。
 液晶表示パネルは、一般に、液晶層およびカラーフィルタをガラス基板で挟んだ構造を有する。表示パネル5が透過型の液晶パネルの場合、アクティブエリア51は、表示パネル5の液晶層とカラーフィルタとの界面付近に相当する。アクティブエリア51は、図1および図2に示すように、表示パネル5の厚さ方向の中央付近に位置することができる。
 表示パネル5のアクティブエリア51は、図3に示されるように、第1方向(x方向)および第1方向に交わる第2方向に沿って格子配列される複数のサブピクセル11を含む。第2方向は第1方向に略直交する方向としうる。図3において、表示面71はアクティブエリア51に一致する。第1方向(x方向)は、利用者の両眼に視差を与える視差方向に対応する。利用者が通常の着席または直立した姿勢で表示パネル5を直接見るタイプの画像表示装置3において、第1方向は利用者から観た横方向または左右方向とすることができる。第2方向は利用者から観た縦方向または上下方向とすることができる。以下では、第1方向をx方向、第2方向をy方向として説明する。表示パネル5のアクティブエリア51を示す各図において、x方向は右から左へ向かう方向として示す。y方向は、上から下へ向かう方向として示す。また、x方向およびy方向に直交し、利用者の眼の側に向く方向をz方向とする。
 複数のサブピクセル11は、x方向およびy方向に格子状に配列されている。一実施形態において、サブピクセル11は、x方向よりもy方向に長い。各サブピクセル11はR(Red),G(Green),B(Blue)のいずれかの色に対応する。R,G,Bの3つのサブピクセル11は、一組として1つのピクセル12を構成することができる。図3において、ピクセル12の一つを、説明のため外周を強調して示す。1つのピクセル12は、1画素と呼びうる。1ピクセルのx方向の長さとy方向の長さとは、1:1に設定することができるが、これに限定されない。x方向は、例えば、1つのピクセル12を構成する複数のサブピクセル11が並ぶ方向である。x方向のサブピクセル11の配列を「行」と呼ぶ。y方向は、例えば、同じ色のサブピクセル11が並ぶ方向である。y方向のサブピクセル11の配列を「列」と呼ぶ。
 表示パネル5としては、透過型の表示パネルに限られず、自発光型の表示パネル等他の表示パネルを使用することもできる。透過型の表示パネルは、液晶パネルの他に、MEMS(Micro Electro Mechanical Systems)シャッター式の表示パネルを含む。自発光型の表示パネルは、有機EL(electro-luminescence)、および無機ELの表示パネルを含む。表示パネル5として、自発光型の表示パネルを使用した場合、照射器4は不要となる。
 視差バリア6は、利用者から見たとき、表示パネル5の第1アクティブエリア52に重なり、サブピクセル11から射出される視差画像を表示する画像光の光線方向を規定する光学素子である。「光線方向を規定する」とは、光線の進む方向が特定の方向に限定されるように規定することを意味する。視差バリア6は、サブピクセル11から射出される画像光の光線方向を制限する。視差バリア6は、例えば、図2に示されるように、バリア層61および透光性を有する板状の基材62を含む。バリア層61は、基材62の表示パネル5とは異なる側に形成することができる。例えば、基材62はガラスである。例えば、バリア層61は、ガラスの基材62上に、樹脂ブラックマトリクスまたは金属をパターニングして構成される。パターニングされた樹脂ブラックマトリクスまたは金属の表面は、透明保護膜で被覆することができる。代替的に、視差バリア6は基材62を含まず、表示パネル5のガラス基板上にバリア層61を直接形成してよい。
 図4に示すように、バリア層61は、複数の減光領域61aと複数の透光領域61bとを有する。例えば、ガラス製の基材62上に形成された樹脂または金属層が形成された領域は、減光領域61aとなる。基材62上の樹脂または金属層が形成されていない領域は、透光領域61bとなる。複数の減光領域61aおよび複数の透光領域61bは、所定方向に伸びる帯状(スリット状)としうる。複数の減光領域61aおよび複数の透光領域61bは、x方向に沿って交互に並びうる。複数の減光領域61aは互いに略等しい幅を有して、x方向に周期的に並ぶ。複数の透光領域61bは、互いに略等しい幅を有して、x方向に沿って周期的に並ぶ。サブピクセル11から射出される画像光は、視差バリア6のバリア層61によって、左眼および右眼のそれぞれに対して視認可能な範囲が定まる。視差バリア6の減光領域61aのx方向の幅は、透光領域61bのx方向の幅と同じ、または、透光領域61bのx方向の幅よりも広くすることができる。以下の説明において、視差バリア6の減光領域61aのx方向の幅は、透光領域61bのx方向の幅と等しいものとする。視差バリア6は、図1および図2に示されるように、表示パネル5に対して照射器4の反対側に位置することができる。
 透光領域61bは、視差バリア6のバリア層61に入射する光を透過させる部分である。透光領域61bは、第1所定値以上の透過率で光を透過させてよい。第1所定値は、例えば略100%であってよいし、100%未満の値であってよい。第1アクティブエリア52から射出される画像光が良好に視認できる範囲であれば、第1所定値は、100%以下の値、例えば、80%または50%などとしうる。減光領域61aは、視差バリア6に入射する光を遮って殆ど透過させない部分である。言い換えれば、減光領域61aは、表示パネル5の第1アクティブエリア52に表示される画像が、利用者の眼に到達することを遮る。減光領域61aは、第2所定値以下の透過率で光を遮ってよい。第2所定値は、例えば略0%であってよいし、0%より大きく、0.5%、1%または3%等、0%に近い値であってよい。第1所定値は、第2所定値よりも数倍以上、例えば、10倍以上大きい値としうる。
 図4に示すように、減光領域61aと透光領域61bとは、xy平面に沿う方向に交互に配列される。一実施形態において、減光領域61aと透光領域61bとの間の境界を示す線は、y方向に対して所定角度θで傾斜する方向に延在する。減光領域61aと透光領域61bとの境界を示す線は、境界線ともいう。所定角度θは、バリア傾斜角ともいう。θは、0度より大きく90度より小さい角度であってよい。仮に、境界線が図4におけるy方向に沿うサブピクセル11の配列方向に一致する場合、サブピクセル11の配置または透光領域61bの寸法に含まれる誤差によって、表示画像においてモアレが認識されやすくなる。境界線が図4におけるy方向に対して0度以外の所定の角度を有する方向に延在する場合、サブピクセル11の配置または透光領域61bの寸法に含まれる誤差にかかわらず、表示画像においてモアレが認識されにくくなる。
 コントローラ7は、画像表示システム1の各構成要素に接続され、各構成要素を制御する。コントローラ7は、例えばプロセッサとして構成される。コントローラ7は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ7は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。コントローラ7は、記憶部を備え、記憶部に各種情報、または画像表示システム1の各構成部を動作させるためのプログラム等を格納してよい。記憶部は、例えば半導体メモリ等で構成されてよい。記憶部は、コントローラ7のワークメモリとして機能してよい。
 画像表示システム1は、上述のように構成されている。これにより、コントローラ7は、表示パネル5の第1アクティブエリア52に視差画像を表示し、第2アクティブエリア53に平面画像を表示することができる。
 図5および図6を用いて、視差画像の表示方法について説明する。図5は、利用者が適視距離にいるときの利用者の左眼から見た第1アクティブエリア52を示す。適視距離は、画像表示装置3により視差画像を観察するとき、最もクロストークが少ない距離である。この場合、クロストークとは、右眼用に表示される画像が左眼に入射し、および、左眼用に表示される画像が右眼に入射することを意味する。利用者の左眼から見たとき、二点鎖線により区分される第1領域52aは、視差バリア6の透光領域61bを介して、利用者の左眼が視認可能な領域である。第2領域52bは、視差バリア6の減光領域61aにより遮られて、利用者の左眼が視認できない領域である。
 図5の二点鎖線により示される境界は、視差バリア6の減光領域61aと透光領域61bとの間の境界を、利用者の左眼が配置される適視距離の点からアクティブエリア51上に射影したものということができる。本願において「射影」とは、目的とする物体外のある基準点からその物体上の全ての点を光路に沿って直線で結び、それらの直線とその物体が射影される平面との交点により形成される図形を意味する。また、「射影する」とは、その物体の射影を平面上に形成することを意味する。基準点と物体が射影される平面との間にレンズ、ミラー等の光学素子がある場合、基準点と物体上の点とを結ぶ直線は、光学素子の有する光学効果により屈折、偏向等を受ける光路に沿うものとする。
 視差バリア6の減光領域61aと透光領域61bとのx方向の幅が等しいとき、利用者の右眼は、視差バリア6の減光領域61aにより遮られて、第1領域52aを視認することができない。また、利用者の右眼は、視差バリア6の透光領域61bを介して、第2領域52bを視認することができる。
 コントローラ7は、左眼から視認可能な第1領域52aおよび右眼から視認可能な第2領域52bのそれぞれに、互いに視差を有する左眼用の画像および右眼用の画像を表示させる。左眼に投影するための画像を左眼画像、右眼に投影するための画像を右眼画像と呼ぶ。左眼画像は、第1画像である。右眼画像は第2画像である。画像表示システム1は、利用者の左眼に視認させる左眼画像の光線と、利用者の右眼に視認させる右眼画像の光線とを視差バリア6によって分離する。視差バリア6は、利用者の左眼に第1領域52aからの左眼画像を到達させ、利用者の右眼に第2領域52bからの右眼画像を到達させることにより、利用者の視界に対して3次元と認識される画像を表示する。
 図5の例において、第1領域52aおよび第2領域52bは、それぞれ、3サブピクセル分のx方向の幅を有する。図5では、説明のためサブピクセル11に1~6の番号を付している。番号1~3のサブピクセル11は、1/2以上の領域が第1領域52aに含まれるので、左眼画像を表示する。番号4~6のサブピクセル11は、1/2以上の領域が第2領域52bに含まれるので、右眼画像を表示する。画像の表示は、コントローラ7によって制御される。
 利用者が第1アクティブエリア52の視差画像を観察するとき、利用者の眼の位置が移動することがある。利用者の眼の位置が変わると、第1アクティブエリア52上での第1領域52aおよび第2領域52bの位置が変わる。例えば、利用者の眼が表示パネル5に対して相対的に左方向(正のx方向)に移動した場合、適視距離に位置する利用者の眼から見た視差バリア6の位置が、第1アクティブエリア52に対して、見かけ上右方向(負のx方向)に変位する。この場合、第1領域52aおよび第2領域52bは、図6に示すように右方向に変位しうる。
 コントローラ7は、検出装置2により検出された利用者の眼の位置を取得し、利用者の眼の位置に基づいて、第1アクティブエリア52上で左眼画像および右眼画像を表示させるサブピクセル11を切り替える。図6の例では、コントローラ7は、番号2~4のサブピクセル11に左眼画像を表示させ、番号5,6,1のサブピクセル11に右眼画像を表示させる。これによって、利用者は、表示パネル5に対する眼の位置が変わった場合でも、第1アクティブエリア52上に適切な視差画像を観察することが可能になる。すなわち、利用者は3次元画像と視認される画像を見続けることができる。
 また、コントローラ7は、左眼画像と右眼画像との視差量を変更することができる。これによって、第1アクティブエリア52に表示される視差画像の利用者が認識する距離を、変えることができる。コントローラ7は、視差画像が第1アクティブエリア52および第2アクティブエリア53の位置よりも遠くに視認されるように、視差量を変更することができる。
 一方、コントローラ7は、表示パネル5の第2アクティブエリア53に、平面画像(2次元画像)を表示させる。平面画像は、第3画像である。図2に示すように、第2アクティブエリア53は視差バリア6と重なっていない。このため、第2アクティブエリア53に表示される平面画像では、全てのサブピクセル11から発せられた画像光が、遮られること無く利用者の左右の眼に到達する。これによって、表示パネル5に表示される平面画像の解像度が低下すること無く、利用者の眼に伝達される。
 以上説明したように、本実施形態に係る画像表示システム1によれば、表示パネル5に表示される平面画像の解像度を維持しながら、視差画像と平面画像とを同一の表示パネル5に表示することができる。
 上記画像表示装置3において、視差バリア6の面積は表示パネル5の面積よりも小さいものとした。図7に示すように視差バリア6の面積は表示パネル5の面積と等しくてよい。図7の正面図において、説明のため、視差バリア6の外縁を示す実線を表示パネル5の外縁を示す破線より、外側に描いているが、両者は一致しているものとすることができる。視差バリア6は、利用者側からみたとき、第1アクティブエリア52および第2アクティブエリア53と重なって位置する。この場合、第1アクティブエリア52に対向する視差バリア6の第3領域63のみに、バリア層61が形成される。第2アクティブエリア53に対向する視差バリア6の第4領域64には、透明な基材62上にバリア層61を形成しない。視差バリア6の第4領域64は、利用者側からみたとき第2アクティブエリア53に表示される平面画像からの光線を透過させる。第2アクティブエリア53に表示された平面画像は、全てのサブピクセル11から発せられた画像光が、基材62を透過して利用者の左右の眼に到達する。これにより、図2に示した視差バリア6を用いた場合と同じ作用効果が得られる。
 視差バリア6は、図1、図2および図7に示される構成とは異なり、図8に示すように表示パネル5に対して照射器4側に位置することができる。図8は、表示パネル5と視差バリア6とを利用者側から見た図である。この場合、視差バリア6のバリア層61は、照射器4側に形成される。視差バリア6は、表示パネル5の第1アクティブエリア52の所定の領域から利用者の左右の眼に到達する光線方向を規定することができる。これにより、図2に示した視差バリア6を用いた場合と同じ作用効果が得られる。
 上記実施形態において、図4に示した視差バリア6の例では、減光領域61aおよび透光領域61bの境界線は、x方向およびy方向に対して斜め方向に延びるものとした。しかし、減光領域61aおよび透光領域61bの境界線は、サブピクセル11が配列される方向であるy方向に延びる構成も可能である。すなわち、バリア傾斜角θは0度でもよい。この場合、表示画像のモアレが認識される場合があるが、第1アクティブエリア52に立体画像を表示する効果は得られる。
 視差バリア6は、基板上に樹脂ブラックマトリクスまたは金属をパターニングして構成されるものとしたが、これに限られない。例えば、視差バリア6は、液晶シャッターで構成されてよい。液晶シャッターは、印加する電圧に応じて光の透過率を制御しうる。液晶シャッターは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッターは、光の透過率が高い領域または光の透過率が低い領域を任意の形状に形成しうる。視差バリア6は、微小領域ごとに透光状態と減光状態とで可変可能なシャッターパネルを含む。当該シャッターパネルは、液晶シャッターの他に、MEMS(Micro Electro Mechanical System)シャッターを採用したMEMSシャッターパネルを含む。
 視差バリア6が液晶シャッターで構成される場合、コントローラ7は、検出装置2により検出された利用者の眼の位置に基づいて、液晶シャッターである視差バリア6の位置を制御してよい。コントローラ7の制御により、液晶シャッターである視差バリア6は左眼画像および右眼画像の光線方向を動的に変更することができる。これにより、サブピクセル11の表示画像を右眼画像と左眼画像との間で切り替えることに代えて、視差バリア6の減光領域61aおよび透光領域61bの位置を変えることにより、第1アクティブエリア52に表示される視差画像の立体視を維持することができる。
 上記実施形態において、コントローラ7が、検出装置2により検出される利用者の眼の位置に基づいて表示パネル5のサブピクセル11の表示を右眼画像と左眼用画像との何れかに制御するものとした。しかし、表示パネル5と利用者の眼の位置との関係が、ほぼ固定的に定まっているような場合、検出装置2は不要になる。その場合、コントローラ7は、サブピクセル11に対して右眼画像と左眼画像との切り替えを行う必要はない。
 また、上記例示の視差バリア6の減光領域61aと透光領域61bとのx方向の幅は等しいとした。透光領域61bは減光領域61aよりも狭くすることができる。その場合、左眼が視認できる第1アクティブエリア52上の領域は、上記実施形態の第1領域52aよりも狭くなる。また、右眼が視認できる第1アクティブエリア52上の領域は、第2領域52bよりも狭くなる。その結果、第1アクティブエリア52に視差画像を表示したとき、利用者が視認できる画像のクロストークを低減することができる。
[光学素子にレンチキュラレンズを使用する例]
 図9に、複数の実施形態の1つに係る画像表示システム1Aが示される。図9において図1の画像表示システム1と同一または類似の構成要素には、同一の符号を付して説明を省略する。上述の各実施形態では、画像表示装置3が光学素子として視差バリア6を有するものとした。画像表示システム1Aの画像表示装置3Aは、光学素子として、視差バリア6に代えて、レンチキュラレンズ9を有することができる。この場合、レンチキュラレンズ9は、x方向およびy方向に対して、斜め方向に延びる微細な細長い半円筒型のシリンドリカルレンズ10を配列して構成されうる。
 図9の画像表示システム1Aは、利用者が表示パネル5を直接見るタイプのものである。この場合、利用者が視覚的に捉える空間での表示面71は、アクティブエリア51に一致する。レンチキュラレンズ9は、表示パネル5の第1アクティブエリア52と重なる。適視距離に位置する利用者の左眼および右眼からそれぞれ視認可能な表示パネル5の第1アクティブエリア52上の領域を第1領域52aおよび第2領域52bとすることができる。レンチキュラレンズ9は、表示パネル5の第1領域52aから射出された左眼画像の画像光の少なくとも一部を利用者の左眼に向けて偏向する。レンチキュラレンズ9は、表示パネル5の第2領域52bから射出された右眼画像の画像光の少なくとも一部を適視距離に位置する利用者の右眼に向けて偏向する。すなわち、レンチキュラレンズ9は、左眼画像および右眼画像の光線方向を規定する。画像表示システム1は、利用者の左眼に視認させる左眼画像の光線と、利用者の右眼に視認させる右眼画像の光線とをレンチキュラレンズ9によって規定する。
 光学素子としてレンチキュラレンズ9を用いた場合も、視差バリア6を用いた場合と類似の効果が得られる。アクティブエリア51上の左眼画像および右眼画像の各サブピクセル11の表示位置は、レンチキュラレンズ9の各シリンドリカルレンズ10による画像光の屈折、偏向等の効果が考慮される。
[ヘッドアップディスプレイ]
 複数の実施形態の1つにおいて、図10に示されるように、画像表示システム1Bは、ヘッドアップディスプレイ100に搭載されうる。画像表示システム1Bは、利用者が表示パネルを直視しない点を除き、図1の画像表示システム1と類似の構成を有する。ヘッドアップディスプレイ100は、HUD(Head Up Display)ともいう。HUD100は、画像表示システム1Bと、光学部材110と、被投影面130を有する被投影部材120とを備える。光学部材110および被投影部材120は、アクティブエリア51に表示される画像を利用者の視野に虚像を結像するように投影する光学系に含まれる。本開示において、光学部材110および被投影部材120をまとめて、単に光学系と呼ぶ場合がある。光学系は、画像光の光路上において、表示パネル5および視差バリア6の利用者の眼の配置される側に位置する。HUD100は、画像表示システム1Bから射出される画像光を、光学部材110を介して被投影部材120に到達させる。HUD100は、被投影部材120で反射させた画像光を、利用者の左眼および右眼に到達させる。つまり、HUD100は、破線で示される光路140に沿って、画像表示システム1Bの第1アクティブエリア52に表示される左眼画像および右眼画像の画像光を、それぞれ利用者の左眼および右眼に進行させる。さらに、HUD100は、破線で示される光路140に沿って、画像表示システム1Bの第2アクティブエリア53に表示される平面画像を、利用者の左眼および右眼の双方に進行させる。利用者は、光路140に沿って到達した画像光を、虚像150として視認しうる。画像表示システム1のコントローラ7は、利用者の左眼および右眼の位置に応じて、表示パネル5の表示を制御することによって、利用者の動きに応じた視差画像を提供しうる。
 HUD100において、表示面71は、虚像150の表示される位置に位置する。虚像150が表示される位置とは、アクティブエリア51に表示される画像を、利用者が虚像として視覚的に捉える位置である。HUD100は、利用者の眼が配置される適視距離の点から虚像を結像する光学系を介して、表示パネル5のアクティブエリア51に表示される画像を表示面71上へ射影する。第2アクティブエリア53に表示される平面画像は、利用者により表示面71上の画像として視認される。第1アクティブエリア52上に表示される視差画像は、左眼画像および右眼画像が与える視差により、表示面71からさらに奥行きを有するように利用者に認識される。
 図11に示されるように、HUD100は、移動体8に搭載されてよい。HUD100は構成の一部を、当該移動体8が備える他の装置、部品と兼用してよい。例えば、移動体8は、ウインドシールドをHUD100の被投影部材120として兼用してよい。
 図12は、車両等の移動体8に搭載されるHUD100を用いて画像を表示する場合の表示パネル5での画像表示の一例を示す図である。この場合、表示パネル5の第1アクティブエリア52には、移動体8の前方での方向指示が表示される。第2アクティブエリア53には、移動体8の速度メータの情報が表示される。第2アクティブエリア53に表示される移動体8の速度メータの画像は、視差バリア6によって遮光されることなく利用者に視認されるので、平面画像の解像度を維持することができる。第1アクティブエリア52に表示される方向指示を示す画像は、左眼画像および右眼画像に視差を与えることにより、利用者に対して前方の道路の方向変更をする位置に応じた距離感を与えることができる。
 車両等の移動体8に搭載されるHUD100では、速度メータのような各種メータ情報は下部に平面画像として表示することが好適である。また、外部の光景と重畳される画像は奥行きを有する視差画像として表示することが好適である。コントローラ7は、平面画像が表示される表示面71よりも遠くに視差画像が視認されるように、左眼画像および右眼画像の視差量を調整することができる。
 本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車および産業車両を含むが、これに限られず、鉄道車両および生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
 本開示に係る構成は、以上説明してきた実施形態にのみ限定されるものではなく、幾多の変形または変更が可能である。例えば、各構成部、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の構成部等を1つに組み合わせたり、或いは分割したりすることが可能である。
 本開示において「第1」および「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」および「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1方向は、第2方向と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」および「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠、大きい番号の識別子が存在することの根拠に利用してはならない。
 1,1A,1B   画像表示システム
 2   検出装置
 3,3A   画像表示装置
 4   照射器
 5   表示パネル
 6   視差バリア(光学素子)
 7   コントローラ
 8   移動体
 9   レンチキュラレンズ(光学素子)
 10  シリンドリカルレンズ
 11  サブピクセル
 12  ピクセル
 15  表示境界
 51  アクティブエリア
 52  第1アクティブエリア
 52a 第1領域
 52b 第2領域
 53  第2アクティブエリア
 54  最小繰り返し単位
 61  バリア層
 61a  減光領域
 61b  透光領域
 62  基板
 63  第3領域
 64  第4領域
 71  表示面
 100 ヘッドアップディスプレイ
 110 光学部材
 120 被投影部材
 130 被投影面
 140 光路
 150 虚像
 

Claims (12)

  1.  第1アクティブエリアおよび前記第1アクティブエリアと異なる第2アクティブエリアを有する表示パネルと、
     互いに視差を有する第1画像および第2画像を含む視差画像を前記第1アクティブエリアに表示させ、前記第2アクティブエリアに第3画像を表示させるコントローラと、
     利用者から見たとき、前記表示パネルの少なくとも前記第1アクティブエリアに重なり、前記第1画像および前記第2画像の光線方向を規定する光学素子と、
    を含み、
     前記光学素子は、前記利用者の第1眼に前記第1画像を到達させ、前記利用者の第2眼に前記第2画像を到達させることにより、当該利用者に3次元画像を視認させる、画像表示装置。
  2.  前記光学素子は、前記利用者側からみたとき、前記第2アクティブエリアと重なって位置する、請求項1に記載の画像表示装置。
  3.  前記光学素子は、前記第2アクティブエリアに表示される前記第3画像からの光線を透過させる、請求項2に記載の画像表示装置。
  4.  前記コントローラは、前記視差画像における視差量を変更することができる、請求項1から3の何れか一項に記載の画像表示装置。
  5.  前記コントローラは、前記3次元画像が前記第1アクティブエリアの位置より遠くに視認されるように、前記視差量を調整する、請求項4に記載の画像表示装置。
  6.  前記第1アクティブエリアに対応する視差画像は、前記第2アクティブエリアに対応する前記第3画像より上に位置する、請求項1から5の何れか一項に記載の画像表示装置。
  7.  前記光学素子は、前記第1画像および前記第2画像の前記光線方向を、動的に変更可能である、請求項1から6の何れか一項に記載の画像表示装置。
  8.  第1アクティブエリアおよび前記第1アクティブエリアと異なる第2アクティブエリアを有する表示パネルと、
     利用者の眼の位置を検出する検出装置と、
     互いに視差を有する第1画像および第2画像を含む視差画像を前記第1アクティブエリアに表示させ、前記第2アクティブエリアに第3画像を表示させるコントローラと、
     前記利用者から見たとき、表示パネルの少なくとも前記第1アクティブエリアに重なり、前記第1画像および前記第2画像の光線方向を規定する光学素子と、
    を含み、
     前記コントローラは、前記利用者の眼の位置に基づいて、前記光学素子を介して、前記利用者の第1眼が視認可能な前記第1アクティブエリアの第1領域に前記第1画像を表示させ、前記利用者の第2眼が視認可能な前記第1アクティブエリアの前記第1領域と異なる第2領域に前記第2画像を表示させることにより、前記利用者に3次元画像を視認させる、画像表示システム。
  9.  第1アクティブエリアおよび前記第1アクティブエリアと異なる第2アクティブエリアを有する表示パネルと、
     互いに視差を有する第1画像および第2画像を含む視差画像を前記第1アクティブエリアに表示させ、前記第2アクティブエリアに第3画像を表示させるコントローラと、
     利用者から見たとき、表示パネルの少なくとも前記第1アクティブエリアに重なり、前記第1画像および前記第2画像の光線方向を規定する光学素子と、
     前記第1アクティブエリアおよび前記第2アクティブエリアの虚像を投影する光学系と、を含み、
     前記光学素子は、前記利用者の第1眼に前記第1画像を到達させ、前記利用者の第2眼に前記第2画像を到達させることにより、当該利用者に3次元画像を虚像として視認させる、ヘッドアップディスプレイ。
  10.  前記利用者の眼の位置を検出する検出装置を含み、
     前記コントローラは、前記利用者の眼の位置に基づいて、前記光学素子を介して、前記利用者の第1眼が視認可能な前記第1アクティブエリアの第1領域に前記第1画像を表示させ、前記利用者の第2眼が視認可能な前記第1アクティブエリアの前記第1領域と異なる第2領域に前記第2画像を表示させる、請求項9に記載のヘッドアップディスプレイ。
  11.  第1アクティブエリアおよび前記第1アクティブエリアと異なる第2アクティブエリアを有する表示パネル、互いに視差を有する第1画像および第2画像を含む視差画像を前記第1アクティブエリアに表示させ、前記第2アクティブエリアに第3画像を表示させるコントローラ、前記利用者から見たとき、表示パネルの少なくとも前記第1アクティブエリアに重なり、前記第1画像および前記第2画像の光線方向を規定する光学素子、および、前記第1アクティブエリアおよび前記第2アクティブエリアの虚像を投影する光学系を含み、
     前記光学素子は、前記利用者の第1眼に前記第1画像を到達させ、前記利用者の第2眼に前記第2画像を到達させることにより、当該利用者に3次元画像を虚像として視認させるヘッドアップディスプレイを備える、移動体。
  12.  前記ヘッドアップディスプレイは、前記利用者の眼の位置を検出する検出装置を含み、
     前記コントローラは、前記利用者の眼の位置に基づいて、前記利用者の第1眼が視認可能な前記第1アクティブエリアの第1領域に前記第1画像を表示させ、前記利用者の第2眼が視認可能な前記第1アクティブエリアの前記第1領域と異なる第2領域に前記第2画像を表示させる、請求項11に記載の移動体。
PCT/JP2019/019091 2018-05-23 2019-05-14 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体 WO2019225400A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-098817 2018-05-23
JP2018098817 2018-05-23

Publications (1)

Publication Number Publication Date
WO2019225400A1 true WO2019225400A1 (ja) 2019-11-28

Family

ID=68616992

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/019091 WO2019225400A1 (ja) 2018-05-23 2019-05-14 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体

Country Status (1)

Country Link
WO (1) WO2019225400A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166458A1 (ja) * 2019-02-12 2020-08-20 株式会社ジャパンディスプレイ 表示装置
CN115462067A (zh) * 2020-04-28 2022-12-09 京瓷株式会社 眼间距离测量方法以及校正方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001251403A (ja) * 2000-03-07 2001-09-14 Sony Corp 電話装置
JP2005301144A (ja) * 2004-04-15 2005-10-27 Denso Corp 虚像表示装置およびプログラム
WO2012060412A1 (ja) * 2010-11-02 2012-05-10 シャープ株式会社 映像表示装置
WO2015174049A1 (ja) * 2014-05-12 2015-11-19 パナソニックIpマネジメント株式会社 表示装置
WO2016051586A1 (ja) * 2014-10-03 2016-04-07 三菱電機株式会社 表示制御装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001251403A (ja) * 2000-03-07 2001-09-14 Sony Corp 電話装置
JP2005301144A (ja) * 2004-04-15 2005-10-27 Denso Corp 虚像表示装置およびプログラム
WO2012060412A1 (ja) * 2010-11-02 2012-05-10 シャープ株式会社 映像表示装置
WO2015174049A1 (ja) * 2014-05-12 2015-11-19 パナソニックIpマネジメント株式会社 表示装置
WO2016051586A1 (ja) * 2014-10-03 2016-04-07 三菱電機株式会社 表示制御装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166458A1 (ja) * 2019-02-12 2020-08-20 株式会社ジャパンディスプレイ 表示装置
JP2020134535A (ja) * 2019-02-12 2020-08-31 株式会社ジャパンディスプレイ 表示装置
JP7317517B2 (ja) 2019-02-12 2023-07-31 株式会社ジャパンディスプレイ 表示装置
CN115462067A (zh) * 2020-04-28 2022-12-09 京瓷株式会社 眼间距离测量方法以及校正方法

Similar Documents

Publication Publication Date Title
JP7100523B2 (ja) 表示装置、表示システムおよび移動体
JP7129789B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
JP6821454B2 (ja) 3次元表示システム、ヘッドアップディスプレイシステム、及び移動体
WO2019009243A1 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
US20200053352A1 (en) Three-dimensional display apparatus, three-dimensional display system, head-up display system, and mobile body
US11616940B2 (en) Three-dimensional display device, three-dimensional display system, head-up display, and mobile object
WO2020090626A1 (ja) 画像表示装置、画像表示システム、及び移動体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
US20230004002A1 (en) Head-up display, head-up display system, and movable body
CN113614613B (zh) 立体虚像显示模块、立体虚像显示系统以及移动体
WO2020130049A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2020130048A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
JP7188888B2 (ja) 画像表示装置、ヘッドアップディスプレイシステム、および移動体
WO2020004275A1 (ja) 3次元表示装置、制御コントローラ、3次元表示方法、3次元表示システム、および移動体
WO2022163728A1 (ja) 3次元表示装置
WO2022019154A1 (ja) 3次元表示装置
JP7346587B2 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2021059997A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、移動体及びヘッドアップディスプレイの設計方法
JP7336782B2 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
WO2022149599A1 (ja) 3次元表示装置
WO2021060011A1 (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
JP2018120190A (ja) 3次元表示システム、ヘッドアップディスプレイシステム、及び移動体
JP2021056254A (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19808117

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19808117

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP