WO2018199185A1 - 表示装置、表示システム、および移動体 - Google Patents

表示装置、表示システム、および移動体 Download PDF

Info

Publication number
WO2018199185A1
WO2018199185A1 PCT/JP2018/016862 JP2018016862W WO2018199185A1 WO 2018199185 A1 WO2018199185 A1 WO 2018199185A1 JP 2018016862 W JP2018016862 W JP 2018016862W WO 2018199185 A1 WO2018199185 A1 WO 2018199185A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
eye
display
display surface
optical element
Prior art date
Application number
PCT/JP2018/016862
Other languages
English (en)
French (fr)
Inventor
薫 草深
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017087714A external-priority patent/JP6745242B2/ja
Priority claimed from JP2017087712A external-priority patent/JP6841715B2/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Publication of WO2018199185A1 publication Critical patent/WO2018199185A1/ja
Priority to US16/660,703 priority Critical patent/US11221482B2/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/1523Matrix displays
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/25Optical features of instruments using filters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • G02B2027/0159Head-up displays characterised by mechanical features with movable elements with mechanical means other than scaning means for positioning the whole image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • the above-described display device there are known phenomena that hinder recognition of normal images such as crosstalk and reverse viewing.
  • a three-dimensional image can be visually recognized if phenomena such as crosstalk and reverse viewing can be suppressed even if the position of the user's eyes moves from a predetermined position. The comfort at the time increases.
  • An object of the present disclosure is to provide a display device, a display system, and a moving body that enhance comfort when viewing a three-dimensional image on a head-up display.
  • the display device of the present disclosure includes a display element, an optical element, a projection optical system, a driver, and a controller.
  • the display element includes a display surface having a plurality of subpixels arranged in a lattice pattern along a first direction and a second direction substantially orthogonal to the first direction.
  • the optical element defines a light beam direction of image light emitted from the sub-pixel for each of a plurality of strip-like regions extending in the second direction on the display surface.
  • the projection optical system projects the image light whose light beam direction is defined by the optical element so that a virtual image of the display surface is formed.
  • the driver displaces the optical element along a normal direction of the display surface.
  • the controller displaces the optical element by the driver.
  • the display system includes an imaging device and a display device.
  • the imaging device images a user.
  • the display device includes a communication unit, a display element, an optical element, a projection optical system, a driver, and a controller.
  • the communication unit receives position information indicating a position of a user's eye imaged by the imaging apparatus.
  • the display element has a display surface having a plurality of sub-pixels arranged in a lattice shape along a first direction and a second direction substantially orthogonal to the first direction.
  • the optical element defines a light beam direction of image light emitted from the sub-pixel for each of a plurality of strip-like regions extending in the second direction on the display surface.
  • the projection optical system projects the image light whose light beam direction is defined by the optical element so that a virtual image of the display surface is formed.
  • the driver displaces the optical element along a normal direction of the display surface.
  • the controller displaces the optical element by the driver.
  • the moving body of the present disclosure includes a display system.
  • the display system includes an imaging device and a display device.
  • the imaging device images a user.
  • the display device includes a communication unit, a display element, an optical element, a projection optical system, and a controller.
  • the communication unit receives position information indicating a position of a user's eye imaged by the imaging apparatus.
  • the display element has a display surface having a plurality of sub-pixels arranged in a lattice pattern along a first direction and a second direction substantially orthogonal to the first direction.
  • the optical element defines a light beam direction of image light emitted from the sub-pixel for each of a plurality of strip-like regions extending in the second direction on the display surface.
  • the projection optical system projects the image light whose light beam direction is defined by the optical element so that a virtual image of the display surface is formed.
  • the driver displaces the optical element along a normal direction of the display surface.
  • the controller displaces the optical
  • FIG. 1 is a diagram illustrating a display system mounted on a moving object according to the first embodiment of the present disclosure.
  • FIG. 2 is a diagram showing a schematic configuration of the display device shown in FIG.
  • FIG. 3 is a view of the display panel shown in FIG. 2 as viewed from the normal direction of the display surface.
  • FIG. 4 is a view of the parallax barrier shown in FIG. 2 as viewed from the normal direction of the light shielding surface.
  • FIG. 5 is a view of the display panel and the parallax barrier shown in FIG. 2 as viewed from the parallax barrier side.
  • FIG. 6A is a schematic diagram for explaining subpixels of the first virtual image visually recognized when the eye is at the reference position.
  • FIG. 6A is a schematic diagram for explaining subpixels of the first virtual image visually recognized when the eye is at the reference position.
  • FIG. 6B is a schematic diagram for explaining subpixels of the first virtual image visually recognized by the eye when the distance from the parallax barrier to the eye is shorter than the distance at the reference position.
  • FIG. 6C is a schematic diagram for explaining the subpixels of the first virtual image visually recognized by the eye when the distance from the parallax barrier to the eye is longer than the distance at the reference position.
  • FIG. 6D is a schematic diagram for explaining an example in which the distance to the virtual image of the parallax barrier at the eye position in FIG. 6B is an appropriate viewing distance.
  • FIG. 6E is a schematic diagram for explaining an example in which the distance to the virtual image of the parallax barrier is an appropriate viewing distance at the eye position in FIG. 6C.
  • FIG. 6C is a schematic diagram for explaining subpixels of the first virtual image visually recognized by the eye when the distance from the parallax barrier to the eye is shorter than the distance at the reference position.
  • FIG. 6C is a schematic diagram for explaining the subpixels of
  • FIG. 7A is a schematic diagram for explaining subpixels of the first virtual image visually recognized by the eye when the eye moves in the horizontal direction by 1 ⁇ 2 of the interocular distance from the reference position.
  • FIG. 7B is a schematic diagram for explaining subpixels of the first virtual image visually recognized by the eye when the eye moves from the reference position in the interocular distance and in the horizontal direction.
  • FIG. 7C is a diagram for explaining subpixels of the first virtual image visually recognized by the eye when the eye moves from the reference position in the interocular distance and in the horizontal direction and the positions of the right eye image and the left eye image are changed. It is a schematic diagram.
  • FIG. 7A is a schematic diagram for explaining subpixels of the first virtual image visually recognized by the eye when the eye moves in the horizontal direction by 1 ⁇ 2 of the interocular distance from the reference position.
  • FIG. 7B is a schematic diagram for explaining subpixels of the first virtual image visually recognized by the eye when the eye moves from the reference position in the interocular distance and in the horizontal direction
  • FIG. 7D is a schematic diagram for explaining the subpixels of the first virtual image visually recognized by the eye when the eye moves in the horizontal direction twice the interocular distance from the reference position.
  • FIG. 8 is a process flow diagram of a process in which the control unit displaces the display device.
  • FIG. 9 is a process flowchart showing details of the first process.
  • FIG. 10 is a processing flowchart showing details of the second processing.
  • FIG. 11 is a diagram illustrating a schematic configuration of a display device according to the second embodiment of the present disclosure.
  • FIG. 12 is a processing flowchart showing details of the first processing by the control unit shown in FIG.
  • the display system 1 includes a detection device 2 and a projection device 3 as shown in FIG.
  • the projection device 3 is mounted on the moving body 4.
  • the projection device 3 is accommodated in a dashboard of the moving body 4.
  • moving body includes, but is not limited to, automobiles, railway vehicles, industrial vehicles, and living vehicles.
  • the “mobile body” may include an airplane traveling on a runway.
  • the automobile includes, but is not limited to, a passenger car, a truck, a bus, a two-wheeled vehicle, a trolley bus, and the like, and may include other vehicles that travel on the road.
  • Rail vehicles include, but are not limited to, locomotives, freight cars, passenger cars, trams, guided railroads, ropeways, cable cars, linear motor cars, and monorails, and may include other vehicles that travel along the track.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include but are not limited to forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, tillers, transplanters, binders, combines, and lawn mowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, crane trucks, dump trucks, and road rollers.
  • Living vehicles include, but are not limited to, bicycles, wheelchairs, baby carriages, wheelbarrows, and electric two-wheelers.
  • Vehicle power engines include, but are not limited to, internal combustion engines including diesel engines, gasoline engines, and hydrogen engines, and electrical engines including motors.
  • Vehicle includes a vehicle that travels manually. Note that the classification of the “moving object” is not limited to the above. For example, an automobile may include an industrial vehicle capable of traveling on a road, and the same vehicle may be included in a plurality of classifications.
  • the detection device 2 detects the position of the eyes of the user U and transmits the detected eye position to the projection device 3.
  • the detection device 2 may include an imaging device, for example.
  • the imaging device included in the detection device 2 may capture a captured image with the user U's eye as a subject.
  • the detection device 2 may detect the position of the eye of the user U from the captured image.
  • the detection device 2 may detect the position of the eye of the user U as a coordinate in the three-dimensional space from one captured image.
  • the detection device 2 is configured to include two or more imaging devices, and may detect the position of the eye of the user U as coordinates in the three-dimensional space from captured images captured by the imaging devices.
  • Detecting device 2 does not include an imaging device, and may be connected to the imaging device.
  • the detection device 2 may include an input terminal for inputting a signal from the imaging device.
  • the imaging device may be directly connected to the input terminal.
  • the detection device 2 may be indirectly connected to the input terminal via a shared network.
  • the detection device 2 may detect the position of the eye of the user U from the video signal input to the input terminal.
  • the detection device 2 may include a sensor, for example.
  • the sensor may be an ultrasonic sensor or an optical sensor.
  • the detection device 2 may detect the position of the head of the user U with a sensor and detect the position of the eye of the user U based on the position of the head.
  • the detection device 2 may detect the position of the eye of the user U as coordinates in the three-dimensional space by using two or more sensors.
  • the projection device 3 functions as a part of a head-up display that allows the user U of the moving body 4 to visually recognize a virtual image 50 of a desired image, for example.
  • the projection device 3 emits image light, which will be described later, toward a predetermined region of the optical member 4 a included in the moving body 4. The emitted image light is reflected by a predetermined region of the optical member 4a and reaches the eyes of the user U.
  • the projection apparatus 3 functions as a head-up display.
  • the optical member 4a may be a windshield. In other embodiments, the optical member 4a may be a combiner.
  • the projection apparatus 3 which concerns on one Embodiment is demonstrated in detail.
  • the projection device 3 includes a housing 10, a projection optical system 20, and a display device 30.
  • the housing 10 accommodates the projection optical system 20 and the display device 30.
  • the housing 10 defines an opening 10a through which image light emitted from the display device 30 passes to be emitted to the outside.
  • the projection optical system 20 projects the image light emitted from the display device 30 to reach the outside of the projection device 3.
  • the image light that has reached the outside of the projection device 3 reaches a predetermined region of the optical member 4a included in the moving body 4 as shown in FIG.
  • the projection optical system 20 may include one or more mirrors and lenses.
  • the projection optical system 20 includes a mirror, for example, the mirror included in the projection optical system 20 may be a concave mirror.
  • the projection optical system 20 is displayed as one mirror.
  • the projection optical system 20 may be configured by combining one or more mirrors, lenses, and other optical elements. 2 indicates that a part of the image light emitted from the display device 30 is reflected by the projection optical system 20 and passes through the opening 10a provided in the housing 10 of the projection device 3.
  • route which reaches the exterior of the projection apparatus 3 is shown.
  • the display device 30 is disposed inside the housing 10 and emits image light.
  • the display device 30 includes an irradiator 31, a display panel 32 that is a display element, a parallax barrier 33 as an optical element, a communication unit 34, a controller 35, and a driver 36.
  • the irradiator 31 is arranged on one surface side of the display panel 32 and irradiates the display panel 32 in a plane.
  • the irradiator 31 may include a light source, a light guide plate, a diffusion plate, a diffusion sheet, and the like.
  • the irradiator 31 emits irradiation light from a light source, and equalizes the irradiation light in the surface direction of the display panel 32 using a light guide plate, a diffusion plate, a diffusion sheet, or the like.
  • the irradiator 31 emits the uniformed light toward the display panel 32.
  • the display panel 32 may be a transmissive liquid crystal display panel, for example. As shown in FIG. 3, the display panel 32 has a plurality of display panels 32 arranged in a lattice pattern on the display surface 321 that is a plate-like surface along a first direction and a second direction substantially orthogonal to the first direction. It has a partition area. The first direction and the second direction respectively correspond to the horizontal direction and the vertical direction when the virtual image of the display panel 32 is visually recognized by the user U.
  • the lattice shape means that they are regularly arranged in a plane along two substantially orthogonal directions. Each sub-region corresponds to one subpixel.
  • Each subpixel corresponds to one of R (Red), G (Green), and B (Blue).
  • the three subpixels R, G, and B can constitute one pixel as a set.
  • One pixel can be called one pixel.
  • the first direction is, for example, a direction in which a plurality of subpixels constituting one pixel are arranged.
  • the second direction is a direction in which sub-pixels of the same color are arranged.
  • the display panel 32 is not limited to a transmissive liquid crystal panel, and other display panels such as an organic EL can also be used. When a self-luminous display panel is used as the display panel 32, the irradiator 31 is not necessary.
  • the display panel 32 includes a plurality of columns of sub-pixels arranged in a second direction and displaying a left-eye image every other column in the first direction. Be placed. A plurality of columns of subpixels adjacent to each of the plurality of columns on which the right eye image is displayed are arranged every other column.
  • subpixels that display the left eye image are indicated by L
  • subpixels that display the right eye image are indicated by R.
  • the arrangement interval of the left eye images that is, the image pitch that is the sum of the length of the left eye image in the first direction and the length of the right eye image in the first direction is k. Will be described. Since the left eye image and the right eye image are alternately arranged in the first direction, the image pitch k is also the arrangement interval of the right eye image.
  • the parallax barrier 33 is an optical element that defines a light ray direction in which image light emitted from the sub-pixel is propagated. As illustrated in FIG. 4, the parallax barrier 33 includes a plurality of light-transmitting regions 332 extending in the second direction on the display device 30. The translucent area 332 defines a light ray direction that is a propagation direction of image light emitted from each subpixel. The range in which the image light emitted from the sub-pixels is visible to the right eye and the left eye is determined by the parallax barrier 33. In one embodiment, the parallax barrier 33 is located on the opposite side of the irradiator 31 with respect to the display panel 32, as shown in FIG. The parallax barrier 33 may be located on the irradiator 31 side of the display panel 32.
  • the parallax barrier 33 has a light shielding surface 331 extending in a strip shape in the second direction.
  • the light shielding surface 331 forms a light shielding region of the parallax barrier 33.
  • the light shielding surface 331 shields part of the image light emitted from the subpixel.
  • the light blocking surface 331 can block a portion of the image light emitted from the sub-pixel that displays the left eye image toward the right eye of the user U.
  • the light blocking surface 331 can block a portion of the image light emitted from the subpixel that displays the right eye image toward the left eye of the user U.
  • the plurality of light shielding surfaces 331 define a light transmitting region 332 between the light shielding surfaces 331 adjacent to each other.
  • the light transmitting region 332 has a higher light transmittance than the light shielding surface 331.
  • the light transmitting region 332 is a portion that transmits light incident on the parallax barrier 33.
  • the light transmitting region 332 may transmit light in the visible light region with a transmittance equal to or higher than the first predetermined value.
  • the first predetermined value may be 100%, for example, or may be a value smaller than 100%.
  • the light blocking surface 331 is a portion that blocks the light in the visible light region incident on the parallax barrier 33 and does not transmit the light. In other words, the light shielding surface 331 blocks an image displayed on the display device 30.
  • the light blocking surface 331 may block light with a transmittance equal to or lower than the second predetermined value.
  • the second predetermined value may be 0%, for example, or a value close to 0%.
  • the first predetermined value can be 50% or more.
  • the second predetermined value can be 10% or less.
  • the light transmissive regions 332 and the light shielding surfaces 331 are alternately arranged in the first direction.
  • the translucent area 332 defines the light ray direction of the image light emitted from the subpixel for each of a plurality of band-like areas extending in the second direction on the display surface 321.
  • the parallax barrier 33 may be formed of a film or a plate-like member having a transmittance less than the second predetermined value.
  • the light shielding surface 331 is composed of the film or plate member.
  • the translucent region 332 may be configured by an opening provided in a film or a plate-like member.
  • a film may be comprised with resin and may be comprised with another material.
  • the plate-like member may be made of resin or metal, or may be made of other materials.
  • the parallax barrier 33 is not limited to a film or a plate-like member, and may be composed of other types of members.
  • a base material may have light-shielding property and the additive which has light-shielding property may be contained in a base material.
  • the parallax barrier 33 may be composed of a liquid crystal shutter.
  • the liquid crystal shutter can control the light transmittance according to the applied voltage.
  • the liquid crystal shutter may be composed of a plurality of pixels and may control the light transmittance in each pixel.
  • the liquid crystal shutter may be formed in an arbitrary shape with a region having a high light transmittance or a region having a low light transmittance.
  • the light transmitting region 332 may be a region having a transmittance equal to or higher than the first predetermined value.
  • the light shielding surface 331 may be a region having a transmittance equal to or lower than a second predetermined value.
  • the parallax barrier 33 transmits the image light emitted from some of the sub-pixels through the light-transmitting region 332 and propagates it to the position of the left eye of the user U.
  • the parallax barrier 33 transmits the image light emitted from some other sub-pixels to the position of the right eye of the user U through the light-transmitting region 332.
  • the parallax barrier 33 is disposed away from the display surface 321 of the display panel 32 by a distance g (hereinafter referred to as “gap g”).
  • the image light emitted from the display surface 321 of the display panel 32 passes through the parallax barrier 33 and reaches the optical member 4 a via the projection optical system 20. Further, the image light is reflected by the optical member 4a and reaches the eyes of the user U. Thereby, the eyes of the user U recognize the first virtual image 51 that is a virtual image of the display panel 32 in front of the optical member 4a.
  • the forward direction is the direction of the optical member 4a when viewed from the user U.
  • the forward direction is the direction in which the moving body 4 normally moves. Therefore, as shown in FIG. 2, the user apparently defines the direction of the image light from the first virtual image 51 via the second virtual image 52 that is a virtual image of the parallax barrier 33. Recognize images.
  • the user recognizes the image as if he / she visually recognizes the first virtual image 51 via the second virtual image 52, and is actually a virtual image of the parallax barrier 33.
  • the second virtual image 52 is apparently located at a position where the virtual image of the parallax barrier 33 is formed by the projection optical system 20 and the optical member 4a, and is regarded as defining the image light from the first virtual image 51.
  • FIG. 5 shows each subpixel of the first virtual image 51 of the display panel 32 that can be observed from the user U.
  • a sub-pixel to which a symbol L is attached displays a left eye image.
  • the sub-pixels with the symbol R display the right eye image. Further, FIG.
  • the left eye of the user U visually recognizes a sub-pixel that displays a left-eye image with a symbol L that overlaps the translucent area 522, and displays a right-eye image that has a symbol R that overlaps the light shielding surface 521. Do not see the pixel.
  • the translucent region 522 overlaps the sub-pixel that displays the right-eye image denoted by the symbol R.
  • the light shielding surface 521 overlaps the sub-pixel that displays the left-eye image with the symbol L attached thereto. Thereby, the right eye of the user U visually recognizes the right eye image and does not visually recognize the left eye image.
  • FIG. 6A to FIG. are apparent optical systems from the first virtual image 51 that is a virtual image of the display panel 32 to the user U.
  • FIG. 6A to 6C show the first virtual image 51, the second virtual image 52, and the eyes of the user U.
  • the following explanation will be made using the positional relationships shown in FIGS. 6A to 6C.
  • the actual second virtual image 52 and the user U with respect to the distance between the first virtual image 51 and the second virtual image 52 will be described.
  • the ratio of the distance to the eye is much larger than the distance ratio shown in FIGS. 6A to 6C.
  • the appropriate viewing distance D is the second virtual image 52 in a state where the image light emitted from the left eye image passes through the translucent region 332 and reaches the left eye.
  • the appropriate viewing distance D is the inter-eye distance E of the user U, the pitch Bpv of the second virtual image 52, the distance gv between the second virtual image 52 and the first virtual image 51 (hereinafter referred to as “virtual image gap gv”), and It can be determined by the relationship with the image pitch kv of the first virtual image 51.
  • the distance d between the second virtual image 52 and the eyes of the user U is not the appropriate viewing distance D, the image recognized by the eyes of the user U may be inappropriate.
  • the region 511 that can be visually recognized through the translucent region 522 on the first virtual image 51 that is a virtual image of the display panel 32 is the transparent region illustrated in FIG. It is wider than the region 511 that can be viewed through the light region 522. For this reason, the light emitted from at least a part of the right eye image reaches the left eye. As a result, crosstalk occurs in the eyes of the user U.
  • the region 511 that can be viewed through the light-transmitting region 522 on the first virtual image 51 that is a virtual image of the display panel 32 is the light-transmitting property shown in FIG. 6C. It is narrower than the region 511 that is visible through the region 522. For this reason, the light quantity of the image light which reaches
  • the controller 35 displaces the position of the display device 30 in order to suppress the crosstalk in this way. Details of processing by the controller 35 will be described later in detail.
  • the communication unit 34 is a communication interface that receives position information indicating the position of the eye from the detection device 2.
  • the communication unit 34 can employ a physical connector and a wireless communication device.
  • the physical connector includes an electrical connector that supports transmission using an electrical signal, an optical connector that supports transmission using an optical signal, and an electromagnetic connector that supports transmission using electromagnetic waves.
  • the electrical connector includes a connector conforming to IEC60603, a connector conforming to the USB standard, and a connector corresponding to the RCA terminal.
  • the electrical connector is a connector corresponding to the S terminal specified in EIAJ CP-1211A, a connector corresponding to the D terminal specified in EIAJ RC-5237, a connector conforming to the HDMI (registered trademark) standard, and a coaxial including BNC. Includes connectors for cables.
  • the optical connector includes various connectors conforming to IEC 61754.
  • the wireless communication device includes a wireless communication device that complies with each standard including Bluetooth (registered trademark) and IEEE802.11.
  • the controller 35 is connected to the driver 36 and controls the driver 36.
  • the controller 35 is configured as a processor, for example.
  • the controller 35 may include one or more processors.
  • the processor may include a general-purpose processor that reads a specific program and executes a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific IC (ASIC: Application Specific Circuit).
  • the processor may include a programmable logic device (PLD: Programmable Logic Device).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the controller 35 may be one of SoC (System-on-a-Chip) in which one or a plurality of processors cooperate and SiP (System-In-a-Package).
  • the controller 35 includes a storage unit, and may store various information or a program for operating each component of the display system 1 in the storage unit.
  • the storage unit may be configured by, for example, a semiconductor memory.
  • the storage unit may function as
  • the controller 35 displaces the display device 30 based on the position of the eyes of the user U in order to suppress the occurrence of crosstalk.
  • the controller 35 displaces the display device 30 based on the position of the eye in the light ray direction of the image light reaching the user U's eye (hereinafter referred to as “depth direction”).
  • depth direction the position of the eye in the light ray direction of the image light reaching the user U's eye.
  • the controller 35 controls the driver 36 so as to suppress the occurrence of crosstalk, thereby displacing the positions of the first virtual image 51 of the display panel 32 and the second virtual image 52 of the parallax barrier 33. For this reason, the controller 35 displaces the display device 30 along the normal direction of the display surface 321. At this time, the display device 30 may be displaced while the relative positional relationship between the display panel 32 and the parallax barrier 33 is fixed. In the first embodiment, the displacement of the display device 30 indicates that at least the display panel 32 and the parallax barrier 33 are displaced.
  • the controller 35 controls the driver 36 to displace the display device 30 away from the projection optical system 20.
  • the first virtual image 51 and the second virtual image 52 are enlarged by the projection optical system 20. Therefore, the displacement amounts of the first virtual image 51 and the second virtual image 52 that are displaced in accordance with the displacement of the display panel 32 and the parallax barrier 33 are larger than the displacement amounts of the display panel 32 and the parallax barrier 33. Therefore, the controller 35a projects the display device 30 with a displacement amount smaller than the displacement amount of the user U's eye so that the distance between the user's U eye and the second virtual image 52 is an apparent appropriate viewing distance. Displace away from 20.
  • the controller 35 controls the driver 36 to displace the display device 30 so as to approach the projection optical system 20. At this time, the controller 35 projects the display device 30 in a direction in which the distance between the user U's eye and the second virtual image 52 maintains an apparent appropriate viewing distance with a displacement amount smaller than the displacement amount of the user U's eye. It is displaced so as to approach the optical system 20.
  • the driver 36 displaces the display device 30 based on the control of the controller 35 described above.
  • the driver 36 includes, for example, a stage 361, a motor (driving element) 362, and the like.
  • the stage 361 is disposed in a position that does not obstruct the optical path of the image light in the housing 10.
  • At least the display panel 32 and the parallax barrier 33 are fixedly attached to the stage 361.
  • the motor 362 drives the stage 361 so that the stage 361 is displaced along the normal direction of the display surface 321.
  • the display panel 32 and the parallax barrier 33 fixed to the stage 361 are displaced along with the displacement of the stage 361.
  • the controller 35 performs a second process for displaying each of the right-eye image and the left-eye image on each sub-pixel based on the position of the eye in the plane perpendicular to the depth direction.
  • the second process will be described in detail.
  • the controller 35 uses the displacement in the horizontal direction from the reference position of the position of the user U's eye detected by the detection device 2 in the plane perpendicular to the depth direction to display the left-eye image. , And a sub-pixel for displaying the right eye image.
  • the reference position of the left eye is that when the display panel 32 and the parallax barrier 33 are in a predetermined positional relationship, image light from the left eye image on the display panel 32 reaches the left eye and This is a position where the image light is blocked by the parallax barrier 33 and does not reach the left eye.
  • the reference position of the right eye is a position where image light from the right eye image on the display panel 32 reaches the right eye, and image light from the left eye image is shielded by the parallax barrier 33 and does not reach the right eye.
  • the reference position of the left eye is the left reference position LSP.
  • the reference position for the right eye is the right reference position RSP.
  • the controller 35 determines the sub-pixel for displaying the left-eye image based on the displacement of the left-eye position from the left reference position LSP.
  • the method in which the controller 35 determines the sub-pixel for displaying the right eye image using the displacement of the right eye position from the right reference position RSP is the same.
  • a virtual image recognized when the left eye of the user U is in a position displaced in the horizontal direction from the left reference position LSP will be described.
  • the left-eye image is displayed on each of the sub-pixels in a plurality of columns arranged continuously in the second direction every other column.
  • the right-eye image is displayed on each of a plurality of subpixels arranged in every other column adjacent to the plurality of columns.
  • the left eye image is displayed on the adjacent subpixel on the opposite side of the subpixel on which the right eye image is displayed, and this is repeated.
  • a predetermined column and every other column arranged in the predetermined column are referred to as a first column group.
  • a column arranged adjacent to the first column group is referred to as a second column group.
  • the left eye image is displayed on the sub-pixels in the first column group, and the right eye image is displayed on the sub-pixels in the second column group.
  • the image light emitted from the left eye image passes through the translucent area 332 of the parallax barrier 33, is reflected by the optical member 4a, and reaches the left eye. To do. Thereby, as shown to FIG. 6A, the left eye of the user U visually recognizes the virtual image of the left eye image shown with the code
  • the left eye of the user U when the left eye of the user U is displaced from the left reference position LSP by the interocular distance E, the image emitted from the left eye image displayed in the first column group is parallax.
  • the light passes through the transparent region 332 of the barrier 33 and reaches the right eye.
  • An image emitted from the right eye image emitted from the left eye image displayed in the second row group passes through the light-transmitting region 332 of the parallax barrier 33 and reaches the left eye.
  • the left eye of the user U visually recognizes the virtual image of the right eye image indicated by the symbol R.
  • the right eye of the user U visually recognizes the virtual image of the left eye image indicated by the symbol L. That is, a so-called reverse viewing state occurs, and it becomes difficult for the user U to recognize a normal stereoscopic image.
  • the controller 35 causes the right eye image to be displayed on the subpixels in the first row group on the display surface 321 and causes the left eye image to be displayed on the subpixels in the second row group.
  • the image emitted from the left eye image passes through the translucent area 332 of the parallax barrier 33 and reaches the left eye.
  • An image emitted from the right eye image passes through the light transmitting region 332 of the parallax barrier 33 and reaches the right eye.
  • the left eye of the user U visually recognizes the virtual image of the left eye image indicated by the symbol L.
  • the right eye of the user U visually recognizes the virtual image of the right eye image indicated by the symbol R. Therefore, the reverse viewing state is eliminated, and the user U can recognize a normal stereoscopic image.
  • the controller 35 determines which of the left eye image and the right eye image is displayed on each subpixel of the display panel 32 based on the position of the eye of the user U. decide. In the following, a method for causing the controller 35 to display an image based on the position of the left eye will be described, but a method for displaying an image based on the position of the right eye is also the same.
  • the controller 35 displays the left eye image in the second row group when the left eye is at a position where more image light from the second row group reaches than the image light from the first row group.
  • the controller 35 displays the left eye image on the subpixels in the second column group and the right eye image on the subpixels in the first column group.
  • the controller 35 displays the left eye image on the subpixels in the first column group and the right eye image on the subpixels in the second column group.
  • the controller 35 displays the left eye image on the subpixels in the second column group and the right eye image on the subpixels in the first column group.
  • the controller 35 displays the left eye image on the subpixels in the first column group and the right eye image on the subpixels in the second column group.
  • the controller 35 acquires the position information detected by the detection device 2 and received by the communication unit 34 (step S1).
  • step S2 the controller 35 performs a first process based on the position of the left eye in the depth direction (step S2).
  • a first process based on the position of the left eye in the depth direction
  • the controller 35 determines the position of the eye of the user U in the light beam direction of the image light reaching the user U's eye based on the direction from the reference position and the amount of displacement. A displacement direction and a displacement amount are determined (step S21).
  • the controller 35 may store an appropriate amount of displacement of the display device 30 according to the position of the eyes of the user U in the depth direction in advance as a table in the memory, and may determine the amount of displacement based on this table.
  • the controller 35 controls the driver 36 to displace the display device 30 in the determined direction by the determined displacement amount (step S22).
  • step S3 the controller 35 performs the second process based on the position of the eye in the plane perpendicular to the depth direction (step S3). Details of the second process will be described below with reference to FIG.
  • the controller 35 determines whether or not the position of the left eye is within a predetermined distance range from the reference position (step S31).
  • step S31 when the position of the left eye is within a predetermined distance range from the reference position, the controller 35 causes the right eye image to be displayed on the subpixels in the first column group and the left eye on the subpixels in the second column group. An image is displayed (step S32).
  • step S31 if the position of the left eye is not within the distance range from the reference position, the controller 35 displays the left eye image on the subpixels in the first column group and displays the right eye image on the subpixels in the second column group. (Step S33).
  • step S3 When the second process is performed in step S3, the process returns to step S1, and the controller 35 acquires the position information received by the communication unit 34 again, and repeats the subsequent processes.
  • the display device 30 displaces the display panel 32 and the parallax barrier 33 along the normal direction of the display surface 321 while maintaining a relative positional relationship. Therefore, crosstalk that occurs when the user U moves in the depth direction can be suppressed.
  • the display device 30 displaces the display panel 32 and the parallax barrier 33 by the driver 36 based on the position of the eyes. For this reason, generation
  • the display device 30 determines whether to display a right eye image or a left eye image on each of the plurality of subpixels based on the position of the eye in a plane perpendicular to the depth direction. . For this reason, the right eye image can be displayed on the subpixel that the right eye of the user U visually recognizes, and the left eye image can be displayed on the subpixel that the left eye visually recognizes. Therefore, crosstalk and reverse vision can be suppressed.
  • the display system 1 includes a detection device 2 and a projection device 3. Similar to the projection apparatus 3 shown in FIG. 1 in the first embodiment, the projection apparatus 3 is mounted on the moving body 4. For example, the projection device 3 is accommodated in a dashboard of the moving body 4. In the second embodiment, only the configuration different from the first embodiment will be described. The configuration that is not described in the second embodiment is the same as that of the first embodiment.
  • the projector 3 according to the second embodiment will be described in detail with reference to FIG.
  • the projection device 3 according to the second embodiment includes a housing 10, a first projection optical system 20 a, a second projection optical system 20 b, and a display device 30.
  • the first projection optical system 20a and the second projection optical system 20b are configured in the same manner as the projection optical system 20 of the first embodiment.
  • the display device 30 is disposed inside the housing 10 and emits image light.
  • the display device 30 includes a first irradiator (irradiator) 31a, a second irradiator 31b, and a first display panel 32a and a second display panel 32b that are display elements.
  • the display device 30 further includes a first parallax barrier 33a and a second parallax barrier 33b as optical elements, a communication unit 34, a controller 35, a first driver (driver) 36a, and a second driver 36b. Consists of.
  • the first irradiator 31a irradiates the first display panel 32a, which is a part of the display panel 32, in a plane.
  • the second irradiator 31b irradiates the first display panel 32a, which is a part of the display panel 32, in a plane.
  • the 1st irradiator 31a and the 2nd irradiator 31b are the same as the irradiator 31 of 1st Embodiment except the point which demonstrates especially.
  • the first display panel 32a and the second display panel 32b are configured similarly to the display panel 32 of the first embodiment.
  • the first display panel 32a and the second display panel 32b are the same as the display panel 32 of the first embodiment except for points that are specifically described.
  • the first parallax barrier 33a transmits the first image light emitted from some of the sub-pixels of the first display panel 32a and propagates it to the position of the left eye of the user U.
  • the first parallax barrier 33a transmits the first image light emitted from some other subpixels of the first display panel 32a and propagates it to the position of the right eye of the user U.
  • the first parallax barrier 33a is disposed away from the display surface 321a of the first display panel 32a by a distance g1 (hereinafter referred to as “gap g1”).
  • the second parallax barrier 33b transmits the second image light emitted from a part of the sub-pixels of the second display panel 32b and propagates it to the position of the left eye of the user U.
  • the first parallax barrier 33a transmits the second image light emitted from other subpixels of the first display panel 32a of the display panel 32 and propagates it to the position of the right eye of the user U.
  • the second parallax barrier 33b is disposed away from the display surface 321b of the second display panel 32b by a distance g2 (hereinafter referred to as “gap g2”).
  • the first parallax barrier 33a and the second parallax barrier 33b are the same as the parallax barrier 33 of the first embodiment except for the points that are specifically described.
  • the first image light emitted from the first display panel 32a reaches the optical member 4a via the first parallax barrier 33a and the first projection optical system 20a, and the user A first virtual image 51 that is visible to the eyes of U is formed.
  • the second image light emitted from the second display panel 32b reaches the optical member 4a via the second parallax barrier 33b and the second projection optical system 20b, and the eyes of the user U are visually recognized.
  • a third virtual image 53 is formed.
  • the optical path length of the optical member 4a from the display panel 32 is appropriately designed so that the third virtual image 53 is formed farther from the first virtual image 51 when viewed from the eyes of the user U, and the above-described configuration is arranged.
  • the distance from the eye of the user U between the virtual image of the region near the first virtual image 51 of the third virtual image 53 and the virtual image of the region near the third virtual image 53 of the first virtual image 51 is within a predetermined range.
  • An image displayed on the display panel 32 may be designed. Thereby, the display apparatus 30 can suppress the generation of a break between the first virtual image 51 and the third virtual image 53 and allow the user U to visually recognize a virtual image of a stereoscopic image having a large stereoscopic effect as a whole.
  • an apparent appropriate viewing distance D (hereinafter simply referred to as “appropriate viewing distance D”) between the first virtual image 51 and the eyes of the user U is shown in FIG. Will be described with reference to FIG.
  • appropriate viewing distance D an apparent appropriate viewing distance between the first virtual image 51 and the eyes of the user U is shown in FIG. Will be described with reference to FIG.
  • the appropriate viewing distance D related to the first virtual image 51 will be described, but the same applies to the appropriate viewing distance related to the second virtual image 52.
  • the controller 35 displaces the first parallax barrier 33a based on the position of the eyes of the user U in order to suppress the occurrence of crosstalk and reverse vision.
  • the controller 35 of the first embodiment has at least the display panel 32 and the parallax barrier in the display device 30 in a state where the relative positional relationship between the display panel 32 and the parallax barrier 33 is fixed. 33 is displaced.
  • the controller 35 of the second embodiment is different from the first embodiment in that only the first parallax barrier 33a is displaced while the first display panel 32a is fixed.
  • the controller 35 when the communication unit 34 receives the position information, the controller 35 performs a first process for displacing the first parallax barrier 33a with respect to the display surface 321a based on the eye position in the depth direction.
  • the first process will be described in detail.
  • the controller 35 controls the first driver 36a to displace the position of the second virtual image 52 that is a virtual image of the first parallax barrier 33a so as to suppress the occurrence of crosstalk and reverse viewing. For this reason, the controller 35 displaces the first parallax barrier 33a along the normal direction of the display surface 321a of the first display panel 32a.
  • the controller 35 controls the first driver 36a when the user U's eye is displaced in the direction approaching the optical member 4a, and the first driver 36a is shown in FIG. 6D.
  • the parallax barrier 33a is displaced in a direction approaching the display panel 32. By adjusting the position of the first parallax barrier 33a, crosstalk and reverse viewing can be suppressed.
  • the controller 35 controls the first driver 36a to move the first parallax barrier 33a as shown in FIG. 6E when the eye of the user U is displaced in the direction away from the optical member 4a. It is displaced in a direction away from the display panel 32.
  • the controller 35 controls the second driver 36b so as to suppress the crosstalk and the light amount reduction related to the third virtual image 53 created by the second image light emitted from the second display panel 32b. Specifically, the controller 35 controls the second driver 36b to displace the position of the fourth virtual image 54 that is a virtual image of the second parallax barrier 33b. For this reason, the controller 35 displaces the second parallax barrier 33b along the normal direction of the display surface 321b of the second display panel 32b.
  • the specific method for displacing the second parallax barrier 33b by the controller 35 is the same as the method for displacing the first parallax barrier 33a described above.
  • the first driver 36 a displaces the first parallax barrier 33 a based on the control of the controller 35.
  • the first driver 36a includes, for example, a first stage 361a, a first motor (drive element) 362a, and the like.
  • the first stage 361a is disposed in the housing 10 at a position that does not obstruct the optical path.
  • a first parallax barrier 33a is fixedly attached to the first stage 361a.
  • the first motor 362a drives the first stage 361a so as to be displaced along the normal direction of the display surface 321a of the first display panel 32a. Thereby, the first parallax barrier 33a fixed to the first stage 361a is displaced together with the displacement of the first stage 361a.
  • the second driver 36b displaces the second parallax barrier 33b based on the control of the controller 35.
  • the second driver 36b includes, for example, a second stage 361b, a second motor (drive element) 362b, and the like.
  • the second stage 361b is disposed at a position in the housing 10 that does not obstruct the optical path.
  • a second parallax barrier 33b is fixedly attached to the second stage 361b.
  • the second motor 362b drives the second stage 361b so as to be displaced along the normal direction of the display surface 321b of the second display panel 32b. Thereby, the second parallax barrier 33b fixed to the second stage 361b is displaced along with the displacement of the second stage 361b.
  • the controller 35 displays each of the right-eye image and the left-eye image on each sub-pixel based on the position of the eye in a plane substantially perpendicular to the light ray direction of the image light reaching the user U's eye.
  • a second process is performed. The second process is the same as the second process in the first embodiment.
  • the controller 35 determines the displacement direction of the first parallax barrier 33a based on the displacement direction and displacement amount from the reference position of the position of the eye of the user U in the depth direction in the first process. Determine the amount of displacement.
  • the controller 35 determines the displacement direction and displacement amount of the second parallax barrier 33b based on the displacement direction and displacement amount from the reference position of the position of the eye of the user U in the depth direction in the first process (step S210). ).
  • the controller 35 controls the first driver 36a so as to displace the first parallax barrier 33a in the determined direction.
  • the controller 35 controls the second driver 36b so as to displace the second parallax barrier 33b in the determined direction (step S220).
  • the display device 30 moves the first parallax barrier 33 a and the second parallax barrier 33 b in the normal direction of the display surface 321 of the display panel 32 without displacing the display panel 32. Displace along For this reason, in the display device 30 that visually recognizes two virtual images 50 having different distances from the eyes of the user U, occurrence of crosstalk and a decrease in light amount can be suppressed for each virtual image.
  • the display device 30 displaces the first parallax barrier 33a and the second parallax barrier 33b by the first driver 36a and the second driver 36b, respectively, based on the eye position in the depth direction. Let For this reason, in the display device 30 that visually recognizes the two virtual images 50 having different distances from the eyes of the user U, the occurrence of crosstalk and a decrease in the amount of light can be reliably suppressed for each virtual image.
  • the display device 30 displays either a right-eye image or a left-eye image on each of the plurality of subpixels based on the position of the eye in a plane perpendicular to the depth direction. Therefore, the right eye image can be displayed on the subpixel recognized by the right eye of the user U, and the left eye image can be displayed on the subpixel recognized by the left eye. Therefore, occurrence of crosstalk and reverse vision can be suppressed.
  • the controller 35 performs the second process after performing the first process, but is not limited thereto.
  • the controller 35 may perform the first process after performing the second process.
  • the controller 35 may perform only one of the first process and the second process.
  • the optical element that defines the light beam direction of the image light emitted from the sub-pixel is not limited to the parallax barrier, and a lenticular lens or the like can be used.
  • the lenticular lens may have a structure in which cylindrical lenses extending in the second direction are arranged in the first direction.
  • a plurality of strip-like regions extending in the second direction may include a portion extending in the first direction.
  • a plurality of strip-like regions extending in the second direction is not included when parallel to the first direction.
  • the “several strip regions extending in the second direction” can extend obliquely with respect to the second direction.
  • the detection device 2 detects the position of the left eye.
  • the controller 35 displayed the left eye image or the right eye image on each subpixel of the display panel 32 based on the position of the left eye.
  • the detection device 2 may detect the position of the right eye.
  • the controller 35 may display the left eye image or the right eye image on each subpixel of the display panel 32 based on the position of the right eye.
  • the display device 60 includes the first parallax barrier 33a and the second parallax barrier 33b, but this is not restrictive.
  • the display device 60 may include only the first parallax barrier 33a and may not include the second parallax barrier 33b.
  • the display device 60 may not include the second irradiator 31b, the second display panel 32b, and the second driver 36b.
  • the projection apparatus 3 may not include the second projection optical system 20b.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本発明の表示装置(30)は、表示素子(32)と、光学素子(33)と、投影光学系(20)と、ドライバ(36)と、コントローラ(35)とを備える。表示素子(32)は、第1方向および第1方向に略直交する第2方向に沿って格子状に配列された複数のサブピクセルを有する表示面(321)を含む。光学素子(33)は、表示面(321)上の第2方向に延びる複数の帯状領域ごとに、サブピクセルから射出される画像光の光線方向を規定する。投影光学系(20)は、光学素子(33)によって光線方向が規定された画像光を、表示面の虚像(51)が形成されるように投影する。ドライバ(36)は、コントローラ(35)により制御されて、光学素子(33)を変位させる。

Description

表示装置、表示システム、および移動体 関連出願の相互参照
 本出願は、2017年4月26日に出願された日本国特許出願2017-087712号および日本国特許出願2017-087714号の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 従来、眼鏡を用いずに三次元表示を行うために、画像表示パネルから射出された画像光の一部を右眼に到達させ、画像表示パネルから射出された画像光の他の一部を左眼に到達させる光学素子を備える表示装置が知られている(例えば、特許文献1参照)。
特開2004-343290号公報
 上述の表示装置では、クロストーク、逆視等の正常な画像の認識を妨げる現象が知られる。上述の表示装置がヘッドアップディスプレイとして利用されるにあたって、利用者の眼の位置が所定の位置から移動しても、クロストーク、逆視等の現象を抑えることができれば、三次元画像を視認する際の快適性が高まる。
 本開示の目的は、ヘッドアップディスプレイにおいて三次元画像を視認する際の快適性を高める表示装置、表示システム、および移動体を提供することにある。
 本開示の表示装置は、表示素子と、光学素子と、投影光学系と、ドライバと、コントローラとを備える。前記表示素子は、第1方向および前記第1方向に略直交する第2方向に沿って格子状に配列された複数のサブピクセルを有する表示面を含む。前記光学素子は、前記表示面上の第2方向に延びる複数の帯状領域ごとに、前記サブピクセルから射出される画像光の光線方向を規定する。前記投影光学系は、前記光学素子によって光線方向が規定された前記画像光を、前記表示面の虚像が形成されるように投影する。前記ドライバは、前記光学素子を前記表示面の法線方向に沿って変位させる。前記コントローラは、前記ドライバにより前記光学素子を変位させる。
 本開示の表示システムは、撮像装置と、表示装置とを備える。前記撮像装置は、利用者を撮像する。前記表示装置は、通信部と、表示素子と、光学素子と、投影光学系と、ドライバと、コントローラとを含む。前記通信部は、該撮像装置によって撮像された利用者の眼の位置を示す位置情報を受信する。前記表示素子は、第1方向および前記第1方向に略直交する第2方向に沿って格子状に配列された複数のサブピクセルを有する表示面を有する。前記光学素子は、前記表示面上の第2方向に延びる複数の帯状領域ごとに、前記サブピクセルから射出される画像光の光線方向を規定する。前記投影光学系は、前記光学素子によって光線方向が規定された前記画像光を、前記表示面の虚像が形成されるように投影する。前記ドライバは、前記光学素子を前記表示面の法線方向に沿って変位させる。前記コントローラは、前記ドライバにより前記光学素子を変位させる。
 本開示の移動体は、表示システムを備える。前記表示システムは、撮像装置と、表示装置とを含む。前記撮像装置は、利用者を撮像する。前記表示装置は、通信部と、表示素子と、光学素子と、投影光学系と、コントローラとを有する。前記通信部は、該撮像装置によって撮像された利用者の眼の位置を示す位置情報を受信する。前記表示素子は、第1方向および前記第1方向に略直交する第2方向に沿って格子状に配列された複数のサブピクセル有する表示面を有する。前記光学素子は、前記表示面上の第2方向に延びる複数の帯状領域ごとに、前記サブピクセルから射出される画像光の光線方向を規定する。前記投影光学系は、前記光学素子によって光線方向が規定された前記画像光を、前記表示面の虚像が形成されるように投影する。前記ドライバは、前記光学素子を前記表示面の法線方向に沿って変位させる。前記コントローラは、前記ドライバにより前記光学素子を変位させる。
 本開示の一実施形態によれば、ヘッドアップディスプレイにおいて三次元画像を視認する際の快適性を高めることが可能となる。
図1は、本開示の第1実施形態に係る移動体に搭載された表示システムを示す図である。 図2は、図1に示す表示装置の概略構成を示す図である。 図3は、図2に示す表示パネルを表示面の法線方向から見た図である。 図4は、図2に示すパララックスバリアを遮光面の法線方向から見た図である。 図5は、図2に示す表示パネルおよびパララックスバリアをパララックスバリア側から見た図である。 図6Aは、眼が基準位置にある場合に視認する第1虚像のサブピクセルを説明するための模式図である。 図6Bは、パララックスバリアから眼までの距離が、基準位置における距離より短い場合に、眼が視認する第1虚像のサブピクセルを説明するための模式図である。 図6Cは、パララックスバリアから眼までの距離が、基準位置における距離より長い場合に、眼が視認する第1虚像のサブピクセルを説明するための模式図である。 図6Dは、図6Bの眼の位置においてパララックスバリアの虚像までの距離が適視距離となる例を説明するための模式図である。 図6Eは、図6Cの眼の位置においてパララックスバリアの虚像までの距離が適視距離となる例を説明するための模式図である。 図7Aは、眼が基準位置から眼間距離の1/2、水平方向に移動した場合に、眼が視認する第1虚像のサブピクセルを説明するための模式図である。 図7Bは、眼が基準位置から眼間距離、水平方向に移動した場合に、眼が視認する第1虚像のサブピクセルを説明するための模式図である。 図7Cは、眼が基準位置から眼間距離、水平方向に移動し、右眼画像および左眼画像の位置が変更された場合に、眼が視認する第1虚像のサブピクセルを説明するための模式図である。 図7Dは、眼が基準位置から眼間距離の2倍、水平方向に移動した場合に、眼が視認する第1虚像のサブピクセルを説明するための模式図である 図8は、制御部が表示装置を変位させる処理の処理フロー図である。 図9は、第1の処理の詳細を示す処理フロー図である。 図10は、第2の処理の詳細を示す処理フロー図である。 図11は、本開示の第2実施形態に係る表示装置の概略構成を示す図である。 図12は、図11に示す制御部による第1の処理の詳細を示す処理フロー図である。
 以下、本開示の第1実施形態について、図面を参照しながら詳細に説明する。なお、以下の説明で用いられる図は模式的なものであり、図面上の寸法比率等は現実のものとは必ずしも一致していない。
 第1実施形態に係る表示システム1は、図1に示すように、検出装置2と、投影装置3とを備える。投影装置3は、移動体4に搭載される。例えば、投影装置3は、移動体4のダッシュボードに収容される。
 ここで「移動体」は、自動車、鉄道車両、産業車両、および生活車両を含むが、これに限られない。例えば、「移動体」には、滑走路を走行する飛行機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、およびトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。軌道車両は、機関車、貨車、客車、路面電車、案内軌道鉄道、ロープウエー、ケーブルカー、リニアモーターカー、およびモノレールを含むがこれに限られず、軌道に沿って進む他の車両を含んでよい。産業車両は、農業および建設向けの産業車両を含む。産業車両には、フォークリフト、およびゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機を含むが、これに限られない。建設向けの産業車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラを含むが、これに限られない。生活車両には、自転車、車いす、乳母車、手押し車、および電動立ち乗り2輪車を含むが、これに限られない。車両の動力機関は、ディーゼル機関、ガソリン機関、および水素機関を含む内燃機関、並びにモーターを含む電気機関を含むが、これに限られない。「車両」は、人力で走行するものを含む。なお、「移動体」の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。
 検出装置2は、利用者Uの眼の位置を検出し、検出した眼の位置を投影装置3に送信する。検出装置2は、例えば、撮像装置を備えてよい。検出装置2が備える撮像装置は、利用者Uの眼を被写体とした撮像画像を撮像してよい。検出装置2は、撮影画像から利用者Uの眼の位置を検出してよい。検出装置2は、1つの撮像画像から、利用者Uの眼の位置を三次元空間の座標として検出してよい。検出装置2は、2つ以上の撮像装置を含んで構成され、各撮像装置が撮像した撮像画像から、利用者Uの眼の位置を三次元空間の座標として検出してよい。
 検出装置2は、撮像装置を備えず、撮像装置に接続されていてよい。検出装置2は、撮像装置からの信号を入力する入力端子を備えてよい。この場合、撮像装置は、入力端子に直接的に接続されてよい。検出装置2は、共有のネットワークを介して入力端子に間接的に接続されてよい。検出装置2は、入力端子に入力された映像信号から利用者Uの眼の位置を検出してよい。
 検出装置2は、例えば、センサを備えてよい。センサは、超音波センサまたは光センサ等であってよい。検出装置2は、センサによって利用者Uの頭部の位置を検出し、頭部の位置に基づいて、利用者Uの眼の位置を検出してよい。検出装置2は、2つ以上のセンサによって、利用者Uの眼の位置を三次元空間の座標として検出してよい。
 投影装置3は、例えば移動体4の利用者Uに所望の画像の虚像50を視認させる、ヘッドアップディスプレイの一部として機能する。一実施形態において投影装置3は、移動体4が備えた光学部材4aの所定領域に向かって、後述する画像光を射出する。射出された画像光は、光学部材4aの所定領域で反射され、利用者Uの眼に到達する。これにより、投影装置3はヘッドアップディスプレイとして機能する。一実施形態において、光学部材4aはウィンドシールドであってよい。他の実施形態において、光学部材4aはコンバイナであってよい。
 図2を参照して、一実施形態に係る投影装置3について詳細に説明する。投影装置3は、筐体10と、投影光学系20と、表示装置30とを備える。
 筐体10は、投影光学系20と、表示装置30とを収容する。筐体10は、表示装置30から射出された画像光が、外部に射出するために通過する開口10aを画定する。
 投影光学系20は、表示装置30から射出された画像光を投影して、投影装置3の外部に到達させる。投影装置3の外部に到達した画像光は、図1に示すように移動体4が備えた光学部材4aの所定領域に到達する。投影光学系20は、1つ以上のミラーおよびレンズを備えてよい。投影光学系20がミラーを備える場合、例えば、投影光学系20が備えるミラーは凹面鏡としてよい。図2において、投影光学系20は1つのミラーとして表示している。しかし、投影光学系20は、1つ以上のミラー、レンズおよびその他の光学素子を組み合わせて構成してよい。図2に示す一点鎖線で示す矢印Aは、表示装置30から射出された画像光の一部が、投影光学系20によって反射され、投影装置3の筐体10に設けられた開口10aを通過し投影装置3の外部まで到達する経路を示す。
 表示装置30は、筐体10の内部に配置され、画像光を射出する。表示装置30は、照射器31と、表示素子である表示パネル32と、光学素子としてのパララックスバリア33と、通信部34と、コントローラ35と、ドライバ36とを含んで構成される。
 照射器31は、表示パネル32の一方の面側に配置され、表示パネル32を面的に照射する。照射器31は、光源、導光板、拡散板、拡散シート等を含んで構成されてよい。照射器31は、光源により照射光を射出し、導光板、拡散板、拡散シート等により照射光を表示パネル32の面方向に均一化する。そして、照射器31は均一化された光を表示パネル32の方に射出する。
 表示パネル32は、例えば透過型の液晶表示パネルなどを採用しうる。表示パネル32は、板状の面である表示面321上に、図3に示されるように、第1方向および第1方向に略直交する第2方向に沿って格子状に配列された複数の区画領域を有する。第1方向および第2方向は、それぞれ、利用者Uによって表示パネル32の虚像が視認されるときの、水平方向および垂直方向に対応する。格子状とは、略直交する2方向に沿って平面的に規則的に配列されていることを意味する。区画領域の各々には、1つのサブピクセルが対応する。
 各サブピクセルはR(Red),G(Green),B(Blue)のいずれかの色に対応する。R,G,Bの3つのサブピクセルは、一組として1ピクセルを構成することができる。1ピクセルは、1画素と呼びうる。第1方向は、例えば、1ピクセルを構成する複数のサブピクセルが並ぶ方向である。第2方向は、例えば、同じ色のサブピクセルが並ぶ方向である。表示パネル32としては、透過型の液晶パネルに限られず、有機EL等他の表示パネルを使用することもできる。表示パネル32として、自発光型の表示パネルを使用した場合、照射器31は不要となる。
 第1実施形態の表示パネル32は、図3に示すように、第2方向に連続して配列された、左眼画像が表示される複数の列のサブピクセルが、第1方向に一列おきに配置される。上記複数の列のそれぞれに隣接した、右眼画像が表示される複数の列のサブピクセルが他方の一列おきに配置される。図3において、左眼画像を表示するサブピクセルをLで図示し、右眼画像を表示するサブピクセルをRで図示する。第1実施形態では、図3に示すように、左眼画像の配置間隔、すなわち、左眼画像の第1方向の長さと右眼画像の第1方向の長さとの合計である画像ピッチをkとして説明する。左眼画像と右眼画像とは第1方向に交互に配置されるため、画像ピッチkは、右眼画像の配置間隔でもある。
 パララックスバリア33は、サブピクセルから射出された画像光の伝播される光線方向を規定する光学素子である。パララックスバリア33は、図4に示されるように、表示装置30上の第2方向に伸びる複数の透光領域332を有する。透光領域332は、それぞれのサブピクセルから射出される画像光の伝播方向である光線方向を規定する。サブピクセルから射出される画像光の、右眼および左眼それぞれに視認可能な範囲は、パララックスバリア33によって定まる。一実施形態において、パララックスバリア33は、図2に示されるように、表示パネル32に対して照射器31の反対側に位置する。パララックスバリア33は、表示パネル32の照射器31側に位置してよい。
 具体的には、パララックスバリア33は、第2方向に帯状に伸びる遮光面331を有する。遮光面331は、パララックスバリア33の遮光領域を形成する。遮光面331は、サブピクセルから射出される画像光の一部を遮光する。遮光面331は、左眼画像を表示するサブピクセルから射出された画像光のうち、利用者Uの右眼に向かう部分を遮光しうる。遮光面331は、右眼画像を表示するサブピクセルから射出された画像光のうち、利用者Uの左眼に向かう部分を遮光しうる。複数の遮光面331は、互いに隣接する該遮光面331の間の透光領域332を規定する。透光領域332は、遮光面331に比べて光透過率が高い。
 透光領域332は、パララックスバリア33に入射する光を透過させる部分である。透光領域332は、第1所定値以上の透過率で可視光領域の光を透過させてよい。第1所定値は、例えば100%であってよいし、100%より小さい値であってよい。遮光面331は、パララックスバリア33に入射する可視光領域の光を遮って透過させない部分である。言い換えれば、遮光面331は、表示装置30に表示される画像を遮る。遮光面331は、第2所定値以下の透過率で光を遮ってよい。第2所定値は、例えば0%であってよいし、0%に近い値であってよい。例えば、第1所定値は50%以上の値とすることができる。第2所定値は10%以下の値とすることができる。
 透光領域332と遮光面331とは、第1方向に交互に並ぶ。透光領域332は、表示面321上の第2方向に延びる複数の帯状領域ごとに、サブピクセルから射出される画像光の光線方向を規定する。
 パララックスバリア33は、第2所定値未満の透過率を有するフィルムまたは板状部材で構成されてよい。この場合、遮光面331は、当該フィルムまたは板状部材で構成される。透光領域332は、フィルムまたは板状部材に設けられた開口で構成されてよい。フィルムは、樹脂で構成されてよいし、他の材料で構成されてよい。板状部材は、樹脂または金属等で構成されてよいし、他の材料で構成されてよい。パララックスバリア33は、フィルムまたは板状部材に限られず、他の種類の部材で構成されてよい。パララックスバリア33は、基材が遮光性を有してよいし、基材に遮光性を有する添加物が含有されてよい。
 パララックスバリア33は、液晶シャッターで構成されてよい。液晶シャッターは、印加する電圧に応じて光の透過率を制御しうる。液晶シャッターは、複数の画素で構成され、各画素における光の透過率を制御してよい。液晶シャッターは、光の透過率が高い領域または光の透過率が低い領域を任意の形状に形成してうる。パララックスバリア33が液晶シャッターで構成される場合、透光領域332は、第1所定値以上の透過率を有する領域としてよい。パララックスバリア33が液晶シャッターで構成される場合、遮光面331は、第2所定値以下の透過率を有する領域としてよい。
 パララックスバリア33は、一部のサブピクセルを出射した画像光を、透光領域332を透過させ、利用者Uの左眼の位置に伝播させる。パララックスバリア33は、他の一部のサブピクセルを出射した画像光を、透光領域332を透過させ利用者Uの右眼の位置に伝播させる。図2に示すように、パララックスバリア33は、表示パネル32の表示面321から距離g(以降において、「ギャップg」という)だけ離れて配置される。
 表示パネル32の表示面321から射出された画像光は、一部がパララックスバリア33を透過し、投影光学系20を介して光学部材4aに到達する。さらに画像光は光学部材4aに反射されて利用者Uの眼に到達する。これにより、利用者Uの眼は光学部材4aの前方に表示パネル32の虚像である第1虚像51を認識する。本願において前方は、利用者Uからみて光学部材4aの方向である。前方は、移動体4の通常移動する方向である。したがって、図2に示したように、利用者は、見かけ上、パララックスバリア33の虚像である第2虚像52を介して第1虚像51からの画像光の方向を規定しているかのごとく、画像を認識する。
 このように、利用者が、見かけ上、第2虚像52を介して第1虚像51を視認するかのごとく画像を認識しているのであって、実際にはパララックスバリア33の虚像である第2虚像は存在しない。しかし、以降においては、第2虚像52は、見かけ上、投影光学系20および光学部材4aによりパララックスバリア33の虚像が形成される位置にあり、第1虚像51からの画像光を規定するとみなされるものとして説明される。図5は、利用者Uから観察しうる表示パネル32の第1虚像51の各サブピクセルを示す。符号Lが付されたサブピクセルは左眼画像を表示する。符号Rが付されたサブピクセルは右眼画像を表示する。さらに、図5は、利用者Uの左眼から観察される第2虚像52の透光領域522および遮光面521を示す。利用者Uの左眼は、透光領域522に重なる符号Lが付された左眼画像を表示するサブピクセルを視認し、遮光面521に重なる符号Rが付された右眼画像を表示するサブピクセルを視認しない。一方、利用者Uの右眼から観察したとき、透光領域522は符号Rが付された右眼画像を表示するサブピクセルに重なる。利用者Uの右眼から観察したとき、遮光面521は符号Lが付された左眼画像を表示するサブピクセルに重なる。これにより、利用者Uの右眼は、右眼画像を視認し左眼画像を視認しない。
 ここで、パララックスバリア33の虚像である第2虚像52と利用者Uの眼との間の見かけ上の適視距離D(以降、単に「適視距離D」という)について、図6A~図6Cを参照して説明する。図6A~図6Cは、表示パネル32の虚像である第1虚像51から利用者Uまでの見かけ上の光学系といえる。図6A~図6Cには、第1虚像51と、第2虚像52と、利用者Uの眼とが示されている。説明の便宜上、図6A~図6Cに記載の位置関係を用いて以降の説明がなされるが、実際の、第1虚像51と第2虚像52との距離に対する第2虚像52と利用者Uとの眼との距離の比は、図6A~図6Cに示される距離の比より遥かに大きい。
 適視距離Dは、図6Aに示すように、左眼画像から射出された画像光が透光領域332を透過して左眼に到達するように配置された状態での、第2虚像52と利用者Uの眼との間の距離dである。適視距離Dは、利用者Uの眼間距離E、第2虚像52のピッチBpv、第2虚像52と第1虚像51との間の距離gv(以降「虚像ギャップgv」という)、および、第1虚像51の画像ピッチkvとの関係で定まりうる。
 第2虚像52と利用者Uの眼との間の距離dが適視距離Dでない場合、利用者Uの眼に認識される画像が不適切となることがある。
 例えば、図6Bに示すように、距離dが適視距離Dより小さい場合、表示パネル32の虚像である第1虚像51上で、透光領域522を通して視認できる領域511は、図6Aに示す透光領域522を通して視認できる領域511より広い。このため、少なくとも一部の右眼画像から射出された光が左眼に到達する。これにより、利用者Uの眼にはクロストークが発生する。
 図6Cに示すように、距離dが適視距離Dより大きい場合、表示パネル32の虚像である第1虚像51上で、透光領域522を通して視認できる領域511は、図6Cに示すの透光領域522を通して視認できる領域511より狭い。このため、利用者Uの眼に到達する画像光の光量は少なくなる。この場合も、左眼によって観察される光線に右眼画像の一部が混じり、右眼によって観察される光線に左眼画像の一部が混じる。
 第1実施形態では、このようにクロストークを抑制するために、コントローラ35が表示装置30の位置を変位させる。コントローラ35による処理の詳細については、追って詳細に説明する。
 図2に戻って、通信部34は、検出装置2から眼の位置を示す位置情報を受信する通信インタフェースである。通信部34は、物理コネクタ、および無線通信機が採用できる。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、および電磁波による伝送に対応した電磁コネクタが含まれる。電気コネクタは、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、およびRCA端子に対応するコネクタを含む。電気コネクタは、EIAJ CP-1211Aに規定されるS端子に対応するコネクタ、EIAJ RC-5237に規定されるD端子に対応するコネクタ、HDMI(登録商標)規格に準拠するコネクタ、およびBNCを含む同軸ケーブルに対応するコネクタを含む。光コネクタは、IEC 61754に準拠する種々のコネクタを含む。無線通信機は、Bluetooth(登録商標)、およびIEEE802.11を含む各規格に準拠する無線通信機を含む。無線通信機は、少なくとも1つのアンテナを含む。
 コントローラ35は、ドライバ36に接続され、該ドライバ36を制御する。コントローラ35は、例えばプロセッサとして構成される。コントローラ35は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ35は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。コントローラ35は、記憶部を備え、記憶部に各種情報、または表示システム1の各構成部を動作させるためのプログラム等を格納してよい。記憶部は、例えば半導体メモリ等で構成されてよい。記憶部は、コントローラ35のワークメモリとして機能してよい。
 コントローラ35は、上述のように、クロストークの発生を抑制するために、利用者Uの眼の位置に基づいて表示装置30を変位させる。コントローラ35は、通信部34が位置情報を受信すると、利用者Uの眼に到達する画像光の光線方向(以降、「奥行方向」という)における眼の位置に基づいて、表示装置30を変位させる第1の処理を行う。ここで、第1の処理について詳細に説明する。
 コントローラ35は、クロストークの発生を抑制するように、ドライバ36を制御して、表示パネル32の第1虚像51とパララックスバリア33の第2虚像52との位置を変位させる。このため、コントローラ35は、表示装置30を表示面321の法線方向に沿って変位させる。このとき、表示装置30は、表示パネル32とパララックスバリア33との互いの相対的な位置関係が固定された状態で変位してよい。第1実施形態では、表示装置30が変位するということは、少なくとも表示パネル32およびパララックスバリア33が変位することを示す。
 具体的には、コントローラ35は、利用者Uの眼が光学部材4aに近づく方向に変位すると、ドライバ36を制御して、表示装置30を投影光学系20から離れるように変位させる。第1虚像51および第2虚像52は、投影光学系20によって拡大される。そのため、表示パネル32およびパララックスバリア33の変位に伴って変位する第1虚像51および第2虚像52の変位量は、表示パネル32およびパララックスバリア33の変位量に比べて大きい。したがって、コントローラ35aは、利用者Uの眼と第2虚像52との距離が見かけ上の適視距離をように、利用者Uの眼の変位量より少ない変位量で表示装置30を投影光学系20から離れるように変位させる。
 コントローラ35は、利用者Uの眼が光学部材4aから離れる方向に変位すると、ドライバ36を制御して、表示装置30を投影光学系20に近づけるように変位させる。このとき、コントローラ35は、利用者Uの眼と第2虚像52との距離が見かけ上の適視距離を保つ方向に、利用者Uの眼の変位量より少ない変位量で表示装置30を投影光学系20に近づくように変位させる。
 ドライバ36は、上述したコントローラ35の制御に基づいて表示装置30を変位させる。ドライバ36は、図2に示すように、例えば、ステージ361、モーター(駆動素子)362等を含んで構成される。ステージ361は、筐体10内において画像光の光路を妨げない位置に配置される。ステージ361には、少なくとも表示パネル32とパララックスバリア33とが固定して取り付けられる。モーター362は、表示面321の法線方向に沿ってステージ361が変位するようステージ361を駆動する。これにより、ステージ361に固定された表示パネル32とパララックスバリア33は、ステージ361の変位とともに変位する。
 コントローラ35は、奥行方向に垂直な面内での眼の位置に基づいて、各サブピクセルに右眼画像および左眼画像のいずれを表示させる第2の処理を行う。ここで、第2の処理について詳細に説明する。
 コントローラ35は、検出装置2によって検出された利用者Uの眼の、奥行方向に垂直な面内における位置の、基準位置からの水平方向への変位を用いて、左眼画像を表示するサブピクセル、および右眼画像を表示するサブピクセルをそれぞれ決定する。左眼の基準位置は、表示パネル32とパララックスバリア33とが所定の位置関係にある状態において、表示パネル32上の左眼画像からの画像光が左眼に到達し、右眼画像からの画像光がパララックスバリア33に遮光されて左眼に到達しない位置である。右眼の基準位置は、表示パネル32上の右眼画像からの画像光が右眼に到達し、左眼画像からの画像光がパララックスバリア33に遮光されて右眼に到達しない位置である。以降において、左眼の基準位置は左基準位置LSPとされる。右眼の基準位置は右基準位置RSPとされる。
 以降の説明においては、コントローラ35が左眼の位置の、左基準位置LSPからの変位に基づき、左眼画像を表示するサブピクセルを決定する方法について説明する。コントローラ35が右眼の位置の、右基準位置RSPからの変位を用いて右眼画像を表示するサブピクセルを決定する方法も同様である。
 利用者Uの左眼が左基準位置LSPから水平方向に変位した位置にある場合に認識する虚像について説明する。既に図3を参照して説明したように、左眼画像は一列おきに第2方向に連続して配列された複数の列のサブピクセルそれぞれに表示されている。右眼画像は複数の列にそれぞれ隣接した他方の一列おきに配列された複数の列のサブピクセルそれぞれに表示されている。右眼画像が表示されるサブピクセルの反対側で隣接するサブピクセルには左眼画像が表示され、これが繰り返される。以降においては、所定の列、および該所定の列に一列おきに配置される列を第1列群という。第1列群に隣接して配置される列を第2列群という。図3においては、第1列群のサブピクセルに左眼画像が表示され、第2列群のサブピクセルに右眼画像が表示されている。
 利用者Uの左眼が左基準位置LSPにある場合、左眼画像から射出された画像光がパララックスバリア33の透光領域332を透過して、光学部材4aで反射されて左眼に到達する。これにより、図6Aに示したように、利用者Uの左眼は、符号Lで示す左眼画像の虚像を視認する。同様にして、右眼画像から射出された画像光がパララックスバリア33の透光領域332を透過して、光学部材4aで反射されて右眼に到達する。これにより、利用者Uの右眼は、符号Rで示す右眼画像の虚像を視認する。
 図7Aに示されるように、利用者Uの左眼が左基準位置LSPから眼間距離Eの1/2、変位していると、第1列群に表示された左眼画像の一部から射出された画像光と第2列群に表示された右眼画像の一部から射出された画像光とが左眼に到達する。同様にして、第1列群に表示された左眼画像の一部から射出された画像光と第2列群に表示された右眼画像の一部から射出された画像光とが右眼に到達する。これにより、利用者Uの左眼は符号Rで示す右眼画像の虚像の一部と、符号Lで示す左眼画像の虚像の一部とを視認する。すなわち、クロストークが発生し、利用者Uは正常な立体画像を認識することが困難となる。
 図7Bに示されるように、利用者Uの左眼が左基準位置LSPから眼間距離E、変位していると、第1列群に表示された左眼画像から射出された画像がパララックスバリア33の透光領域332を透過して右眼に到達する。第2列群に表示された左眼画像から射出された右眼画像から射出された画像がパララックスバリア33の透光領域332を透過して左眼に到達する。これにより、利用者Uの左眼は符号Rで示す右眼画像の虚像を視認する。利用者Uの右眼は符号Lで示す左眼画像の虚像を視認する。すなわち、いわゆる逆視という状態が発生し、利用者Uは、正常な立体画像を認識することが困難となる。
 そこで、コントローラ35は、表示面321の第1列群のサブピクセルに右眼画像を表示させ、第2列群のサブピクセルに左眼画像を表示させる。これにより、左眼画像から射出された画像がパララックスバリア33の透光領域332を透過して左眼に到達する。右眼画像から射出された画像がパララックスバリア33の透光領域332を透過して右眼に到達する。この場合、図7Cに示されるように、利用者Uの左眼は符号Lで示す左眼画像の虚像を視認する。利用者Uの右眼は符号Rで示す右眼画像の虚像を視認する。そのため、逆視の状態が解消され、利用者Uは、正常な立体画像を認識することができる。
 図7Dに示されるように、利用者Uの左眼が左基準位置LSPから眼間距離Eの2倍、変位していると、第1列群に表示された左眼画像から射出された画像がパララックスバリア33の透光領域332を透過して左眼に到達する。第2列群に表示された左眼画像から射出された右眼画像から射出された画像がパララックスバリア33の透光領域332を透過して左眼に到達する。これにより、利用者Uの左眼は符号Lで示す左眼画像の虚像を視認する。利用者Uの右眼は符号Rで示す右眼画像の虚像を視認する。このときクロストークの発生は抑制され、利用者Uは、正常な立体画像を認識することができる。
 したがって、コントローラ35は、クロストークおよび逆視を抑制するために、利用者Uの眼の位置に基づいて、表示パネル32の各サブピクセルに左眼画像および右眼画像のいずれを表示させるかを決定する。以降において、コントローラ35が左眼の位置に基づいて画像を表示させる方法が説明されるが、右眼の位置に基づいて画像を表示される方法も同様である。
 コントローラ35は、第1列群からの画像光より第2列群からの画像光が多く到達する位置に左眼がある場合、第2列群に左眼画像を表示させる。
 具体的には、左眼の位置が基準位置から距離E/2以上、3E/2未満、水平方向に変位した位置である場合、左眼画像には、第2列群のサブピクセルから射出された画像光が、第1列群のサブピクセルから射出された画像光より多く到達する。そのため、コントローラ35は、第2列群のサブピクセルに左眼画像を、第1列群のサブピクセルに右眼画像を表示させる。
 左眼の位置が基準位置から3E/2以上、5E/2未満、水平方向に変位した位置である場合、左眼画像には、第1列群のサブピクセルから射出された画像光が、第2列群のサブピクセルから射出された画像光より多く到達する。そのため、コントローラ35は、第1列群のサブピクセルに左眼画像を、第2列群のサブピクセルに右眼画像を表示させる。
 左眼の位置が基準位置から所定の距離範囲に、水平方向に変位した位置である場合、左眼画像には、第2列群のサブピクセルから射出された画像光が、第1列群のサブピクセルから射出された画像光より多く到達する。所定の距離範囲とは、(4k-3)×E/2以上、(4k-1)×E/2未満(kは整数)である。この場合、コントローラ35は、第2列群のサブピクセルに左眼画像を、第1列群のサブピクセルに右眼画像を表示させる。
 左眼の位置が基準位置から所定の距離範囲でない距離、水平方向に変位した位置である場合、左眼画像には、第1列群のサブピクセルから射出された画像光が、第2列群のサブピクセルから射出された画像光より多く到達する。この場合、コントローラ35は、第1列群のサブピクセルに左眼画像を、第2列群のサブピクセルに右眼画像を表示させる。
 続いて、第1実施形態のコントローラ35が表示装置30を変位させる処理について、図8を参照して説明する。コントローラ35は、通信部34が利用者Uの眼の位置を示す位置情報を受信すると、本処理を開始する。
 まず、コントローラ35は、検出装置2によって検出され、通信部34によって受信された位置情報を取得する(ステップS1)。
 ステップS1で位置情報が取得されると、コントローラ35は、奥行方向における左眼の位置に基づいて第1の処理を行う(ステップS2)。ここで、図9を参照して第1の処理の詳細が説明される。
 第1の処理において、コントローラ35は、利用者Uの眼に到達する画像光の光線方向における該利用者Uの眼の位置の、基準位置からの方向および変位量に基づいて、表示装置30の変位方向および変位量を決定する(ステップS21)。コントローラ35は、奥行方向における利用者Uの眼の位置に応じた適切な表示装置30の変位量を、予めメモリにテーブルとして記憶し、このテーブルに基づいて変位量を決定してよい。
 ステップS21で表示装置30の変位方向が決定されると、コントローラ35は、ドライバ36が、決定された方向に表示装置30を決定された変位量で変位させるように制御する(ステップS22)。
 ステップS2で第1の処理が行われると、コントローラ35は、奥行方向に垂直な面内における眼の位置に基づいて第2の処理を行う(ステップS3)。以下に、図10を参照して第2の処理の詳細について説明する。
 第2の処理において、コントローラ35は、左眼の位置が基準位置から所定の距離範囲内であるか否かを判定する(ステップS31)。
 ステップS31で、左眼の位置が基準位置から所定の距離範囲内であると、コントローラ35は、第1列群のサブピクセルに右眼画像を表示させ、第2列群のサブピクセルに左眼画像を表示させる(ステップS32)。
 ステップS31で、左眼の位置が基準位置から距離範囲内でないと、コントローラ35は、第1列群のサブピクセルに左眼画像を表示させ、第2列群のサブピクセルに右眼画像を表示させる(ステップS33)。
 ステップS3で第2の処理が行われると、ステップS1に戻って、コントローラ35は、再び通信部34が受信した位置情報を取得し、以降の処理を繰り返す。
 以上、第1実施形態によれば、表示装置30は、表示パネル32とパララックスバリア33とを、相対的な位置関係を維持しながら表示面321の法線方向に沿って変位させる。そのため、利用者Uが奥行方向に移動したときに発生するクロストークが抑制されうる。
 第1実施形態によれば、表示装置30は、眼の位置に基づいて、ドライバ36により表示パネル32およびパララックスバリア33を変位させる。このため、クロストークの発生が、確実に抑制されうる。
 第1実施形態によれば、表示装置30は、奥行方向に垂直な面内における眼の位置に基づいて、複数のサブピクセルのそれぞれに右眼画像または左眼画像のいずれを表示させるか決定する。このため、利用者Uの右眼が視認するサブピクセルに右眼画像を表示され、左眼が視認するサブピクセルに左眼画像が表示されうる。したがって、クロストークおよび逆視が抑制されうる。
 続いて、本開示の第2実施形態について、図面を参照しながら詳細に説明する。
 本開示の第2実施形態に係る表示システム1は、検出装置2と、投影装置3とを備える。第1実施形態において図1に示した投影装置3と同様に、投影装置3は、移動体4に搭載される。例えば、投影装置3は、移動体4のダッシュボードに収容される。第2実施形態においては、第1実施形態と異なる構成のみについて説明する。第2実施形態において説明を省略する構成については第1実施形態と同一である。
 図11を参照して、第2実施形態に係る投影装置3について詳細に説明する。第2実施形態の投影装置3は、筐体10と、第1投影光学系20aと、第2投影光学系20bと、表示装置30とを備える。
 第1投影光学系20aおよび第2投影光学系20bは、それぞれ第1実施形態の投影光学系20と同様に構成される。
 表示装置30は、筐体10の内部に配置され、画像光を射出する。表示装置30は、第1照射器(照射器)31aと、第2照射器31bと、表示素子である第1表示パネル32aおよび第2表示パネル32bとを含んで構成される。表示装置30は、光学素子としての第1パララックスバリア33aおよび第2パララックスバリア33bと、通信部34と、コントローラ35と、第1ドライバ(ドライバ)36aと、第2ドライバ36bとをさらに含んで構成される。
 第1照射器31aは、表示パネル32の一部である第1表示パネル32aを面的に照射する。第2照射器31bは、表示パネル32の一部である第1表示パネル32aを面的に照射する。第1照射器31aおよび第2照射器31bは、特に説明をする点以外の点については第1実施形態の照射器31と同一である。
 第1表示パネル32aおよび第2表示パネル32bは、それぞれ第1実施形態の表示パネル32と同様に構成される。第1表示パネル32aおよび第2表示パネル32bは、特に説明をする点以外の点については第1実施形態の表示パネル32と同一である。
 第1パララックスバリア33aは、第1表示パネル32aの一部のサブピクセルを出射した第1画像光を透過させ利用者Uの左眼の位置に伝搬させる。第1パララックスバリア33aは、第1表示パネル32aの他の一部のサブピクセルを出射した第1画像光を透過させ利用者Uの右眼の位置に伝搬させる。図11に示すように、第1パララックスバリア33aは、第1表示パネル32aの表示面321aから距離g1(以降において、「ギャップg1」という)だけ離れて配置される。
 第2パララックスバリア33bは、第2表示パネル32bの一部のサブピクセルを出射した第2画像光を透過させ利用者Uの左眼の位置に伝搬させる。第1パララックスバリア33aは、表示パネル32の第1表示パネル32aの他の一部のサブピクセルを出射した第2画像光を透過させ利用者Uの右眼の位置に伝搬させる。第2パララックスバリア33bは、第2表示パネル32bの表示面321bから距離g2(以降において、「ギャップg2」という)だけ離れて配置される。
 第1パララックスバリア33aおよび第2パララックスバリア33bは、特に説明をする点以外の点については第1実施形態のパララックスバリア33と同一である。
 上述のような構成を備えることによって、第1表示パネル32aから射出された第1画像光は、第1パララックスバリア33a、第1投影光学系20aを介して光学部材4aに到達し、利用者Uの眼が視認する第1虚像51を形成する。
同様にして、第2表示パネル32bから射出された第2画像光は、第2パララックスバリア33b、第2投影光学系20bを介して光学部材4aに到達し、利用者Uの眼が視認する第3虚像53を形成する。利用者Uの眼から見て、第3虚像53が第1虚像51より遠くに形成されるように、表示パネル32から光学部材4aの光路長が適宜設計され、上述の構成が配置される。
 第3虚像53の第1虚像51に近い領域の虚像と、第1虚像51の第3虚像53に近い領域の虚像との利用者Uの眼からの距離が所定の範囲内となるように、表示パネル32に表示される画像が設計されてもよい。これにより、表示装置30は、第1虚像51と第3虚像53との間に切れ目が生じるのを抑え、全体として立体感の大きい立体画像の虚像を利用者Uに視認させることができる。
 第2実施形態では、第1虚像51と利用者Uの眼との間の見かけ上の適視距離D(以降、単に「適視距離D」という)とし、該適視距離Dについて、図6を参照して説明する。ここでは、第1虚像51に係る適視距離Dについて説明するが、第2虚像52に係る適視距離ついても同様である。
 コントローラ35は、上述のように、クロストークおよび逆視の発生を抑制するために、利用者Uの眼の位置に基づいて第1パララックスバリア33aを変位させる。上述したように第1の実施形態のコントローラ35は、表示パネル32とパララックスバリア33との互いの相対的な位置関係が固定された状態で、表示装置30における少なくとも表示パネル32とパララックスバリア33とを変位させる。これに対して、第2実施形態のコントローラ35は、第1表示パネル32aが固定された状態で第1パララックスバリア33aのみを変位させる点で第1実施形態とは異なる。
 具体的には、コントローラ35は、通信部34が位置情報を受信すると奥行方向における眼の位置に基づいて、第1パララックスバリア33aを表示面321aに対して変位させる第1の処理を行う。ここで、第1の処理について詳細に説明する。
 コントローラ35は、クロストークおよび逆視の発生を抑制するように、第1ドライバ36aを制御して、第1パララックスバリア33aの虚像である第2虚像52の位置を変位させる。このため、コントローラ35は、第1パララックスバリア33aを、第1表示パネル32aの表示面321aの法線方向に沿って変位させる。
 具体的には、コントローラ35は、図6Bに示したように、利用者Uの眼が光学部材4aに近づく方向に変位すると、第1ドライバ36aを制御して、図6Dに示すように第1パララックスバリア33aを表示パネル32に近づける方向に変位させる。第1パララックスバリア33aの位置を調整することによって、クロストークおよび逆視が抑制されうる。
 コントローラ35は、図6Cに示したように、利用者Uの眼が光学部材4aから離れる方向に変位すると、第1ドライバ36aを制御して、図6Eに示すように第1パララックスバリア33aを表示パネル32から離れる方向に変位させる。
 コントローラ35は、第2表示パネル32bから射出された第2画像光がつくる第3虚像53に係るクロストークおよび光量の低減を抑制するように、第2ドライバ36bを制御する。具体的には、コントローラ35は、第2ドライバ36bを制御して、第2パララックスバリア33bの虚像である第4虚像54の位置を変位させる。このため、コントローラ35は、第2パララックスバリア33bを第2表示パネル32bの表示面321bの法線方向に沿って変位させる。コントローラ35が第2パララックスバリア33bを変位させる具体的な方法は、上述した第1パララックスバリア33aを変位させる方法と同様である。
 第1ドライバ36aは、コントローラ35の制御に基づいて第1パララックスバリア33aを変位させる。第1ドライバ36aは、図11に示したように、例えば、第1ステージ361a、第1モーター(駆動素子)362a等を含んで構成される。第1ステージ361aは、筐体10内において光路を妨げない位置に配置される。第1ステージ361aには、第1パララックスバリア33aが固定して取り付けられる。第1モーター362aは、第1表示パネル32aの表示面321aの法線方向に沿って変位するよう第1ステージ361aを駆動する。これにより、第1ステージ361aに固定された第1パララックスバリア33aは、第1ステージ361aの変位とともに変位する。
 第2ドライバ36bは、コントローラ35の制御に基づいて第2パララックスバリア33bを変位させる。第2ドライバ36bは、図11に示したように、例えば、第2ステージ361b、第2モーター(駆動素子)362b等を含んで構成される。第2ステージ361bは、筐体10内において光路を妨げない位置に配置される。第2ステージ361bには、第2パララックスバリア33bが固定して取り付けられる。第2モーター362bは、第2表示パネル32bの表示面321bの法線方向に沿って変位するよう第2ステージ361bを駆動する。これにより、第2ステージ361bに固定された第2パララックスバリア33bは、第2ステージ361bの変位とともに変位する。
 コントローラ35は、利用者Uの眼に到達する画像光の光線方向に略垂直な面の面内での眼の位置に基づいて、各サブピクセルに右眼画像および左眼画像のいずれを表示させる第2の処理を行う。第2の処理は、第1実施形態における第2の処理と同一である。
 続いて、第2実施形態のコントローラ35が表示装置30を制御する処理について、図面を参照して説明する。第2実施形態のコントローラ35の処理において、第1実施形態のコントローラ35における第1処理のみが異なる。
 図12に示すように、コントローラ35は、第1処理において奥行方向における利用者Uの眼の位置の、基準位置からの変位方向および変位量に基づいて、第1パララックスバリア33aの変位方向および変位量を決定する。コントローラ35は、第1処理において奥行方向における利用者Uの眼の位置の、基準位置からの変位方向および変位量に基づいて、第2パララックスバリア33b変位方向および変位量を決定する(ステップS210)。
 ステップS210で表示装置30の変位方向が決定されると、コントローラ35は、決定された方向に第1パララックスバリア33aを変位させるように、第1ドライバ36aを制御する。ステップS210で表示装置30の変位方向が決定されると、コントローラ35は、決定された方向に第2パララックスバリア33bを変位させるように、第2ドライバ36bを制御する(ステップS220)。
 以上、第2実施形態によれば、表示装置30は、表示パネル32を変位させずに、第1パララックスバリア33aおよび第2パララックスバリア33bをそれぞれ表示パネル32の表示面321の法線方向に沿って変位させる。このため、利用者Uの眼からの距離が異なる2つの虚像50を視認させる表示装置30において、それぞれの虚像についてクロストークの発生および光量の減少が抑制されうる。
 第2実施形態によれば、表示装置30は、奥行方向の眼の位置に基づいて、第1ドライバ36aおよび第2ドライバ36bによりそれぞれ第1パララックスバリア33aおよび第2パララックスバリア33bをそれぞれ変位させる。このため、利用者Uの眼からの距離が異なる2つの虚像50を視認させる表示装置30において、それぞれの虚像についてクロストークの発生および光量の減少が確実に抑制されうる。
 第2実施形態によれば、表示装置30は、奥行方向に垂直な面内における眼の位置に基づいて、複数のサブピクセルのそれぞれに右眼画像または左眼画像のいずれかを表示させる。このため、利用者Uの右眼が認識するサブピクセルに右眼画像が表示され、左眼が認識するサブピクセルに左眼画像を表示されうる。したがって、クロストークおよび逆視の発生が抑制されうる。
 上述の実施形態は代表的な例として説明したが、本開示の趣旨および範囲内で、多くの変更および置換ができることは当業者に明らかである。従って、本開示は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の複数の構成ブロックを1つに組合せたり、あるいは1つの構成ブロックを分割したりすることが可能である。
 上述の実施形態において、コントローラ35は、第1の処理を行ってから第2の処理を行ったがこれに限られない。例えば、コントローラ35は、第2の処理を行ってから第1の処理を行ってよい。コントローラ35は、第1の処理および第2の処理のいずれかのみを行ってよい。
 上述の実施形態において、サブピクセルから射出される画像光の光線方向を規定する光学素子としては、パララックスバリアに限られず、レンチキュラーレンズ等をもちいることができる。レンチキュラーレンズは、第2方向に延びるシリンドリカルレンズが、第1方向に配列された構造としうる。「第2方向に延びる複数の帯状領域」は、第1方向に延びる部位を含みうる。「第2方向に延びる複数の帯状領域」は、第1方向に平行な場合は含まれない。「第2方向に延びる複数の帯状領域」は、第2方向に対して斜めに延びうる。
 上述の実施形態において、検出装置2は、左眼の位置を検出した。コントローラ35は、左眼の位置に基づいて表示パネル32の各サブピクセルに左眼画像または右眼画像を表示させた。しかし、これに限られない。例えば、検出装置2は、右眼の位置を検出してもよい。この場合、コントローラ35は、右眼の位置に基づいて表示パネル32の各サブピクセルに左眼画像または右眼画像を表示させてもよい。
 第2実施形態において、表示装置60は、第1パララックスバリア33aと、第2パララックスバリア33bとを備えたが、この限りではない。例えば、表示装置60は、第1パララックスバリア33aのみを備え、第2パララックスバリア33bを備えなくてよい。この場合、表示装置60は、第2照射器31b、第2表示パネル32b、第2ドライバ36bを備えなくてよい。投影装置3は、第2投影光学系20bを備えなくてよい。
1       表示システム
2       検出装置
3       投影装置
4       移動体
4a      光学部材
10      筐体
10a     開口
20      投影光学系
30,60   表示装置
31      照射器
31a     第1照射器
31b     第2照射器
32      表示パネル
32a     第1表示パネル
32b     第2表示パネル
321     表示面
33      パララックスバリア
33a     第1パララックスバリア
33b     第2パララックスバリア
331     遮光面
332     透光領域
34      通信部
35      コントローラ
36      ドライバ
361     ステージ
36a     第1ドライバ
36b     第2ドライバ
361a    第1ステージ
361b    第2ステージ
362     モーター
362a    第1モーター
362b    第2モーター
50      虚像
51      第1虚像
52      第2虚像
53      第3虚像
54      第4虚像

Claims (11)

  1.  第1方向および前記第1方向に略直交する第2方向に沿って格子状に配列された複数のサブピクセルを有する表示面を含む表示素子と、
     前記表示面上の第2方向に延びる複数の帯状領域ごとに、前記サブピクセルから射出される画像光の光線方向を規定する光学素子と、
     前記光学素子によって光線方向が規定された前記画像光を、前記表示面の虚像が形成されるように投影する投影光学系と、
     前記光学素子を前記表示面の法線方向に沿って変位させるドライバと、
     前記ドライバにより前記光学素子を変位させるコントローラと、
    を備える表示装置。
  2.  前記ドライバは、前記表示面と前記光学素子との位置関係が固定された状態で前記表示面を変位させ、
     前記コントローラは、前記ドライバにより前記表示面を変位させる請求項1に記載の表示装置。
  3.  前記ドライバは、前記表示面および前記光学素子を固定したステージと該ステージを前記表示面の法線方向に駆動する駆動素子と、を含み、
     前記コントローラは、前記駆動素子によって前記ステージを駆動させることにより前記表示面および前記光学素子を変位させる請求項1に記載の表示装置。
  4.  前記ドライバは、前記光学素子を前記表示面に対して変位させる請求項1に記載の表示装置。
  5.  前記ドライバは、前記光学素子に固定されたステージと該ステージを前記表示面の法線方向に駆動する駆動素子と、を含み、
     前記コントローラは、前記駆動素子によって前記ステージを駆動させることにより前記光学素子を変位させる請求項4に記載の表示装置。
  6.  利用者の眼の位置を示す位置情報を受信する通信部を備え、
     前記コントローラは、前記通信部により受信した前記眼の位置に基づいて、前記ドライバにより前記光学素子を変位させる請求項1から5のいずれか一項に記載の表示装置。
  7.  前記コントローラは、前記利用者の眼に到達する前記画像光の光線方向における、前記眼の位置に基づいて、前記ドライバにより前記光学素子を前記表示面の法線方向に沿って変位させる請求項6に記載の表示装置。
  8.  前記コントローラは、前記利用者の眼に到達する前記画像光の前記光線方向に垂直な面内における前記眼の位置に基づいて、前記複数のサブピクセルのそれぞれに左眼に視認させる左眼画像および右眼に視認させる右眼画像のいずれかを表示させるか決定する請求項6または7に記載の表示装置。
  9.  前記コントローラは、前記複数のサブピクセルのうち、前記第1方向に一列おきに、前記第2方向に連続して配列された複数の列のサブピクセルに前記右眼画像または前記左眼画像のいずれか一方の画像を表示させ、前記複数の列にそれぞれ隣接した他方の一列おきに配列された複数の列のサブピクセルに、前記右眼画像または前記左眼画像のいずれであって前記一方の画像とは異なる画像を表示させる請求項8に記載の表示装置。
  10.  利用者を撮像する撮像装置と、
     該撮像装置によって撮像された利用者の眼の位置を示す位置情報を受信する通信部と、第1方向および前記第1方向に略直交する第2方向に沿って格子状に配列された複数のサブピクセルを有する表示面を有する表示素子と、前記表示面上の第2方向に延びる複数の帯状領域ごとに、前記サブピクセルから射出される画像光の光線方向を規定する光学素子と、前記光学素子によって光線方向が規定された前記画像光を、前記表示面の虚像が形成されるように投影する投影光学系と、前記光学素子を前記表示面の法線方向に沿って変位させるドライバと、前記ドライバにより前記光学素子を変位させるコントローラと、
    を含む表示装置
    を備える表示システム。
  11.  利用者を撮像する撮像装置と、
     該撮像装置によって撮像された利用者の眼の位置を示す位置情報を受信する通信部と、第1方向および前記第1方向に略直交する第2方向に沿って格子状に配列された複数のサブピクセルを有する表示面を有する表示素子と、前記表示面上の第2方向に延びる複数の帯状領域ごとに、前記サブピクセルから射出される画像光の光線方向を規定する光学素子と、前記光学素子によって光線方向が規定された前記画像光を、前記表示面の虚像が形成されるように投影する投影光学系と、前記光学素子を前記表示面の法線方向に沿って変位させるドライバと、前記ドライバにより前記光学素子を変位させるコントローラと、を有する表示装置と、
    を含む表示システムを備える移動体。
PCT/JP2018/016862 2017-04-26 2018-04-25 表示装置、表示システム、および移動体 WO2018199185A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/660,703 US11221482B2 (en) 2017-04-26 2019-10-22 Display apparatus, display system, and mobile body

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2017-087714 2017-04-26
JP2017087714A JP6745242B2 (ja) 2017-04-26 2017-04-26 表示装置、表示システム、および移動体
JP2017087712A JP6841715B2 (ja) 2017-04-26 2017-04-26 表示装置、表示システム、および移動体
JP2017-087712 2017-04-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/660,703 Continuation US11221482B2 (en) 2017-04-26 2019-10-22 Display apparatus, display system, and mobile body

Publications (1)

Publication Number Publication Date
WO2018199185A1 true WO2018199185A1 (ja) 2018-11-01

Family

ID=63919827

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/016862 WO2018199185A1 (ja) 2017-04-26 2018-04-25 表示装置、表示システム、および移動体

Country Status (2)

Country Link
US (1) US11221482B2 (ja)
WO (1) WO2018199185A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020072460A (ja) * 2018-11-02 2020-05-07 京セラ株式会社 通信ヘッドアップディスプレイシステム、通信機器、移動体、およびプログラム
JP2020071453A (ja) * 2018-11-02 2020-05-07 京セラ株式会社 無線通信ヘッドアップディスプレイシステム、無線通信機器、移動体、およびプログラム
JP2021067909A (ja) * 2019-10-28 2021-04-30 日本精機株式会社 立体表示装置及びヘッドアップディスプレイ装置
EP3876530A4 (en) * 2018-11-02 2022-05-18 Kyocera Corporation 3D DISPLAY DEVICE, HEAD-UP DISPLAY, MOVING BODY AND PROGRAM

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN213186348U (zh) * 2020-08-27 2021-05-11 广景视睿科技(深圳)有限公司 一种投影设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06115381A (ja) * 1992-10-08 1994-04-26 Y N S:Kk ヘッドアップディスプレイにおける虚像のコントロール方法及び虚像のコントロール装置
DE10302387A1 (de) * 2003-01-22 2004-08-26 Siemens Ag Head-up-Display für den Einsatz in Kraftfahrzeugen
JP2008268485A (ja) * 2007-04-19 2008-11-06 Nippon Seiki Co Ltd 表示装置
JP2009008722A (ja) * 2007-06-26 2009-01-15 Univ Of Tsukuba 3次元ヘッドアップディスプレイ装置
JP2011085790A (ja) * 2009-10-16 2011-04-28 Seiko Epson Corp 電気光学装置及び電子機器
JP2012242443A (ja) * 2011-05-16 2012-12-10 Sharp Corp 立体映像表示装置
JP2014068331A (ja) * 2012-09-06 2014-04-17 Nippon Seiki Co Ltd 立体表示装置及びその表示方法
WO2015168464A1 (en) * 2014-04-30 2015-11-05 Visteon Global Technologies, Inc. System and method for calibrating alignment of a three-dimensional display within a vehicle

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4181446B2 (ja) 2003-05-14 2008-11-12 シャープ株式会社 立体画像表示装置
US8189143B2 (en) * 2006-04-17 2012-05-29 Panasonic Corporation Display device
EP3120187B1 (en) * 2014-03-21 2021-10-20 RealD Spark, LLC Directional backlight
JP2015194709A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 画像表示装置
US20170155895A1 (en) * 2014-05-12 2017-06-01 Koninklijke Philips N.V. Generation of drive values for a display
US9838675B2 (en) * 2015-02-03 2017-12-05 Barco, Inc. Remote 6P laser projection of 3D cinema content
US10466543B2 (en) * 2016-06-27 2019-11-05 RealD, INC. Pixel geometries for spatially multiplexed stereo 3D displays
JP6732631B2 (ja) * 2016-10-31 2020-07-29 株式会社ジャパンディスプレイ 表示装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06115381A (ja) * 1992-10-08 1994-04-26 Y N S:Kk ヘッドアップディスプレイにおける虚像のコントロール方法及び虚像のコントロール装置
DE10302387A1 (de) * 2003-01-22 2004-08-26 Siemens Ag Head-up-Display für den Einsatz in Kraftfahrzeugen
JP2008268485A (ja) * 2007-04-19 2008-11-06 Nippon Seiki Co Ltd 表示装置
JP2009008722A (ja) * 2007-06-26 2009-01-15 Univ Of Tsukuba 3次元ヘッドアップディスプレイ装置
JP2011085790A (ja) * 2009-10-16 2011-04-28 Seiko Epson Corp 電気光学装置及び電子機器
JP2012242443A (ja) * 2011-05-16 2012-12-10 Sharp Corp 立体映像表示装置
JP2014068331A (ja) * 2012-09-06 2014-04-17 Nippon Seiki Co Ltd 立体表示装置及びその表示方法
WO2015168464A1 (en) * 2014-04-30 2015-11-05 Visteon Global Technologies, Inc. System and method for calibrating alignment of a three-dimensional display within a vehicle

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7034052B2 (ja) 2018-11-02 2022-03-11 京セラ株式会社 無線通信ヘッドアップディスプレイシステム、無線通信機器、移動体、およびプログラム
EP3876224A4 (en) * 2018-11-02 2022-05-18 Kyocera Corporation RADIO COMMUNICATION HEAD-UP DISPLAY SYSTEM, RADIO COMMUNICATION EQUIPMENT, MOVING BODY AND PROGRAM
JP2020071453A (ja) * 2018-11-02 2020-05-07 京セラ株式会社 無線通信ヘッドアップディスプレイシステム、無線通信機器、移動体、およびプログラム
WO2020090714A1 (ja) * 2018-11-02 2020-05-07 京セラ株式会社 無線通信ヘッドアップディスプレイシステム、無線通信機器、移動体、およびプログラム
US12010289B2 (en) 2018-11-02 2024-06-11 Kyocera Corporation Communication head-up display system, communication device, mobile body, and non-transitory computer-readable medium
CN112889275A (zh) * 2018-11-02 2021-06-01 京瓷株式会社 通信平视显示器系统、通信设备、移动体以及程序
WO2020090713A1 (ja) * 2018-11-02 2020-05-07 京セラ株式会社 通信ヘッドアップディスプレイシステム、通信機器、移動体、およびプログラム
JP2020072460A (ja) * 2018-11-02 2020-05-07 京セラ株式会社 通信ヘッドアップディスプレイシステム、通信機器、移動体、およびプログラム
JP7105174B2 (ja) 2018-11-02 2022-07-22 京セラ株式会社 通信ヘッドアップディスプレイシステム、通信機器、移動体、およびプログラム
EP3876530A4 (en) * 2018-11-02 2022-05-18 Kyocera Corporation 3D DISPLAY DEVICE, HEAD-UP DISPLAY, MOVING BODY AND PROGRAM
EP3876529A4 (en) * 2018-11-02 2022-05-11 Kyocera Corporation HEAD-UP DISPLAY SYSTEM FOR COMMUNICATION, COMMUNICATION DEVICE, MOBILE BODY AND PROGRAM
CN112889275B (zh) * 2018-11-02 2023-06-16 京瓷株式会社 通信平视显示器系统、通信设备、移动体以及程序
JP7358909B2 (ja) 2019-10-28 2023-10-11 日本精機株式会社 立体表示装置及びヘッドアップディスプレイ装置
JP2021067909A (ja) * 2019-10-28 2021-04-30 日本精機株式会社 立体表示装置及びヘッドアップディスプレイ装置

Also Published As

Publication number Publication date
US11221482B2 (en) 2022-01-11
US20200049991A1 (en) 2020-02-13

Similar Documents

Publication Publication Date Title
WO2018199185A1 (ja) 表示装置、表示システム、および移動体
WO2019009243A1 (ja) 3次元表示装置、3次元表示システム、移動体、および3次元表示方法
US11470302B2 (en) Three-dimensional display device, head-up display system, moving object, and non-transitory computer-readable medium storing program
US20200053352A1 (en) Three-dimensional display apparatus, three-dimensional display system, head-up display system, and mobile body
EP3882064A1 (en) Three-dimensional display device, three-dimensional display system, head-up display, and mobile object
JP2019145967A (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
WO2019163817A1 (ja) 画像表示装置、ヘッドアップディスプレイシステム、および移動体
JP6745242B2 (ja) 表示装置、表示システム、および移動体
JP6841715B2 (ja) 表示装置、表示システム、および移動体
WO2020130049A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2020130048A1 (ja) 3次元表示装置、ヘッドアップディスプレイシステム、及び移動体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
JP2021056480A (ja) 3次元表示装置、コントローラ、3次元表示方法、3次元表示システム、及び、移動体
JP7441333B2 (ja) 3次元表示装置、画像表示システムおよび移動体
WO2020196052A1 (ja) 画像表示モジュール、画像表示システム、移動体、画像表示方法及び画像表示プログラム
US11874464B2 (en) Head-up display, head-up display system, moving object, and method of designing head-up display
JP7274392B2 (ja) カメラ、ヘッドアップディスプレイシステム、及び移動体
WO2020130047A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
WO2020090714A1 (ja) 無線通信ヘッドアップディスプレイシステム、無線通信機器、移動体、およびプログラム
WO2022149599A1 (ja) 3次元表示装置
WO2020090713A1 (ja) 通信ヘッドアップディスプレイシステム、通信機器、移動体、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18791805

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18791805

Country of ref document: EP

Kind code of ref document: A1