WO2021090956A1 - ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体 - Google Patents

ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体 Download PDF

Info

Publication number
WO2021090956A1
WO2021090956A1 PCT/JP2020/041872 JP2020041872W WO2021090956A1 WO 2021090956 A1 WO2021090956 A1 WO 2021090956A1 JP 2020041872 W JP2020041872 W JP 2020041872W WO 2021090956 A1 WO2021090956 A1 WO 2021090956A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
distance
user
display
display panel
Prior art date
Application number
PCT/JP2020/041872
Other languages
English (en)
French (fr)
Inventor
薫 草深
健慈 小倉
諒 忠内
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to JP2021555145A priority Critical patent/JP7346587B2/ja
Priority to EP20883735.1A priority patent/EP4057049A4/en
Priority to US17/774,016 priority patent/US20230001790A1/en
Priority to CN202080077675.XA priority patent/CN114761857A/zh
Publication of WO2021090956A1 publication Critical patent/WO2021090956A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/80Arrangements for controlling instruments
    • B60K35/81Arrangements for controlling instruments for controlling displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/317Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using slanted parallax optics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking
    • H04N13/351Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking for displaying simultaneously
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/334Projection means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/347Optical elements for superposition of display information
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0129Head-up displays characterised by optical features comprising devices for correcting parallax
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0209Crosstalk reduction, i.e. to reduce direct or indirect influences of signals directed to a certain pixel of the displayed image on other pixels of said image, inclusive of influences affecting pixels in different frames or fields or sub-images which constitute a same image, e.g. left and right images of a stereoscopic display
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • This disclosure relates to a head-up display, a head-up display system, and a mobile body.
  • Patent Document 1 An example of the prior art is described in Patent Document 1.
  • the head-up display of the present disclosure includes a first input unit, a second input unit, a display panel, an optical system, a processor, and an optical element.
  • the first input unit is configured to be able to acquire first position information regarding the position of the object including the distance to the object.
  • the second input unit is configured to be able to acquire second position information regarding the position of the user's eyes.
  • the optical system is configured to project a virtual image of an image displayed on the display panel within the field of view of the user.
  • the processor is configured to display a parallax image including a first image and a second image having parallax with each other on the display panel.
  • the optical element propagates the first image displayed on the display panel to the user's first eye via the optical system, and the second image displayed on the display panel is transmitted to the user's first eye. It is configured to propagate to the second eye.
  • the processor Based on the first position information and the second position information, the processor includes an image element included in the parallax image on the display panel so as to at least partially superimpose on the object viewed by the user. Is displayed.
  • the processor executes a first control for fixing the parallax amount of the image element to a parallax amount larger than 0 corresponding to the first distance. It is composed.
  • the head-up display system of the present disclosure includes a first detection device, a second detection device, and a head-up display.
  • the first detection device is configured to be capable of detecting first position information regarding the position of the object, including the distance to the object.
  • the second detection device is configured to be capable of detecting second position information regarding the position of the user's eyes.
  • the head-up display includes a first input unit, a second input unit, a display panel, an optical system, a processor, and an optical element.
  • the first input unit is configured to be able to acquire the first position information from the first detection device.
  • the second input unit is configured to be able to acquire the second position information from the second detection device.
  • the optical system is configured to project a virtual image of an image displayed on the display panel within the field of view of the user.
  • the processor is configured to display a parallax image including a first image and a second image having parallax with each other on the display panel.
  • the optical element propagates the first image displayed on the display panel to the user's first eye via the optical system, and the second image displayed on the display panel is transmitted to the user's first eye. It is configured to propagate to the second eye.
  • the processor Based on the first position information and the second position information, the processor includes an image element included in the parallax image on the display panel so as to at least partially superimpose on the object viewed by the user. Is displayed.
  • the processor is configured to fix the parallax amount of the image element to a parallax amount greater than 0 corresponding to the first distance when the distance to the object is a predetermined first distance or more.
  • the mobile body of the present disclosure is equipped with a head-up display system.
  • the head-up display system includes a first detection device, a second detection device, and a head-up display.
  • the first detection device is configured to be capable of detecting first position information regarding the position of the object, including the distance to the object.
  • the second detection device is configured to be capable of detecting second position information regarding the position of the user's eyes.
  • the head-up display includes a first input unit, a second input unit, a display panel, an optical system, a processor, and an optical element.
  • the first input unit is configured to be able to acquire the first position information from the first detection device.
  • the second input unit is configured to be able to acquire the second position information from the second detection device.
  • the optical system is configured to project a virtual image of an image displayed on the display panel within the field of view of the user.
  • the processor is configured to display a parallax image including a first image and a second image having parallax with each other on the display panel.
  • the optical element propagates the first image displayed on the display panel to the user's first eye via the optical system, and the second image displayed on the display panel is transmitted to the user's first eye. It is configured to propagate to the second eye.
  • the processor Based on the first position information and the second position information, the processor includes an image element included in the parallax image on the display panel so as to at least partially superimpose on the object viewed by the user. Is displayed.
  • the processor is configured to fix the parallax amount of the image element to a parallax amount greater than 0 corresponding to the first distance when the distance to the object is a predetermined first distance or more.
  • FIG. 1 It is a figure which shows an example of the head-up display system mounted on the moving body. It is a figure which shows the schematic structure of the display device shown in FIG. It is a figure which shows the example which looked at the display panel shown in FIG. 2 from the depth direction. It is a figure which shows the example which looked at the parallax barrier shown in FIG. 2 from the depth direction. It is a figure for demonstrating the relationship between the virtual image shown in FIG. 1 and a user's eye. It is a figure which shows the region which can be seen from the left eye in the virtual image of a display panel. It is a figure which shows the region which can be seen from the right eye in the virtual image of a display panel.
  • head-up display which is a basic configuration of the head-up display of the present disclosure
  • an image having a discrepancy is propagated to the left and right eyes of the user, and the image is visually recognized as a three-dimensional image having depth in the user's field of view.
  • Head-up displays that project virtual images are known.
  • a head-up display that displays a 3D image as a virtual image in the user's field of view
  • the head-up display displays an image having a parallax corresponding to the distance to the object at a position where the object is visually recognized by the user.
  • the process of superimposing a three-dimensional image on an object and displaying it preferably has a low load on the process.
  • an object of the present disclosure made by paying attention to the above points is to provide a head-up display, a head-up display system, and a moving body capable of reducing the processing load related to the display of a three-dimensional image displayed superimposed on an object. There is.
  • the head-up display system 100 includes a first detection device 1, a second detection device 2, and a head-up display (HUD) 3. ..
  • the head-up display system 100 may be mounted on the moving body 20.
  • the interocular direction which is the direction of a straight line passing through the left eye 31l and the right eye 31r of the user 30, is represented as the x-axis direction.
  • the front-back direction of the user 30 is represented as the z-axis direction.
  • the height direction perpendicular to the x-axis direction and the z-axis direction is represented as the y-axis direction.
  • the x-axis direction, the y-axis direction, and the z-axis direction are defined in the same manner.
  • the head-up display system 100 is configured to detect the position information of the object 40 located in front of the user 30 (in the z-axis direction) by using the first detection device 1.
  • the position information of the object 40 includes the distance information from the moving body 20 or the user 30 to the object 40.
  • the first detection device 1 is configured to output the position information of the object 40 to the HUD 3 as the first position information.
  • a distance measuring device can be used as the first detection device 1.
  • Distance measuring devices include, for example, stereo cameras, infrared radars, millimeter wave radars, riders, and the like.
  • the distance measuring device includes a device that calculates a distance from a plurality of monocular camera images.
  • the first detection device 1 may use a composite device using a plurality of distance measuring devices.
  • Stereo cameras include a plurality of cameras that have parallax with each other and cooperate with each other. Stereo cameras include at least two or more cameras. With a stereo camera, it is possible to collaborate with a plurality of cameras to capture an object from a plurality of directions. The stereo camera can detect the distance to the object based on the information on the arrangement of the plurality of cameras and the parallax of the object included in the images captured by the plurality of cameras.
  • the rider is configured to spatially scan, for example, a pulsed laser beam and detect the reflected light that hits an object and is reflected.
  • the rider can detect the direction of the object by detecting the direction in which the laser beam is reflected by the object.
  • the rider can detect the distance to the object by measuring the time until the laser beam is reflected by the object and returned. Riders may be referred to as "LiDAR (Light Detection and Ringing, or Laser Imaging Detection and Ringing)".
  • the first detection device 1 may be fixed to the front side of the moving body 20 with the measurement direction facing the front of the moving body 20.
  • the first detection device 1 is installed in the room of the moving body 20.
  • the first detection device 1 may detect the position of the object 40 in front of the moving body 20 through, for example, the windshield.
  • the first detection device 1 may be fixed to any of the front bumper, fender grille, side fender, light module, and bonnet of the moving body 20.
  • the first detection device 1 is configured to be able to detect the positions of various objects 40 outside the moving body 20.
  • the object 40 that can be detected by the first detection device 1 may include other vehicles traveling in front, pedestrians, road signs, obstacles on the road, and the like.
  • the first detection device 1 is configured to be able to output the position information of the object 40.
  • the position information of the object 40 can be represented by a Cartesian coordinate system having an arbitrary position of the first detection device 1 or the moving body 20 as the origin.
  • the position of the object 40 can be represented by a polar coordinate system whose origin is an arbitrary position of the first detection device 1 or the moving body 20.
  • the first detection device 1 may be shared with a system other than the head-up display system 100.
  • the first detection device 1 can be shared with a system such as brake control, inter-vehicle distance control with a vehicle in front, and peripheral monitoring of the moving body 20.
  • the head-up display system 100 is configured to detect the position of the eye 31 of the user 30 who observes the three-dimensional image by using the second detection device 2.
  • the eye 31 of the user 30 includes the left eye 31l (first eye) and the right eye 31r (second eye) of the user 30.
  • the left eye 31l and the right eye 31r of the user 30 are not particularly distinguished, the left eye 31l and the right eye 31r are collectively referred to as the eye 31.
  • the second detection device 2 outputs the position of the detected eye 31 of the user 30 to the HUD 3.
  • the head-up display system 100 is mounted on the mobile body 20, the user 30 may be the driver of the mobile body 20.
  • the second detection device 2 may include an image pickup device or a sensor.
  • the second detection device 2 is configured to output the position information of the eye 31 of the user 30 to the HUD 3 as the second position information.
  • the second detection device 2 may be mounted on or near the rearview mirror.
  • the second detector 2 may be mounted within the instrument panel, eg, in a cluster.
  • the second detection device 2 may be attached to the center panel.
  • the second detection device 2 may be attached to a support portion of the steering wheel, which is arranged at the center of the steering wheel.
  • the second detection device 2 may be mounted on the dashboard.
  • the image pickup device is configured to acquire an image of the subject and generate an image of the subject.
  • the image pickup device includes an image pickup device.
  • the image sensor may include, for example, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor.
  • the image pickup device is arranged so that the face of the user 30 is located on the subject side.
  • the second detection device 2 is configured to detect the position of at least one of the left eye 31l and the right eye 31r of the user 30.
  • the second detection device 2 may be configured to detect the displacement direction and the amount of displacement of the position of the eye 31 from the origin with a predetermined position as the origin.
  • the second detection device 2 may be configured to detect at least one position of the left eye 31l and the right eye 31r from the captured image of the image pickup device.
  • the second detection device 2 may be configured to detect at least one position of the left eye 31l and the right eye 31r as coordinates in three-dimensional space by using two or more imaging devices.
  • the second detection device 2 does not have a camera and may be connected to a camera outside the device.
  • the second detection device 2 may include an input terminal configured to receive a signal input from an image pickup device outside the device.
  • the imaging device outside the device may be directly connected to the input terminal.
  • the imaging device outside the device may be indirectly connected to the input terminal via a shared network.
  • the second detection device 2 without a camera may be configured to detect at least one position of the left eye 31l and the right eye 31r from the video signal input to the input terminal.
  • the sensor may be an ultrasonic sensor, an optical sensor, or the like.
  • the second detection device 2 may be configured to detect the position of the head of the user 30 by a sensor and detect the position of at least one of the left eye 31l and the right eye 31r based on the position of the head.
  • the second detection device 2 may be configured to detect at least one position of the left eye 31l and the right eye 31r as coordinates in three-dimensional space by one or two or more sensors.
  • the second detection device 2 is configured to detect the moving distances of the left eye 31l and the right eye 31r along the eyeball arrangement direction based on the detection result of at least one position of the left eye 31l and the right eye 31r. You may.
  • the first detection device 1 and the second detection device 2 may be configured to be able to communicate with the HUD 3 via a wired or wireless communication line or a communication network such as CAN (Controller Area Network).
  • CAN Controller Area Network
  • the HUD 3 includes a reflector 4, an optical member 5, and a display device 6.
  • the reflector 4 and the optical member 5 form an optical system of HUD3.
  • the optical system of the HUD 3 may include optical elements such as a lens and a mirror in addition to the reflector 4 and the optical member 5.
  • the HUD3 optics can also have a lens in place of or in addition to the reflector 4.
  • the reflector 4 is configured to reflect the image light emitted from the display device 6 toward a predetermined region of the optical member 5.
  • the predetermined region is a region in which the image light reflected in the predetermined region is directed toward the eye 31 of the user 30.
  • the predetermined region can be determined by the direction of the eye 31 of the user 30 with respect to the optical member 5 and the incident direction of the image light on the optical member 5.
  • the reflector 4 may be a concave mirror.
  • the optical system including the reflector 4 may have a positive index of refraction.
  • the reflector 4 may have a drive unit 15 (see FIG. 2).
  • the reflector 4 may be configured so that the angle of the reflecting surface can be adjusted by the driving unit 15.
  • the drive unit 15 can adjust the reflection direction of the image light toward the optical member 5 according to the position of the eye 31 detected by the second detection device 2.
  • the drive unit 15 adjusts the reflection direction of the image light toward the optical member 5 based on the first position information detected by the first detection device 1 and the second position information detected by the second detection device 2. Can be done.
  • the optical member 5 is configured to reflect the image light emitted from the display device 6 and reflected by the reflector 4 toward the left eye 31l and the right eye 31r of the user 30.
  • the windshield of the moving body 20 may also be used as the optical member 5.
  • a plate-shaped member for a head-up display called a combiner may be located inside the windshield.
  • the HUD 3 causes the light emitted from the display device 6 to travel along the optical path P to the left eye 31l and the right eye 31r of the user 30.
  • the user 30 can visually recognize the light arriving along the optical path P as a virtual image.
  • the arrangement and configuration of the optical system of the HUD 3 including the reflector 4 and the optical member 5 determines the position of the virtual image plane on which the image light emitted from the display device 6 projects a virtual image.
  • the virtual image plane can be positioned in front of the user 30 at a position 7.5 m from the eye 31 of the user 30.
  • the display device 6 includes a first input unit 7, a second input unit 8, an irradiator 9, a display panel 10, a parallax barrier 11 as an optical element, a controller 12, and the like.
  • the memory 13 and the output unit 14 can be included.
  • the first input unit 7 is configured to be able to acquire the first position information regarding the position of the object 40 including the distance to the object 40, which is detected by the first detection device 1.
  • the second input unit 8 is configured to be able to acquire the second position information regarding the position of the eye 31 of the user 30 detected by the second detection device 2.
  • the first input unit 7 and the second input unit 8 have a communication function according to a communication method between the first detection device 1 and the second detection device 2, respectively.
  • the first input unit 7 and the second input unit 8 include a wired and / or wireless communication interface.
  • the first input unit 7 and the second input unit 8 may include connectors such as an electric connector and an optical connector that support wired communication.
  • the first input unit 7 and the second input unit 8 may include an antenna corresponding to wireless communication.
  • the first input unit 7 and the second input unit 8 may be composed of some or all common components.
  • the output unit 14 outputs a drive signal to the drive unit 15 that adjusts the direction of the reflector 4.
  • the output unit 14 may employ a physical connector and wireless communication.
  • the output unit 14 may be connected to a vehicle network such as CAN (Control Area Network).
  • the drive unit 15 is controlled by the controller 12 via the output unit 14.
  • the irradiator 9 can be configured to irradiate the display panel 10 in a plane.
  • the irradiator 9 may include a light source, a light guide plate, a diffusion plate, a diffusion sheet, and the like.
  • the irradiator 9 is configured to emit the irradiation light by a light source and to make the irradiation light uniform in the surface direction of the display panel 10 by a light guide plate, a diffusion plate, a diffusion sheet or the like.
  • the irradiator 9 may be configured to emit uniformed light towards the display panel 10.
  • a display panel such as a transmissive liquid crystal display panel can be adopted.
  • the display panel 10 is not limited to the transmissive liquid crystal panel, and a self-luminous display panel can be used.
  • the self-luminous display panel may use an organic EL, an inorganic EL, or the like.
  • the display device 6 does not have to include the irradiator 9.
  • the display panel 10 has a plurality of compartmentalized areas on the active area A extending in a plane shape.
  • the plurality of compartmentalized regions are regions designated by P1 to P12 in FIG.
  • the active area A is configured to display a parallax image.
  • the parallax image includes a left eye image and a right eye image, which will be described later.
  • the right image has parallax with respect to the left eye image.
  • One of the left eye image and the right eye image is the first image.
  • the other of the left eye image and the right eye image is the second image.
  • each of the plurality of compartmentalized regions is a region partitioned in the u-axis direction and the v-axis direction orthogonal to the u-axis direction.
  • the direction orthogonal to the u-axis direction and the v-axis direction is referred to as the w-axis direction.
  • the u-axis direction may be referred to as the horizontal direction.
  • the v-axis direction may be referred to as the vertical direction.
  • the w-axis direction may be referred to as the depth direction.
  • the u-axis direction, the v-axis direction and the w-axis direction are the same directions as those in FIGS. 2 and 3.
  • the active area A includes a plurality of subpixels arranged in a grid along the u-axis direction and the v-axis direction.
  • Each subpixel corresponds to any color of R (Red), G (Green), and B (Blue), and one pixel can be configured by combining three subpixels of R, G, and B as a set. ..
  • One pixel can be referred to as one pixel.
  • the u-axis direction is, for example, a direction in which a plurality of subpixels constituting one pixel are arranged.
  • the v-axis direction is, for example, a direction in which a plurality of subpixels of the same color are arranged.
  • the plurality of subpixels arranged in the active area A constitute a plurality of subpixel group Pg under the control of the controller 12.
  • the plurality of subpixel groups Pg are repeatedly arranged in the u-axis direction.
  • the plurality of subpixel groups Pg can be arranged in the same column in the v-axis direction and can be arranged so as to be offset in the v-axis direction.
  • a plurality of sub-pixel groups Pg can be repeatedly arranged adjacent to positions shifted by one sub-pixel in the u-axis direction in the v-axis direction.
  • the plurality of subpixel group Pg includes a plurality of subpixels in a predetermined row and column.
  • a plurality of sub-pixel groups Pg are continuously arranged (2 ⁇ n ⁇ ) in b (b rows) in the v-axis direction and 2 ⁇ n (2 ⁇ n columns) in the u-axis direction.
  • N 2 ⁇ n ⁇ b.
  • the plurality of sub-pixel groups Pg is the smallest unit that the controller 12 controls to display an image.
  • Substantially simultaneous is not limited to perfect simultaneous. For example, when the sub-pixels P1 to PN are controlled based on the same clock generation, it can be said that they are controlled substantially at the same time.
  • the controller 12 when the controller 12 switches the image to be displayed on the subpixel P1 from the left eye image to the right eye image, the controller 12 displays the image to be displayed on the plurality of subpixels P1 in all the subpixel group Pg from the left eye image to the right eye image. Can be switched to at virtually the same time.
  • the parallax barrier 11 can be a plane along the active area A.
  • the parallax barrier 11 is separated from the active area A by a distance gap g.
  • the parallax barrier 11 may be located on the opposite side of the irradiator 9 with respect to the display panel 10.
  • the parallax barrier 11 may be located on the irradiator 9 side of the display panel 10.
  • the parallax barrier 11 is configured to define the propagation direction of image light emitted from a plurality of subpixels. As shown in FIG. 4, the parallax barrier 11 has a plurality of dimming regions 11b extending in a predetermined direction for dimming the image light. The plurality of dimming regions 11b define a translucent region 11a, which is a plurality of strip-shaped regions extending in a predetermined direction in the plane of the parallax barrier 11, between two dimming regions 11b adjacent to each other. The plurality of translucent regions 11a have a higher light transmittance than the plurality of dimmed regions 11b.
  • the light transmittance of the plurality of light transmitting regions 11a can be 10 times or more, preferably 100 times or more, and more preferably 1000 times or more the light transmittance of the plurality of dimming regions 11b.
  • the plurality of dimming regions 11b have a lower light transmittance than the plurality of translucent regions 11a.
  • the plurality of dimming regions 11b may block the image light.
  • the plurality of translucent regions 11a and the plurality of dimming regions 11b extend in a predetermined direction along the active area A and are repeatedly and alternately arranged in a direction orthogonal to the predetermined direction.
  • the predetermined direction is, for example, a direction along the diagonal line of one subpixel when the display panel 10 and the parallax barrier 11 are viewed from the depth direction (w-axis direction).
  • w-axis direction a direction along the diagonal line of one subpixel when the display panel 10 and the parallax barrier 11 are viewed from the depth direction (w-axis direction).
  • t sub-pixels in the v-axis direction are crossed while crossing s sub-pixels in the u-axis direction. It can be in the direction across the pixel (s, t are positive integers of each other).
  • the predetermined direction may be the v-axis direction.
  • the parallax barrier 11 may be made of a film or a plate-like member.
  • the plurality of dimming regions 11b are composed of the film or plate-shaped member.
  • the plurality of light-transmitting regions 11a may be openings provided in the film or plate-shaped member.
  • the film may be made of resin or may be made of other materials.
  • the plate-shaped member may be made of resin, metal, or the like, or may be made of another material.
  • the parallax barrier 11 is not limited to the film or plate-shaped member, and may be composed of other types of members.
  • the parallax barrier 11 may be composed of a base material having a light-shielding property.
  • the parallax barrier 11 may be composed of a base material containing an additive having a light-shielding property.
  • a part of the image light emitted from the active area A of the display panel 10 passes through the plurality of translucent regions 11a and reaches the optical member 5 via the reflector 4.
  • the image light that has reached the optical member 5 is reflected by the optical member 5 and reaches the eye 31 of the user 30.
  • the eye 31 of the user 30 can recognize the first virtual image V1 which is a virtual image of the image displayed in the active area A in front of the optical member 5.
  • the surface on which the first virtual image V1 is projected is called the virtual image surface Sv.
  • the front is the direction of the optical member 5 as viewed from the user 30.
  • the front is the direction in which the moving body 20 normally moves.
  • the user 30 apparently displays an image as if the second virtual image V2, which is a virtual image of the parallax barrier 11, defines the direction of the image light from the first virtual image V1. recognize.
  • the user 30 apparently recognizes the image as if the first virtual image V1 is visually recognized via the second virtual image V2.
  • the second virtual image V2 which is a virtual image of the parallax barrier 11, is not visually recognized.
  • the second virtual image V2 will be described as being apparently at a position where the virtual image of the parallax barrier 11 is formed and is considered to define the image light from the first virtual image V1.
  • the region in the first virtual image V1 that can be visually recognized by the user 30 by the image light propagating to the position of the left eye 31l of the user 30 is referred to as a left visible region VaL.
  • the region in the first virtual image V1 that can be visually recognized by the user 30 by the image light propagating to the position of the right eye 31r of the user 30 is referred to as a right visible region VaR.
  • the virtual image barrier pitch VBp and the virtual image gap Vg are defined so that the following equations (1) and (2) using the appropriate viewing distance Vd hold.
  • Vd (n ⁇ VHp): Vg equation (1)
  • Vd: VBp (Vdv + Vg): (2 ⁇ n ⁇ VHp) Equation (2)
  • the virtual image barrier pitch VBp is an arrangement interval in the x-axis direction corresponding to the u-axis direction of the plurality of dimming regions 11b projected as the second virtual image V2.
  • the virtual image gap Vg is the distance between the second virtual image V2 and the first virtual image V1.
  • the suitable viewing distance Vd is the distance between the positions of the left eye 31l and the right eye 31r of the user 30 and the virtual image V2 of the parallax barrier 11 indicated by the position information acquired from the second detection device 2.
  • the intereye distance E is the distance between the left eye 31l and the right eye 31r.
  • the intereye distance E may be, for example, 61.1 mm to 64.4 mm, which is a value calculated by research by the National Institute of Advanced Industrial Science and Technology.
  • VHp is the horizontal length of the virtual image of the plurality of subpixels.
  • VHp is the length of the virtual image of one subpixel in the first virtual image V1 in the direction corresponding to the x-axis direction.
  • the left visible region VaL shown in FIG. 5 is left of the user 30 when the image light transmitted through the plurality of translucent regions 11a of the parallax barrier 11 reaches the left eye 31l of the user 30.
  • the right visible region VaR is visually recognized by the right eye 31r of the user 30 when the image light transmitted through the plurality of translucent regions 11a of the parallax barrier 11 reaches the right eye 31r of the user 30. This is the region of the virtual image plane Sv.
  • FIG. 6 shows the arrangement of a plurality of subpixels of the first virtual image V1 as seen from the left eye 31l of the user 30.
  • the subpixels on the first virtual image V1 are designated by the same reference numerals P1 to P12 as the subpixels shown in FIG.
  • the plurality of translucent regions 11a and the plurality of dimming regions 11b of the parallax barrier 11 have equal widths in the interocular direction (x-axis direction).
  • a part of the first virtual image V1 is dimmed by the second virtual image V2 to form a left dimming region VbL.
  • the left dimming region VbL is a region in which the left eye 31l of the user 30 is difficult to see because the image light is dimmed by the dimming region 11b of the parallax barrier 11.
  • FIG. 6 When the virtual image of the parallax barrier 11 is located as shown in FIG. 6 when viewed from the left eye 31l of the user 30, the arrangement of a plurality of subpixels of the first virtual image V1 as seen from the right eye 31r of the user 30 is shown in FIG. Shown.
  • a part of the first virtual image V1 is a right dimming region VbR dimmed by the second virtual image V2.
  • the right dimming region VbR is a region that is difficult for the right eye 31r of the user 30 to see because the image light is dimmed by the dimming region 11b of the parallax barrier 11.
  • the left visible region VaL corresponds to the right dimming region VbR.
  • the right visible region VaR corresponds to the left dimming region VbL.
  • the aperture ratio of the parallax barrier 11 is less than 50%, the left visible region VaL is included in the right dimming region VbR.
  • the right visible region VaR is included in the left dimming region VbL. Therefore, the right visible region VaR cannot be seen from the left eye 31l.
  • the left visible region VaL is difficult to see from the right eye 31r.
  • the left visible region VaL includes the entire plurality of subpixels P2 to P5 arranged in the active area A and most of the virtual images of the plurality of subpixels P1 and P6. It is difficult for the left eye 31l of the user 30 to visually recognize the virtual images of the plurality of subpixels P7 to P12 arranged in the active area A.
  • the right visible region VaR includes the entire plurality of subpixels P8 to P11 arranged in the active area A and most of the virtual images of the plurality of subpixels P7 and P12. It is difficult for the right eye 31r of the user 30 to visually recognize the virtual images of the plurality of subpixels P1 to P6 arranged in the active area A.
  • the controller 12 can display the left eye image on a plurality of subpixels P1 to P6.
  • the controller 12 can display the right eye image on a plurality of subpixels P7 to P12.
  • the left eye 31l of the user 30 mainly visually recognizes the virtual image of the left eye image in the left visible region VaL
  • the right eye 31r mainly visually recognizes the virtual image of the right eye image in the right visible region VaR. ..
  • the right eye image and the left eye image are parallax images having parallax with each other. Therefore, the user 30 can visually recognize the right eye image and the left eye image as three-dimensional images.
  • the memory 13 is composed of an arbitrary storage device such as a RAM (RandomAccessMemory) and a ROM (ReadOnlyMemory).
  • the memory 13 may be configured to store programs for various processes, information acquired from the first input unit 7 and the second input unit 8, information converted by the controller 12, and the like.
  • the memory 13 is configured to store the position information of the object 40 acquired by the first input unit 7.
  • the memory 13 may be configured to store an image element 41 to be displayed as a parallax image.
  • the image element 41 includes characters, figures, animations combining them, and the like.
  • the controller 12 is connected to each component of the head-up display system 100 and is configured to control each component.
  • the controller 12 is configured as, for example, a processor.
  • the controller 12 may include one or more processors.
  • the processor may include a general-purpose processor configured to load a specific program and perform a specific function, and a dedicated processor specialized for a specific process.
  • the dedicated processor may include an application specific integrated circuit (ASIC).
  • the processor may include a programmable logic device (PLD).
  • the PLD may include an FPGA (Field-Programmable Gate Array).
  • the controller 12 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).
  • the controller 12 is configured to display a right eye image and a left eye image having parallax with each other on the display panel 10.
  • the controller 12 is configured to be able to change the area where the left eye image is displayed and the area where the right eye image is displayed on the display panel 10 based on the position of the eye 31 of the user 30.
  • the controller 12 is configured to switch and control the image displayed by each subpixel of the display panel 10 between the right eye image and the left eye image.
  • the controller 12 can visually recognize the plurality of subpixels P1 to P6 when the left visible region VaL of the first virtual image V1 seen from the left eye 31l of the user 30 is at the position shown in FIG.
  • the controller 12 can visually recognize the plurality of subpixels P7 to P12 when the right visible region VaR of the first virtual image V1 seen from the right eye 31r of the user 30 is at the position shown in FIG. Therefore, when the first virtual image V1 visually recognized by the user 30 is in the state of FIGS. 6 and 7, the controller 12 causes the plurality of subpixels P1 to P6 to display the left eye image, and the plurality of subpixels P7 display the left eye image.
  • the right eye image can be displayed on P12.
  • the controller 12 can display the left eye image on the plurality of subpixels P2 to P5 and display the right eye image on the plurality of subpixels P8 to P11.
  • the controller 12 can cause a plurality of other subpixels P1, P6, P7 and P12 to display black with a luminance value of 0. In that case, the occurrence of crosstalk can be particularly reduced.
  • the controller 12 displays a plurality of subpixels for displaying the left eye image from the plurality of subpixels P1 to P12 of each subpixel group Pg and a right eye image according to the position of the eye 31 of the user 30. It is configured to determine with multiple subpixels to do.
  • the controller 12 is configured to display the left eye image on a plurality of subpixels determined to display the left eye image.
  • the controller 12 is configured to display the right eye image on a plurality of subpixels determined to display the right eye image.
  • the alternate long and short dash line is a plurality of translucent regions 11a and a plurality of dimming regions 11b of the parallax barrier 11 seen from the left eye 31l and the right eye 31r when the aperture ratio of the parallax barrier 11 is 50%. Shows a virtual image of the boundary with.
  • the controller 12 can display the left eye image on the plurality of subpixels P2 to P7 of the display panel 10.
  • the controller 12 can display the right eye image on the plurality of subpixels P1 and P8 to P12 of the display panel 10.
  • the controller 12 gives various parallax to the image element 41 included in the parallax image composed of the left eye image and the right eye image displayed on the display panel 10, so that the distance to the image element 41 visually recognized by the user 30 can be determined. It is configured to be changeable.
  • the image element 41 is individual characters and figures included in the parallax image, animations thereof, and the like.
  • the parallax image may include one or more image elements 41 that are viewed by the user 30 at different distances.
  • the image element 41 is displayed in the field of view of the user 30 in association with the object 40 detected by the first detection device 1.
  • the image element 41 can be text information indicating the speed of the object 40.
  • the image element 41 may be a graphic display that warns of a decrease in the inter-vehicle distance due to the deceleration of the preceding vehicle. It is preferable that the image element 41 displayed in association with the object 40 is at least partially overlapped with the object 40 and displayed at a distance substantially equal to the distance to the object 40. By displaying the image element 41 on top of the object 40 in the real space, it is possible to provide a visually expanded real environment.
  • the controller 12 causes the controller 12 to display the image elements 41 to be displayed included in the left eye image and the right eye image so that they have a desired parallax amount.
  • the parallax amount means the angle difference in the line-of-sight direction between the left eye 31l and the right eye 31r when a human looks at the object 40.
  • the parallax amount can be rephrased as the convergence angle.
  • the amount of parallax of the image element 41 is the convergence angle when the left eye 31l visually recognizes the left image element 42l displayed on the left eye image and the right eye 31r sees the right image element 42r displayed on the right eye image.
  • the controller 12 may acquire images such as characters and figures stored in advance from the memory 13.
  • the controller 12 may calculate the parallax according to the distance to the object 40 in real time, and give the parallax between the left image element 42l and the right image element 42r of the image element 41 to be displayed on the display panel 10. The operation of the controller 12 for displaying the image element 41 will be described later.
  • the object 40 is located just a second distance away from the user 30 in the z-axis direction.
  • the second distance is the optimum viewing distance Vd.
  • the portion of the object 40 visible to the user 30 is located so as to coincide with the virtual image plane Sv.
  • the controller 12 determines the convergence angle at which the left image element 42l included in the left eye image of the parallax image and the right image element 42r included in the right eye image are viewed. It may be matched with the convergence angle ⁇ for viewing a point on the virtual image plane Sv. In this case, the position where the virtual image of the image element 41 is actually projected and the position where the image element 41 is recognized to exist due to the convergence angle coincide with the virtual image plane Sv, so that the user 30 can see the image without any discomfort. Can be done.
  • the object 40 is located at a position separated by a second distance or more and less than a first distance in front of the user 30 in the z-axis direction.
  • the controller 12 displays the left image element 42l and the right image element 42r at different positions on the virtual image plane Sv according to the amount of parallax.
  • the left image element 42l is an image viewed from the left side with a smaller inclination angle with respect to the z-axis direction than the image element 41 viewed from the optimum viewing distance Vd.
  • the right image element 42r is an image viewed from the right side with a smaller inclination angle with respect to the z-axis direction than the image element 41 viewed from the optimum viewing distance Vd.
  • the user 30 perceives that the image element 41 exists at a position where the line-of-sight direction from the left eye 31l to the left image element 42l and the line-of-sight direction from the right eye 31r to the right image element 42r intersect. To do.
  • the convergence angle at which the left eye 31l and the right eye 31r see the point on the image element 41 is represented by the convergence angle ⁇ 1.
  • the convergence angle ⁇ 1 is smaller than the convergence angle ⁇ for viewing a point on the virtual image plane Sv.
  • the user 30 can image as if the image element 41 exists further in front of the virtual image surface Sv.
  • the element 41 is visually recognized.
  • the processing load of HUD3 may increase.
  • the parallax amount given to the image element 41 is the parallax amount corresponding to the first distance.
  • the image element 41 superimposed on the object 40 is located substantially equidistant from the distance to the object 40 by the cognitive function of the human brain. Recognized to do.
  • the human brain automatically synthesizes the image elements 41 having different parallax so that they are located at substantially the same distance as the object 40. It is thought to be the body. According to the experiments of the inventors of the present application, it was confirmed that such an effect can be obtained when the first distance is at least 12.5 m and the second distance is 7.5 m.
  • the object 40 is located at the same distance as the image element 41 object 40. I saw it. Phenomena such as the boundary of the image element 41 appearing double or blurred due to the difference in the convergence angle did not occur.
  • the controller 12 displays at least partially superimposed on the object 40 in the first control.
  • the parallax amount of the image element 41 is configured to be fixed to the parallax amount corresponding to the first distance.
  • the HUD3 can make the user 30 recognize the image element 41 so as to be located substantially equidistant from the distance to the object 40 by the cognitive function of the human brain.
  • the user 30 recognizes that the image element 41 is located at the position of the object 40, not at the image display position 43 corresponding to the distance based on the parallax.
  • the parallax amount of the image element 41 is not 0 at the first distance. That is, the present disclosure is completely different from the one in which the parallax in the region where there is almost no parallax is fixed to 0 because it is located at a long distance.
  • the parallax amount of the image element 41 has a size sufficiently recognized by human vision when the image element 41 is displayed without being superimposed on the object 40.
  • the convergence angle at which the left eye 31l and the right eye 31r see a point on the left image element 42l on the left eye image and the right image element 42r on the right eye image is fixed at a convergence angle ⁇ 2 smaller than ⁇ 1. ..
  • the convergence angle ⁇ 2 is a convergence angle for observing a point located at the first distance.
  • a display example of the image element 41 according to the embodiment will be described with reference to FIG. FIG. 12 includes a preceding vehicle 45 traveling ahead at a distance longer than the first distance as an example of the object 40.
  • the first detection device 1 is configured to acquire position information including the distance to the preceding vehicle 45 in time series and transmit it to the controller 12. If the preceding vehicle 45 starts decelerating, the controller 12 recognizes this by shortening the distance to the preceding vehicle 45 acquired from the first detection device 1. In order to call attention to the user 30, the controller 12 controls the display panel 10 to indicate that the preceding vehicle 45 is decelerating so as to be superimposed on the preceding vehicle 45 in the field of view of the user 30. 41 is displayed.
  • the display of the image element 41 may include characters and / or figures and the like.
  • the display of the image element 41 may be accompanied by animations such as movement, blinking, and / or shape change.
  • the image element 41 is a parallax image having a parallax corresponding to the first distance.
  • the image element 41 is recognized to be located equidistant from the preceding vehicle 45 by the cognitive function of the brain of the user 30. When the distance from the user 30 to the preceding vehicle 45 changes, the image element 41 is recognized to follow the preceding vehicle 45.
  • the controller 12 acquires the first position information of the object 40 that the user 30 can visually recognize forward through the optical member 5 from the first input unit 7 (step S01).
  • the controller 12 acquires the second position information regarding the position of the eye 31 of the user 30 from the second input unit 8 (step S02).
  • Step S02 may be executed before step S01.
  • Step S02 may be performed in parallel with step S01.
  • the controller 12 determines whether or not the distance to the object 40 is longer than the first distance based on the first position information (step S03).
  • the first distance is, for example, 12.5 m.
  • the first distance can be longer than 12.5 m.
  • step S03 When it is determined in step S03 that the distance to the object 40 is equal to or greater than the first distance (step S03: Yes), the controller 12 executes the first control (step S04).
  • the controller 12 fixes the parallax amount given to the image element 41 to the parallax amount corresponding to the first distance.
  • the parallax amount corresponding to the first distance is a parallax amount larger than 0.
  • step S05 the controller 12 controls the parallax amount given to the image element 41 so as to be the parallax amount corresponding to the distance to the object 40. For example, when the distance to the object 40 is 10 m, the controller 12 provides the same parallax between the left image element 42l and the right image element 42r as when looking at a point 10 m ahead.
  • step S05 when the distance to the object 40 is shorter than the second distance, the controller 12 displays the image element 41 on the front side of the user 30 from the virtual image plane Sv.
  • the second distance is an appropriate viewing distance Vd.
  • the second distance can be longer than 7.5 m and shorter than the first distance.
  • the controller 12 can perform a process different from that in step S05. For example, when the distance to the object 40 is shorter than the second distance, the controller 12 may fix the parallax amount of the image element 41 to the parallax amount corresponding to the second distance.
  • the controller 12 generates an image element 41 that is superimposed on the object 40 and displayed (step S06). For example, the controller 12 determines the image element 41 to be displayed based on the distance to the object 40 included in the position information of the object 40 acquired in step S01, its change, and the like. The controller 12 may receive an instruction from another device of the moving body 20 about the image element 41 to be displayed. The controller 12 determines the display position of the image element 41 on the display panel 10 based on the position information of the object 40 acquired in step S01 and the position information of the eye 31 of the user 30 acquired in step S02. The controller 12 causes the image element 41 to be at least partially superimposed on the object 40 visible to the user 30.
  • the controller 12 may drive the drive unit 15 via the output unit 14 to adjust the display position of the image element 41, if necessary.
  • the controller 12 imparts parallax to the image element 41 based on the parallax amount determined in step S04 or step S05.
  • the controller 12 is configured to combine one or more image elements 41 with a parallax image.
  • the controller 12 displays the combined parallax image on the display panel 10 (step S07).
  • the image element 41 is displayed superimposed on the object 40 in the field of view of the user 30.
  • the image element 41 is recognized by the user 30 as being displayed at a position equidistant from the object 40.
  • the controller 12 when the distance to the object 40 is the first distance or more, the controller 12 is configured so that the parallax amount of the image element 41 is fixed and not controlled. To. As a result, the head-up display system 100 can reduce the processing load related to the composition and display of the three-dimensional image displayed superimposed on the object 40.
  • the three-dimensional display device between the distance to the display surface on which the image is actually displayed (virtual image surface Sv in the present application) and the distance to the display image perceived by the user 30 due to the parallax given to both eyes. It is known that if the difference is large, it causes discomfort, visual fatigue, and the like. In the HUD3 of the present disclosure, it is not necessary to increase the difference between the second distance corresponding to the distance to the virtual image plane Sv and the first distance, so that discomfort, visual fatigue, and the like can be reduced.
  • the parallax barrier 11 is used as an optical element for propagating the left eye image and the right eye image displayed on the display panel 10 to the left eye 31l and the right eye 31r of the user 30, respectively. ..
  • the optical elements that can be used are not limited to the parallax barrier 11.
  • a liquid crystal shutter or a lenticular lens can be used instead of the parallax barrier 11.
  • FIG. 14 is a configuration example of the display device 6A using the liquid crystal shutter 16 instead of the parallax barrier 11. The configuration and operation of the display device 6A will be described below with reference to FIGS. 14 and 15.
  • the liquid crystal shutter 16 is controlled by the controller 12.
  • the display device 6A is configured in the same manner as the display device 6 of FIG. 2 except that the liquid crystal shutter 16 is used instead of the parallax barrier 11.
  • the liquid crystal shutter 16 may be configured similar to the display panel 10.
  • the liquid crystal shutter 16 is composed of a plurality of pixels P.
  • the liquid crystal shutter 16 is configured to be able to control the light transmittance in each pixel P.
  • the plurality of pixels P of the liquid crystal shutter correspond to the plurality of sub-pixels of the display panel 10.
  • the plurality of pixels P of the liquid crystal shutter 16 are different from the display panel 10 in that they do not have a color component.
  • each pixel P of the liquid crystal shutter 16 is the same as each subpixel of the display panel 10. They may be arranged in shape and size.
  • the liquid crystal shutter 16 has a plurality of light-transmitting regions 16a and a plurality of dimming regions 16b under the control of the controller 12.
  • the light transmittances of the plurality of translucent regions 16a and the plurality of dimming regions 16b can be set to be the same as those of the plurality of translucent regions 11a and the plurality of dimming regions 11b of the parallax barrier 11, respectively.
  • the plurality of translucent regions 16a and the plurality of dimming regions 16b by the liquid crystal shutter 16 are regions corresponding to the arrangement of the plurality of pixels of the liquid crystal shutter 16.
  • the boundary between the plurality of light transmitting regions 16a and the plurality of dimming regions 16b can be stepped corresponding to the shape of the plurality of pixels P.
  • the boundary between the plurality of translucent regions 16a and the plurality of dimming regions 16b of the liquid crystal shutter 16 can be dynamically changed so as to reduce crosstalk.
  • the controller 12 replaces switching the display image for each subpixel of the display panel 10 with a plurality of translucent regions of the liquid crystal shutter 16. It is possible to switch between 16a and a plurality of dimming regions 16b.
  • the controller 12 is configured to control the liquid crystal shutter 16 so that the image light from the plurality of subpixels P1 to P6 displaying the left eye image is directed to the left eye 31l of the user 30 at the highest ratio. Will be done.
  • the controller 12 is configured to control the liquid crystal shutter 16 so that the image light from the plurality of subpixels P7 to P12 displaying the right eye image is directed to the right eye 31r of the user 30 at the highest ratio.
  • each component or each step can be rearranged so as not to be logically inconsistent, and a plurality of components or steps can be combined or divided into one.
  • the embodiment according to the present disclosure can also be realized as a method, a program, or a storage medium on which a program is recorded, which is executed by a processor included in the apparatus. It should be understood that the scope of this disclosure also includes these.
  • the descriptions such as “first” and “second” are identifiers for distinguishing the configuration.
  • the configurations distinguished by the descriptions such as “first” and “second” in the present disclosure can exchange numbers in the configurations.
  • the first input unit can exchange the identifiers “first” and “second” with the second input unit.
  • the exchange of identifiers takes place at the same time.
  • the configuration is distinguished.
  • the identifier may be deleted.
  • the configuration with the identifier removed is distinguished by a code. Based solely on the description of identifiers such as “first” and “second” in the present disclosure, it shall not be used as a basis for interpreting the order of the configurations and for the existence of identifiers with smaller numbers.
  • the x-axis direction, the y-axis direction, and the z-axis direction are provided for convenience of explanation and may be interchanged with each other.
  • the configuration according to the present disclosure has been described using a Cartesian coordinate system whose axes are the x-axis direction, the y-axis direction, and the z-axis direction.
  • the positional relationship of each configuration according to the present disclosure is not limited to being orthogonal. The same applies to the u-axis direction, the v-axis direction, and the w-axis direction.
  • Mobile in the present disclosure includes vehicles, ships, and aircraft.
  • Vehicles in the present disclosure include, but are not limited to, automobiles and industrial vehicles, and may include railway vehicles, living vehicles, and fixed-wing aircraft traveling on runways.
  • Automobiles include, but are not limited to, passenger cars, trucks, buses, motorcycles, trolley buses and the like, and may include other vehicles traveling on the road.
  • Industrial vehicles include industrial vehicles for agriculture and construction.
  • Industrial vehicles include, but are not limited to, forklifts and golf carts.
  • Industrial vehicles for agriculture include, but are not limited to, tractors, cultivators, transplanters, binders, combines, and lawnmowers.
  • Industrial vehicles for construction include, but are not limited to, bulldozers, scrapers, excavators, cranes, dump trucks, and road rollers. Vehicles include those that run manually.
  • the classification of vehicles is not limited to the above.
  • an automobile may include an industrial vehicle capable of traveling on a road, and the same vehicle may be included in a plurality of classifications.
  • Ships in the present disclosure include marine jets, boats and tankers.
  • Aircraft in the present disclosure include fixed-wing aircraft and rotary-wing aircraft.
  • the head-up display of the present disclosure includes a first input unit, a second input unit, a display panel, an optical system, a processor, and an optical element.
  • the first input unit is configured to be able to acquire first position information regarding the position of the object including the distance to the object.
  • the second input unit is configured to be able to acquire second position information regarding the position of the user's eyes.
  • the optical system is configured to project a virtual image of an image displayed on the display panel within the field of view of the user.
  • the processor is configured to display a parallax image including a first image and a second image having parallax with each other on the display panel.
  • the optical element propagates the first image displayed on the display panel to the user's first eye via the optical system, and the second image displayed on the display panel is transmitted to the user's first eye. It is configured to propagate to the second eye.
  • the processor Based on the first position information and the second position information, the processor includes an image element included in the parallax image on the display panel so as to at least partially superimpose on the object viewed by the user. Is displayed.
  • the processor executes a first control for fixing the parallax amount of the image element to a parallax amount larger than 0 corresponding to the first distance. It is composed.
  • the head-up display system of the present disclosure includes a first detection device, a second detection device, and a head-up display.
  • the first detection device is configured to be capable of detecting first position information regarding the position of the object, including the distance to the object.
  • the second detection device is configured to be capable of detecting second position information regarding the position of the user's eyes.
  • the head-up display includes a first input unit, a second input unit, a display panel, an optical system, a processor, and an optical element.
  • the first input unit is configured to be able to acquire the first position information from the first detection device.
  • the second input unit is configured to be able to acquire the second position information from the second detection device.
  • the optical system is configured to project a virtual image of an image displayed on the display panel within the field of view of the user.
  • the processor is configured to display a parallax image including a first image and a second image having parallax with each other on the display panel.
  • the optical element propagates the first image displayed on the display panel to the user's first eye via the optical system, and the second image displayed on the display panel is transmitted to the user's first eye. It is configured to propagate to the second eye.
  • the processor Based on the first position information and the second position information, the processor includes an image element included in the parallax image on the display panel so as to at least partially superimpose on the object viewed by the user. Is displayed.
  • the processor is configured to fix the parallax amount of the image element to a parallax amount greater than 0 corresponding to the first distance when the distance to the object is a predetermined first distance or more.
  • the mobile body of the present disclosure is equipped with a head-up display system.
  • the head-up display system includes a first detection device, a second detection device, and a head-up display.
  • the first detection device is configured to be capable of detecting first position information regarding the position of the object, including the distance to the object.
  • the second detection device is configured to be capable of detecting second position information regarding the position of the user's eyes.
  • the head-up display includes a first input unit, a second input unit, a display panel, an optical system, a processor, and an optical element.
  • the first input unit is configured to be able to acquire the first position information from the first detection device.
  • the second input unit is configured to be able to acquire the second position information from the second detection device.
  • the optical system is configured to project a virtual image of an image displayed on the display panel within the field of view of the user.
  • the processor is configured to display a parallax image including a first image and a second image having parallax with each other on the display panel.
  • the optical element propagates the first image displayed on the display panel to the user's first eye via the optical system, and the second image displayed on the display panel is transmitted to the user's first eye. It is configured to propagate to the second eye.
  • the processor Based on the first position information and the second position information, the processor includes an image element included in the parallax image on the display panel so as to at least partially superimpose on the object viewed by the user. Is displayed.
  • the processor is configured to fix the parallax amount of the image element to a parallax amount greater than 0 corresponding to the first distance when the distance to the object is a predetermined first distance or more.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

ヘッドアップディスプレイの第1入力部は、物体までの距離取得可能に構成される。第2入力部は、利用者の眼の位置を取得可能に構成される。光学系は、利用者の視野内に表示パネルに表示される画像の虚像を投影するように構成される。プロセッサは、表示パネルに視差画像を表示させるように構成される。光学素子は、表示パネルに表示される第1画像と第2画像とを、それぞれ利用者の第1眼及び第2眼に伝播させるように構成される。プロセッサは、物体に少なくとも部分的に重畳するように、表示パネルに視差画像に含まれる画像要素を表示させる。プロセッサは、物体までの距離が所定の第1距離以上の場合、画像要素の視差量を第1距離に対応する0以外の視差量に固定する第1の制御を実行するように構成される。

Description

ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
 本開示は、ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体に関する。
 従来技術の一例は、特許文献1に記載されている。
特開2009-008722号公報
 本開示のヘッドアップディスプレイは、第1入力部と、第2入力部と、表示パネルと、光学系と、プロセッサと、光学素子とを備える。前記第1入力部は、物体までの距離を含む該物体の位置に関する第1位置情報を取得可能に構成される。前記第2入力部は、利用者の眼の位置に関する第2位置情報を取得可能に構成される。前記光学系は、前記利用者の視野内に前記表示パネルに表示される画像の虚像を投影するように構成される。前記プロセッサは、前記表示パネルに互いに視差を有する第1画像と第2画像とを含む視差画像を表示させるように構成される。前記光学素子は、前記光学系を介して、前記表示パネルに表示される前記第1画像を利用者の第1眼に伝播させ、前記表示パネルに表示される前記第2画像を前記利用者の第2眼に伝播させるように構成される。前記プロセッサは、前記第1位置情報及び前記第2位置情報に基づいて、前記利用者から視認される前記物体に少なくとも部分的に重畳するように、前記表示パネルに前記視差画像に含まれる画像要素を表示させる。前記プロセッサは、前記物体までの距離が所定の第1距離以上の場合、前記画像要素の視差量を前記第1距離に対応する0より大きい視差量に固定する第1の制御を実行するように構成される。
 本開示のヘッドアップディスプレイシステムは、第1検出装置と、第2検出装置と、ヘッドアップディスプレイとを含む。前記第1検出装置は、物体までの距離を含む該物体の位置に関する第1位置情報を検出可能に構成される。前記第2検出装置は、利用者の眼の位置に関する第2位置情報を検出可能に構成される。前記ヘッドアップディスプレイは、第1入力部、第2入力部、表示パネル、光学系、プロセッサ、及び、光学素子を備える。前記第1入力部は、前記第1検出装置から前記第1位置情報を取得可能に構成される。前記第2入力部は、前記第2検出装置から前記第2位置情報を取得可能に構成される。前記光学系は、前記利用者の視野内に前記表示パネルに表示される画像の虚像を投影するように構成される。前記プロセッサは、前記表示パネルに互いに視差を有する第1画像と第2画像とを含む視差画像を表示させるように構成される。前記光学素子は、前記光学系を介して、前記表示パネルに表示される前記第1画像を利用者の第1眼に伝播させ、前記表示パネルに表示される前記第2画像を前記利用者の第2眼に伝播させるように構成される。前記プロセッサは、前記第1位置情報及び前記第2位置情報に基づいて、前記利用者から視認される前記物体に少なくとも部分的に重畳するように、前記表示パネルに前記視差画像に含まれる画像要素を表示させる。前記プロセッサは、前記物体までの距離が所定の第1距離以上の場合、前記画像要素の視差量を前記第1距離に対応する0より大きい視差量に固定するように構成される。
 本開示の移動体は、ヘッドアップディスプレイシステムを備える。前記ヘッドアップディスプレイシステムは、第1検出装置と、第2検出装置と、ヘッドアップディスプレイと含む。前記第1検出装置は、物体までの距離を含む該物体の位置に関する第1位置情報を検出可能に構成される。前記第2検出装置は、利用者の眼の位置に関する第2位置情報を検出可能に構成される。前記ヘッドアップディスプレイは、第1入力部、第2入力部、表示パネル、光学系、プロセッサ、及び、光学素子を備える。前記第1入力部は、前記第1検出装置から前記第1位置情報を取得可能に構成される。前記第2入力部は、前記第2検出装置から前記第2位置情報を取得可能に構成される。前記光学系は、前記利用者の視野内に前記表示パネルに表示される画像の虚像を投影するように構成される。前記プロセッサは、前記表示パネルに互いに視差を有する第1画像と第2画像とを含む視差画像を表示させるように構成される。前記光学素子は、前記光学系を介して、前記表示パネルに表示される前記第1画像を利用者の第1眼に伝播させ、前記表示パネルに表示される前記第2画像を前記利用者の第2眼に伝播させるように構成される。前記プロセッサは、前記第1位置情報及び前記第2位置情報に基づいて、前記利用者から視認される前記物体に少なくとも部分的に重畳するように、前記表示パネルに前記視差画像に含まれる画像要素を表示させる。前記プロセッサは、前記物体までの距離が所定の第1距離以上の場合、前記画像要素の視差量を前記第1距離に対応する0より大きい視差量に固定するように構成される。
 本開示の目的、特色、および利点は、下記の詳細な説明と図面とからより明確になるであろう。
移動体に搭載されたヘッドアップディスプレイシステムの一例を示す図である。 図1に示す表示装置の概略構成を示す図である。 図2に示す表示パネルを奥行方向から見た例を示す図である。 図2に示すパララックスバリアを奥行方向から見た例を示す図である。 図1に示す虚像と利用者の眼との関係を説明するための図である。 表示パネルの虚像における左眼から視認可能な領域を示す図である。 表示パネルの虚像における右眼から視認可能な領域を示す図である。 利用者の眼の位置の変化に伴うサブピクセルの表示の切り替えを説明する図である。 物体が適視距離に位置する場合の視差画像の表示方法を説明する図である。 物体が第1距離と第2距離との間に位置する場合の視差画像の表示方法を説明する図である。 物体が第1距離以上離れて位置する場合の視差画像の表示方法を説明する図である。 物体が第1距離以上離れて位置する場合に、利用者に視認される物体に重畳されて表示される画像要素の一例を説明する図である。 視差画像の表示方法を説明するフローチャートある。 パララックスバリアとして液晶シャッタを用いたヘッドアップディスプレイシステムの概略構成を示す図である。 液晶シャッタの動作状態の一例を示す図である。
 本開示のヘッドアップディスプレイの基礎となる構成であるヘッドアップディスプレイとして、利用者の左右の眼に互いに視差を有する画像を伝播させ、利用者の視野内に奥行きを有する3次元画像として視認される虚像を投影するヘッドアップディスプレイが知られている。
 利用者の視野内に3次元画像を虚像として表示するヘッドアップディスプレイにおいて、視野内に位置する物体の位置に3次元画像を重ねて表示したい場合がある。この場合、ヘッドアップディスプレイは、利用者から物体が視認される位置に、物体までの距離に対応する視差を有する画像を表示する。物体に3次元画像を重ねて表示する処理は、処理に係る負荷が低いことが好ましい。
 したがって、上記点に着目してなされた本開示の目的は、物体に重畳して表示される3次元画像の表示に係る処理負荷を低減できるヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体を提供することにある。
 以下、本開示の実施形態について、図面を参照して説明する。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法、比率等は現実のものとは必ずしも一致しない。
[ヘッドアップディスプレイシステムの構成]
 本開示の一実施形態にかかるヘッドアップディスプレイシステム100は、図1に示すように、第1検出装置1と、第2検出装置2と、ヘッドアップディスプレイ(HUD:Head Up Display)3とを含む。ヘッドアップディスプレイシステム100は、移動体20に搭載されてよい。図1において、利用者30の左眼31l及び右眼31rを通る直線の方向である眼間方向はx軸方向として表される。利用者30の前後方向はz軸方向として表される。x軸方向及びz軸方向に垂直な高さ方向はy軸方向として表される。後述する図5から図11においても、x軸方向、y軸方向及びz軸方向は、同じに定義される。
(第1検出装置)
 ヘッドアップディスプレイシステム100は、第1検出装置1を使用して、利用者30の前方(z軸方向)に位置する物体40の位置情報を検出するように構成される。物体40の位置情報には、移動体20または利用者30から物体40までの距離情報を含む。第1検出装置1は、物体40の位置情報を第1位置情報としてHUD3に対して出力するように構成される。第1検出装置1としては、測距装置を使用しうる。測距装置は、例えば、ステレオカメラ、赤外線レーダ、ミリ波レーダ、及びライダーなどを含む。測距装置は、複数の単眼カメラ画像から距離を演算する装置を含む。第1検出装置1は、複数の測距装置を利用した複合装置を使用しうる。
 ステレオカメラは、互いに視差を有し、互いに協働する複数のカメラを含む。ステレオカメラは、少なくとも2つ以上のカメラを含む。ステレオカメラでは、複数のカメラを協働させて、複数の方向から対象を撮像することが可能である。ステレオカメラは、複数のカメラの配置の情報と、複数のカメラにより撮像した画像に含まれる物体の視差とにより、物体までの距離を検出することができる。
 ライダーは、例えばパルス状に発光するレーザ光を空間的に走査させ、物体に当たって反射した反射光を検出するように構成される。ライダーは、レーザ光が物体に反射される方向を検出することにより、物体の方向を検出することができる。ライダーは、レーザ光が物体に反射され戻ってくるまでの時間を計測することにより、物体までの距離を検出することができる。ライダーは、「LiDAR(Light Detection and Ranging, or Laser Imaging Detection and Ranging)」と表記される場合がある。
 一実施形態において、第1検出装置1は、計測方向を移動体20の前方に向けて、移動体20の前側に固定されてよい。例えば、図1に示すように第1検出装置1は、移動体20の室内に設置される。第1検出装置1は、例えば、ウインドシールドを介して移動体20の前方の物体40の位置を検出してよい。他の実施形態において、第1検出装置1は、移動体20のフロントバンパー、フェンダーグリル、サイドフェンダー、ライトモジュール、及びボンネットのいずれかに固定されていてよい。
 第1検出装置1は、移動体20の外部の種々の物体40の位置を検出することができるように構成される。移動体20が車両の場合、第1検出装置1が検出可能な物体40には、前方を走行する他車両、歩行者、道路標識、道路上の障害物等を含みうる。第1検出装置1は、物体40の位置情報を出力可能に構成される。物体40の位置情報は、第1検出装置1又は移動体20の任意の位置を原点とする直交座標系で表現されうる。物体40の位置は、第1検出装置1又は移動体20の任意の位置を原点とする極座標系で表現されうる。
 第1検出装置1は、ヘッドアップディスプレイシステム100以外のシステムと共用されてよい。例えば、移動体が車両の場合、第1検出装置1は、ブレーキ制御、または、前方車両との車間制御、移動体20の周辺監視等のシステムと共用されうる。
(第2検出装置)
 ヘッドアップディスプレイシステム100は、第2検出装置2を使用して、3次元画像を観察する利用者30の眼31の位置を検出するように構成される。利用者30の眼31は、利用者30の左眼31l(第1眼)及び右眼31r(第2眼)を含む。本願において、利用者30の左眼31lと右眼31rとを特に区別しない場合、左眼31l及び右眼31rは、纏めて眼31と記載される。第2検出装置2は、検出した利用者30の眼31の位置をHUD3に対して出力する。ヘッドアップディスプレイシステム100が移動体20に搭載される場合、利用者30は移動体20の運転者であってよい。第2検出装置2は、撮像装置又はセンサを含んでよい。第2検出装置2は、利用者30の眼31の位置情報を第2位置情報としてHUD3に対して出力するように構成される。
 ヘッドアップディスプレイシステム100が車両である移動体20に搭載される場合、第2検出装置2は、ルームミラー又はその近傍に取り付けられてよい。第2検出装置2は、インスツルメントパネル内の、例えばクラスターに取り付けられてよい。第2検出装置2は、センターパネルに取り付けられてよい。第2検出装置2は、ステアリングホイールの中心に配置された、該ステアリングホイールの支持部に取り付けられてよい。第2検出装置2は、ダッシュボード上に取付けられてよい。
 第2検出装置2がカメラ等の撮像装置を含む場合、撮像装置は、被写体の像を取得して被写体の画像を生成するように構成される。撮像装置は、撮像素子を含む。撮像素子は、例えばCCD(Charge Coupled Device)撮像素子又はCMOS(Complementary Metal Oxide Semiconductor)撮像素子を含んでよい。撮像装置は、被写体側に利用者30の顔が位置するように配置される。第2検出装置2は、利用者30の左眼31l及び右眼31rの少なくとも一方の位置を検出するように構成される。例えば、第2検出装置2は、所定の位置を原点とし、原点からの眼31の位置の変位方向及び変位量を検出するように構成されてよい。第2検出装置2は、撮像装置の撮影画像から、左眼31l及び右眼31rの少なくとも一方の位置を検出するように構成されてよい。第2検出装置2は、2台以上の撮像装置を用いて、左眼31l及び右眼31rの少なくとも一方の位置を3次元空間の座標として検出するように構成してよい。
 第2検出装置2は、カメラを備えず、装置外のカメラに接続されていてよい。第2検出装置2は、装置外の撮像装置からの信号入力を受けるように構成される入力端子を備えてよい。装置外の撮像装置は、入力端子に直接的に接続されてよい。装置外の撮像装置は、共有のネットワークを介して入力端子に間接的に接続されてよい。カメラを備えない第2検出装置2は、入力端子に入力された映像信号から左眼31l及び右眼31rの少なくとも一方の位置を検出するように構成してよい。
 第2検出装置2がセンサを備える場合、センサは、超音波センサ又は光センサ等であってよい。第2検出装置2は、センサによって利用者30の頭部の位置を検出し、頭部の位置に基づいて左眼31l及び右眼31rの少なくとも一方の位置を検出するように構成してよい。第2検出装置2は、1個又は2個以上のセンサによって、左眼31l及び右眼31rの少なくとも一方の位置を3次元空間の座標として検出するように構成してよい。
 第2検出装置2は、左眼31l及び右眼31rの少なくとも一方の位置の検出結果に基づいて、眼球配列方向に沿った、左眼31l及び右眼31rの移動距離を検出するように構成してもよい。
 第1検出装置1及び第2検出装置2は、有線または無線の通信回線、もしくはCAN(Controller Area Network)等の通信ネットワークを介してHUD3と通信可能に構成されてよい。
(ヘッドアップディスプレイ)
 一実施形態に係るHUD3は、反射器4、光学部材5及び表示装置6を含む。反射器4と光学部材5とは、HUD3の光学系を構成する。HUD3の光学系は、反射器4及び光学部材5以外に、レンズ及びミラー等の光学素子を含んでよい。他の実施形態において、HUD3の光学系は、反射器4に代えて又は反射器4に加えて、レンズを有することも可能である。
 反射器4は、表示装置6から射出された画像光を、光学部材5の所定領域に向けて反射させるように構成される。所定領域は、該所定領域で反射した画像光が利用者30の眼31の方に向かう領域である。所定領域は、光学部材5に対する利用者30の眼31の方向、及び光学部材5への画像光の入射方向によって定まりうる。反射器4は、凹面鏡であってよい。反射器4を含む光学系は、正の屈折率を有してよい。
 反射器4は、駆動部15(図2参照)を有してよい。反射器4は、駆動部15により反射面の角度を調整可能に構成されてよい。駆動部15は、第2検出装置2により検出された眼31の位置に応じて、光学部材5に向かう画像光の反射方向を調整しうる。駆動部15は、第1検出装置1により検出された第1位置情報、及び、第2検出装置2により検出された第2位置情報に基づいて、光学部材5に向かう画像光の反射方向を調整しうる。
 光学部材5は、表示装置6から射出されて反射器4によって反射された画像光を、利用者30の左眼31l及び右眼31rに向けて反射させるように構成される。例えば、移動体20のウインドシールドは、光学部材5として兼用されてよい。光学部材5として、コンバイナと呼ばれるヘッドアップディスプレイ用の板状の部材がウインドシールドの内側に位置してよい。HUD3は、表示装置6から射出された光を、利用者30の左眼31l及び右眼31rまで光路Pに沿って進行させる。利用者30は、光路Pに沿って到達した光を虚像として視認しうる。
 反射器4及び光学部材5を含むHUD3の光学系の配置及び構成は、表示装置6から射出される画像光が虚像を投影する虚像面の位置を決定する。一例として、本実施形態において、虚像面は、利用者30の前方に利用者30の眼31から7.5mの位置に位置させることができる。
(表示装置)
 図2に示すように、表示装置6は、第1入力部7と、第2入力部8と、照射器9と、表示パネル10と、光学素子としてのパララックスバリア11と、コントローラ12と、メモリ13と、出力部14とを含むことができる。
 第1入力部7は、第1検出装置1によって検出された、物体40までの距離を含む物体40の位置に関する第1位置情報を取得可能に構成される。第2入力部8は、第2検出装置2によって検出される利用者30の眼31の位置に関する第2位置情報を取得可能に構成される。
 第1入力部7及び第2入力部8は、それぞれ第1検出装置1及び第2検出装置2との間の通信方式に従う通信機能を有する。第1入力部7及び第2入力部8は、有線及び/又は無線通信のインタフェースを備える。第1入力部7及び第2入力部8は、有線通信に対応した、電気コネクタ及び光コネクタ等のコネクタを含みうる。第1入力部7及び第2入力部8は、無線通信に対応したアンテナを含みうる。第1入力部7及び第2入力部8は、一部又は全部が共通する構成要素により構成されてよい。
 出力部14は、反射器4の向きを調整する駆動部15に対して駆動信号を出力する。出力部14は、物理コネクタ、及び無線通信が採用されうる。一実施形態において、出力部14は、CAN(Control Area Network)等の車両のネットワークに接続してよい。駆動部15は、出力部14を介してコントローラ12により制御される。
 照射器9は、表示パネル10を面的に照射するように構成しうる。照射器9は、光源、導光板、拡散板、拡散シート等を含んでよい。照射器9は、光源により照射光を出射し、導光板、拡散板、拡散シート等により照射光を表示パネル10の面方向に均一化するように構成される。照射器9は均一化された光を表示パネル10の方に出射するように構成されうる。
 表示パネル10は、例えば透過型の液晶表示パネルなどの表示パネルを採用しうる。表示パネル10としては、透過型の液晶パネルに限られず、自発光型の表示パネルを使用しうる。自発光型の表示パネルは、有機EL,無機EL等を使用しうる。表示パネル10として、自発光型の表示パネルを使用した場合、表示装置6は照射器9を備えなくてよい。
 図3に示すように、表示パネル10は、面状に広がるアクティブエリアA上に複数の区画領域を有する。複数の区画領域は、図3においてP1からP12の符号が付された領域である。アクティブエリアAは、視差画像を表示するように構成される。視差画像は、後述する左眼画像と、右眼画像とを含む。右画像は、左眼画像に対して視差を有する。左眼画像と右眼画像との一方は第1画像である。左眼画像と右眼画像との他方は第2画像である。図2及び図3において複数の区画領域の各々は、u軸方向及びu軸方向に直交するv軸方向に区画された領域である。u軸方向及びv軸方向に直交する方向はw軸方向と称される。u軸方向は水平方向と称されてよい。v軸方向は鉛直方向と称されてよい。w軸方向は奥行方向と称されてよい。図4、図14及び図15においても、u軸方向、v軸方向及びw軸方向は、図2及び図3と同じに定められた方向である。
 複数の区画領域の各々には、1つのサブピクセルが対応する。アクティブエリアAは、u軸方向及びv軸方向に沿って格子状に配列された複数のサブピクセルを備える。
 各サブピクセルは、R(Red),G(Green),B(Blue)のいずれかの色に対応し、R,G,Bの3つのサブピクセルを一組として1ピクセルを構成することができる。1ピクセルは、1画素と称されうる。u軸方向は、例えば、1ピクセルを構成する複数のサブピクセルが並ぶ方向である。v軸方向は、例えば、同じ色の複数のサブピクセルが並ぶ方向である。
 アクティブエリアAに配列された複数のサブピクセルは、コントローラ12の制御により、複数のサブピクセル群Pgを構成する。複数のサブピクセル群Pgは、u軸方向に繰り返して配列される。複数のサブピクセル群Pgは、v軸方向に同じ列に配列すること、及び、v軸方向にずらして配列することができる。例えば、複数のサブピクセル群Pgは、v軸方向においては、u軸方向に1サブピクセル分ずれた位置に隣接して繰り返して配列することができる。複数のサブピクセル群Pgは、所定の行及び列の複数のサブピクセルを含む。具体的には、複数のサブピクセル群Pgは、v軸方向にb個(b行)、u軸方向に2×n個(2×n列)、連続して配列された(2×n×b)個のサブピクセルP1~PN(N=2×n×b)を含む。図3に示す例では、n=6、b=1である。図3のアクティブエリアAには、v軸方向に1個、u軸方向に12個、連続して配列された12個のサブピクセルP1~P12を含む複数のサブピクセル群Pgが配置される。図3に示す例では、一部のサブピクセル群Pgにのみ符号を付している。
 複数のサブピクセル群Pgは、コントローラ12が画像を表示するための制御を行う最小単位である。複数のサブピクセル群Pgに含まれる各サブピクセルは、識別情報P1~PN(N=2×n×b)で識別される。全てのサブピクセル群Pgの同じ識別情報を有する複数のサブピクセルP1~PN(N=2×n×b)は、コントローラ12によって実質的に同時に制御されるように構成される。実質的に同時とは、完全な同時に限られない。例えば、サブピクセルP1~PNが同一のクロック発生に基づいて制御される場合、実質的に同時に制御されるということができる。例えば、コントローラ12は、サブピクセルP1に表示させる画像を左眼画像から右眼画像に切り替える場合、全てのサブピクセル群Pgにおける複数のサブピクセルP1に表示させる画像を、左眼画像から右眼画像に実質的に同時に切り替えることができる。
 パララックスバリア11は、図2に示したように、アクティブエリアAに沿う平面としうる。パララックスバリア11は、アクティブエリアAから距離ギャップgで離れている。パララックスバリア11は、表示パネル10に対して照射器9の反対側に位置してよい。パララックスバリア11は、表示パネル10の照射器9側に位置してよい。
 パララックスバリア11は、複数のサブピクセルから射出される画像光の伝播方向を規定するように構成される。図4に示すように、パララックスバリア11は、画像光を減光させる所定方向に伸びる複数の減光領域11bを有する。複数の減光領域11bは互いに隣接する2つの減光領域11bの間に、パララックスバリア11の面内の所定方向に伸びる複数の帯状領域である透光領域11aを画定する。複数の透光領域11aは、複数の減光領域11bに比べて光透過率が高い。複数の透光領域11aの光透過率は、複数の減光領域11bの光透過率の10倍以上、好適には100倍以上、より好適には1000倍以上とし得る。複数の減光領域11bは、複数の透光領域11aに比べて光透過率が低い。複数の減光領域11bは、画像光を遮光してよい。
 複数の透光領域11aと複数の減光領域11bとは、アクティブエリアAに沿う所定方向に延び、所定方向と直交する方向に繰り返し交互に配列される。所定方向は、例えば、表示パネル10とパララックスバリア11とを奥行方向(w軸方向)から見たとき、1のサブピクセルの対角線に沿う方向である。所定方向は、例えば、表示パネル10とパララックスバリア11とを奥行方向(w軸方向)から見たとき、u軸方向にs個のサブピクセルを横切る間に、v軸方向にt個のサブピクセルを横切る方向(s,tは互いの素の正の整数)としうる。所定方向は、v軸方向としてもよい。所定方向は、複数のサブピクセル群Pgの配列される方向に対応する方向である。例えば、図3の例において、複数のサブピクセル群Pgは、u軸方向に1行ずれると、v軸方向に1列ずれるので、s=1,t=1である。
 パララックスバリア11は、フィルム又は板状部材で構成されてよい。この場合、複数の減光領域11bは、当該フィルム又は板状部材で構成される。複数の透光領域11aは、フィルム又は板状部材に設けられた開口部であってよい。フィルムは、樹脂で構成されてよいし、他の材料で構成されてよい。板状部材は、樹脂又は金属等で構成されてよいし、他の材料で構成されてよい。パララックスバリア11は、フィルム又は板状部材に限られず、他の種類の部材で構成されてよい。パララックスバリア11は、遮光性を有する基
材で構成されてよい。パララックスバリア11は、遮光性を有する添加物を含有する基材で構成されてよい。
 表示パネル10のアクティブエリアAから射出された画像光の一部は、複数の透光領域11aを透過し、反射器4を介して光学部材5に到達する。光学部材5に到達した画像光は光学部材5に反射されて利用者30の眼31に到達する。これにより、利用者30の眼31は光学部材5の前方にアクティブエリアAに表示された画像の虚像である第1虚像V1を認識することができる。第1虚像V1が投影される面を虚像面Svとよぶ。本願において前方は、利用者30からみて光学部材5の方向である。前方は、移動体20の通常移動する方向である。図5に示したように、利用者30は、見かけ上、パララックスバリア11の虚像である第2虚像V2が、第1虚像V1からの画像光の方向を規定しているかのごとく、画像を認識する。
 このように、利用者30は、見かけ上、第2虚像V2を介して第1虚像V1を視認するかのごとく画像を認識している。実際にはパララックスバリア11の虚像である第2虚像V2は、視認されない。しかし、以降においては、第2虚像V2は、見かけ上、パララックスバリア11の虚像が形成される位置にあり、第1虚像V1からの画像光を規定するとみなされるものとして説明される。以降において、利用者30の左眼31lの位置に伝播する画像光によって利用者30が視認しうる第1虚像V1内の領域は左可視領域VaLと称される。利用者30の右眼31rの位置に伝播する画像光によって利用者30が視認しうる第1虚像V1内の領域は右可視領域VaRと称される。
 虚像バリアピッチVBp及び虚像ギャップVgは、適視距離Vdを用いた次の式(1)及び式(2)が成り立つように規定される。
 E:Vd=(n×VHp):Vg                  式(1)
 Vd:VBp=(Vdv+Vg):(2×n×VHp)         式(2)
虚像バリアピッチVBpは、第2虚像V2として投影された複数の減光領域11bのu軸方向に対応するx軸方向の配置間隔である。虚像ギャップVgは、第2虚像V2と第1虚像V1との間の距離である。適視距離Vdは、第2検出装置2から取得した位置情報が示す利用者30の左眼31l及び右眼31rそれぞれの位置とパララックスバリア11の虚像V2との間の距離である。眼間距離Eは、左眼31lと右眼31rとの間の距離である。眼間距離Eは、例えば、産業技術総合研究所の研究によって算出された値である61.1mm~64.4mmであってよい。VHpは、複数のサブピクセルの虚像の水平方向の長さである。VHpは、第1虚像V1における1つのサブピクセルの虚像の、x軸方向に対応する方向の長さである。
 図5に示す左可視領域VaLは、上述のように、パララックスバリア11の複数の透光領域11aを透過した画像光が利用者30の左眼31lに到達することによって、利用者30の左眼31lが視認する虚像面Svの領域である。右可視領域VaRは、上述のように、パララックスバリア11の複数の透光領域11aを透過した画像光が利用者30の右眼31rに到達することによって、利用者30の右眼31rが視認する虚像面Svの領域である。
 一例として、パララックスバリア11の開口率が50%の場合、利用者30の左眼31lから見た第1虚像V1の複数のサブピクセルの配置を図6に示す。第1虚像V1上のサブピクセルには、図3で示したサブピクセルと同じ符号P1からP12を付している。開口率が50%のとき、パララックスバリア11の複数の透光領域11aと複数の減光領域11bとは、等しい眼間方向(x軸方向)の幅を有する。第1虚像V1の一部は第2虚像V2により減光され左減光領域VbLとなっている。左減光領域VbLは、パララックスバリア11の減光領域11bによって画像光が減光されることによって、利用者30の左眼31lが視認し難い領域である。
 パララックスバリア11の虚像が利用者30の左眼31lからみて図6のように位置する場合、利用者30の右眼31rから見た第1虚像V1の複数のサブピクセルの配置を図7に示す。第1虚像V1の一部は第2虚像V2により減光された右減光領域VbRとなっている。右減光領域VbRは、パララックスバリア11の減光領域11bによって画像光が減光されることによって、利用者30の右眼31rが視認し難い領域である。
 パララックスバリア11の開口率が50%の場合、左可視領域VaLは右減光領域VbRに一致する。右可視領域VaRは左減光領域VbLに一致する。パララックスバリア11の開口率が50%未満の場合、左可視領域VaLは右減光領域VbRに含まれる。右可視領域VaRは左減光領域VbLに含まれる。このため、右可視領域VaRは、左眼31lからは見えない。左可視領域VaLは、右眼31rからは見えづらい。
 図6および図7の例では、左可視領域VaLには、アクティブエリアAに配列された複数のサブピクセルP2からP5の全体と複数のサブピクセルP1及びP6の大部分の虚像が含まれる。利用者30の左眼31lは、アクティブエリアAに配列された複数のサブピクセルP7からP12の虚像を視認し難い。右可視領域VaRには、アクティブエリアAに配列された複数のサブピクセルP8からP11の全体と複数のサブピクセルP7及びP12の大部分の虚像が含まれる。利用者30の右眼31rは、アクティブエリアAに配列された複数のサブピクセルP1からP6の虚像を視認し難い。コントローラ12は、複数のサブピクセルP1からP6に左眼画像を表示させることができる。コントローラ12は、複数のサブピクセルP7からP12に右眼画像を表示させることができる。このようにすることによって、利用者30の左眼31lが主に左可視領域VaLの左眼画像の虚像を視認し、右眼31rが主に右可視領域VaRの右眼画像の虚像を視認する。上述したように、右眼画像及び左眼画像は互いに視差を有する視差画像である。そのため、利用者30は、右眼画像及び左眼画像を3次元画像として視認することができる。
 メモリ13は、例えばRAM(Random Access Memory)及びROM(Read Only Memory)など、任意の記憶デバイスにより構成される。メモリ13は、種々の処理のためのプログラム、第1入力部7及び第2入力部8から取得した情報、及びコントローラ12によって変換された情報等を記憶するように構成されうる。例えば、メモリ13は、第1入力部7によって取得した物体40の位置情報を記憶するように構成される。メモリ13は、視差画像として表示する画像要素41を記憶するように構成されてよい。画像要素41は、文字、図形及びそれらを組み合わせたアニメーション等を含む。
 コントローラ12は、ヘッドアップディスプレイシステム100の各構成要素に接続され、各構成要素を制御するように構成される。コントローラ12は、例えばプロセッサとして構成される。コントローラ12は、1以上のプロセッサを含んでよい。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行するように構成された汎用のプロセッサ、及び特定の処理に特化した専用のプロセッサを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC:Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD:Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。コントローラ12は、1つ又は複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。
 コントローラ12は、互いに視差を有する右眼画像及び左眼画像を表示パネル10に表示させるように構成される。コントローラ12は、利用者30の眼31の位置に基づいて、表示パネル10上の左眼画像が表示される領域と、右眼画像が表示される領域とを、変更可能に構成される。コントローラ12は、表示パネル10の各サブピクセルが表示する画像を、右眼画像と左眼画像との間で切り替えて制御するように構成される。
 コントローラ12は、利用者30の左眼31lから見える第1虚像V1の左可視領域VaLが、図6の位置にあるとき、複数のサブピクセルP1からP6を視認しうる。コントローラ12は、利用者30の右眼31rから見える第1虚像V1の右可視領域VaRが、図7の位置にあるとき複数のサブピクセルP7からP12を視認しうる。このため、利用者30が視認する第1虚像V1が図6及び図7の状態にあるとき、コントローラ12は、複数のサブピクセルP1からP6に左眼画像を表示させ、複数のサブピクセルP7からP12に右眼画像を表示させることができる。他の実施形態において、コントローラ12は、複数のサブピクセルP2からP5に左眼画像を表示させ、複数のサブピクセルP8からP11に右眼画像を表示させることができる。コントローラ12は、その他の複数のサブピクセルP1、P6、P7及びP12に0の輝度値を持つ黒表示をさせることができる。その場合、クロストークの発生を特に低減することができる。
 利用者30の眼31の位置が変化すると、利用者30の左眼31l及び右眼31rから虚像を視認することができる複数のサブピクセルP1からP12の範囲は変化する。コントローラ12は、利用者30の眼31の位置に応じて、それぞれのサブピクセル群Pgの複数のサブピクセルP1からP12の中から左眼画像を表示する複数のサブピクセルと、右眼画像を表示する複数のサブピクセルとを決定するように構成される。コントローラ12は、左眼画像を表示すると決定された複数のサブピクセルに、左眼画像を表示させるように構成される。コントローラ12は、右眼画像を表示すると決定された複数のサブピクセルに、右眼画像を表示させるように構成される。
 例えば、図6及び図7に示すように第1虚像V1を観察している状態において、利用者30の眼31が相対的に左に移動した場合、パララックスバリア11の虚像である第2虚像V2は、見かけ上右へ移動する。図8を用いて説明する。図8において、一点鎖線は、パララックスバリア11の開口率が50%の場合の、左眼31l及び右眼31rから見たパララックスバリア11の複数の透光領域11aと複数の減光領域11bとの境界の虚像を示す。例えば、利用者30から見たパララックスバリア11の複数の透光領域11aと複数の減光領域11bとの境界の虚像が、図8に示すように右に移動した場合、左可視領域VaL及び右可視領域VaRも右に移動する。
 図8の場合、複数のサブピクセルP3からP6の全体とサブピクセルP2及びP7の大部分が、左可視領域VaLに含まれる。複数のサブピクセルP9からP12の全部と複数のサブピクセルP8及びP1の大部分が右可視領域VaRに含まれる。このため、コントローラ12は、表示パネル10の複数のサブピクセルP2からP7に左眼画像を表示させることができる。コントローラ12は、表示パネル10の複数のサブピクセルP1及びP8からP12に右眼画像を表示させることができる。
 コントローラ12は、表示パネル10に表示する左眼画像及び右眼画像からなる視差画像に含まれる画像要素41に、種々の視差を与えることによって、利用者30が視認する画像要素41までの距離を変えることができるように構成される。画像要素41は、視差画像に含まれる個々の文字及び図形並びにそれらのアニメーション等である。視差画像は、利用者30が視認する距離の異なる1つ以上の画像要素41を含みうる。
 画像要素41は、利用者30の視野内に第1検出装置1が検出する物体40と関連づけられて表示される。例えば、物体40が移動体20の前方を走る先行車両の場合、画像要素41は物体40の速度を示す文字情報としうる。物体40が減速中の場合、画像要素41は、先行車両の減速により車間距離の減少を警告する図形表示であってよい。物体40に関連づけられて表示される画像要素41は、物体40と少なくとも部分的に重畳して、物体40までの距離と略等しい距離に表示されることが好ましい。画像要素41が、現実空間の物体40と重ねて表示されることにより、視覚的に拡張された現実環境を提供することができる。
 コントローラ12は、左眼画像と右眼画像に含まれる表示対象の画像要素41が、所望の視差量を有するように、コントローラ12に表示させる。視差量は、人間が物体40を見るときの左眼31lと右眼31rとの視線方向の角度差を意味する。視差量は、輻輳角と言い換え得ることができる。画像要素41の視差量は、左眼31lにより左眼画像上に表示される左画像要素42lを視認し、右眼31rにより右眼画像に表示される右画像要素42rを見るときの輻輳角に対応する。コントローラ12は、予め記憶された文字及び図形等の画像を、メモリ13から取得してよい。コントローラ12は、リアルタイムで物体40までの距離に応じて視差を計算し、表示パネル10に表示する画像要素41の左画像要素42l及び右画像要素42r間の視差を与えてよい。画像要素41を表示するコントローラ12の動作については、後述する。
[画像要素の表示方法]
 HUD3において、表示パネル10のアクティブエリアAに表示された左眼画像及び右眼画像は、虚像面Sv上に投影される。虚像面Sv上に投影された左眼画像及び右眼画像は、互いに視差を有するので、利用者30の視野内に視差に応じたz軸方向(前後方向)の広がりを有する3次元画像として認識される。図9から図11を用いて、本開示のHUD3における、物体40までの距離に応じた画像要素41の表示方法について説明する。図9から図11は、y軸方向から見た図だが、物体40、画像要素41、左画像要素42l、右画像要素42rについては、説明のため正面から見た図としている。
 図9において、物体40は利用者30から見てz軸方向に丁度第2距離離れて位置する。第2距離は適視距離Vdである。物体40の利用者30から視認される部分は、虚像面Svに一致して位置する。この場合、画像要素41を第2距離に表示させるため、コントローラ12は、視差画像の左眼画像に含まれる左画像要素42lと右眼画像に含まれる右画像要素42rとを見る輻輳角を、虚像面Sv上の点を見る輻輳角Δに一致させてよい。この場合、実際に画像要素41の虚像が投影される位置と、輻輳角により画像要素41が存在すると認識される位置が虚像面Svに一致するので、利用者30は最も違和感なく画像を見ることができる。
 図10において、物体40が、利用者30から見てz軸方向の前方に、第2距離以上第1距離未満離れた位置に位置する。この場合、コントローラ12は、左画像要素42lと右画像要素42rとを、虚像面Sv上で視差量に応じた異なる位置に表示させる。左画像要素42lは、画像要素41を適視距離Vdから見たよりも、z軸方向に対してより小さな傾き角度で左側から見た像となる。右画像要素42rは、画像要素41を適視距離Vdから見たよりも、z軸方向に対してより小さな傾き角度で右側から見た像となる。その結果、利用者30は、左眼31lから左画像要素42lを見る視線方向と、右眼31rから右画像要素42rを見る視線方向との交差する位置に、画像要素41が存在するように知覚する。このとき、左眼31l及び右眼31rが画像要素41上の点を見る輻輳角は、輻輳角θ1で表される。輻輳角θ1は、虚像面Sv上の点を見る輻輳角Δより小さい。このように、互いに視差を有する左画像要素42lと右画像要素42rとを虚像面Sv上に投影することにより、利用者30は虚像面Svのさらに前方に画像要素41が存在するかの如く画像要素41を視認する。
 HUD3において、すべての物体40の位置を考慮して画像要素41を表す視差画像に与える視差を常時計算して逐次更新すると、HUD3の処理負荷が高くなることがある。本願の発明者らが検討したところによれば、物体40までの距離が第2距離より長い所定の第1距離以上の場合は、画像要素41に与える視差量を第1距離に対応する視差量に固定することができる。視差量を第1距離に対応する視差量に固定された場合でも、物体40に重畳される画像要素41は、人間の脳の認知機能により、物体40までの距離と実質的に等距離に位置するように認知される。このようなことが起こる原因としては、物体40に重畳されることによって、人間の脳が、視差の異なる画像要素41を物体40と実質的に同じ距離に位置するように、自動的に合成するからだと考えられる。本願の発明者らの実験によれば、少なくとも第1距離を12.5m、第2距離を7.5mとするとき、このような効果が得られることが確認された。例えば、利用者30からの距離が70mに位置する物体40に、12.5mの距離に対応する視差量を有する画像要素41を重畳して表示すると、画像要素41物体40と同じ距離に位置して見えた。輻輳角の違いにより画像要素41の境界が2重に見える、又は、ぼけて見える等の現象は生じなかった。
 上記のことから、図11に示すように、利用者30から物体40までの距離が第1距離以上の場合、コントローラ12は、第1の制御において物体40に少なくとも部分的に重畳させて表示する画像要素41の視差量を前記第1距離に対応する視差量に固定するように構成される。これにより、HUD3は、利用者30に対して、人間の脳の認知機能により、画像要素41を物体40までの距離と実質的に等距離に位置するように認識させることができる。図11の例においては、利用者30は、視差に基づく距離に対応する画像の表示位置43ではなく、物体40の位置に画像要素41があると認識する。
 第1距離において画像要素41の視差量は0ではない。すなわち、本開示は遠距離に位置するため視差が殆ど無い領域の視差を0に固定するものとは全く異なる。画像要素41の視差量は、画像要素41が物体40に重畳されること無く表示される場合、人間の視覚によって十分認知される大きさを有する。左眼31l及び右眼31rが、それぞれ左眼画像上の左画像要素42l及び右眼画像上の右画像要素42r上の点を見る輻輳角は、θ1より小さい輻輳角θ2に固定される。輻輳角θ2は、第1距離に位置する点を見る輻輳角である。
 一実施形態に係る画像要素41の表示例を、図12を参照して説明する。図12には、物体40の一例として第1距離より長い距離離れて前方を走行する先行車両45が含まれる。第1検出装置1は、先行車両45迄の距離を含む位置情報を時系列的に取得して、コントローラ12に送信するように構成される。仮に、先行車両45が減速を開始した場合、コントローラ12は、第1検出装置1から取得する先行車両45との間の距離が短くなることによりこれを認識する。利用者30に対して注意を促すため、コントローラ12は、表示パネル10を制御して、利用者30の視野内において先行車両45に重畳するように先行車両45が減速している旨の画像要素41を表示させる。画像要素41の表示は、文字及び/又は図形等を含んでよい。画像要素41の表示は、移動、点滅、及び/又は形状の変化等のアニメーションを伴ってよい。画像要素41は、第1距離に対応する視差を有する視差画像である。利用者30の脳の認知機能により、画像要素41は、先行車両45と等距離に位置するように認識される。利用者30から見た先行車両45迄の距離が変化した場合、画像要素41は、先行車両45に追随するように認知される。
(画像要素の表示手順)
 次に、図13を参照して、HUD3のコントローラ12が実行する視差画像の表示方法を説明する。コントローラ12は、図13のフローチャートを実行するように構成される。
 コントローラ12は、第1入力部7から、利用者30が光学部材5を介して前方に視認することができる物体40の第1位置情報を取得する(ステップS01)。
 コントローラ12は、第2入力部8から、利用者30の眼31の位置に関する第2位置情報を取得する(ステップS02)。ステップS02は、ステップS01より先に実行してよい。ステップS02は、ステップS01と並行して行ってよい。
 コントローラ12は、第1位置情報に基づいて、物体40までの距離が第1距離より長いか否かを判定する(ステップS03)。第1距離は、例えば12.5mである。第1距離は、12.5mより長い距離としうる。
 コントローラ12は、ステップS03において、物体40までの距離が第1距離以上であると判定された場合(ステップS03:Yes)、第1の制御を実行する(ステップS04)。第1の制御において、コントローラ12は、画像要素41に与える視差量を、第1距離に対応する視差量に固定する。第1距離に対応する視差量は、0より大きい視差量である。
 コントローラ12は、ステップS03において、物体40までの距離が第1距離未満であると判定された場合(ステップS03:No)、第2の制御を実行する(ステップS05)。第2の制御において、コントローラ12は、画像要素41に与える視差量を、物体40までの距離に対応する視差量となるように制御する。例えば、物体40までの距離が10mの場合、コントローラ12は、10m先の点を見る場合と同じ視差を左画像要素42lと右画像要素42rとの間に与える。
 コントローラ12は、ステップS05において、物体40までの距離が第2距離より短い場合、画像要素41を虚像面Svより利用者30の手前側に表示する。第2距離は、適視距離Vdである。第2距離は、7.5mより長く第1距離より短い距離としうる。コントローラ12は、物体40までの距離が第2距離よりも短い場合、ステップS05とは異なる処理を行うことも可能である。例えば、コントローラ12は、物体40までの距離が第2距離より短い場合、画像要素41の視差量を、第2距離に対応する視差量に固定してよい。
 コントローラ12は、物体40に重畳させて表示する画像要素41を生成する(ステップS06)。例えば、コントローラ12は、ステップS01で取得した物体40の位置情報に含まれる物体40までの距離及びその変化等に基づいて、表示する画像要素41を決定する。コントローラ12は、表示する画像要素41について、移動体20の他の装置から指示をうけてよい。コントローラ12は、ステップS01で取得した物体40の位置情報及びステップS02で取得した利用者30の眼31の位置情報に基づいて、表示パネル10の上での画像要素41の表示位置を決定する。コントローラ12は、画像要素41が利用者30から視認される物体40に少なくとも部分的に重畳させるようにする。コントローラ12は、必要に応じて出力部14を介して駆動部15を駆動して画像要素41の表示位置を調整してよい。コントローラ12は、ステップS04またはステップS05で決定した視差量に基づいて、画像要素41に視差を与える。コントローラ12は、1つ以上の画像要素41を、視差画像に合成するように構成される。
 コントローラ12は、合成した視差画像を表示パネル10に表示させる(ステップS07)。これにより、画像要素41は、利用者30の視野内に、物体40と重畳されて表示される。画像要素41は、利用者30によって物体40と等距離の位置に表示されていると認知される。
 以上のように、本開示のヘッドアップディスプレイシステム100によれば、物体40までの距離が第1距離以上の場合、コントローラ12は、画像要素41の視差量を固定して制御しないように構成される。これによって、ヘッドアップディスプレイシステム100は、物体40に重畳して表示される3次元画像の合成及び表示に係る処理負荷を低減することができる。3次元表示装置において、実際に画像が表示されている表示面(本願において虚像面Sv)までの距離と、両眼に与えられる視差により利用者30が知覚する表示画像までの距離との間に差異が大きいと、不快感及び視覚疲労等の原因となることが知られている。本開示のHUD3では、虚像面Svまでの距離に対応する第2距離と、第1距離との差を大きくする必要が無いので、不快感及び視覚疲労等を低減しうる。
 上記実施形態の表示装置6では、表示パネル10に表示される左眼画像及び右眼画像をそれぞれ利用者30の左眼31l及び右眼31rに伝播させる光学素子として、パララックスバリア11を使用した。しかし、使用可能な光学素子はパララックスバリア11に限られない。例えば、パララックスバリア11に代えて、液晶シャッタ又はレンチキュラレンズを使用することができる。図14は、パララックスバリア11に代えて、液晶シャッタ16を使用した表示装置6Aの構成例である。以下に、表示装置6Aの構成及び動作について図14及び図15を参照して説明する。
 図14に示すように、液晶シャッタ16は、コントローラ12により制御される。表示装置6Aは、パララックスバリア11に代えて液晶シャッタ16を使用したことを除き、図2の表示装置6と同じに構成される。図15に示すように、液晶シャッタ16は、表示パネル10と類似に構成されてよい。液晶シャッタ16は、複数の画素Pで構成される。液晶シャッタ16は、各画素Pにおける光の透過率を制御可能に構成される。液晶シャッタの複数の画素Pは、表示パネル10の複数のサブピクセルに対応する。液晶シャッタ16の複数の画素Pは、色成分を有していない点で表示パネル10とは異なる。利用者30が、表示パネル10の第1虚像V1と液晶シャッタ16の第2虚像V2を重ねて見たとき、液晶シャッタ16のそれぞれの画素Pは、表示パネル10のそれぞれのサブピクセルと、同じ形状及び同じ大きさで配列されてよい。
 液晶シャッタ16は、コントローラ12の制御により、複数の透光領域16aと複数の減光領域16bとを有する。複数の透光領域16a及び複数の減光領域16bの光透過率は、それぞれパララックスバリア11の複数の透光領域11a及び複数の減光領域11bと同じに設定しうる。液晶シャッタ16による複数の透光領域16a及び複数の減光領域16bは、液晶シャッタ16の複数の画素の配置に対応した領域となる。光学素子が液晶シャッタ16で構成される場合、複数の透光領域16aと複数の減光領域16bとの境界は、複数の画素Pの形状に対応して階段状となりうる。液晶シャッタ16の複数の透光領域16aと複数の減光領域16bとの境界は、クロストークを低減するように動的に変更させることができる。利用者30の眼31の位置がx軸方向に相対的に変化したとき、コントローラ12は、表示パネル10のサブピクセルごとの表示画像を切り替えることに代えて、液晶シャッタ16の複数の透光領域16aと複数の減光領域16bとの切り替えることができる。例えば、コントローラ12は、左眼画像を表示する複数のサブピクセルP1からP6からの画像光が、最も高い割合で利用者30の左眼31lに向かうように、液晶シャッタ16を制御するように構成される。コントローラ12は、右眼画像を表示する複数のサブピクセルP7からP12からの画像光が、最も高い割合で利用者30の右眼31rに向かうように液晶シャッタ16を制御するように構成される。
 本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。
 本開示において「第1」及び「第2」等の記載は、当該構成を区別するための識別子である。本開示における「第1」及び「第2」等の記載で区別された構成は、当該構成における番号を交換することができる。例えば、第1入力部は、第2入力部と識別子である「第1」と「第2」とを交換することができる。識別子の交換は同時に行われる。識別子の交換後も当該構成は区別される。識別子は削除してよい。識別子を削除した構成は、符号で区別される。本開示における「第1」及び「第2」等の識別子の記載のみに基づいて、当該構成の順序の解釈、小さい番号の識別子が存在することの根拠に利用してはならない。
 本開示において、x軸方向、y軸方向、及び、z軸方向は、説明の便宜上設けられたものであり、互いに入れ替えられてよい。本開示に係る構成は、x軸方向、y軸方向、及び、z軸方向を各軸とする直交座標系を用いて説明されてきた。本開示に係る各構成の位置関係は、直交関係にあると限定されるものではない。u軸方向、v軸方向及びw軸方向についても同様である。
 本開示における「移動体」には、車両、船舶、航空機を含む。本開示における「車両」には、自動車及び産業車両を含むが、これに限られず、鉄道車両及び生活車両、滑走路を走行する固定翼機を含めてよい。自動車は、乗用車、トラック、バス、二輪車、及びトロリーバス等を含むがこれに限られず、道路上を走行する他の車両を含んでよい。産業車両は、農業及び建設向けの産業車両を含む。産業車両には、フォークリフト、及びゴルフカートを含むがこれに限られない。農業向けの産業車両には、トラクター、耕耘機、移植機、バインダー、コンバイン、及び芝刈り機を含むが、これに限られない。建設向けの産業
車両には、ブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、及びロードローラを含むが、これに限られない。車両は、人力で走行するものを含む。なお、車両の分類は、上述に限られない。例えば、自動車には、道路を走行可能な産業車両を含んでよく、複数の分類に同じ車両が含まれてよい。本開示における船舶には、マリンジェット、ボート、タンカーを含む。本開示における航空機には、固定翼機、回転翼機を含む。
 本開示は次の実施の形態が可能である。
 本開示のヘッドアップディスプレイは、第1入力部と、第2入力部と、表示パネルと、光学系と、プロセッサと、光学素子とを備える。前記第1入力部は、物体までの距離を含む該物体の位置に関する第1位置情報を取得可能に構成される。前記第2入力部は、利用者の眼の位置に関する第2位置情報を取得可能に構成される。前記光学系は、前記利用者の視野内に前記表示パネルに表示される画像の虚像を投影するように構成される。前記プロセッサは、前記表示パネルに互いに視差を有する第1画像と第2画像とを含む視差画像を表示させるように構成される。前記光学素子は、前記光学系を介して、前記表示パネルに表示される前記第1画像を利用者の第1眼に伝播させ、前記表示パネルに表示される前記第2画像を前記利用者の第2眼に伝播させるように構成される。前記プロセッサは、前記第1位置情報及び前記第2位置情報に基づいて、前記利用者から視認される前記物体に少なくとも部分的に重畳するように、前記表示パネルに前記視差画像に含まれる画像要素を表示させる。前記プロセッサは、前記物体までの距離が所定の第1距離以上の場合、前記画像要素の視差量を前記第1距離に対応する0より大きい視差量に固定する第1の制御を実行するように構成される。
 本開示のヘッドアップディスプレイシステムは、第1検出装置と、第2検出装置と、ヘッドアップディスプレイとを含む。前記第1検出装置は、物体までの距離を含む該物体の位置に関する第1位置情報を検出可能に構成される。前記第2検出装置は、利用者の眼の位置に関する第2位置情報を検出可能に構成される。前記ヘッドアップディスプレイは、第1入力部、第2入力部、表示パネル、光学系、プロセッサ、及び、光学素子を備える。前記第1入力部は、前記第1検出装置から前記第1位置情報を取得可能に構成される。前記第2入力部は、前記第2検出装置から前記第2位置情報を取得可能に構成される。前記光学系は、前記利用者の視野内に前記表示パネルに表示される画像の虚像を投影するように構成される。前記プロセッサは、前記表示パネルに互いに視差を有する第1画像と第2画像とを含む視差画像を表示させるように構成される。前記光学素子は、前記光学系を介して、前記表示パネルに表示される前記第1画像を利用者の第1眼に伝播させ、前記表示パネルに表示される前記第2画像を前記利用者の第2眼に伝播させるように構成される。前記プロセッサは、前記第1位置情報及び前記第2位置情報に基づいて、前記利用者から視認される前記物体に少なくとも部分的に重畳するように、前記表示パネルに前記視差画像に含まれる画像要素を表示させる。前記プロセッサは、前記物体までの距離が所定の第1距離以上の場合、前記画像要素の視差量を前記第1距離に対応する0より大きい視差量に固定するように構成される。
 本開示の移動体は、ヘッドアップディスプレイシステムを備える。前記ヘッドアップディスプレイシステムは、第1検出装置と、第2検出装置と、ヘッドアップディスプレイと含む。前記第1検出装置は、物体までの距離を含む該物体の位置に関する第1位置情報を検出可能に構成される。前記第2検出装置は、利用者の眼の位置に関する第2位置情報を検出可能に構成される。前記ヘッドアップディスプレイは、第1入力部、第2入力部、表示パネル、光学系、プロセッサ、及び、光学素子を備える。前記第1入力部は、前記第1検出装置から前記第1位置情報を取得可能に構成される。前記第2入力部は、前記第2検出装置から前記第2位置情報を取得可能に構成される。前記光学系は、前記利用者の視野内に前記表示パネルに表示される画像の虚像を投影するように構成される。前記プロセッサは、前記表示パネルに互いに視差を有する第1画像と第2画像とを含む視差画像を表示させるように構成される。前記光学素子は、前記光学系を介して、前記表示パネルに表示される前記第1画像を利用者の第1眼に伝播させ、前記表示パネルに表示される前記第2画像を前記利用者の第2眼に伝播させるように構成される。前記プロセッサは、前記第1位置情報及び前記第2位置情報に基づいて、前記利用者から視認される前記物体に少なくとも部分的に重畳するように、前記表示パネルに前記視差画像に含まれる画像要素を表示させる。前記プロセッサは、前記物体までの距離が所定の第1距離以上の場合、前記画像要素の視差量を前記第1距離に対応する0より大きい視差量に固定するように構成される。
 本開示の実施形態によれば、物体に重畳して表示される3次元画像の表示に係る処理負荷を低減できる。
 以上、本開示の実施形態について詳細に説明したが、また、本開示は上述の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲内において、種々の変更、改良等が可能である。上記各実施形態をそれぞれ構成する全部または一部を、適宜、矛盾しない範囲で組み合わせ可能であることは、言うまでもない。
1    第1検出装置
2    第2検出装置
3    ヘッドアップディスプレイ(HUD)
4    反射器(光学系)
5    光学部材(光学系)
6    表示装置
7    第1入力部
8    第2入力部
9    照射器
10   表示パネル
11   パララックスバリア(光学素子)
11a  透光領域
11b  減光領域
12   コントローラ
13   メモリ
14   出力部
15   駆動部
16   液晶シャッタ(光学素子)
16a  透光領域
16b  減光領域
20   移動体
30   利用者
31   眼
31l  左眼(第1眼)
31r  右眼(第2眼)
40   物体
41   画像要素
42l  左画像要素
42r  右画像要素
43   視差に基づく距離に対応する画像の表示位置
45   先行車両(物体)
100  ヘッドアップディスプレイシステム
A    アクティブエリア
Sv   虚像面
V1   第1虚像
V2   第2虚像
VaL  左可視領域
VbL  左減光領域
VaR  右可視領域
VbR  右減光領域

Claims (7)

  1.  物体までの距離を含む該物体の位置に関する第1位置情報を取得可能に構成された第1入力部と、
     利用者の眼の位置に関する第2位置情報を取得可能に構成された第2入力部と、
     表示パネルと、前記利用者の視野内に前記表示パネルに表示される画像の虚像を投影するように構成された光学系と、
     前記表示パネルに互いに視差を有する第1画像と第2画像とを含む視差画像を表示させるように構成されたプロセッサと、
     前記光学系を介して、前記表示パネルに表示される前記第1画像を利用者の第1眼に伝播させ、前記表示パネルに表示される前記第2画像を前記利用者の第2眼に伝播させるように構成された光学素子と
    を備え、
     前記プロセッサは、前記第1位置情報及び前記第2位置情報に基づいて、前記利用者から視認される前記物体に少なくとも部分的に重畳するように、前記表示パネルに前記視差画像に含まれる画像要素を表示させ、前記物体までの距離が所定の第1距離以上の場合、前記画像要素の視差量を前記第1距離に対応する0より大きい視差量に固定する第1の制御を実行するように構成された
    ヘッドアップディスプレイ。
  2.  前記物体までの距離が前記第1距離以上の場合、人間の脳の認知機能により、前記利用者に対して前記画像要素を前記物体までの距離と実質的に等距離に位置するように認識させる、請求項1に記載のヘッドアップディスプレイ。
  3.  前記プロセッサは、前記物体までの距離が、前記光学系により前記表示パネルに表示される画像の虚像が投影される第2距離と、前記第2距離より長い前記第1距離の間の距離の場合、前記画像要素の視差量を前記物体までの距離に対応する視差量となるように制御する第2の制御を実行するように構成された、請求項1または2に記載のヘッドアップディスプレイ。
  4.  前記第2距離は、7.5mより長い請求項3に記載のヘッドアップディスプレイ。
  5.  前記第1距離は、12.5mより長い請求項1から4の何れか一項に記載のヘッドアップディスプレイ。
  6.  物体までの距離を含む該物体の位置に関する第1位置情報を検出可能に構成された第1検出装置と、
     利用者の眼の位置に関する第2位置情報を検出可能に構成された第2検出装置と、
     ヘッドアップディスプレイと
    を備え、
     前記ヘッドアップディスプレイは、前記第1検出装置から前記第1位置情報を取得可能に構成された第1入力部、前記第2検出装置から前記第2位置情報を取得可能に構成された第2入力部、表示パネル、前記利用者の視野内に前記表示パネルに表示される画像の虚像を投影するように構成された光学系、前記表示パネルに互いに視差を有する第1画像と第2画像とを含む視差画像を表示させるように構成されたプロセッサ、及び、前記光学系を介して、前記表示パネルに表示される前記第1画像を利用者の第1眼に伝播させ、前記表示パネルに表示される前記第2画像を前記利用者の第2眼に伝播させるように構成された光学素子を備え、前記プロセッサは、前記第1位置情報及び前記第2位置情報に基づいて、前記利用者から視認される前記物体に少なくとも部分的に重畳するように、前記表示パネルに前記視差画像に含まれる画像要素を表示させ、前記物体までの距離が所定の第1距離以上の場合、前記画像要素の視差量を前記第1距離に対応する0より大きい視差量に固定するように構成された
    ヘッドアップディスプレイシステム。
  7.  物体までの距離を含む該物体の位置に関する第1位置情報を検出可能に構成された第1検出装置、利用者の眼の位置に関する第2位置情報を検出可能に構成された第2検出装置、及び、ヘッドアップディスプレイを含み、前記ヘッドアップディスプレイは、前記第1検出装置から前記第1位置情報を取得可能に構成された第1入力部、前記第2検出装置から前記第2位置情報を取得可能に構成された第2入力部、表示パネル、前記利用者の視野内に前記表示パネルに表示される画像の虚像を投影するように構成された光学系、前記表示パネルに互いに視差を有する第1画像と第2画像とを含む視差画像を表示させるように構成されたプロセッサ、及び、前記光学系を介して、前記表示パネルに表示される前記第1画像を利用者の第1眼に伝播させ、前記表示パネルに表示される前記第2画像を前記利用者の第2眼に伝播させるように構成された光学素子を備え、前記プロセッサは、前記第1位置情報及び前記第2位置情報に基づいて、前記利用者から視認される前記物体に少なくとも部分的に重畳するように、前記表示パネルに前記視差画像に含まれる画像要素を表示させ、前記物体までの距離が所定の第1距離以上の場合、前記画像要素の視差量を前記第1距離に対応する0より大きい視差量に固定するように構成されるヘッドアップディスプレイシステムを備えた移動体。
PCT/JP2020/041872 2019-11-05 2020-11-10 ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体 WO2021090956A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021555145A JP7346587B2 (ja) 2019-11-05 2020-11-10 ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
EP20883735.1A EP4057049A4 (en) 2019-11-05 2020-11-10 HEAD-UP DISPLAY, HEAD-UP DISPLAY SYSTEM, AND MOVING BODY
US17/774,016 US20230001790A1 (en) 2019-11-05 2020-11-10 Head-up display, head-up display system, and movable body
CN202080077675.XA CN114761857A (zh) 2019-11-05 2020-11-10 平视显示器、平视显示器系统以及移动体

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-201004 2019-11-05
JP2019201004 2019-11-05

Publications (1)

Publication Number Publication Date
WO2021090956A1 true WO2021090956A1 (ja) 2021-05-14

Family

ID=75849177

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/041872 WO2021090956A1 (ja) 2019-11-05 2020-11-10 ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体

Country Status (5)

Country Link
US (1) US20230001790A1 (ja)
EP (1) EP4057049A4 (ja)
JP (1) JP7346587B2 (ja)
CN (1) CN114761857A (ja)
WO (1) WO2021090956A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230386371A1 (en) * 2022-05-26 2023-11-30 Industrial Technology Research Institute Display method and display system for anti-dizziness reference image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009008722A (ja) 2007-06-26 2009-01-15 Univ Of Tsukuba 3次元ヘッドアップディスプレイ装置
JP2015194709A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 画像表示装置
JP2016107945A (ja) * 2014-12-10 2016-06-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6481445B2 (ja) * 2015-03-23 2019-03-13 日本精機株式会社 ヘッドアップディスプレイ
JP6494877B2 (ja) * 2016-10-28 2019-04-03 三菱電機株式会社 表示制御装置及び表示制御方法
WO2018105533A1 (ja) * 2016-12-07 2018-06-14 京セラ株式会社 画像投影装置、画像表示装置、および移動体
CN107561714A (zh) * 2017-10-25 2018-01-09 上海驾馥电子科技有限公司 一种通过3d显示技术增强现实的抬头显示器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009008722A (ja) 2007-06-26 2009-01-15 Univ Of Tsukuba 3次元ヘッドアップディスプレイ装置
JP2015194709A (ja) * 2014-03-28 2015-11-05 パナソニックIpマネジメント株式会社 画像表示装置
JP2016107945A (ja) * 2014-12-10 2016-06-20 株式会社リコー 情報提供装置、情報提供方法及び情報提供用制御プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4057049A4

Also Published As

Publication number Publication date
CN114761857A (zh) 2022-07-15
US20230001790A1 (en) 2023-01-05
EP4057049A1 (en) 2022-09-14
JP7346587B2 (ja) 2023-09-19
EP4057049A4 (en) 2023-11-15
JPWO2021090956A1 (ja) 2021-05-14

Similar Documents

Publication Publication Date Title
WO2021106688A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2021106690A1 (ja) ヘッドアップディスプレイシステムおよび移動体
WO2021106664A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2021106689A1 (ja) ヘッドアップディスプレイシステム及び移動体
WO2021090956A1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム及び移動体
WO2019225400A1 (ja) 画像表示装置、画像表示システム、ヘッドアップディスプレイおよび移動体
US11874464B2 (en) Head-up display, head-up display system, moving object, and method of designing head-up display
JP2021056480A (ja) 3次元表示装置、コントローラ、3次元表示方法、3次元表示システム、及び、移動体
WO2021065427A1 (ja) カメラ、ヘッドアップディスプレイシステム、及び移動体
WO2022019154A1 (ja) 3次元表示装置
JP6668564B1 (ja) ヘッドアップディスプレイ、ヘッドアップディスプレイシステム、および移動体
WO2020130047A1 (ja) 3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、及び移動体
JP7332449B2 (ja) ヘッドアップディスプレイモジュール、ヘッドアップディスプレイシステム及び移動体
WO2024181153A1 (ja) 虚像表示装置、虚像表示方法、プログラム、及び移動体
WO2022149599A1 (ja) 3次元表示装置
WO2021106665A1 (ja) ヘッドアップディスプレイシステムおよび移動体
WO2022065355A1 (ja) 3次元表示装置、3次元表示方法、3次元表示システム、および移動体
WO2021095817A1 (ja) ヘッドアップディスプレイおよび移動体
WO2020256154A1 (ja) 3次元表示装置、3次元表示システム、および移動体
JP2021056254A (ja) パララックスバリア、3次元表示装置、3次元表示システム、ヘッドアップディスプレイ、および移動体
JP2021057844A (ja) 3次元表示装置、3次元表示システム及び移動体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20883735

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021555145

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020883735

Country of ref document: EP

Effective date: 20220607