WO2022124028A1 - ヘッドアップディスプレイ - Google Patents

ヘッドアップディスプレイ Download PDF

Info

Publication number
WO2022124028A1
WO2022124028A1 PCT/JP2021/042271 JP2021042271W WO2022124028A1 WO 2022124028 A1 WO2022124028 A1 WO 2022124028A1 JP 2021042271 W JP2021042271 W JP 2021042271W WO 2022124028 A1 WO2022124028 A1 WO 2022124028A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
region
image
light source
generation unit
Prior art date
Application number
PCT/JP2021/042271
Other languages
English (en)
French (fr)
Inventor
幸平 望月
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to CN202180082909.4A priority Critical patent/CN116601035A/zh
Priority to US18/266,425 priority patent/US20240036311A1/en
Priority to EP21903132.5A priority patent/EP4261593A1/en
Priority to JP2022568142A priority patent/JPWO2022124028A1/ja
Publication of WO2022124028A1 publication Critical patent/WO2022124028A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • B60K35/233
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/02Simple or compound lenses with non-spherical faces
    • B60K2360/23
    • B60K2360/31
    • B60K2360/332
    • B60K2360/334
    • B60K2360/343
    • B60K2360/785
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B2003/0093Simple or compound lenses characterised by the shape
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/013Head-up displays characterised by optical features comprising a combiner of particular shape, e.g. curvature
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Definitions

  • This disclosure relates to a head-up display.
  • a head-up display can be used to achieve visual communication between the vehicle and the occupants.
  • the head-up display can realize so-called AR (Augmented Reality) by projecting an image or video on a windshield or combiner and superimposing the image on the real space through the windshield or combiner so that the occupant can see it. ..
  • Patent Document 1 discloses a display device including an optical system for displaying a three-dimensional virtual image using a transparent display medium.
  • the display device projects light into the driver's field of view on the windshield or combiner. Some of the projected light passes through the windshield or combiner, while the other part is reflected by the windshield or combiner. This reflected light goes to the driver's eyes. The driver sees the reflected light in his eyes as an image of an object on the other side (outside the car) across the windshield or combiner against the background of a real object that can be seen through the windshield or combiner. Perceive as a virtual image.
  • the head-up display configured to display a given image.
  • An image generation unit that emits light for generating the predetermined image, and an image generation unit.
  • a mirror that reflects the light so that the light emitted by the image generation unit is applied to the transmitting member is provided.
  • the image generation unit Light source and An optical member that transmits light from the light source, It has a liquid crystal display portion in which an original image for forming the predetermined image is generated by the light emitted from the optical member.
  • the original image is formed in a shape corresponding to the distortion of the predetermined image.
  • the optical member is formed in a shape that matches the shape of the original image.
  • the head-up display is A heads-up display configured to display a given image.
  • An image generation unit that emits light for generating the predetermined image, and an image generation unit.
  • a mirror that reflects the light so that the light emitted by the image generation unit is applied to the transmitting member is provided.
  • the image generation unit With multiple light sources It has at least a single optical member that transmits light from each of the plurality of light sources and emits the light.
  • the plurality of light sources are arranged at a pitch matching the shape of the mirror so that the light emitted from the single optical member is diffused and incident on the mirror.
  • a head-up display capable of improving the visibility of a virtual image.
  • FIG. 3A shows an example of the exit surface image generated by the image generation part of the HUD which concerns on a comparative example. It is a figure when the exit surface image shown in FIG. 3A is displayed as a virtual image. It is a figure which shows an example of the exit surface image generated by the image generation part of the HUD which concerns on this embodiment. It is a figure which shows the virtual image object which is recognized when the emission surface image shown in FIG. 4 is reflected by a concave mirror.
  • horizontal direction is a direction including the "left direction” and the “right direction”.
  • the "vertical direction” is a direction including “upward” and “downward”.
  • the "front-back direction” is a direction including the "forward direction” and the “backward direction”.
  • the left-right direction is a direction orthogonal to the up-down direction and the front-back direction.
  • FIG. 1 is a block diagram of the vehicle system 2.
  • the vehicle 1 equipped with the vehicle system 2 is a vehicle (automobile) capable of traveling in the automatic driving mode.
  • the vehicle system 2 communicates wirelessly with a vehicle control unit 3, a sensor 5, a camera 6, a radar 7, an HMI (Human Machine Interface) 8, a GPS (Global Positioning System) 9, and a GPS (Global Positioning System) 9.
  • a unit 10 and a storage device 11 are provided.
  • the vehicle system 2 includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17.
  • the vehicle system 2 includes a HUD 20.
  • the vehicle control unit 3 is configured to control the running of the vehicle 1.
  • the vehicle control unit 3 is composed of, for example, at least one electronic control unit (ECU: Electronic Control Unit).
  • the electronic control unit includes a computer system including one or more processors and a memory (for example, a SoC (System on a Chip) or the like), and an electronic circuit composed of an active element such as a transistor and a passive element such as a resistor.
  • the processor includes, for example, at least one of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit).
  • the CPU may be composed of a plurality of CPU cores.
  • the GPU may be composed of a plurality of GPU cores.
  • the memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the vehicle control program may be stored in the ROM.
  • the vehicle control program may include an artificial intelligence (AI) program for autonomous driving.
  • AI is a program (trained model) constructed by supervised or unsupervised machine learning (particularly deep learning) using a multi-layer neural network.
  • the RAM may temporarily store a vehicle control program, vehicle control data, and / or peripheral environment information indicating the surrounding environment of the vehicle 1.
  • the processor may be configured to develop a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
  • the computer system may be configured by a non-Neuman type computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). Further, the computer system may be composed of a combination of a Von Neumann computer and a non-Von Neumann computer.
  • a non-Neuman type computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
  • the computer system may be composed of a combination of a Von Neumann computer and a non-Von Neumann computer.
  • the sensor 5 includes at least one of an acceleration sensor, a speed sensor and a gyro sensor.
  • the sensor 5 is configured to detect the traveling state of the vehicle 1 and output the traveling state information to the vehicle control unit 3.
  • the sensor 5 includes a seating sensor that detects whether the driver is sitting in the driver's seat, a face orientation sensor that detects the direction of the driver's face, an external weather sensor that detects the external weather condition, and whether or not there is a person in the vehicle.
  • a motion sensor or the like for detection may be further provided.
  • the camera 6 is, for example, a camera including an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS).
  • the camera 6 includes an external camera 6A and an internal camera 6B.
  • the external camera 6A is configured to acquire image data indicating the surrounding environment of the vehicle 1 and then transmit the image data to the vehicle control unit 3.
  • the vehicle control unit 3 acquires surrounding environment information based on the transmitted image data.
  • the surrounding environment information may include information on an object (pedestrian, other vehicle, sign, etc.) existing outside the vehicle 1.
  • the surrounding environment information may include information on the attributes of the object existing outside the vehicle 1 and information on the distance and position of the object with respect to the vehicle 1.
  • the external camera 6A may be configured as a monocular camera or a stereo camera.
  • the internal camera 6B is arranged inside the vehicle 1 and is configured to acquire image data indicating an occupant.
  • the internal camera 6B functions as, for example, an eye tracking camera that tracks the occupant's viewpoint E (described later in FIG. 2).
  • the internal camera 6B is provided, for example, in the vicinity of the rear-view mirror or inside the instrument panel.
  • the radar 7 includes at least one of a millimeter wave radar, a microwave radar, and a laser radar (for example, a LiDAR unit).
  • the LiDAR unit is configured to detect the surrounding environment of the vehicle 1.
  • the LiDAR unit is configured to acquire 3D mapping data (point cloud data) indicating the surrounding environment of the vehicle 1 and then transmit the 3D mapping data to the vehicle control unit 3.
  • the vehicle control unit 3 identifies the surrounding environment information based on the transmitted 3D mapping data.
  • the HMI 8 is composed of an input unit that receives an input operation from the driver and an output unit that outputs driving information and the like to the driver.
  • the input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode changeover switch for switching the operation mode of the vehicle 1, and the like.
  • the output unit is a display (excluding the HUD) that displays various driving information.
  • the GPS 9 is configured to acquire the current position information of the vehicle 1 and output the acquired current position information to the vehicle control unit 3.
  • the wireless communication unit 10 receives information about another vehicle around the vehicle 1 (for example, driving information) from the other vehicle, and transmits information about the vehicle 1 (for example, driving information) to the other vehicle. It is configured (vehicle-to-vehicle communication). Further, the wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as traffic lights and indicator lights and to transmit traveling information of vehicle 1 to the infrastructure equipment (road-to-vehicle communication). Further, the wireless communication unit 10 receives information about the pedestrian from the portable electronic device (smartphone, tablet, wearable device, etc.) carried by the pedestrian, and transmits the own vehicle traveling information of the vehicle 1 to the portable electronic device. It is configured to do (pedestrian-to-vehicle communication).
  • the vehicle 1 may directly communicate with another vehicle, infrastructure equipment, or a portable electronic device in an ad hoc mode, or may communicate via an access point. Further, the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device via a communication network (not shown).
  • the communication network includes at least one of the Internet, a local area network (LAN), a wide area network (WAN) and a radio access network (RAN).
  • the wireless communication standard is, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), LPWA, DSRC (registered trademark) or Li-Fi.
  • the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device by using a fifth generation mobile communication system (5G).
  • 5G fifth generation mobile communication system
  • the storage device 11 is an external storage device such as a hard disk drive (HDD) or SSD (Solid State Drive).
  • the storage device 11 may store two-dimensional or three-dimensional map information and / or a vehicle control program.
  • the three-dimensional map information may be composed of 3D mapping data (point cloud data).
  • the storage device 11 is configured to output map information and a vehicle control program to the vehicle control unit 3 in response to a request from the vehicle control unit 3.
  • the map information and the vehicle control program may be updated via the wireless communication unit 10 and the communication network.
  • the vehicle control unit 3 When the vehicle 1 travels in the automatic driving mode, the vehicle control unit 3 has at least one of the steering control signal, the accelerator control signal, and the brake control signal based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like. Generate one automatically.
  • the steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal.
  • the brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal.
  • the accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and control the accelerator device 17 based on the received accelerator control signal.
  • the vehicle control unit 3 automatically controls the travel of the vehicle 1 based on the travel state information, the surrounding environment information, the current position information, the map information, and the like. That is, in the automatic driving mode, the traveling of the vehicle 1 is automatically controlled by the vehicle system 2.
  • the vehicle control unit 3 when the vehicle 1 travels in the manual driving mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal according to the manual operation of the driver with respect to the accelerator pedal, the brake pedal, and the steering wheel.
  • the steering control signal, the accelerator control signal, and the brake control signal are generated by the manual operation of the driver, so that the traveling of the vehicle 1 is controlled by the driver.
  • the operation mode consists of an automatic operation mode and a manual operation mode.
  • the automatic driving mode includes, for example, a fully automatic driving mode, an advanced driving support mode, and a driving support mode.
  • the vehicle system 2 automatically performs all driving controls such as steering control, brake control, and accelerator control, and the driver is not in a state where the vehicle 1 can be driven.
  • the vehicle system 2 automatically performs all driving controls of steering control, brake control, and accelerator control, and the driver is in a state where the vehicle 1 can be driven but does not drive the vehicle 1.
  • the driving support mode the vehicle system 2 automatically performs some driving control of steering control, brake control, and accelerator control, and the driver drives the vehicle 1 under the driving support of the vehicle system 2.
  • the manual driving mode the vehicle system 2 does not automatically control the driving, and the driver drives the vehicle 1 without the driving support of the vehicle system 2.
  • the HUD 20 directs the HUD information to the occupants of the vehicle 1 so that predetermined information (hereinafter referred to as HUD information) is superimposed on the real space outside the vehicle 1 (particularly, the surrounding environment in front of the vehicle 1). It is configured to be displayed as an image.
  • the HUD information displayed by the HUD 20 is, for example, related to vehicle running information related to the running of the vehicle 1 and / or surrounding environment information related to the surrounding environment of the vehicle 1 (particularly, related to an object existing outside the vehicle 1). Information) etc.
  • the HUD 20 is an AR display that functions as a visual interface between the vehicle 1 and the occupants.
  • the HUD 20 includes an image generation unit 24 and a control unit 25.
  • the image generation unit (PGU: Picture Generation Unit) 24 is configured to emit light for generating a predetermined image displayed to the occupant of the vehicle 1.
  • the image generation unit 24 can emit light for generating a change image that changes according to the situation of the vehicle 1, for example.
  • the control unit 25 controls the operation of each unit of the HUD 20.
  • the control unit 25 is connected to the vehicle control unit 3 and controls the operation of each unit of the HUD 20 such as the image generation unit 24 based on the vehicle travel information, the surrounding environment information, and the like transmitted from the vehicle control unit 3.
  • the control unit 25 is equipped with a processor such as a CPU and a memory, and the processor executes a computer program read from the memory to control the operation of the image generation unit 24 and the like.
  • the vehicle control unit 3 and the control unit 25 are provided as separate configurations, but the vehicle control unit 3 and the control unit 25 may be integrally configured.
  • the vehicle control unit 3 and the control unit 25 may be configured by a single electronic control unit.
  • FIG. 2 is a schematic view of the HUD 20 as viewed from the side surface side of the vehicle 1.
  • the HUD 20 has at least a part of the HUD 20 located inside the vehicle 1.
  • the HUD 20 is installed at a predetermined position in the room of the vehicle 1.
  • the HUD 20 may be located within the dashboard of vehicle 1.
  • the HUD 20 includes a HUD main body 21.
  • the HUD main body 21 has a main body housing 22 and an exit window 23.
  • the exit window 23 is made of a transparent plate that allows visible light to pass through.
  • the HUD main body 21 has an image generation unit 24, a control unit 25, and a concave mirror 26 (an example of a mirror) inside the main body housing 22.
  • the image generation unit 24 is installed in the main body housing 22 so as to face the front of the HUD 20.
  • the image generation unit 24 has a light emitting surface 110 (an example of a liquid crystal unit) that emits light for generating an image toward the outside.
  • the light emitting surface 110 is provided with a predetermined light emitting region 110A that emits light for generating a predetermined image displayed toward the occupant of the vehicle 1.
  • the predetermined light emission region 110A will be described later with reference to FIG.
  • the concave mirror 26 is arranged on the optical path of the light emitted from the image generation unit 24.
  • the concave mirror 26 is configured to reflect the light emitted from the image generation unit 24 toward the windshield 18 (for example, the front window of the vehicle 1).
  • the concave mirror 26 has a reflecting surface curved in a concave shape in order to form a predetermined image, and reflects an image of light emitted from the image generation unit 24 and formed at a predetermined magnification.
  • the concave mirror 26 may have, for example, a drive mechanism 27, and may be configured so that the position and orientation of the concave mirror 26 can be changed based on a control signal transmitted from the control unit 25.
  • the control unit 25 generates a control signal for controlling the operation of the image generation unit 24 based on the vehicle travel information, the surrounding environment information, and the like transmitted from the vehicle control unit 3, and generates the generated control signal. It is transmitted to the image generation unit 24. Further, the control unit 25 may generate a control signal for changing the position and orientation of the concave mirror 26, and may transmit the generated control signal to the drive mechanism 27.
  • the light emitted from the light emitting surface 110 of the image generation unit 24 is reflected by the concave mirror 26 and emitted from the exit window 23 of the HUD main body unit 21.
  • the light emitted from the exit window 23 of the HUD main body 21 is applied to the windshield 18 which is a transmissive member. A part of the light emitted from the exit window 23 to the windshield 18 is reflected toward the occupant's viewpoint E.
  • the occupant recognizes the light emitted from the HUD main body 21 as a virtual image (predetermined image) formed at a predetermined distance in front of the windshield 18.
  • the occupant can see the virtual image object I formed by the predetermined image on the road located outside the vehicle. It can be visually recognized as if it were floating.
  • the occupant's viewpoint E may be either the occupant's left eye viewpoint or the right eye viewpoint.
  • the viewpoint E may be defined as the midpoint of a line segment connecting the viewpoint of the left eye and the viewpoint of the right eye.
  • the position of the occupant's viewpoint E is specified, for example, based on the image data acquired by the internal camera 6B.
  • the position of the viewpoint E of the occupant may be updated at a predetermined cycle, or may be determined only once when the vehicle 1 is started.
  • a predetermined image is projected so as to be a virtual image of a single distance arbitrarily determined.
  • a 3D image stereo image
  • a plurality of predetermined images that are the same as or different from each other are projected so as to be virtual images at different distances.
  • the distance of the virtual image object I (distance from the viewpoint E of the occupant to the virtual image) adjusts the distance from the image generation unit 24 to the viewpoint E of the occupant (for example, the distance between the image generation unit 24 and the concave mirror 26). It can be adjusted as appropriate by adjusting).
  • the virtual image object I recognized by the occupant as a predetermined image is distorted due to the reflection of the concave mirror 26. Therefore, in order for the occupant to accurately recognize the information of the virtual image object I, for example, it is desirable to correct the distortion of the virtual image object I that occurs.
  • FIG. 3A is an image generated by the light emitted from the image generation unit of the HUD according to the comparative example, the image on the light emission surface 310 of the image generation unit, that is, the image generated by the light before being reflected by the concave mirror. It is a figure which shows an example of 312 (hereinafter, also referred to as an emission surface image). Further, FIG. 3B is a diagram showing a virtual image object X recognized by the occupant as a predetermined image after the emission surface image 312 shown in FIG. 3A is reflected by the concave mirror. The images shown in FIGS. 3A and 3B display information indicating the traveling speed (50 km / h) of the own vehicle.
  • a predetermined correction process is applied to the distortion caused by the reflection of the emission surface image 312 on the light emission surface 310 of the image generation unit according to the comparative example by a normal image, for example, a concave mirror.
  • a normal image for example, a concave mirror.
  • the virtual image object X generated by the light reflected by the concave mirror is visually recognized as an image having a distorted shape as shown in FIG. 3B.
  • the virtual image object X is visually recognized as a curved image in which the upper side thereof is extended and the lower side is contracted.
  • the emission surface image is subjected to reverse correction processing (also referred to as correction processing by warping) in advance. Is given).
  • FIG. 4 is a diagram showing an example of an exit surface image 112 generated by the light emitted from the image generation unit 24 of the HUD 20.
  • FIG. 5 is a diagram showing a virtual image object I that is recognized by the occupant as a predetermined image after the emission surface image 112 shown in FIG. 4 is reflected by the concave mirror 26.
  • the light emitting surface 110 of the image generation unit 24 is formed in a rectangular shape, and is provided with a predetermined light emitting region 110A that emits light for generating a predetermined image. Then, in the predetermined light emission region 110A, the emission surface image 112 is generated by the light emitted from the predetermined light emission region 110A. In the emission surface image 112 of this example, a speed image for notifying that the current traveling speed is 50 km / h is displayed, as in the comparative example shown in FIGS. 3A and 3B.
  • the predetermined light emission region 110A of the rectangular light emission surface 110 is formed as, for example, an annular fan-shaped emission region.
  • the annular fan-shaped predetermined light emission region 110A is an emission region that forms a rectangular display range 114 in which the virtual image object I shown in FIG. 5 is displayed.
  • the predetermined light emitting region 110A is formed so as to occupy a region in which the annular fan shape is maximized on the light emitting surface 110, for example, in order to form a large display range 114.
  • the emission surface image 112 of the predetermined light emission region 110A is corrected by warping.
  • the emission surface image 112 of the predetermined light emission region 110A is corrected in advance by the amount of distortion caused by the reflection of the concave mirror 26, and the upper side of the image is stretched. Corrections have been made to shrink the underside.
  • the degree of distortion generated in the virtual image object I based on the reflection by the concave mirror 26 becomes smaller as it approaches the central region of the virtual image object I, and the end region away from the central region. It gets bigger. Therefore, the amount of correction by warping applied to the emission surface image 112 that is the original image of the virtual image object I differs depending on the position of the emission surface image 112 according to the magnitude of the degree of distortion depending on the portion of the virtual image object I. ..
  • the correction amount of the emission surface image of the region corresponding to the center of the virtual image object I is relatively small, and the correction amount of the emission surface image of the region corresponding to the end portion away from the center of the virtual image object I is relatively small. Becomes larger.
  • the emission surface image 112 which is the original image for forming a predetermined image, is formed in a shape to which a reverse correction process is performed in which the image is distorted in the reverse direction in advance by the amount distorted by the reflection by the concave mirror 26. ing. Therefore, when the light that generates the emission surface image 112 is reflected by the concave mirror 26, it is visually recognized as, for example, a horizontally long rectangular virtual image object I without distortion, as shown in FIG.
  • FIG. 6 is a horizontal cross-sectional view of the image generation unit 24A included in the HUD 20A.
  • FIG. 7 is a schematic view of the image generation unit 24A as viewed from the front side (light emitting surface 110 side).
  • the image generation unit 24A includes a light source substrate 120 on which a plurality of light sources 121 (in this example, seven light sources of the first light source 121A to the seventh light source 121G) are mounted, and the front side of the light source 121.
  • a lens 130 (an example of an optical member) arranged in the lens 130 and a light source surface 110 arranged on the front side of the lens 130 are provided.
  • the image generation unit 24A further includes a lens holder 140 arranged on the front side of the light source substrate 120, a heat sink 150 arranged on the rear side of the light source substrate 120, and a PGU housing 160.
  • the light source 121 (first light source 121A to seventh light source 121G) is, for example, a laser light source or an LED light source.
  • the laser light source is, for example, an RGB laser light source configured to emit a red laser light, a green light laser light, and a blue laser light, respectively.
  • the first light source 121A to the seventh light source 121G are arranged on the light source substrate 120 at a distance of a certain distance in the left-right direction.
  • the light source substrate 120 is, for example, a printed circuit board made of an insulator in which wiring of an electric circuit is printed on the surface or inside of the plate.
  • the lens 130 has an incident surface 132 on which the light from the light source 121 is incident and an exit surface 133 on which the incident light is emitted.
  • the lens 130 is, for example, an aspherical convex lens in which both the entrance surface 132 and the exit surface 133 are formed in a convex shape.
  • the lens 130 is configured to transmit or reflect the light emitted from the light source 121 and emit it toward the light emitting surface 110.
  • a prism, a diffuser plate, a magnifying glass, or the like may be appropriately added to the lens 130 that functions as an optical member.
  • the lens 130 is configured by arranging seven aspherical convex lenses corresponding to the first light source 121A to the seventh light source 121G in parallel in the left-right direction. A part of adjacent aspherical convex lenses of the lens 130 are connected in parallel.
  • the lens 130 is emitted from a first region 131A that transmits the first light emitted from the first light source 121A, a second region 131B that transmits the second light emitted from the second light source 121B, and a third light source 121C.
  • the incident surface 132F and the incident surface 132G of the seventh region 131G are rearwardly convex incident surfaces.
  • the emission surface 133A of the first region 131A, the emission surface 133B of the second region 131B, the emission surface 133C of the third region 131C, the emission surface 133D of the fourth region 131D, the emission surface 133E of the fifth region 131E, and the sixth region 131F are rearwardly convex incident surfaces.
  • the exit surface 133F and the exit surface 133G of the seventh region 131G are forwardly convex exit surfaces.
  • the lens 130 is attached to the lens holder 140 so that the center of the light emitting surface of the first light source 121A to the seventh light source 121G is at the focal position.
  • the light emitting surface 110 is a liquid crystal display, a DMD (Digital Mirror Device), or the like.
  • the light emitting surface 110 forms light for generating an image by the light of the light source 121 transmitted through the lens 130.
  • the light emitting surface 110 is attached to the front surface of the PGU housing 160 with the emitting surface facing forward of the image generation unit 24A.
  • the drawing method of the image generation unit 24A may be a raster scan method, a DLP method, or an LCOS method.
  • the light source 121 of the image generation unit 24A may be an LED light source.
  • the light source 121 of the image generation unit 24A may be a white LED light source.
  • the lens holder 140 holds the lens 130 in the PGU housing 160 so that the light emitted from the light source 121 is correctly incident on the incident surface 132 of the lens 130.
  • the heat sink 150 is made of aluminum or copper having high thermal conductivity.
  • the heat sink 150 is provided so as to come into contact with the back surface of the light source substrate 120 in order to dissipate heat generated from the light source substrate 120.
  • the light emitted from the first light source 121A to the seventh light source 121G is incident on the incident surfaces 132A to 132G of the lens 130. Since the shape of the lens 130 is a shape in which seven aspherical convex lenses are coupled in parallel as described above, most of the light emitted from the first light source 121A is the lens 130, for example, as shown in the first optical path 122A. It is incident on the first region 131A of the above, becomes light parallel to the optical axis 125A, is emitted from the first region 131A, and is incident on the light emitting surface 110.
  • most of the light emitted from the second light source 121B to the seventh light source 121G is incident on the second region 131B to the seventh region 131G, respectively, and the second light source 121B to the seventh light source 121G Light parallel to each optical axis is incident on the light emitting surface 110.
  • the lens 130 is formed by stacking seven aspherical convex lenses arranged in parallel in the left-right direction in a plurality of stages in the vertical direction corresponding to the light source.
  • the lens 130 of this example has a first region 131A to a seventh region 131G (an example of a convex portion) arranged in parallel in the left-right direction corresponding to the first light source 121A to the seventh light source 121G, and the eighth light source 121H to the eighth light source.
  • the eighth region 131H to the fourteenth region 131N (an example of the convex surface portion) arranged in parallel in the left-right direction corresponding to the fourteen light sources 121N are formed in two stages in the vertical direction.
  • Each light source 121 shown by a broken line is arranged behind the lens 130.
  • An annular fan-shaped predetermined light emission region 110A is formed on the light emission surface 110, and the emission surface image (50 km / h) which is the original image of the predetermined image forming the virtual image object I is formed in the predetermined light emission region 110A. 112 has been generated. Then, the emission surface image 112 is subjected to correction processing by warping.
  • the lens 130 in which the first region 131A to the seventh region 131G and the eighth region 131H to the fourteenth region 131N are stacked in two stages in the vertical direction has the shape of the emission surface image 112 corrected by warping. It is formed in a combined shape. Specifically, the lens 130 is formed in a curved shape in accordance with the shape of the exit surface image 112 that has been corrected by warping.
  • the first region 131A to the seventh region 131G of the lens 130 are arranged so that a virtual line connecting the centers of the exit surface 133A to the exit surface 133G when viewed from the front is a curved line.
  • the eighth region 131H to the fourteenth region 131N of the lens 130 are arranged so that the virtual lines connecting the centers of the emission surface 133H to the emission surface 133N when viewed from the front form a curved line.
  • the virtual line connecting these light sources is corrected by warping on the emission surface image 112. It is arranged so as to be curved according to the shape.
  • the eighth light source 121H to the fourteenth light source 121N corresponding to the eighth region 131H to the fourteenth region 131N are also arranged so that the virtual lines connecting these light sources are curved.
  • the fourth region 131D arranged in the central portion is a lens that emits light for forming the central region of the emission surface image 112.
  • the first region 131A and the seventh region 131G arranged at the end portion away from the central portion are light for forming the end region of the emission surface image 112. It is a lens that emits light.
  • the eleventh region 131K arranged in the central portion is a lens that emits light for forming the central region of the emission surface image 112. be.
  • the eighth region 131H to the fourteenth region 131N the eighth region 131H and the fourteenth region 131N arranged at the end portion away from the central portion form the end region of the emission surface image 112. It is a lens that emits the light of.
  • the degree of distortion generated in the virtual image object I based on the reflection by the concave mirror 26 is smaller as it approaches the central region of the virtual image object I, and is larger as it is farther from the central region. Therefore, the amount of correction by warping applied to the emission surface image 112 that is the original image of the virtual image object I is small in the region corresponding to the center of the virtual image object I in the emission surface image 112, and is small in the emission surface image 112. It increases in the region corresponding to the end of the virtual image object I away from the center.
  • the first region 131A to the fourteenth region 131N of the lens 130 are a region for emitting light for forming the central region of the emission surface image 112 and a region for emitting light for forming a peripheral region of the emission surface image 112. It is preferable that the lenses are formed so as to have different shapes.
  • the first region 131A to the fourteenth region 131N are each emitted according to the degree of distortion generated in each region (central region, end region, intermediate region thereof) of the virtual image object I based on the reflection by the concave mirror 26.
  • the surfaces constituting the surfaces 133A to 133N may be configured to have different curvatures from each other.
  • the image generation unit 24A that emits light for generating a predetermined image and the light emitted by the image generation unit 24A are applied to the windshield 18.
  • a concave mirror 26 that reflects light is provided.
  • the image generation unit 24A generates a light emitting surface 110 that generates an original image for forming a predetermined image by the light source 121, the lens 130 that transmits the light from the light source 121, and the light emitted from the lens 130. It has a predetermined light emission region 110A and the like.
  • the original image is formed in a shape corresponding to the distortion of a predetermined image
  • the lens 130 is formed in a shape matching the shape of the original image.
  • the emission surface image 112 which is the original image, is formed in advance in a shape that corrects the distortion of a predetermined image generated by the reflection of the emission surface image 112 by the concave mirror 26.
  • the lens 130 is formed in a shape that matches the shape of the emission surface image 112 when viewed from the light emission surface 110 side.
  • the emission surface image 112 (original image) is placed on the predetermined light emission region 110A.
  • the output surface image 112 to be displayed is subjected to reverse correction processing (correction processing by warping) in advance.
  • the shape of the lens 130 (first region 131A to seventh region 131G and eighth region 131H to fourteenth region 131N) is formed to match the shape of the exit surface image 112. It is possible to improve the utilization efficiency of the light emitted from the light source with respect to the predetermined light emission region 110A on which the emission surface image 112 corrected by warping is displayed. As a result, the visibility of the virtual image object I can be improved.
  • the shape of the lens 130 is a curved shape.
  • the emission surface image 112 original image
  • the lens 130 By forming the lens 130 into a curved shape according to the curved shape of the emission surface image 112, it is possible to easily improve the utilization efficiency of the light emitted from the lens 130 toward the predetermined light emission region 110A of the light emission surface 110. Can be done.
  • the light source 121 includes the first light source 121A to the fourteenth light source 121N, and the lens 130 has a plurality of convex surface portions that transmit light from each of the first light source 121A to the fourteenth light source 121N.
  • the first region 131A to the fourteenth region 131N are included.
  • the first light source 121A to the seventh light source 121G and the eighth light source 121H to the fourteenth light source 121N are arranged in a curved line when viewed from the light emitting surface 110 side, and the first region 131A to the seventh region
  • the 131G and the eighth region 131H to the fourteenth region 131N are arranged in a curved shape when viewed from the light source surface 110 side.
  • the utilization efficiency of the light emitted to the predetermined light emission region 110A of the light emission surface 110 is used. Can be improved.
  • the predetermined image (virtual image object I) is formed in a horizontally long rectangular shape, and the degree of distortion of the edge region of the predetermined image is larger than the degree of distortion of the central region of the predetermined image. Then, depending on the difference between the degree of distortion in the central region and the degree of distortion in the end region, the convex portion arranged corresponding to the central region among the plurality of convex portions 131A to the fourteenth region 131N. The shape is different from that of the convex portion arranged corresponding to the end region.
  • the end region of the virtual image object I is more likely to be distorted by reflection from the concave mirror 26 than the central region.
  • the convex surface portion for example, the fourth region 131D, the eleventh region 131K
  • the convex surface portion for example, the first region 131A, the seventh region 131G, the eighth region
  • the distortion of the image can be appropriately corrected.
  • FIG. 8 is a schematic view of the image generation unit 24B included in the HUD 20B as viewed from above. As shown in FIG. 8, in the case of the image generation unit 24B as well, similarly to the image generation unit 24A of the first embodiment, a plurality of light sources and lenses configured to correspond to these light sources are provided. ing.
  • the first light source 221A to the fifth light source 221E are provided.
  • the first light source 221A to the fifth light source 221E are arranged in parallel in the left-right direction.
  • the lens 230 is a single lens in which five aspherical convex lenses corresponding to the first light source 221A to the fifth light source 221E are arranged in parallel along the left-right direction, and a part of adjacent aspherical convex lenses is connected in parallel. It is a lens.
  • the lens 230 emits from a first region 231A that transmits the first light emitted from the first light source 221A, a second region 231B that transmits the second light emitted from the second light source 221B, and a third light source 221C.
  • the third region 231C that transmits the third light
  • the fourth region 231D that transmits the fourth light emitted from the fourth light source 221D
  • the fifth region that transmits the fifth light emitted from the fifth light source 221E. It has a region 231E.
  • the incident surface 232A of the first region 231A, the incident surface 232B of the second region 231B, the incident surface 232C of the third region 231C, the incident surface 232D of the fourth region 231D, and the incident surface 232E of the fifth region 231E are convex rearward. Is the incident surface of.
  • the exit surface 233A of the first region 231A, the exit surface 233B of the second region 231B, the exit surface 233C of the third region 231C, the exit surface 233D of the fourth region 231D, and the exit surface 233E of the fifth region 231E are convex forward. Is the exit surface of.
  • the first light source 221A to the fifth light source 221E are irradiated from the first light source 221A to the fifth light source 221E, pass through the lens 230, and the light emitted from the exit surface 233 of the lens 230 is diffused toward the concave mirror 26. They are arranged at a pitch that matches the shape of the concave mirror 26 so as to proceed.
  • the pitches P1 to P4 of the first light source 221A to the fifth light source 221E are shorter than the pitches P5 to P8 of the vertices of the exit surfaces 233A to 233E of the lens 230. Have been placed.
  • the pitch P1 between the first light source 221A and the second light source 221B is shorter than the pitch P5 between the apex of the exit surface 233A of the first region 231A and the apex of the exit surface 233B of the second region 231B in the lens 230.
  • the pitch P2 between the second light source 221B and the third light source 221C is shorter than the pitch P6 between the apex of the exit surface 233B of the second region 231B of the lens 230 and the apex of the exit surface 233C of the third region 231C.
  • the pitch P3 between the third light source 221C and the fourth light source 221D is shorter than the pitch P7 between the apex of the exit surface 233C of the third region 231C of the lens 230 and the apex of the exit surface 233D of the fourth region 231D.
  • the pitch P4 between the fourth light source 221D and the fifth light source 221E is shorter than the pitch P8 between the apex of the exit surface 233D of the fourth region 231D of the lens 230 and the apex of the exit surface 233E of the fifth region 231E.
  • the light emitted from the first light source 221A to the fifth light source 221E, passing through the lens 230, and emitted from the exit surface 233 of the lens 230 is substantially perpendicular to the concave mirror 26. It is arranged so as to be incident on.
  • the light passing on the optical axis of the lens 230 or the light passing through a path close to the path of the light passing on the optical axis is incident substantially perpendicular to the concave mirror 26. Have been placed.
  • the first light source 221A is emitted from the first light source 221A, passes through the first region 231A of the lens 230, and emits light from the emission surface 233A on the optical axis or the optical axis in the first region 231A.
  • the light L1 passing through a path close to the path of the passing light is arranged so as to be incident substantially perpendicular to the concave mirror 26.
  • the second light source 221B is on the optical axis or the optical axis in the second region 231B of the light emitted from the emission surface 233B, which is irradiated from the second light source 221B and passes through the second region 231B of the lens 230.
  • the light L2 passing through a path close to the path of the light passing through the concave mirror 26 is arranged so as to be incident substantially perpendicular to the concave mirror 26.
  • the third light source 221C is the light that is emitted from the third light source 221C, passes through the third region 231C of the lens 230, and is emitted from the emission surface 233C, and the light that passes on the optical axis or the optical axis in the third region 231C.
  • the light L3 passing through a path close to the path of No. 2 is arranged so as to be incident substantially perpendicular to the concave mirror 26.
  • the fourth light source 221D is the light that is emitted from the fourth light source 221D, passes through the fourth region 231D of the lens 230, and is emitted from the emission surface 233D, and is the light that passes on the optical axis or the optical axis in the fourth region 231D.
  • the light L4 passing through a path close to the path of No. 2 is arranged so as to be incident substantially perpendicular to the concave mirror 26.
  • the fifth light source 221E is the light that is emitted from the fifth light source 221E, passes through the fifth region 231E of the lens 230, and is emitted from the emission surface 233E, and is the light that passes on the optical axis or the optical axis in the fifth region 231E.
  • the light L5 passing through a path close to the path of No. 2 is arranged so as to be incident substantially perpendicular to the concave mirror 26.
  • the first region 231A to the fifth region 231E (an example of the convex surface portion) of the lens 230 are for forming a region for emitting light for forming a central region of the emission surface image and a peripheral region for the emission surface image. It is formed so as to have a different shape from the region that emits light.
  • the shape of the third region 231C that emits light for forming the central region of the emission surface image is formed so as to be symmetrical.
  • the shapes of the first region 231A, the second region 231B, the fourth region 231D, and the fifth region 231E that emit light for forming the peripheral region of the emission surface image are formed to be asymmetrical.
  • the degree of asymmetry is greater in the region that emits light to form the edges of the exit surface image.
  • the asymmetry of the first region 231A and the fifth region 231E is more than the degree of asymmetry of the second region 231B and the fourth region 231D. Is greater.
  • FIG. 9 is a diagram showing the asymmetry of the shape of the first region 231A in the lens 230.
  • the first region 231A is a curved surface on the left side (far side from the second region 231B) of the curved surface 233A2 on the right side (the side closer to the second region 231B) of the exit surface 233A.
  • the 233A1 is formed so that the inclination (curvature) is gentler. That is, the curvature of the curved surface 233A1 on the left side is smaller than the curvature of the curved surface 233A2 on the right side of the exit surface 233A.
  • the second region 231B is formed so that the curvature on the side closer to the first region 231A is smaller than the curvature on the side closer to the third region 231C on the exit surface 233B. ..
  • the difference in curvature between the left side and the right side of the exit surface is formed so that the emission surface 233A of the first region 231A is larger than the emission surface 233B of the second region 231B.
  • the curvature of the fifth region 231E on the right side is larger than the curvature on the left side (the side closer to the fourth region 231D) on the exit surface 233E. It is formed to be small. Further, the fourth region 231D is formed so that the curvature on the side closer to the fifth region 231E on the exit surface 233D is smaller than the curvature on the side closer to the third region 231C. The difference in curvature between the left side and the right side of the exit surface is formed so that the exit surface 233E of the fifth region 231E is larger than the exit surface 233D of the fourth region 231D.
  • FIG. 8 shows a case where the image generation unit 24B is viewed from above.
  • the shape of the lens is similarly different for each region. You may.
  • the lens has a convex surface portion stacked in a plurality of stages in the vertical direction, a convex surface portion for emitting light for forming a central region of the emission surface image and an upper and lower end region of the emission surface image are formed.
  • the shape may be different from that of the convex portion that emits light for the purpose.
  • the pitch Px between the light sources 321A and 321E and the emission surfaces 333A to 333E in the first region 331A to the fifth region 331E of the lens 330 The pitch Py between the vertices of the (convex surface portion) was set to the same pitch. Further, the curvatures of the emission surfaces 333A to 333E are set so that the light La to Le emitted from the first region 331A to the fifth region 331E are parallel to the optical axis of each light source 321A to 321E.
  • the image generation unit 24B that emits light for generating a predetermined image and the light emitted by the image generation unit 24B are applied to the windshield 18. Also includes a concave mirror 26 that reflects light. Then, the image generation unit 24A transmits the light from each of the first light source 221A to the fifth light source 221E and the first light source 221A to the fifth light source 221E, and emits a single lens 230. At least, the first light source 221A to the fifth light source 221E are arranged at a pitch matching the shape of the concave mirror 26 so that the light emitted from the single lens 230 is diffused and incident on the concave mirror 26. ..
  • the optical member for obtaining diffused light can be configured by a single lens 230, it is not necessary to add another member such as a diffuser plate, and it is possible to realize miniaturization and cost reduction of HUD20B. can.
  • the single lens 230 emits light from each of the first light source 221A to the fifth light source 221E along the parallel direction of the first light source 221A to the fifth light source 221E. It has a first region 231A to a fifth region 231E of the lens 230, which are a plurality of parallel convex portions.
  • the first light source 221A to the fifth light source 221E are arranged so that the pitch of the first light source 221A to the fifth light source 221E is shorter than the pitch of each vertex of the first region 231A to the fifth region 231E of the lens 230. Has been done.
  • the light emitted from each region 231A to 231E of the lens 230 toward the concave mirror 26 is more than the case where the pitch between the light sources and the pitch between the vertices of the exit surface (convex surface portion) of the lens are the same. Can be diffused. This makes it possible to improve the uniformity of the luminance distribution of the virtual image object I.
  • the light emitted from each of the first region 231A to the fifth region 231E of the lens 230 is configured to be vertically incident on the concave mirror 26. According to this configuration, the light can be uniformly reflected over the entire concave mirror 26, so that the uniformity of the luminance distribution of the virtual image object I can be further improved.
  • the predetermined image (virtual image object I) is formed in a horizontally long rectangular shape, and is predetermined among the first region 231A to the fifth region 231E of the lens 230 which is a plurality of parallel convex surface portions.
  • the shape of the region that emits light for forming the central portion of the image and the region that emits light for forming the end portion of a predetermined image are different.
  • the light for forming the end portion of a predetermined image can also be incidented in a state close to perpendicular to the concave mirror 26, further improving the uniformity of the luminance distribution of the virtual image object I. Can be done.
  • the light emitted from the image generation unit 24 is configured to be reflected by the concave mirror 26 and irradiated to the windshield 18, but the present invention is not limited to this.
  • the light reflected by the concave mirror 26 may be applied to a combiner (not shown) provided inside the windshield 18.
  • the combiner is composed of a transmissive member such as a transparent plastic disk. A part of the light emitted from the image generation unit 24 of the HUD main body 21 to the combiner is reflected toward the occupant's viewpoint E as in the case of irradiating the windshield 18 with light.
  • the HUD is mounted on an automobile, but the present invention is not limited to this.
  • the HUD may be mounted on a motorcycle, a railroad, an aircraft, or the like.
  • the vehicle driving mode has been described as including a fully automated driving mode, an advanced driving support mode, a driving support mode, and a manual driving mode. It should not be limited to one mode.
  • the driving mode of the vehicle may include at least one of these four modes. For example, only one of the driving modes of the vehicle may be executed.
  • the classification and display form of the driving mode of the vehicle may be appropriately changed in accordance with the laws and regulations related to automatic driving in each country.
  • the definitions of "fully automatic driving mode”, “advanced driving support mode”, and “driving support mode” described in the description of this embodiment are merely examples, and the laws and regulations related to automatic driving in each country or In line with the rules, these definitions may be changed accordingly.

Abstract

ヘッドアップディスプレイは、所定の画像を生成するための光を出射する画像生成部(24A)と、画像生成部(24A)により出射された光が透過部材へ照射されるように、光を反射させるミラーとを備える。画像生成部(24A)は、光源(121)と、光源(121)からの光を透過する光学部材(130)と、光学部材(130)から出射された光により所定の画像を形成するための元画像(112)が生成される液晶部(110A)とを有する。元画像(112)は、所定の画像の歪みに対応する形状に形成されている。光学部材(130)は、元画像(112)の形状に合わせた形状に形成されている。

Description

ヘッドアップディスプレイ
 本開示は、ヘッドアップディスプレイに関する。
 将来において、公道上では自動運転モードで走行中の車両と手動運転モードで走行中の車両が混在することが予想される。
 将来の自動運転社会では、車両と人間との間の視覚的コミュニケーションが益々重要になっていくことが予想される。例えば、車両と当該車両の乗員との間の視覚的コミュニケーションが益々重要になっていくことが予想される。この点において、ヘッドアップディスプレイ(HUD)を用いて車両と乗員との間の視覚的コミュニケーションを実現することができる。ヘッドアップディスプレイは、ウインドシールドやコンバイナに画像や映像を投影させ、その画像をウインドシールドやコンバイナを通して現実空間と重畳させて乗員に視認させることで、いわゆるAR(Augmented Reality)を実現することができる。
 ヘッドアップディスプレイの一例として、特許文献1には、透明な表示媒体を用いて立体的な虚像を表示するための光学系を備える表示装置が開示されている。当該表示装置は、ウインドシールドまたはコンバイナ上で、運転手の視界内に光を投射する。投射された光の一部はウインドシールドまたはコンバイナを透過するが、他の一部はウインドシールドまたはコンバイナに反射される。この反射光は運転者の目に向かう。運転者は、目に入ったその反射光を、ウインドシールドやコンバイナ越しに見える実在の物体を背景に、ウインドシールドやコンバイナを挟んで反対側(自動車の外側)にある物体の像のように見える虚像として知覚する。
日本国特開2018-45103号公報
 ところで、既存のヘッドアップディスプレイでは、虚像(画像)の視認性向上に改善の余地がある。
 そこで、本開示は、虚像の視認性が向上可能なヘッドアップディスプレイを提供することを目的とする。
 上記目的を達成するために、本開示の一側面に係るヘッドアップディスプレイは、
 所定の画像を表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射する画像生成部と、
 前記画像生成部により出射された前記光が透過部材へ照射されるように、前記光を反射させるミラーと、を備え、
 前記画像生成部は、
  光源と、
  前記光源からの光を透過する光学部材と、
  前記光学部材から出射された光により前記所定の画像を形成するための元画像が生成される液晶部と、を有し、
 前記元画像は、前記所定の画像の歪みに対応する形状に形成されており、
 前記光学部材は、前記元画像の前記形状に合わせた形状に形成されている。
 また、本開示の一側面に係るヘッドアップディスプレイは、
 所定の画像を表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射する画像生成部と、
 前記画像生成部により出射された前記光が透過部材へ照射されるように、前記光を反射させるミラーと、を備え、
 前記画像生成部は、
  複数の光源と、
  前記複数の光源のそれぞれからの光を透過して、前記光を出射する単一の光学部材と、を少なくとも有し、
 前記複数の光源は、前記単一の光学部材から出射される光が拡散して前記ミラーに入射するように、前記ミラーの形状に合わせたピッチで配置されている。
 本開示によれば、虚像の視認性が向上可能なヘッドアップディスプレイを提供することができる。
本実施形態に係るヘッドアップディスプレイ(HUD)を備えた車両システムのブロック図である。 図1のHUDの構成を示す模式図である。 比較例に係るHUDの画像生成部により生成される出射面画像の一例を示す図である。 図3Aに示す出射面画像を虚像として表示したときの図である。 本実施形態に係るHUDの画像生成部により生成される出射面画像の一例を示す図である。 図4に示す出射面画像を凹面鏡で反射したときに認識される虚像オブジェクトを示す図である。 第一実施形態のHUDが備える画像生成部の水平断面図である。 図6の画像生成部を前面側から見た概略図である。 第二実施形態のHUDが備える画像生成部を上方から見た概略図である。 図8の画像生成部が備えるレンズの形状を示す部分拡大図である。 従来のHUDが備える画像生成部を上方から見た概略図である。
 以下、本発明の実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 また、本実施形態の説明では、説明の便宜上、「左右方向」、「上下方向」、「前後方向」について適宜言及する場合がある。これらの方向は、図2に示すHUD(Head-Up Display)20について設定された相対的な方向である。ここで、「左右方向」は、「左方向」および「右方向」を含む方向である。「上下方向」は、「上方向」および「下方向」を含む方向である。「前後方向」は、「前方向」および「後方向」を含む方向である。左右方向は、図2では示されていないが、上下方向および前後方向に直交する方向である。
 図1を参照して、本実施形態に係るHUD20を備える車両システム2について以下に説明する。図1は、車両システム2のブロック図である。当該車両システム2が搭載された車両1は、自動運転モードで走行可能な車両(自動車)である。
 図1に示すように、車両システム2は、車両制御部3と、センサ5と、カメラ6と、レーダ7と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11とを備える。また、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。さらに、車両システム2は、HUD20を備える。
 車両制御部3は、車両1の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサおよびメモリを備えるコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子および抵抗等のパッシブ素子から構成される電子回路とを含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、およびTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)とを含む。ROMには、車両制御プログラムが記憶されてもよい。例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有りまたは教師なし機械学習(特に、ディープラーニング)によって構築されたプログラム(学習済みモデル)である。RAMには、車両制御プログラム、車両制御データ及び/又は車両1の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。
 センサ5は、加速度センサ、速度センサおよびジャイロセンサのうち少なくとも一つを含む。センサ5は、車両1の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサおよび車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。
 カメラ6は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6は、外部カメラ6Aと、内部カメラ6Bとを含む。
 外部カメラ6Aは、車両1の周辺環境を示す画像データを取得した上で、当該画像データを車両制御部3に送信するように構成されている。車両制御部3は、送信された画像データに基づいて、周辺環境情報を取得する。ここで、周辺環境情報は、車両1の外部に存在する対象物(歩行者、他車両、標識等)に関する情報を含んでもよい。例えば、周辺環境情報は、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の距離や位置に関する情報とを含んでもよい。外部カメラ6Aは、単眼カメラとして構成されてもよいし、ステレオカメラとして構成されてもよい。
 内部カメラ6Bは、車両1の内部に配置されると共に、乗員を示す画像データを取得するように構成されている。内部カメラ6Bは、例えば、乗員の視点E(図2で後述する)をトラッキングするアイトラッキングカメラとして機能する。内部カメラ6Bは、例えば、ルームミラーの近傍、あるいはインストルメントパネルの内部等に設けられている。
 レーダ7は、ミリ波レーダ、マイクロ波レーダ、およびレーザーレーダ(例えば、LiDARユニット)のうちの少なくとも一つを含む。例えば、LiDARユニットは、車両1の周辺環境を検出するように構成されている。特に、LiDARユニットは、車両1の周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを車両制御部3に送信するように構成されている。車両制御部3は、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。
 HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイ(HUDを除く)である。
 GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。
 無線通信部10は、車両1の周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両1に関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部10は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両1の自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両1は、他車両、インフラ設備または携帯型電子機器との間をアドホックモードにより直接通信してもよいし、アクセスポイントを介して通信してもよい。さらに、車両1は、図示しない通信ネットワークを介して他車両、インフラ設備または携帯型電子機器と通信してもよい。通信ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)および無線アクセスネットワーク(RAN)のうちの少なくとも一つを含む。無線通信規格は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)、LPWA、DSRC(登録商標)又はLi-Fiである。また、車両1は、他車両、インフラ設備または携帯型電子機器と第5世代移動通信システム(5G)を用いて通信してもよい。
 記憶装置11は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置11には、2次元または3次元の地図情報及び/又は車両制御プログラムが記憶されてもよい。例えば、3次元の地図情報は、3Dマッピングデータ(点群データ)によって構成されてもよい。記憶装置11は、車両制御部3からの要求に応じて、地図情報や車両制御プログラムを車両制御部3に出力するように構成されている。地図情報や車両制御プログラムは、無線通信部10と通信ネットワークを介して更新されてもよい。
 車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号およびブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、車両1の走行を自動的に制御する。つまり、自動運転モードでは、車両1の走行は車両システム2により自動制御される。
 一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダルおよびステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号およびブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号およびブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。
 上述の通り、運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、例えば、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御およびアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御およびアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御およびアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2の運転支援なしに運転者が車両1を運転する。
 HUD20は、所定の情報(以下、HUD情報という。)が車両1の外部の現実空間(特に、車両1の前方の周辺環境)と重畳されるように、当該HUD情報を車両1の乗員に向け画像として表示するように構成されている。HUD20によって表示されるHUD情報は、例えば、車両1の走行に関連した車両走行情報及び/又は車両1の周辺環境に関連した周辺環境情報(特に、車両1の外部に存在する対象物に関連した情報)等である。HUD20は、車両1と乗員との間の視覚的インターフェースとして機能するARディスプレイである。
 HUD20は、画像生成部24と、制御部25とを備える。
 画像生成部(PGU:Picture Generation Unit)24は、車両1の乗員に向けて表示される所定の画像を生成するための光を出射するように構成されている。画像生成部24は、例えば、車両1の状況に応じて変化する変化画像を生成するための光を出射可能である。
 制御部25は、HUD20の各部の動作を制御する。制御部25は、車両制御部3に接続されており、車両制御部3から送信されてくる車両走行情報や周辺環境情報等に基づいて、画像生成部24などHUD20の各部の動作を制御する。制御部25は、CPU等のプロセッサとメモリが搭載され、メモリから読みだしたコンピュータプログラムをプロセッサが実行して、画像生成部24等の動作を制御する。なお、本実施形態では、車両制御部3と制御部25とは別個の構成として設けられているが、車両制御部3と制御部25は一体的に構成されてもよい。例えば、車両制御部3と制御部25は、単一の電子制御ユニットにより構成されていてもよい。
 図2は、HUD20を車両1の側面側から見た模式図である。HUD20は、少なくともHUD20の一部が車両1の内部に位置する。具体的には、HUD20は、車両1の室内の所定箇所に設置されている。例えば、HUD20は、車両1のダッシュボード内に配置されてもよい。
 図2に示すように、HUD20は、HUD本体部21を備える。HUD本体部21は、本体ハウジング22と、出射窓23とを有する。出射窓23は可視光を透過させる透明板で構成されている。HUD本体部21は、本体ハウジング22の内部に、画像生成部24と、制御部25と、凹面鏡26(ミラーの一例)とを有する。
 画像生成部24は、本体ハウジング22内においてHUD20の前方を向くように設置されている。画像生成部24は、外部に向けて画像を生成するための光を出射する光出射面110(液晶部の一例)を有する。光出射面110には、車両1の乗員に向けて表示される所定の画像を生成するための光を出射する所定光出射領域110Aが設けられている。所定光出射領域110Aについては、図4で後述する。
 凹面鏡26は、画像生成部24から出射される光の光路上に配置されている。凹面鏡26は、画像生成部24から出射された光をウインドシールド18(例えば、車両1のフロントウィンドウ)に向けて反射するように構成されている。凹面鏡26は、所定の画像を形成するために凹状に湾曲した反射面を有し、画像生成部24から出射され結像された光の像を所定の倍率で反射させる。凹面鏡26は、例えば駆動機構27を有し、制御部25から送信される制御信号に基づいて凹面鏡26の位置及び向きを変化させることができるように構成されていてもよい。
 制御部25は、車両制御部3から送信されてくる車両走行情報や周辺環境情報等に基づいて、画像生成部24の動作を制御するための制御信号を生成し、当該生成された制御信号を画像生成部24に送信する。また、制御部25は、凹面鏡26の位置及び向きを変化させるための制御信号を生成し、当該生成された制御信号を駆動機構27に送信してもよい。
 画像生成部24の光出射面110から出射された光は、凹面鏡26で反射されてHUD本体部21の出射窓23から出射される。HUD本体部21の出射窓23から出射された光は、透過部材であるウインドシールド18に照射される。出射窓23からウインドシールド18に照射された光の一部は、乗員の視点Eに向けて反射される。この結果、乗員は、HUD本体部21から出射された光をウインドシールド18の前方の所定の距離において形成される虚像(所定の画像)として認識する。このように、HUD20によって表示される画像がウインドシールド18を通して車両1の前方の現実空間に重畳される結果、乗員は、所定の画像により形成される虚像オブジェクトIが車両外部に位置する道路上に浮いているように視認することができる。
 ここで、乗員の視点Eは、乗員の左目の視点又は右目の視点のいずれかであってもよい。または、視点Eは、左目の視点と右目の視点を結んだ線分の中点として規定されてもよい。乗員の視点Eの位置は、例えば、内部カメラ6Bによって取得された画像データに基づいて特定される。乗員の視点Eの位置は、所定の周期で更新されてもよいし、車両1の起動時に一回だけ決定されてもよい。
 なお、虚像オブジェクトIとして2D画像(平面画像)を形成する場合には、所定の画像を任意に定めた単一距離の虚像となるように投影する。虚像オブジェクトIとして3D画像(立体画像)を形成する場合には、互いに同一または互いに異なる複数の所定の画像をそれぞれ異なる距離の虚像となるように投影する。また、虚像オブジェクトIの距離(乗員の視点Eから虚像までの距離)は、画像生成部24から乗員の視点Eまでの距離を調整する(例えば画像生成部24と凹面鏡26との間の距離を調整する)ことによって適宜調整可能である。
 ところで、画像生成部24の光出射面110から出射された光は凹面鏡26で反射されるため、所定の画像として乗員に認識される虚像オブジェクトIには凹面鏡26の反射に伴う歪みが発生する。したがって、虚像オブジェクトIの情報を乗員に正確に認識させるためには、例えば、発生する虚像オブジェクトIの歪みを補正処理することが望ましい。
 次に、虚像オブジェクトに生じる歪みと、当該歪みを補正するための処理(画像のワーピングによる補正)について図3A,図3B、図4及び図5を参照して説明する。
 図3Aは、比較例に係るHUDの画像生成部から出射された光により生成される画像において、画像生成部の光出射面310における画像、すなわち凹面鏡で反射される以前の光により生成される画像(以下、出射面画像ともいう)312の一例を示す図である。また、図3Bは、図3Aに示す出射面画像312が凹面鏡に反射された後に所定の画像として乗員に認識される虚像オブジェクトXを示す図である。なお、図3A,図3Bに示す画像には、自車の走行速度(50km/h)を示す情報が表示されている。
 図3Aに示すように、比較例に係る画像生成部の光出射面310における出射面画像312が通常の画像、例えば、凹面鏡で反射されることにより生じる歪みに対して所定の補正処理が施されていない画像である場合、凹面鏡で反射された光によって生成される虚像オブジェクトXは、図3Bに示すように、歪んだ形状の画像となって視認される。本比較例の場合、虚像オブジェクトXは、その上側が伸びて、下側が縮んだ湾曲形状の画像となって視認される。
 これに対して、本実施形態に係るHUD20の画像生成部24では、凹面鏡26で反射されることにより生じる画像の歪みを補正するために、予め出射面画像に逆補正処理(ワーピングによる補正処理ともいう)が施されている。
 図4は、HUD20の画像生成部24から出射された光により生成される出射面画像112の一例を示す図である。図5は、図4に示す出射面画像112が凹面鏡26により反射された後に所定の画像として乗員に認識される虚像オブジェクトIを示す図である。
 図4に示すように、画像生成部24の光出射面110は、矩形状に形成されており、所定の画像を生成するための光を出射する所定光出射領域110Aが設けられている。そして、所定光出射領域110Aには、当該所定光出射領域110Aから出射された光により出射面画像112が生成されている。本例の出射面画像112では、図3A,図3Bに示す比較例と同様に、現在の走行速度が50km/hであることを報知する速度画像が表示されている。
 矩形状の光出射面110のうち所定光出射領域110Aは、例えば、環状扇形の出射領域として形成されている。環状扇形の所定光出射領域110Aは、図5に示す虚像オブジェクトIが表示される矩形状の表示範囲114を形成する出射領域である。所定光出射領域110Aは、例えば、表示範囲114を大きく形成するために、光出射面110において環状扇形が最大限広がるような領域を占めるように形成されている。
 図4及び図5に示す例では、所定光出射領域110Aの出射面画像112に対して、ワーピングによる補正処理が施されている。所定光出射領域110Aの出射面画像112は、凹面鏡26で反射されることにより生じる歪みを補正するために、凹面鏡26の反射で歪む量だけ予め画像の上側を伸ばす補正が施されるとともに、画像の下側を縮める補正が施されている。
 凹面鏡26での反射に基づいて虚像オブジェクトIに生じる歪み度は、例えば、図3Bの虚像オブジェクトXからもわかるように、虚像オブジェクトIの中心領域に近づくほど小さく、中心領域から離れた端部領域ほど大きくなる。このため、虚像オブジェクトIの元画像となる出射面画像112に対して施されるワーピングによる補正量は、虚像オブジェクトIの部位による歪み度の大小に対応して出射面画像112の位置により相違する。例えば、虚像オブジェクトIの中心部に対応する領域の出射面画像の補正量は比較的に小さく、虚像オブジェクトIの中心部から離れた端部に対応する領域の出射面画像の補正量は比較的に大きくなる。
 上述したように所定の画像を形成するための元画像である出射面画像112は、凹面鏡26での反射で歪む量だけ予め逆方向に歪ませておく逆補正処理が施された形状に形成されている。このため、出射面画像112を生成する光が凹面鏡26で反射されると、図5に示すように、歪みのない例えば横長矩形状の虚像オブジェクトIとして視認される。
(第一実施形態)
 次に、図6及び図7を参照して、第一実施形態に係るHUD20Aについて説明する。
 図6は、HUD20Aが備える画像生成部24Aの水平断面図である。図7は、画像生成部24Aを前面側(光出射面110側)から見た概略図である。
 図6に示すように、画像生成部24Aは、複数の光源121(本例では、第一光源121A~第七光源121Gの7個の光源)が搭載された光源基板120と、光源121の前側に配置されるレンズ130(光学部材の一例)と、レンズ130の前側に配置される光出射面110とを備える。画像生成部24Aは、さらに、光源基板120の前側に配置されるレンズホルダ140と、光源基板120の後側に配置されるヒートシンク150と、PGUハウジング160とを備える。
 光源121(第一光源121A~第七光源121G)は、例えば、レーザ光源またはLED光源である。レーザ光源は、例えば、赤色レーザ光と、緑光レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。第一光源121A~第七光源121Gは、光源基板120上において、左右方向に一定の距離だけ離隔して配置されている。光源基板120は、例えば、電気回路の配線が板の表面や内部にプリントされた絶縁体からなるプリント基板である。
 レンズ130は、光源121からの光が入射される入射面132と当該入射した光が出射される出射面133を有する。レンズ130は、例えば、入射面132及び出射面133のいずれも凸面状に形成された非球面凸レンズである。レンズ130は、光源121から出射された光を透過または反射して光出射面110に向けて出射するように構成されている。光学部材として機能するレンズ130には、プリズム、拡散板、拡大鏡等が適宜付加されてもよい。
 レンズ130は、第一光源121A~第七光源121Gに対応した7個の非球面凸レンズが左右方向に並列配置されて構成されている。レンズ130の、隣り合う非球面凸レンズの一部分同士は、並列結合されている。レンズ130は、第一光源121Aから出射された第一光を透過する第一領域131Aと、第二光源121Bから出射された第二光を透過する第二領域131Bと、第三光源121Cから出射された第三光を透過する第三領域131Cと、第四光源121Dから出射された第四光を透過する第四領域131Dと、第五光源121Eから出射された第五光を透過する第五領域131Eと、第六光源121Fから出射された第六光を透過する第六領域131Fと、第七光源121Gから出射された第七光を透過する第七領域131Gとを有する。第一領域131Aの入射面132A、第二領域131Bの入射面132B、第三領域131Cの入射面132C、第四領域131Dの入射面132D、第五領域131Eの入射面132E、第六領域131Fの入射面132F、及び第七領域131Gの入射面132Gは、後方に凸の入射面である。第一領域131Aの出射面133A、第二領域131Bの出射面133B、第三領域131Cの出射面133C、第四領域131Dの出射面133D、第五領域131Eの出射面133E、第六領域131Fの出射面133F、及び第七領域131Gの出射面133Gは、前方に凸の出射面である。レンズ130は、第一光源121A~第七光源121Gの発光面中心がそれぞれ焦点位置となるようにレンズホルダ140に取り付けられている。
 光出射面110は、液晶ディスプレイ、DMD(Digital Mirror Device)等である。光出射面110は、レンズ130を透過した光源121の光により画像を生成するための光を形成する。光出射面110は、出射面を画像生成部24Aの前方へ向けた状態でPGUハウジング160の前面部に取り付けられている。画像生成部24Aの描画方式は、ラスタースキャン方式、DLP方式またはLCOS方式であってもよい。DLP方式またはLCOS方式が採用される場合、画像生成部24Aの光源121はLED光源であってもよい。なお、液晶ディスプレイ方式が採用される場合、画像生成部24Aの光源121は白色LED光源であってもよい。
 レンズホルダ140は、光源121から出射された光がレンズ130の入射面132に対して正しく入射されるように、レンズ130をPGUハウジング160内に保持する。
 ヒートシンク150は、熱伝導性の高いアルミや銅などで形成されている。ヒートシンク150は、光源基板120から発生する熱を放熱するために、光源基板120の裏面に接触するように設けられている。
 第一光源121A~第七光源121Gから出射された光は、レンズ130の入射面132A~132Gに入射する。レンズ130の形状は、上述したように非球面凸レンズを7個並列結合させた形状であるため、第一光源121Aから出射された光の多くは、例えば第一光路122Aに示すように、レンズ130の第一領域131Aに入射し、光軸125Aに平行な光となって第一領域131Aから出射されて光出射面110に入射する。図示は省略するが、同様に第二光源121B~第七光源121Gから出射された光の多くは、それぞれ第二領域131B~第七領域131Gに入射し、第二光源121B~第七光源121Gの各光軸に平行な光となって光出射面110に入射する。
 図7に示すように、レンズ130は、光源に対応して左右方向に並列配置される7個の非球面凸レンズが上下方向に複数段に重ねて形成されている。本例のレンズ130は、第一光源121A~第七光源121Gに対応して左右方向に並列配置される第一領域131A~第七領域131G(凸面部の一例)と、第八光源121H~第十四光源121Nに対応して左右方向に並列配置される第八領域131H~第十四領域131N(凸面部の一例)とが上下方向へ2段に重ねて形成されている。なお、破線で示す各光源121は、レンズ130の後側に配置されている。
 光出射面110には環状扇形の所定光出射領域110Aが形成されており、該所定光出射領域110Aには虚像オブジェクトIを形成する所定の画像の元画像である出射面画像(50km/h)112が生成されている。そして、出射面画像112にはワーピングによる補正処理が施されている。
 第一領域131A~第七領域131Gと第八領域131H~第十四領域131Nとが上下方向へ2段に重ねられたレンズ130は、ワーピングによる補正処理が施された出射面画像112の形状に合わせた形状に形成されている。具体的には、レンズ130は、ワーピングによる補正処理が施された出射面画像112の形状に合わせて曲線形状に形成されている。レンズ130の第一領域131A~第七領域131Gは、前方から見てその出射面133A~出射面133Gの各中心をつなぐ仮想線が曲線となるように配置されている。同様に、レンズ130の第八領域131H~第十四領域131Nは、前方から見てその出射面133H~出射面133Nの各中心をつなぐ仮想線が曲線となるように配置されている。
 また、第一領域131A~第七領域131Gに対応している第一光源121A~第七光源121Gも、これらの光源間をつなぐ仮想線が、ワーピングによる補正処理が施された出射面画像112の形状に合わせて曲線となるように配置されている。同様に、第八領域131H~第十四領域131Nに対応している第八光源121H~第十四光源121Nも、これらの光源間をつなぐ仮想線が曲線となるように配置されている。
 レンズ130における第一領域131A~第七領域131Gのうち、中央部に配置される第四領域131Dは、出射面画像112の中心領域を形成するための光を出射するレンズである。また、第一領域131A~第七領域131Gのうち、中央部から離れた端部に配置される第一領域131A,第七領域131Gは、出射面画像112の端部領域を形成するための光を出射するレンズである。同様に、レンズ130における第八領域131H~第十四領域131Nのうち、中央部に配置される第十一領域131Kは、出射面画像112の中心領域を形成するための光を出射するレンズである。また、第八領域131H~第十四領域131Nのうち、中央部から離れた端部に配置される第八領域131H,第十四領域131Nは、出射面画像112の端部領域を形成するための光を出射するレンズである。
 上述したように凹面鏡26での反射に基づいて虚像オブジェクトIに生じる歪み度は、虚像オブジェクトIの中心領域に近づくほど小さく、中心領域から離れた端部領域ほど大きい。このため、虚像オブジェクトIの元画像となる出射面画像112に対して施されるワーピングによる補正量は、出射面画像112における虚像オブジェクトIの中心部に対応する領域で小さく、出射面画像112における虚像オブジェクトIの中心部から離れた端部に対応する領域で大きくなる。
 レンズ130の第一領域131A~第十四領域131Nは、出射面画像112の中心領域を形成するための光を出射する領域と出射面画像112の周辺領域を形成するための光を出射する領域とで異なった形状となるように形成されていることが好ましい。例えば、第一領域131A~第十四領域131Nは、凹面鏡26での反射に基づいて虚像オブジェクトIの領域毎(中心領域、端部領域、その中間領域)に生じる歪み度に応じて、各出射面133A~133Nを構成する面の曲率を互いに異ならせるように構成されてもよい。
 以上説明したように、第一実施形態に係るHUD20Aは、所定の画像を生成するための光を出射する画像生成部24Aと、画像生成部24Aにより出射された光がウインドシールド18へ照射されるように、光を反射させる凹面鏡26とを備える。そして、画像生成部24Aは、光源121と、光源121からの光を透過するレンズ130と、レンズ130から出射された光により所定の画像を形成するための元画像が生成される光出射面110の所定光出射領域110Aと、を有している。元画像は、所定の画像の歪みに対応する形状に形成されており、レンズ130は、元画像の形状に合わせた形状に形成されている。具体的には、元画像である出射面画像112は、出射面画像112が凹面鏡26により反射されたことにより発生する所定の画像の歪みを補正するような形状に予め形成されている。レンズ130は、光出射面110側から見て、出射面画像112の形状に合わせた形状に形成されている。なお、光出射面110の所定光出射領域110Aに表示された出射面画像112(元画像)が凹面鏡26で反射されることにより生じる画像の歪みを補正するために、所定光出射領域110A上に表示される出射面画像112には逆補正処理(ワーピングによる補正処理)が予め施されている。上記HUD20の構成によれば、レンズ130(第一領域131A~第七領域131Gと第八領域131H~第十四領域131N)の形状が出射面画像112の形状に合わせて形成されているため、ワーピングによる補正処理された出射面画像112が表示される所定光出射領域110Aに対しての光源から出射される光の利用効率を向上させることができる。その結果、虚像オブジェクトIの視認性を向上させることができる。
 また、HUD20Aによれば、レンズ130の形状は曲線形状である。矩形状の虚像オブジェクトIを乗員に向けて表示したい場合、出射面画像112(元画像)はワーピングによる補正処理を考慮して湾曲形状に形成されることが好ましい。出射面画像112の湾曲形状に合わせてレンズ130を曲線形状に形成することで、レンズ130から光出射面110の所定光出射領域110Aへ向けて出射される光の利用効率を簡便に向上させることができる。
 また、HUD20Aによれば、光源121は、第一光源121A~第十四光源121Nを含み、レンズ130は、第一光源121A~第十四光源121Nのそれぞれからの光を透過する複数の凸面部である第一領域131A~第十四領域131Nを含む。そして、第一光源121A~第七光源121G及び第八光源121H~第十四光源121Nが、光出射面110側から見て、曲線状に配置されているとともに、第一領域131A~第七領域131G及び第八領域131H~第十四領域131Nが、光出射面110側から見て、曲線状に配置されている。この構成によれば、複数の光源及び複数の凸面部を用いているため、例えば大型の虚像オブジェクトIを表示する際にも光出射面110の所定光出射領域110Aへ出射される光の利用効率を向上させることができる。
 また、HUD20Aによれば、所定の画像(虚像オブジェクトI)は横長矩形状に形成され、所定の画像の端部領域の歪み度が所定の画像の中心領域の歪み度よりも大きい。そして、中心領域の歪み度と端部領域の歪み度の差に応じて、複数の凸面部である第一領域131A~第十四領域131Nのうち中心領域に対応して配置された凸面部と端部領域に対応して配置された凸面部との形状が異なっている。虚像オブジェクトIのうち端部領域は、中心領域と比べて、凹面鏡26での反射による歪みが大きくなる可能性が高い。そこで、中心側に配置される凸面部(例えば、第四領域131D,第十一領域131K)と端部側に配置される凸面部(例えば、第一領域131A,第七領域131G,第八領域131H,第十四領域131N)との形状を異ならせることで、画像の歪みを適切に補正することができる。
(第二実施形態)
 図8及び図9を参照して、第二実施形態に係るHUD20Bについて説明する。
 図8は、HUD20Bが備える画像生成部24Bを上方から見た概略図である。図8に示すように、画像生成部24Bの場合にも、上記第一実施形態の画像生成部24Aと同様に、複数の光源と、これらの光源に対応するように構成されたレンズが設けられている。
 図8に示す例では、第一光源221A~第五光源221Eの5個の光源が設けられている。第一光源221A~第五光源221Eは、左右方向に並列配置されている。レンズ230は、第一光源221A~第五光源221Eに対応した5個の非球面凸レンズが左右方向に沿って並列配置されるとともに、隣り合う非球面凸レンズの一部分同士が並列結合された単一のレンズである。
 レンズ230は、第一光源221Aから出射された第一光を透過する第一領域231Aと、第二光源221Bから出射された第二光を透過する第二領域231Bと、第三光源221Cから出射された第三光を透過する第三領域231Cと、第四光源221Dから出射された第四光を透過する第四領域231Dと、第五光源221Eから出射された第五光を透過する第五領域231Eとを有する。第一領域231Aの入射面232A、第二領域231Bの入射面232B、第三領域231Cの入射面232C、第四領域231Dの入射面232D、及び第五領域231Eの入射面232Eは、後方に凸の入射面である。第一領域231Aの出射面233A、第二領域231Bの出射面233B、第三領域231Cの出射面233C、第四領域231Dの出射面233D、及び第五領域231Eの出射面233Eは、前方に凸の出射面である。
 なお、上述した第一実施形態の画像生成部24Aと同符号の部材については同様の機能を有するため、説明は適宜省略する。
 第一光源221A~第五光源221Eは、当該第一光源221A~第五光源221Eから照射されてレンズ230を通過してレンズ230の出射面233から出射される光が凹面鏡26に向けて拡散して進行するように、凹面鏡26の形状に合わせたピッチで配置されている。第一光源221A~第五光源221Eは、当該第一光源221A~第五光源221Eの各ピッチP1~P4がレンズ230の出射面233A~233Eの各頂点のピッチP5~P8よりも短くなるように配置されている。
 例えば、第一光源221Aと第二光源221BとのピッチP1は、レンズ230における第一領域231Aの出射面233Aの頂点と第二領域231Bの出射面233Bの頂点とのピッチP5よりも短い。同様に、第二光源221Bと第三光源221CとのピッチP2は、レンズ230の第二領域231Bの出射面233Bの頂点と第三領域231Cの出射面233Cの頂点とのピッチP6よりも短い。第三光源221Cと第四光源221DとのピッチP3は、レンズ230の第三領域231Cの出射面233Cの頂点と第四領域231Dの出射面233Dの頂点とのピッチP7よりも短い。第四光源221Dと第五光源221EとのピッチP4は、レンズ230の第四領域231Dの出射面233Dの頂点と第五領域231Eの出射面233Eの頂点とのピッチP8よりも短い。
 第一光源221A~第五光源221Eは、当該第一光源221A~第五光源221Eから照射されレンズ230を通過してレンズ230の出射面233から出射された光が凹面鏡26に対して、略垂直に入射するように配置されている。例えば、第一光源221A~第五光源221Eは、レンズ230における光軸上を通る光あるいは光軸上を通る光の経路に近い経路を通る光が凹面鏡26に対して略垂直に入射するように配置されている。
 例えば、第一光源221Aは、第一光源221Aから照射されレンズ230の第一領域231Aを通過して出射面233Aから出射される光のうち、第一領域231Aにおける光軸上あるいは光軸上を通る光の経路に近い経路を通る光L1が凹面鏡26に対して略垂直に入射するように配置されている。同様に、第二光源221Bは、第二光源221Bから照射されレンズ230の第二領域231Bを通過して出射面233Bから出射される光のうち、第二領域231Bにおける光軸上あるいは光軸上を通る光の経路に近い経路を通る光L2が凹面鏡26に対して略垂直に入射するように配置されている。第三光源221Cは、第三光源221Cから照射されレンズ230の第三領域231Cを通過して出射面233Cから出射される光のうち、第三領域231Cにおける光軸上あるいは光軸上を通る光の経路に近い経路を通る光L3が凹面鏡26に対して略垂直に入射するように配置されている。第四光源221Dは、第四光源221Dから照射されレンズ230の第四領域231Dを通過して出射面233Dから出射される光のうち、第四領域231Dにおける光軸上あるいは光軸上を通る光の経路に近い経路を通る光L4が凹面鏡26に対して略垂直に入射するように配置されている。第五光源221Eは、第五光源221Eから照射されレンズ230の第五領域231Eを通過して出射面233Eから出射される光のうち、第五領域231Eにおける光軸上あるいは光軸上を通る光の経路に近い経路を通る光L5が凹面鏡26に対して略垂直に入射するように配置されている。
 さらに、レンズ230の第一領域231A~第五領域231E(凸面部の一例)は、出射面画像の中心領域を形成するための光を出射する領域と出射面画像の周辺領域を形成するための光を出射する領域とで異なった形状となるように形成されている。例えば、第一領域231A~第五領域231Eのうち、出射面画像の中心領域を形成するための光を出射する第三領域231Cの形状は左右対称となるように形成されている。これに対して、出射面画像の周辺領域を形成するための光を出射する第一領域231A、第二領域231B、第四領域231D、及び第五領域231Eの形状は左右非対称となるように形成されている。非対称性の程度は、出射面画像の端部を形成するための光を出射する領域ほど大きい。第一領域231A、第二領域231B、第四領域231D、及び第五領域231Eにおいて、第二領域231B及び第四領域231Dの非対称性の程度よりも第一領域231A及び第五領域231Eの非対称性の程度の方が大きい。
 図9は、レンズ230における第一領域231Aの形状の非対称性を示す図である。図9に示すように、第一領域231Aは、出射面233Aにおける右側(第二領域231Bに近い側)の曲面233A2の傾斜(曲がり具合)よりも左側(第二領域231Bから遠い側)の曲面233A1の傾斜(曲がり具合)の方が緩やかになるように形成されている。すなわち、出射面233Aにおける右側の曲面233A2の曲率よりも左側の曲面233A1の曲率の方が小さくなるように形成されている。図示は省略するが、同様に、第二領域231Bは、出射面233Bにおける第三領域231Cに近い側の曲率よりも第一領域231Aに近い側の曲率の方が小さくなるように形成されている。そして、出射面の左側と右側との曲率の差は、第二領域231Bの出射面233Bよりも第一領域231Aの出射面233Aの方が大きくなるように形成されている。
 これに対して、図示は省略するが、第五領域231Eは、出射面233Eにおける左側(第四領域231Dに近い側)の曲率よりも右側(第四領域231Dから遠い側)の曲率の方が小さくなるように形成されている。また、第四領域231Dは、出射面233Dにおける第三領域231Cに近い側の曲率よりも第五領域231Eに近い側の曲率の方が小さくなるように形成されている。そして、出射面の左側と右側との曲率の差は、第四領域231Dの出射面233Dよりも第五領域231Eの出射面233Eの方が大きくなるように形成されている。
 なお、図8には画像生成部24Bを上方から見た場合を示すが、例えば、画像生成部24Bを左側部または右側部から見た場合にも、同様にレンズの形状を領域ごとに異ならせてもよい。例えば、レンズが上下方向へ複数段に重ねられた凸面部を有している場合、出射面画像の中心領域を形成するための光を出射する凸面部と出射面画像の上下端部領域を形成するための光を出射する凸面部との形状を異ならせてもよい。
 ところで、従来のHUDに搭載される画像生成部においては、例えば図10に示すように、光源321A~321E間のピッチPxとレンズ330の第一領域331A~第五領域331Eにおける出射面333A~333E(凸面部)の頂点間のピッチPyとを同一のピッチにしていた。また、第一領域331A~第五領域331Eから出射される光La~Leが各光源321A~321Eの光軸に対して平行になるように出射面333A~333Eの曲率を設定していた。しかしながら、このような構成の場合、凹面鏡326の周辺部に向けて出射される光量が低減するために、凹面鏡326の反射光によって生成される虚像オブジェクトにおける周辺虚像部の輝度が低下するという問題が生じ得る。この周辺虚像部の輝度低下を抑制するために、従来例においては、例えば、第一領域331A~第五領域331Eから出射される光La~Leを拡散させるための拡散用のレンズを追加する必要があった。
 これに対して、第二実施形態に係るHUD20Bは、所定の画像を生成するための光を出射する画像生成部24Bと、画像生成部24Bにより出射された光がウインドシールド18へ照射されるように、光を反射させる凹面鏡26とを備える。そして、画像生成部24Aは、第一光源221A~第五光源221Eと、第一光源221A~第五光源221Eのそれぞれからの光を透過して、光を出射する単一のレンズ230と、を少なくとも有し、第一光源221A~第五光源221Eは、単一のレンズ230から出射される光が拡散して凹面鏡26に入射するように、凹面鏡26の形状に合わせたピッチで配置されている。この構成によれば、単一のレンズ230から凹面鏡26に対して拡散光を入射させることで、凹面鏡26の反射光によって生成される虚像オブジェクトIの輝度分布の均一性を向上させることができる。その結果、虚像オブジェクトIの視認性を向上させることができる。また、拡散光を得るための光学部材を単一のレンズ230で構成することができるので、拡散板などの別部材を追加する必要がなく、HUD20Bの小型化及び低コスト化を実現することができる。
 また、HUD20Bの構成によれば、単一のレンズ230は、第一光源221A~第五光源221Eのそれぞれからの光を出射するように第一光源221A~第五光源221Eの並列方向に沿って並列された複数の凸面部であるレンズ230の第一領域231A~第五領域231Eを有する。そして、第一光源221A~第五光源221Eは、第一光源221A~第五光源221Eのピッチがレンズ230の第一領域231A~第五領域231Eの各頂点のピッチよりも短くなるように、配置されている。この構成によれば、光源間のピッチとレンズの出射面(凸面部)の頂点間のピッチを同一とした場合よりも、レンズ230の各領域231A~231Eから凹面鏡26に向けて出射される光を拡散させることができる。これにより、虚像オブジェクトIの輝度分布の均一性を向上させることができる。
 また、HUD20Bの構成によれば、レンズ230の第一領域231A~第五領域231Eのそれぞれから出射される光が凹面鏡26に対して垂直に入射するように構成されている。この構成によれば、凹面鏡26の全体において光を均一に反射させることができるので、虚像オブジェクトIの輝度分布の均一性をさらに向上させることができる。
 また、HUD20Bの構成によれば、所定の画像(虚像オブジェクトI)は横長矩形状に形成され、並列された複数の凸面部であるレンズ230の第一領域231A~第五領域231Eのうち、所定の画像の中心部を形成するための光を出射する領域と所定の画像の端部を形成するための光を出射する領域との形状を異ならせている。この構成によれば、所定の画像の端部を形成するための光をも凹面鏡26に対して垂直に近い状態で入射させることができ、虚像オブジェクトIの輝度分布の均一性をさらに向上させることができる。
 以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
 上記実施形態では、画像生成部24(24A,24B)から出射された光は、凹面鏡26で反射されてウインドシールド18に照射されるように構成されているが、これに限られない。例えば、凹面鏡26で反射された光は、ウインドシールド18の内側に設けたコンバイナ(不図示)に照射されるようにしてもよい。コンバイナは、例えば、透明なプラスチックディスクなどの透過部材で構成される。HUD本体部21の画像生成部24からコンバイナに照射された光の一部は、ウインドシールド18に光を照射した場合と同様に、乗員の視点Eに向けて反射される。
 また、上記実施形態では、HUDが自動車に搭載される場合について説明したが、これに限られない。例えば、HUDは自動二輪車、鉄道、航空機等に搭載されてもよい。
 また、上記実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードは、これら4つのモードの少なくとも1つを含んでいてもよい。例えば、車両の運転モードは、いずれか一つのみを実行可能であってもよい。
 また、車両の運転モードの区分や表示形態は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。
 本出願は、2020年12月9日出願の日本特許出願2020-204214号に基づくものであり、その内容はここに参照として取り込まれる。

Claims (8)

  1.  所定の画像を表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射する画像生成部と、
     前記画像生成部により出射された前記光が透過部材へ照射されるように、前記光を反射させるミラーと、を備え、
     前記画像生成部は、
      光源と、
      前記光源からの光を透過する光学部材と、
      前記光学部材から出射された光により前記所定の画像を形成するための元画像が生成される液晶部と、を有し、
     前記元画像は、前記所定の画像の歪みに対応する形状に形成されており、
     前記光学部材は、前記元画像の前記形状に合わせた形状に形成されている、ヘッドアップディスプレイ。
  2.  前記光学部材の前記形状は、曲線形状である、請求項1に記載のヘッドアップディスプレイ。
  3.  前記光源は、複数の光源を含み、
     前記光学部材は、前記複数の光源のそれぞれからの光を透過する複数の凸面部を含み、
     前記複数の光源が、前記液晶部側から見て、曲線状に配置されているとともに、前記複数の凸面部が、前記液晶部側から見て、曲線状に配置されている、請求項2に記載のヘッドアップディスプレイ。
  4.  前記所定の画像は横長矩形状に形成され、前記所定の画像の端部領域の歪み度が前記所定の画像の中心領域の歪み度よりも大きく、
     前記中心領域の歪み度と前記端部領域の歪み度の差に応じて、前記複数の凸面部のうち前記中心領域に対応して配置された凸面部と前記端部領域に対応して配置された凸面部との形状を異ならせる、請求項3に記載のヘッドアップディスプレイ。
  5.  所定の画像を表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射する画像生成部と、
     前記画像生成部により出射された前記光が透過部材へ照射されるように、前記光を反射させるミラーと、を備え、
     前記画像生成部は、
      複数の光源と、
      前記複数の光源のそれぞれからの光を透過して、前記光を出射する単一の光学部材と、を少なくとも有し、
     前記複数の光源は、前記単一の光学部材から出射される光が拡散して前記ミラーに入射するように、前記ミラーの形状に合わせたピッチで配置されている、ヘッドアップディスプレイ。
  6.  前記単一の光学部材は、前記複数の光源のそれぞれからの前記光を出射するように前記複数の光源の並列方向に沿って並列された複数の凸面部を有し、
     前記複数の光源は、当該複数の光源のピッチが前記複数の凸面部の各頂点のピッチよりも短くなるように、配置されている、請求項5に記載のヘッドアップディスプレイ。
  7.  前記複数の凸面部のそれぞれから出射される前記光が前記ミラーに対して垂直に入射するように構成されている、請求項6に記載のヘッドアップディスプレイ。
  8.  前記所定の画像は横長矩形状に形成され、
     並列された前記複数の凸面部のうち、前記所定の画像の中心領域を形成するための光を出射する凸面部と前記所定の画像の端部領域を形成するための光を出射する凸面部との形状を異ならせる、請求項6または7に記載のヘッドアップディスプレイ。
     
PCT/JP2021/042271 2020-12-09 2021-11-17 ヘッドアップディスプレイ WO2022124028A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180082909.4A CN116601035A (zh) 2020-12-09 2021-11-17 平视显示器
US18/266,425 US20240036311A1 (en) 2020-12-09 2021-11-17 Head-up display
EP21903132.5A EP4261593A1 (en) 2020-12-09 2021-11-17 Head-up display
JP2022568142A JPWO2022124028A1 (ja) 2020-12-09 2021-11-17

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-204214 2020-12-09
JP2020204214 2020-12-09

Publications (1)

Publication Number Publication Date
WO2022124028A1 true WO2022124028A1 (ja) 2022-06-16

Family

ID=81974389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/042271 WO2022124028A1 (ja) 2020-12-09 2021-11-17 ヘッドアップディスプレイ

Country Status (5)

Country Link
US (1) US20240036311A1 (ja)
EP (1) EP4261593A1 (ja)
JP (1) JPWO2022124028A1 (ja)
CN (1) CN116601035A (ja)
WO (1) WO2022124028A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151404A (ja) * 2016-02-23 2017-08-31 株式会社デンソー ヘッドアップディスプレイ装置
JP2018045103A (ja) 2016-09-14 2018-03-22 パナソニックIpマネジメント株式会社 表示装置
JP2020098270A (ja) * 2018-12-18 2020-06-25 株式会社デンソー 虚像表示装置
WO2020233529A1 (zh) * 2019-05-17 2020-11-26 未来(北京)黑科技有限公司 抬头显示系统、主动发光像源、抬头显示器和机动车
JP2020204214A (ja) 2019-06-18 2020-12-24 株式会社竹中工務店 泥岩集合体の処理方法、スレーキング防止方法及び残土の重金属浸出防止方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017151404A (ja) * 2016-02-23 2017-08-31 株式会社デンソー ヘッドアップディスプレイ装置
JP2018045103A (ja) 2016-09-14 2018-03-22 パナソニックIpマネジメント株式会社 表示装置
JP2020098270A (ja) * 2018-12-18 2020-06-25 株式会社デンソー 虚像表示装置
WO2020233529A1 (zh) * 2019-05-17 2020-11-26 未来(北京)黑科技有限公司 抬头显示系统、主动发光像源、抬头显示器和机动车
JP2020204214A (ja) 2019-06-18 2020-12-24 株式会社竹中工務店 泥岩集合体の処理方法、スレーキング防止方法及び残土の重金属浸出防止方法

Also Published As

Publication number Publication date
JPWO2022124028A1 (ja) 2022-06-16
EP4261593A1 (en) 2023-10-18
US20240036311A1 (en) 2024-02-01
CN116601035A (zh) 2023-08-15

Similar Documents

Publication Publication Date Title
WO2017072841A1 (ja) 情報表示装置
WO2020110580A1 (ja) ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法
WO2021065617A1 (ja) 車両用表示システム及び車両
US11597316B2 (en) Vehicle display system and vehicle
US20180180879A1 (en) Information display device and vehicle apparatus
US20220365345A1 (en) Head-up display and picture display system
JP2023175794A (ja) ヘッドアップディスプレイ
US20210347259A1 (en) Vehicle display system and vehicle
WO2021015171A1 (ja) ヘッドアップディスプレイ
WO2022124028A1 (ja) ヘッドアップディスプレイ
WO2021220955A1 (ja) 画像生成装置及びヘッドアップディスプレイ
US20240069335A1 (en) Head-up display
JP2020149063A (ja) ヘッドアップディスプレイ装置
WO2021220722A1 (ja) 画像生成装置及びヘッドアップディスプレイ
WO2022009605A1 (ja) 画像生成装置及びヘッドアップディスプレイ
WO2023190338A1 (ja) 画像照射装置
US20220197025A1 (en) Vehicular head-up display and light source unit used therefor
WO2023085230A1 (ja) 画像生成装置及びヘッドアップディスプレイ
WO2021065438A1 (ja) ヘッドアップディスプレイ
WO2023216670A1 (zh) 立体显示装置和交通工具
WO2023184276A1 (zh) 一种显示方法、显示系统和终端设备
CN117369127A (zh) 虚像显示装置、图像数据的生成方法、装置和相关设备
CN118033971A (en) Projection system, projection method and vehicle
CN116206083A (zh) 显示方法、显示设备、交通工具、存储介质及电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21903132

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022568142

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 202180082909.4

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 18266425

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021903132

Country of ref document: EP

Effective date: 20230710