WO2021015171A1 - ヘッドアップディスプレイ - Google Patents

ヘッドアップディスプレイ Download PDF

Info

Publication number
WO2021015171A1
WO2021015171A1 PCT/JP2020/028111 JP2020028111W WO2021015171A1 WO 2021015171 A1 WO2021015171 A1 WO 2021015171A1 JP 2020028111 W JP2020028111 W JP 2020028111W WO 2021015171 A1 WO2021015171 A1 WO 2021015171A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
control unit
display
unit
Prior art date
Application number
PCT/JP2020/028111
Other languages
English (en)
French (fr)
Inventor
耕平 村田
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to JP2021534029A priority Critical patent/JPWO2021015171A1/ja
Publication of WO2021015171A1 publication Critical patent/WO2021015171A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays

Definitions

  • the present invention relates to a head-up display.
  • a head-up display can be used to achieve visual communication between the vehicle and the occupants.
  • the head-up display can realize so-called AR (Augmented Reality) by projecting an image or video on a windshield or combiner, superimposing the image on the real space through the windshield or combiner, and making it visible to the occupant. ..
  • Patent Document 1 discloses a display device including an optical system for displaying a three-dimensional virtual image using a transparent display medium.
  • the display device projects light into the driver's field of view on the windshield or combiner. Some of the projected light passes through the windshield or combiner, while the other part is reflected by the windshield or combiner. This reflected light goes to the driver's eyes. The driver sees the reflected light in his eyes as an image of an object on the other side (outside the car) across the windshield or combiner against the background of a real object that can be seen through the windshield or combiner. Perceive as a virtual image.
  • the display range of the virtual image is fixed, so if the driver's line of sight deviates from the display range, the virtual image cannot be visually recognized.
  • an object of the present invention is to provide a head-up display capable of visually recognizing a predetermined image even when the line of sight of a vehicle occupant moves.
  • the head-up display is A head-up display provided on a vehicle and configured to display a predetermined image toward the occupants of the vehicle.
  • An image generation unit that emits light for generating the predetermined image
  • a reflecting unit that reflects the light so that the light emitted by the image generating unit irradiates the windshield or combiner.
  • a housing that houses at least the image generator and the reflector,
  • a control unit that controls the image generation unit and the reflection unit, With The control unit is configured to move the display position based on a switching signal for switching the display position of the predetermined image.
  • a head-up display capable of visually recognizing a virtual image even when the line of sight of a vehicle occupant moves.
  • HUD head-up display
  • horizontal direction is a direction including the "left direction” and the “right direction”.
  • the "vertical direction” is a direction including “upward” and “downward”.
  • the "front-back direction” is a direction including the "forward direction” and the “backward direction”.
  • the left-right direction is a direction orthogonal to the up-down direction and the front-back direction.
  • FIG. 1 is a block diagram of the vehicle system 2.
  • the vehicle 1 equipped with the vehicle system 2 is a vehicle (automobile) capable of traveling in the automatic driving mode.
  • the vehicle system 2 communicates wirelessly with the vehicle control unit 3, the sensor 5, the camera 6, the radar 7, the HMI (Human Machine Interface) 8, the GPS (Global Positioning System) 9, and the GPS (Global Positioning System) 9.
  • a unit 10 and a storage device 11 are provided.
  • the vehicle system 2 includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17.
  • the vehicle system 2 includes a HUD 20.
  • the vehicle control unit 3 is configured to control the running of the vehicle.
  • the vehicle control unit 3 is composed of, for example, at least one electronic control unit (ECU: Electronic Control Unit).
  • the electronic control unit includes a computer system including one or more processors and a memory (for example, a SoC (System on a Chip)) and an electronic circuit composed of an active element such as a transistor and a passive element such as a resistor.
  • the processor includes, for example, at least one of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit).
  • the CPU may be composed of a plurality of CPU cores.
  • the GPU may be composed of a plurality of GPU cores.
  • the memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the vehicle control program may be stored in the ROM.
  • the vehicle control program may include an artificial intelligence (AI) program for autonomous driving.
  • AI is a program (trained model) constructed by supervised or unsupervised machine learning (particularly deep learning) using a multi-layer neural network.
  • the RAM may temporarily store a vehicle control program, vehicle control data, and / or surrounding environment information indicating the surrounding environment of the vehicle.
  • the processor may be configured to develop a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
  • the computer system may be configured by a non-Von Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). Further, the computer system may be composed of a combination of a von Neumann computer and a non-Von Neumann computer.
  • a non-Von Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
  • the computer system may be composed of a combination of a von Neumann computer and a non-Von Neumann computer.
  • the sensor 5 includes at least one of an acceleration sensor, a speed sensor and a gyro sensor.
  • the sensor 5 is configured to detect the running state of the vehicle 1 and output the running state information to the vehicle control unit 3.
  • the sensor 5 includes a seating sensor that detects whether the driver is sitting in the driver's seat, a face orientation sensor that detects the direction of the driver's face, an external weather sensor that detects the external weather condition, and whether or not there is a person in the vehicle.
  • a motion sensor or the like for detecting may be further provided.
  • the camera 6 is, for example, a camera including an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS).
  • the camera 6 includes one or more external cameras 6A and an internal camera 6B.
  • the external camera 6A is configured to acquire image data indicating the surrounding environment of the vehicle and then transmit the image data to the vehicle control unit 3.
  • the vehicle control unit 3 acquires the surrounding environment information based on the transmitted image data.
  • the surrounding environment information may include information on an object (pedestrian, other vehicle, sign, etc.) existing outside the vehicle 1.
  • the surrounding environment information may include information on the attributes of an object existing outside the vehicle and information on the distance and position of the object with respect to the vehicle.
  • the external camera 6A may be configured as a monocular camera or a stereo camera.
  • the internal camera 6B is arranged inside the vehicle 1 and is configured to acquire image data indicating an occupant.
  • the internal camera 6B functions as, for example, an eye tracking camera that tracks the occupant's viewpoint E (described later in FIG. 2).
  • the internal camera 6B is provided, for example, in the vicinity of the rear-view mirror or inside the instrument panel.
  • the radar 7 includes at least one of a millimeter wave radar, a microwave radar, and a laser radar (for example, a LiDAR unit).
  • the LiDAR unit is configured to detect the surrounding environment of the vehicle 1.
  • the LiDAR unit is configured to acquire 3D mapping data (point cloud data) indicating the surrounding environment of the vehicle 1 and then transmit the 3D mapping data to the vehicle control unit 3.
  • the vehicle control unit 3 identifies the surrounding environment information based on the transmitted 3D mapping data.
  • the HMI 8 is composed of an input unit that receives an input operation from the driver and an output unit that outputs driving information and the like to the driver.
  • the input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode changeover switch for switching the operation mode of the vehicle 1, and the like.
  • the output unit is a display (excluding the HUD) that displays various driving information.
  • the GPS 9 is configured to acquire the current position information of the vehicle 1 and output the acquired current position information to the vehicle control unit 3.
  • the wireless communication unit 10 receives information about another vehicle around the vehicle 1 (for example, driving information) from the other vehicle, and transmits information about the vehicle 1 (for example, driving information) to the other vehicle. It is configured (vehicle-to-vehicle communication). Further, the wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as traffic lights and indicator lights and to transmit traveling information of vehicle 1 to the infrastructure equipment (road-to-vehicle communication). Further, the wireless communication unit 10 receives information about the pedestrian from the portable electronic device (smartphone, tablet, wearable device, etc.) carried by the pedestrian, and transmits the own vehicle traveling information of the vehicle 1 to the portable electronic device. It is configured to do (pedestrian-to-vehicle communication).
  • the vehicle 1 may directly communicate with another vehicle, infrastructure equipment, or a portable electronic device in an ad hoc mode, or may communicate via an access point. Further, the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device via a communication network (not shown).
  • the communication network includes at least one of the Internet, a local area network (LAN), a wide area network (WAN) and a radio access network (RAN).
  • the wireless communication standard is, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), LPWA, DSRC (registered trademark) or Li-Fi.
  • the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device by using a fifth generation mobile communication system (5G).
  • 5G fifth generation mobile communication system
  • the storage device 11 is an external storage device such as a hard disk drive (HDD) or SSD (Solid State Drive).
  • the storage device 11 may store two-dimensional or three-dimensional map information and / or a vehicle control program.
  • the three-dimensional map information may be composed of 3D mapping data (point cloud data).
  • the storage device 11 is configured to output map information and a vehicle control program to the vehicle control unit 3 in response to a request from the vehicle control unit 3.
  • the map information and the vehicle control program may be updated via the wireless communication unit 10 and the communication network.
  • the vehicle control unit 3 determines at least one of the steering control signal, the accelerator control signal, and the brake control signal based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like. Generate one automatically.
  • the steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal.
  • the brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal.
  • the accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and control the accelerator device 17 based on the received accelerator control signal.
  • the vehicle control unit 3 automatically controls the traveling of the vehicle 1 based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like. That is, in the automatic driving mode, the traveling of the vehicle 1 is automatically controlled by the vehicle system 2.
  • the vehicle control unit 3 when the vehicle 1 travels in the manual driving mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal according to the manual operation of the driver on the accelerator pedal, the brake pedal, and the steering wheel.
  • the steering control signal, the accelerator control signal, and the brake control signal are generated by the manual operation of the driver, so that the driving of the vehicle 1 is controlled by the driver.
  • the operation mode consists of an automatic operation mode and a manual operation mode.
  • the automatic driving mode includes, for example, a fully automatic driving mode, an advanced driving support mode, and a driving support mode.
  • the vehicle system 2 In the fully automatic driving mode, the vehicle system 2 automatically performs all driving control of steering control, brake control, and accelerator control, and the driver is not in a state where the vehicle 1 can be driven.
  • the vehicle system 2 In the advanced driving support mode, the vehicle system 2 automatically performs all driving controls of steering control, brake control, and accelerator control, and the driver does not drive the vehicle 1 although he / she is in a state where he / she can drive the vehicle 1.
  • the vehicle system 2 In the driving support mode, the vehicle system 2 automatically performs some driving control of steering control, brake control, and accelerator control, and the driver drives the vehicle 1 under the driving support of the vehicle system 2.
  • the vehicle system 2 In the manual driving mode, the vehicle system 2 does not automatically control the driving, and the driver drives the vehicle 1 without the driving support of the vehicle system 2.
  • the HUD 20 displays the HUD information as an image toward the occupant so that the predetermined information (hereinafter referred to as HUD information) is superimposed on the real space outside the vehicle 1 (particularly, the surrounding environment in front of the vehicle 1). It is configured to do.
  • the HUD information displayed by the HUD 20 is, for example, vehicle running information related to the running of the vehicle 1 and / or surrounding environment information related to the surrounding environment of the vehicle (particularly, information related to an object existing outside the vehicle 1). ) Etc.
  • the HUD 20 is an AR display that functions as a visual interface between the vehicle 1 and the occupants.
  • the HUD 20 includes a control unit 25 that controls the operation of each part of the HUD 20.
  • the control unit 25 is connected to the vehicle control unit 3 and controls each operation of the HUD 20 based on the vehicle travel information, the surrounding environment information, and the like transmitted from the vehicle control unit 3.
  • the HUD 20 has at least a part of the HUD 20 located inside the vehicle 1. Specifically, the HUD 20 is installed at a predetermined position in the interior of the vehicle 1. For example, the HUD 20 may be located within the dashboard of vehicle 1.
  • FIG. 2 is a schematic view of the HUD 20 as viewed from the side surface side of the vehicle 1.
  • the HUD 20 includes a HUD main body 21.
  • the HUD main body 21 has a housing 22 and an exit window 23.
  • the exit window 23 is made of a transparent plate that transmits visible light.
  • the HUD main body 21 has an image generation unit (PGU: Picture Generation Unit) 24, a control unit 25, and a concave mirror 26 (an example of a reflection unit) inside the housing 22.
  • PGU Picture Generation Unit
  • control unit 25 an example of a reflection unit
  • the image generation unit 24 includes a light source, optical components, and a display device, although detailed illustration is omitted.
  • the light source is, for example, a laser light source or an LED light source.
  • the laser light source is, for example, an RGB laser light source configured to emit a red laser light, a green light laser light, and a blue laser light, respectively.
  • the optical component appropriately includes a prism, a lens, a diffuser plate, a magnifying glass, and the like. The optical component transmits the light emitted from the light source and emits the light toward the display device.
  • the display device is a liquid crystal display, a DMD (Digital Mirror Device), or the like.
  • the drawing method of the image generation unit 24 may be a raster scan method, a DLP (Digital Light Processing) method, or an LCOS (Liquid Crystal On Silicon) method.
  • the light source of the HUD 20 may be an LED light source.
  • the light source of the HUD 20 may be a white LED light source.
  • the concave mirror 26 is arranged on the optical path of the light emitted from the display device of the image generation unit 24.
  • the concave mirror 26 reflects the light emitted from the image generation unit 24 toward the windshield 18 (for example, the front window of the vehicle 1).
  • the concave mirror 26 has a reflecting surface that is curved in a concave shape in order to form a virtual image, and reflects an image of light emitted from the image generation unit 24 and formed at a predetermined magnification.
  • the concave mirror 26 has a drive mechanism 27 that rotates the direction of the concave mirror 26.
  • the drive mechanism 27 is connected to the control unit 25.
  • the drive mechanism 27 rotates the direction of the concave mirror 26 based on the control signal transmitted from the control unit 25.
  • the light reflected by the concave mirror 26 and emitted from the exit window 23 of the HUD main body 21 is applied to the windshield 18.
  • a part of the light emitted from the HUD main body 21 to the windshield 18 is reflected toward the occupant's viewpoint E.
  • the occupant recognizes the light (predetermined image) emitted from the HUD main body 21 as a virtual image formed at a predetermined distance in front of the windshield 18.
  • the image displayed by the HUD 20 being superposed on the real space in front of the vehicle 1 through the windshield 18, the occupant can see the virtual image object I formed by the predetermined image on the road located outside the vehicle. It can be visually recognized as if it were floating.
  • the control unit 25 is configured to control the operation of the image generation unit 24 and the concave mirror 26.
  • the control unit 25 is equipped with a processor such as a CPU (Central Processing Unit) and a memory, and the processor executes a computer program read from the memory to control the operation of the image generation unit 24 and the concave mirror 26.
  • the control unit 25 generates a control signal for controlling the operation of the image generation unit 24 based on the vehicle traveling information, the surrounding environment information, and the like transmitted from the vehicle control unit 3, and generates the generated control signal. It is transmitted to the image generation unit 24.
  • control unit 25 generates a control signal for adjusting the direction of the concave mirror 26 based on the vehicle traveling information, the surrounding environment information, and the like transmitted from the vehicle control unit 3, and generates the generated control signal. It is transmitted to the drive mechanism 27. Further, the control unit 25 generates a control signal for controlling the image generation unit 24 and the concave mirror 26 based on the information of the internal camera 6B (for example, information regarding the viewpoint E of the occupant) transmitted from the vehicle control unit 3. Then, the generated control signal is transmitted to the image generation unit 24 and the concave mirror 26.
  • the occupant's viewpoint E may be either the occupant's left eye viewpoint or the right eye viewpoint.
  • the viewpoint E may be defined as the midpoint of a line segment connecting the viewpoint of the left eye and the viewpoint of the right eye.
  • the position of the occupant's viewpoint E is specified, for example, based on the image data acquired by the internal camera 6B.
  • the position of the occupant's viewpoint E may be updated at a predetermined cycle, or may be determined only once when the vehicle 1 is started.
  • a predetermined image is projected so as to be a virtual image of a single distance arbitrarily determined.
  • a 3D image stereo image
  • a plurality of predetermined images that are the same as or different from each other are projected so as to be virtual images at different distances.
  • the distance of the virtual image object I (distance from the occupant's viewpoint E to the virtual image) adjusts the distance from the image generation unit 24 to the occupant's viewpoint E (for example, the distance between the image generation unit 24 and the concave mirror 26 is adjusted). ) Can be adjusted as appropriate.
  • FIG. 3 is a schematic diagram showing a configuration in which the display position of the image on the HUD 20 is moved.
  • the lower side of FIG. 3 shows a schematic view of the HUD 20 seen from above, and the upper side of FIG. 3 shows a schematic view of the windshield 18 seen from the vehicle interior.
  • the concave mirror 26 arranged in front of the image generation unit 24 is configured to be able to move in the left-right direction by being driven by the drive mechanism 27.
  • the concave mirror 26 is configured to rotate in a predetermined range in the left-right direction around the image generation unit 24 with the reflection surface facing the image generation unit 24.
  • the concave mirror 26 can be moved from the left side to the right side of the image generation unit 24 or from the right side to the left side of the image generation unit 24, for example, from the position shown by the broken line in FIG. 3 to the position shown by the solid line. is there.
  • the member shown on the right side of the HUD 20 in FIG. 3 is the steering wheel 31 of the vehicle 1.
  • the vehicle control unit 3 detects the steering angle of the steering wheel 31 from the steering wheel information input to the vehicle control unit 3, and calculates the traveling direction of the vehicle 1 based on the detected steering angle information. In the case of this example, since the steering wheel 31 is rotated to the left, it is calculated that the vehicle 1 travels to the left according to the steering angle of the steering wheel 31.
  • the vehicle control unit 3 transmits the calculated information regarding the traveling direction of the vehicle 1 to the control unit 25 of the HUD 20.
  • the information regarding the traveling direction of the vehicle 1 is transmitted to the control unit 25 as a switching signal for switching the display position of the image emitted from the image generation unit 24.
  • the control unit 25 controls the moving direction of the concave mirror 26 based on the received information regarding the traveling direction of the vehicle 1.
  • the control unit 25 controls to move the display position of the image reflected by the concave mirror 26 and irradiated to the windshield 18 to the left according to the change in the line of sight of the driver.
  • the control unit 25 controls to move the position of the concave mirror 26 to the right in order to move the display position of the image to the left. For example, in FIG.
  • the control unit 25 moves the position of the concave mirror 26 to the position indicated by the solid line as shown by the arrow B. Further, in order to move the display position of the image to the left, the control unit 25 makes the direction of the light emitted from the image generation unit 24 in the direction of the optical path L1 (to the right) so as to match the moving position of the concave mirror 26. Change. As a result, the image emitted from the image generation unit 24 and reflected by the concave mirror 26 moves to the left indicated by the arrow C on the windshield 18 so as to correspond to the movement of the driver's line of sight, and the irradiation image 41a Is displayed as.
  • the result is as follows.
  • the vehicle control unit 3 calculates that the vehicle 1 moves to the right based on the detected steering angle information, and transmits the calculated information on the traveling direction of the vehicle 1 to the control unit 25 of the HUD 20.
  • the control unit 25 controls to move the position of the concave mirror 26 to the left in order to move the display position of the image to the right in accordance with the change in the line of sight of the driver. For example, in FIG.
  • the control unit 25 moves the position of the concave mirror 26 to the position indicated by the broken line, and aligns the direction of the light emitted from the image generation unit 24 with the moving position of the concave mirror 26 in the optical path L2. Change in the direction (left). As a result, the image emitted from the image generation unit 24 and reflected by the concave mirror 26 moves to the right on the windshield 18 so as to correspond to the movement of the driver's line of sight, and is displayed as an irradiation image 41b. .. As described above, in the HUD 20 according to the present embodiment, the display position of the light (predetermined image) emitted from the image generation unit 24 is moved by moving the position of the concave mirror 26 in the left-right direction.
  • the control unit 25 controls the image generation unit 24 so as to change the degree of distortion of the image emitted from the image generation unit 24 in advance according to the display position of the windshield 18 on which the image is displayed. ..
  • the control unit 25 changes the degree of distortion of the image based on the inclination angle of the concave mirror 26, the distance to the display position of the image on the windshield 18, and the like.
  • the image generation unit 24 generates an image based on the control signal transmitted from the control unit 25 so that the display mode of the image displayed on the windshield 18 is changed according to the display position.
  • the control unit 25 outputs a switching signal for switching the display position of the image based on the steering angle information of the steering wheel 31, but the present invention is not limited to this.
  • the control unit 25 may output a switching signal based on a change in the line of sight of the occupant (for example, the driver) of the vehicle 1.
  • the vehicle control unit 3 identifies the driver's viewpoint E based on the image data captured by the eye tracking camera (an example of the internal camera 6B) mounted in the vehicle interior.
  • the vehicle control unit 3 transmits the viewpoint information regarding the specified driver's viewpoint E to the control unit 25 as a switching signal.
  • the control unit 25 controls the moving direction of the concave mirror 26 so that the image reflected by the concave mirror 26 moves on the windshield 18 in response to a change in the driver's line of sight.
  • control unit 25 may output a changeover signal based on the operation of the operation mode changeover switch by the occupant.
  • the vehicle control unit 3 detects the operation mode of the vehicle 1 input from the operation mode changeover switch (an example of the HMI 8), and transmits the detected operation mode information to the control unit 25 as a changeover signal.
  • the control unit 25 displays a predetermined image at a display position on the windshield 18 where, for example, the driver and the passenger in the passenger seat can visually recognize the information.
  • the moving direction of the concave mirror 26 can be controlled so as to be performed.
  • control unit 25 uses the operation mode information as a switching signal, for example, in the moving direction of the concave mirror 26 so that a predetermined image is displayed at a display position on the windshield 18 which can be visually recognized only by the passenger in the passenger seat. Can be controlled.
  • the predetermined image in these cases is not limited to vehicle traveling information and surrounding environment information, and may be an entertainment image (including a moving image).
  • control unit 25 may output a switching signal based on the predicted traveling direction of the vehicle 1.
  • the vehicle control unit 3 predicts the traveling direction of the vehicle 1 to the destination based on the car navigation information using GPS 9 in the automatic driving mode.
  • the vehicle control unit 3 transmits the predicted progress prediction information of the vehicle 1 to the control unit 25 as a switching signal.
  • the control unit 25 calculates the movement of the driver's line of sight based on the received progress prediction information.
  • the control unit 25 controls the moving direction of the concave mirror 26 so that the image reflected by the concave mirror 26 moves on the windshield 18 in response to the calculated movement of the driver's line of sight.
  • the control unit 25 calculates the movement of the driver's line of sight when turning left, and the image is displayed corresponding to the movement of the line of sight.
  • the moving direction of the concave mirror 26 is controlled so as to move.
  • the position of the concave mirror 26 is moved in order to move the position of the image to be irradiated on the windshield 18, but the present invention is not limited to this.
  • the position of the image to be irradiated on the windshield 18 may be moved by moving the image generation unit 24.
  • the concave mirror is fixed without being moved, and the windshield 18 is irradiated by changing the direction of the image generation unit 24 with respect to the concave mirror or the position of the image generation unit 24 with respect to the concave mirror in the left-right direction.
  • the position of the image may be moved.
  • the position of the image to be irradiated on the windshield 18 may be moved by moving the housing 22 accommodating the image generation unit 24 and the concave mirror 26.
  • the concave mirror and the image generator with respect to the housing 22 are fixed without being moved, and the orientation of the housing 22 with respect to the windshield 18 or the position of the housing 22 with respect to the windshield 18 is changed in the left-right direction.
  • the position of the image to be irradiated on the windshield 18 may be moved.
  • the steering angle of the steering wheel 31 is detected by the vehicle control unit 3 and the traveling direction of the vehicle 1 is calculated, but these processes may be performed by the control unit 25 of the HUD 20.
  • the control unit 25 of the HUD 20 also performs a process of identifying the driver's viewpoint E based on the image data captured by the tracking camera, or a process of predicting the traveling direction of the vehicle 1 to the destination based on the car navigation information. You may do it at.
  • the vehicle control unit 3 and the control unit 25 are provided as separate configurations, but the vehicle control unit 3 and the control unit 25 may be integrally configured.
  • the image generation unit 24 that emits light for generating a predetermined image and the light emitted by the image generation unit 24 are applied to the windshield 18.
  • a concave mirror 26 (an example of a reflection unit) that reflects the emitted light
  • a housing 22 that houses at least the image generation unit 24 and the concave mirror 26, and a control unit 25 that controls the image generation unit 24 and the concave mirror 26 are provided. There is. Then, the display position of a predetermined image generated by the light emitted from the image generation unit 24 on the windshield 18 can be moved.
  • the display position of a predetermined image on the windshield 18 can be moved so as to match the movement of the line of sight.
  • the driver can accurately and easily visually recognize, for example, vehicle traveling information and surrounding environment information displayed on the windshield 18 even when the line of sight is moved in all driving situations.
  • the HUD 20 moves the display position of the image on the windshield 18 so as to correspond to the change in the line of sight of the driver based on the information on the traveling direction of the vehicle 1 calculated from the steering angle of the steering wheel 31. It is configured in. According to this configuration, the display position of the image is appropriately predicted in a situation where the driver's line of sight may deviate from the display range of the image, for example, the driver shifts his / her line of sight to the left when the vehicle 1 turns left. Can be moved in the direction of the driver's line of sight.
  • the HUD 20 is configured to move the position of the concave mirror 26 in order to move the display position of the image on the windshield 18 in response to the change in the line of sight of the driver. According to this configuration, the display position of the image of the concave mirror 26 can be easily moved by driving the drive mechanism 27. In particular, since the configuration of moving the position of the concave mirror 26 is adopted, it is not necessary to increase the size of the concave mirror 26, so that cost reduction can be realized.
  • the HUD 20 is configured so that the display mode of the image can be changed according to the movement of the display position of the image on the windshield 18. According to this configuration, an appropriate image without distortion can be displayed on the windshield 18 even when the display position of the image is moved.
  • the HUD 20 is configured to move the display position of the image on the windshield 18 based on the viewpoint information regarding the driver's viewpoint E specified by the image data captured by the eye tracking camera. Further, the HUD 20 is configured to move the display position of the image on the windshield 18 based on the driving mode information of the vehicle 1 input from the driving mode changeover switch. Further, the HUD 20 is configured to move the display position of the image on the windshield 18 based on the progress prediction information of the vehicle 1 predicted from the car navigation information using GPS 9. Also in the case of these configurations, it is possible to appropriately predict the situation in which the driver's line of sight may deviate from the image display range and move the image display position in the direction of the driver's line of sight.
  • the position of the image generation unit 24 or the housing 22 is moved in order to move the display position of the image on the windshield 18 in response to the change in the line of sight of the driver. Even in the case of these configurations, the display position of the image can be easily moved.
  • FIG. 4 is a schematic view showing a configuration for moving the display position of the image of the HUD 120 according to the second embodiment.
  • the HUD 120 has an image generation unit 124 and a concave mirror 126 (an example of a reflection unit) in the housing 122.
  • the image generation unit 124 has a plurality of (five in this example) light sources 128a to 128e arranged in parallel in the left-right direction.
  • the concave mirror 126 is arranged so as to face the image generation unit 124, and reflects the light (predetermined image) emitted from the light sources 128a to 128e of the image generation unit 124 toward the windshield 18.
  • the display position of the light (predetermined image) emitted from the image generation unit 124 is moved by switching the lighting light sources of the light sources 128a to 128e in the image generation unit 124.
  • the vehicle control unit 3 calculates the traveling direction of the vehicle 1 based on the steering angle information of the steering wheel 31, and uses the calculated information on the traveling direction of the vehicle 1 as a switching signal of the HUD 120. It is transmitted to the control unit 25.
  • the control unit 25 determines the light source to be turned on in the light sources 128a to 128e based on the received information regarding the traveling direction of the vehicle 1. In the case of this example, since it is calculated that the steering wheel 31 is rotated to the left and the vehicle 1 moves to the left, the line of sight of the driver of the vehicle 1 changes to the left according to the progress of the vehicle 1. Is expected. Therefore, the control unit 25 controls to move the display position of the image reflected by the concave mirror 126 and irradiated to the windshield 18 to the left according to the change in the line of sight of the driver.
  • the control unit 25 determines that the three light sources 128a to 128c on the left side of the light sources 128a to 128e are turned on in order to move the display position of the image to the left.
  • the images emitted from the light sources 128a to 128c of the image generation unit 124 and reflected by the concave mirror 126 move to the left indicated by the arrow C on the windshield 18 so as to correspond to the movement of the driver's line of sight. Then, it is displayed as an irradiation image 41a.
  • a plurality of liquid crystal displays (display devices) of the image generation unit 124 may be provided so as to correspond to each of the light sources 128a to 128c, or a single liquid crystal display corresponding to all the light sources 128a to 128c may be provided. You may.
  • the control unit 25 turns on the three light sources 128c to 128e on the right side in order to move the display position of the image to the right. ..
  • the image emitted from the light sources 128c to 128e and reflected by the concave mirror 126 moves to the right on the windshield 18 so as to correspond to the movement of the driver's line of sight, and is displayed as an irradiation image 41b. ..
  • the display position of the image can be easily moved by the configuration of switching the lighting positions of the plurality of light sources 128a to 128e arranged in parallel.
  • FIG. 5 is a schematic view showing the configuration of the HUD 220 according to the modified example.
  • the HUD 220 according to the modified example is composed of a HUD main body 21 and a combiner 19.
  • the combiner 19 is provided inside the windshield 18 as a structure separate from the windshield 18.
  • the combiner 19 is, for example, a transparent plastic disc, which is irradiated with the light reflected by the concave mirror 26 (126) instead of the windshield 18.
  • a part of the light emitted from the HUD main body 21 to the combiner 19 is reflected toward the occupant's viewpoint E, as in the case where the windshield 18 is irradiated with light.
  • the occupant can recognize the emitted light (predetermined image) from the HUD main body 21 as a virtual image object I formed at a predetermined distance in front of the combiner 19 (and the windshield 18).
  • the HUD 220 provided with such a combiner 19 the same effects as those of the HUD 20 of the first embodiment and the HUD 120 of the second embodiment can be obtained.
  • the driving mode of the vehicle has been described as including the fully automatic driving mode, the advanced driving support mode, the driving support mode, and the manual driving mode, but the driving mode of the vehicle includes these four modes. Should not be limited to.
  • the driving mode of the vehicle may include at least one of these four modes. For example, only one of the driving modes of the vehicle may be executable.
  • the classification and display form of the driving mode of the vehicle may be appropriately changed in accordance with the laws and regulations related to automatic driving in each country.
  • the definitions of "fully automatic driving mode”, “advanced driving support mode”, and “driving support mode” described in the description of this embodiment are merely examples, and the laws and regulations related to automatic driving in each country or In accordance with the rules, these definitions may be changed accordingly.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)

Abstract

ヘッドアップディスプレイは、所定の画像を生成するための光を出射する画像生成部(24)と、画像生成部(24)により出射された光がウインドシールド(18)へ照射されるように、光を反射させる反射部(26)と、画像生成部(24)および反射部(26)を少なくとも収容するハウジング(22)と、画像生成部(24)および反射部(26)を制御する制御部(25)と、を備えている。制御部(25)は、所定の画像の表示位置を切り替える切替信号に基づいて、所定の画像の表示位置を移動させる。

Description

ヘッドアップディスプレイ
 本発明は、ヘッドアップディスプレイに関する。
 将来において、公道上では自動運転モードで走行中の車両と手動運転モードで走行中の車両が混在することが予想される。
 将来の自動運転社会では、車両と人間との間の視覚的コミュニケーションが益々重要になっていくことが予想される。例えば、車両と当該車両の乗員との間の視覚的コミュニケーションが益々重要になっていくことが予想される。この点において、ヘッドアップディスプレイ(HUD)を用いて車両と乗員との間の視覚的コミュニケーションを実現することができる。ヘッドアップディスプレイは、ウインドシールドやコンバイナに画像や映像を投影させ、その画像をウインドシールドやコンバイナを通して現実空間と重畳させて乗員に視認させることで、いわゆるAR(Augmented Reality)を実現することができる。
 ヘッドアップディスプレイの一例として、特許文献1には、透明な表示媒体を用いて立体的な虚像を表示するための光学系を備える表示装置が開示されている。当該表示装置は、ウインドシールドまたはコンバイナ上で、運転手の視界内に光を投射する。投射された光の一部はウインドシールドまたはコンバイナを透過するが、他の一部はウインドシールドまたはコンバイナに反射される。この反射光は運転者の目に向かう。運転者は、目に入ったその反射光を、ウインドシールドやコンバイナ越しに見える実在の物体を背景に、ウインドシールドやコンバイナを挟んで反対側(自動車の外側)にある物体の像のように見える虚像として知覚する。
日本国特開2018-45103号公報
 ところで、既存のヘッドアップディスプレイでは、虚像の表示範囲が固定されているため、当該表示範囲から運転者の目線が外れると、虚像を視認することができなくなってしまう。
 そこで、本発明は、車両の乗員の視線が移動した場合にも所定の画像を視認することが可能なヘッドアップディスプレイを提供することを目的とする。
 上記目的を達成するために、本発明の一側面に係るヘッドアップディスプレイは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射する画像生成部と、
 前記画像生成部により出射された前記光がウインドシールドまたはコンバイナへ照射されるように、前記光を反射させる反射部と、
 前記画像生成部および前記反射部を少なくとも収容するハウジングと、
 前記画像生成部および前記反射部を制御する制御部と、
を備え、
 前記制御部は、前記所定の画像の表示位置を切り替える切替信号に基づいて、前記表示位置を移動させるように構成されている。
 上記構成によれば、車両の乗員の視線が移動した場合にも、所定の画像を視認することが可能なヘッドアップディスプレイを提供することができる。
 本発明によれば、車両の乗員の視線が移動した場合にも虚像を視認することが可能なヘッドアップディスプレイを提供することができる。
第一実施形態に係るヘッドアップディスプレイ(HUD)を備えた車両用システムのブロック図である。 HUDの模式図である。 HUDにおける画像の表示位置を移動させる構成を示す模式図である。 第二実施形態に係るHUDの画像の表示位置を移動させる構成を示す模式図である。 変形例に係るHUDの模式図である。
 以下、本発明の実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 また、本実施形態の説明では、説明の便宜上、「左右方向」、「上下方向」、「前後方向」について適宜言及する場合がある。これらの方向は、図2に示すHUD(Head-Up Display)20について設定された相対的な方向である。ここで、「左右方向」は、「左方向」および「右方向」を含む方向である。「上下方向」は、「上方向」および「下方向」を含む方向である。「前後方向」は、「前方向」および「後方向」を含む方向である。左右方向は、図2では示されていないが、上下方向および前後方向に直交する方向である。
(第一実施形態)
 図1を参照して、第一実施形態に係るHUD20を備えた車両システム2について以下に説明する。図1は、車両システム2のブロック図である。当該車両システム2が搭載された車両1は、自動運転モードで走行可能な車両(自動車)である。
 図1に示すように、車両システム2は、車両制御部3と、センサ5と、カメラ6と、レーダ7と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11とを備える。また、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。さらに、車両システム2は、HUD20を備える。
 車両制御部3は、車両の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサおよびメモリを含むコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子および抵抗等のパッシブ素子から構成される電子回路とを含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、およびTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)とを含む。ROMには、車両制御プログラムが記憶されてもよい。例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有りまたは教師なし機械学習(特に、ディープラーニング)によって構築されたプログラム(学習済みモデル)である。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。
 センサ5は、加速度センサ、速度センサおよびジャイロセンサのうち少なくとも一つを含む。センサ5は、車両1の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサおよび車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。
 カメラ6は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6は、一以上の外部カメラ6Aと、内部カメラ6Bとを含む。
 外部カメラ6Aは、車両の周辺環境を示す画像データを取得した上で、当該画像データを車両制御部3に送信するように構成されている。車両制御部3は、送信された画像データに基づいて、周辺環境情報を取得する。ここで、周辺環境情報は、車両1の外部に存在する対象物(歩行者、他車両、標識等)に関する情報を含んでもよい。例えば、周辺環境情報は、車両の外部に存在する対象物の属性に関する情報と、車両に対する対象物の距離や位置に関する情報とを含んでもよい。外部カメラ6Aは、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。
 内部カメラ6Bは、車両1の内部に配置されると共に、乗員を示す画像データを取得するように構成されている。内部カメラ6Bは、例えば、乗員の視点E(図2で後述する)をトラッキングするアイトラッキングカメラとして機能する。内部カメラ6Bは、例えば、ルームミラーの近傍、あるいはインストルメントパネルの内部等に設けられている。
 レーダ7は、ミリ波レーダ、マイクロ波レーダ、およびレーザーレーダ(例えば、LiDARユニット)のうちの少なくとも一つを含む。例えば、LiDARユニットは、車両1の周辺環境を検出するように構成されている。特に、LiDARユニットは、車両1の周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを車両制御部3に送信するように構成されている。車両制御部3は、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。
 HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイ(HUDを除く)である。
 GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。
 無線通信部10は、車両1の周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両1に関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部10は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両1の自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両1は、他車両、インフラ設備または携帯型電子機器との間をアドホックモードにより直接通信してもよいし、アクセスポイントを介して通信してもよい。さらに、車両1は、図示しない通信ネットワークを介して他車両、インフラ設備または携帯型電子機器と通信してもよい。通信ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)および無線アクセスネットワーク(RAN)のうちの少なくとも一つを含む。無線通信規格は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)、LPWA、DSRC(登録商標)又はLi-Fiである。また、車両1は、他車両、インフラ設備または携帯型電子機器と第5世代移動通信システム(5G)を用いて通信してもよい。
 記憶装置11は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置11には、2次元または3次元の地図情報及び/又は車両制御プログラムが記憶されてもよい。例えば、3次元の地図情報は、3Dマッピングデータ(点群データ)によって構成されてもよい。記憶装置11は、車両制御部3からの要求に応じて、地図情報や車両制御プログラムを車両制御部3に出力するように構成されている。地図情報や車両制御プログラムは、無線通信部10と通信ネットワークを介して更新されてもよい。
 車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号およびブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、車両1の走行を自動的に制御する。つまり、自動運転モードでは、車両1の走行は車両システム2により自動制御される。
 一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダルおよびステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号およびブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号およびブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。
 上述の通り、運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、例えば、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御およびアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御およびアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御およびアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2の運転支援なしに運転者が車両1を運転する。
 HUD20は、所定の情報(以下、HUD情報という。)が車両1の外部の現実空間(特に、車両1の前方の周辺環境)と重畳されるように、当該HUD情報を乗員に向け画像として表示するように構成されている。HUD20によって表示されるHUD情報は、例えば、車両1の走行に関連した車両走行情報及び/又は車両の周辺環境に関連した周辺環境情報(特に、車両1の外部に存在する対象物に関連した情報)等である。HUD20は、車両1と乗員との間の視覚的インターフェースとして機能するARディスプレイである。
 HUD20は、HUD20の各部の動作を制御する制御部25を備える。制御部25は、車両制御部3に接続されており、車両制御部3から送信されてくる車両走行情報や周辺環境情報等に基づいてHUD20の各動作を制御する。HUD20は、少なくともHUD20の一部が車両1の内部に位置する。具体的には、HUD20は、車両1の室内の所定箇所に設置されている。例えば、HUD20は、車両1のダッシュボード内に配置されてもよい。
 図2は、HUD20を車両1の側面側から見た模式図である。図2に示すように、HUD20は、HUD本体部21を備えている。HUD本体部21は、ハウジング22と、出射窓23とを有する。出射窓23は可視光を透過させる透明板で構成されている。HUD本体部21は、ハウジング22の内側に、画像生成部(PGU:Picture Generation Unit)24と、制御部25と、凹面鏡26(反射部の一例)とを有する。
 画像生成部24は、詳細な図示は省略するが、光源と、光学部品と、表示デバイスとを有する。光源は、例えば、レーザ光源またはLED光源である。レーザ光源は、例えば、赤色レーザ光と、緑光レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。光学部品は、プリズム、レンズ、拡散板、拡大鏡等を適宜有する。光学部品は、光源から出射された光を透過して表示デバイスに向けて出射する。表示デバイスは、液晶ディスプレイ、DMD(Digital Mirror Device)等である。画像生成部24の描画方式は、ラスタースキャン方式、DLP(Digital Light Processing)方式またはLCOS(Liquid Crystal On Silicon)方式であってもよい。DLP方式またはLCOS方式が採用される場合、HUD20の光源はLED光源であってもよい。なお、液晶ディスプレイ方式が採用される場合、HUD20の光源は白色LED光源であってもよい。
 凹面鏡26は、画像生成部24の表示デバイスから出射される光の光路上に配置されている。凹面鏡26は、画像生成部24から出射された光をウインドシールド18(例えば、車両1のフロントウィンドウ)に向けて反射する。凹面鏡26は、虚像を形成するために凹状に湾曲した反射面を有し、画像生成部24から出射されて結像された光の像を所定の倍率で反射させる。凹面鏡26は、凹面鏡26の向きを回転させる駆動機構27を有する。駆動機構27は制御部25に接続されている。駆動機構27は、制御部25から送信される制御信号に基づいて、凹面鏡26の向きを回転させる。
 凹面鏡26により反射されてHUD本体部21の出射窓23から出射された光は、ウインドシールド18に照射される。HUD本体部21からウインドシールド18に照射された光の一部は、乗員の視点Eに向けて反射される。この結果、乗員は、HUD本体部21から出射された光(所定の画像)をウインドシールド18の前方の所定の距離において形成された虚像として認識する。このように、HUD20によって表示される画像がウインドシールド18を通して車両1の前方の現実空間に重畳される結果、乗員は、所定の画像により形成される虚像オブジェクトIが車両外部に位置する道路上に浮いているように視認することができる。
 制御部25は、画像生成部24、凹面鏡26の動作を制御するように構成されている。制御部25は、CPU(Central Processing Unit)等のプロセッサとメモリが搭載され、メモリから読みだしたコンピュータプログラムをプロセッサが実行して、画像生成部24、凹面鏡26の動作を制御する。制御部25は、車両制御部3から送信されてくる車両走行情報や周辺環境情報等に基づいて、画像生成部24の動作を制御するための制御信号を生成し、当該生成された制御信号を画像生成部24に送信する。また、制御部25は、車両制御部3から送信されてくる車両走行情報や周辺環境情報等に基づいて、凹面鏡26の向きを調整するための制御信号を生成し、当該生成された制御信号を駆動機構27に送信する。また、制御部25は、車両制御部3から送信されてくる内部カメラ6Bの情報(例えば乗員の視点Eに関する情報)に基づいて、画像生成部24および凹面鏡26を制御するための制御信号を生成し、当該生成された制御信号を画像生成部24および凹面鏡26に送信する。
 ここで、乗員の視点Eは、乗員の左目の視点又は右目の視点のいずれかであってもよい。または、視点Eは、左目の視点と右目の視点を結んだ線分の中点として規定されてもよい。乗員の視点Eの位置は、例えば、内部カメラ6Bによって取得された画像データに基づいて特定される。乗員の視点Eの位置は、所定の周期で更新されてもよいし、車両1の起動時に一回だけ決定されてもよい。
 なお、虚像オブジェクトIとして2D画像(平面画像)を形成する場合には、所定の画像を任意に定めた単一距離の虚像となるように投影する。虚像オブジェクトIとして3D画像(立体画像)を形成する場合には、互いに同一または互いに異なる複数の所定の画像をそれぞれ異なる距離の虚像となるように投影する。また、虚像オブジェクトIの距離(乗員の視点Eから虚像までの距離)は、画像生成部24から乗員の視点Eまでの距離を調整する(例えば画像生成部24と凹面鏡26間の距離を調整する)ことによって適宜調整可能である。
 図3は、HUD20における画像の表示位置を移動させる構成を示す模式図である。図3の下側にはHUD20を上方から見た模式図を示しており、図3の上側にはウインドシールド18を車室内から見た模式図を示している。
 画像生成部24の前方に配置されている凹面鏡26は、駆動機構27の駆動により左右方向に移動することができるように構成されている。凹面鏡26は、反射面を画像生成部24に対向させた状態で、画像生成部24を中心として左右方向に所定の範囲で回転移動するように構成されている。凹面鏡26は、例えば、図3における破線で示される位置から実線で示される位置までの間を、画像生成部24の左側から右側へと、あるいは画像生成部24の右側から左側へと移動可能である。
 次に、図3を参照してHUD20の動作について説明する。なお、図3においてHUD20の右側に示される部材は、車両1のステアリングホイール31である。
 例えば、ステアリングホイール31が矢印Aに示すように左方向に回転されたとする。車両制御部3は、車両制御部3に入力されるステアリングホイール情報からステアリングホイール31の舵角を検出し、検出された舵角情報に基づいて車両1の進行方向を算出する。本例の場合、ステアリングホイール31が左方向に回転されているため、車両1はステアリングホイール31の舵角に応じて左方向へ進行すると算出される。車両制御部3は、算出された車両1の進行方向に関する情報をHUD20の制御部25に送信する。車両1の進行方向に関する情報は、画像生成部24から出射された画像の表示位置を切り替える切替信号として制御部25に送信される。
 制御部25は、受信した車両1の進行方向に関する情報に基づいて、凹面鏡26の移動方向を制御する。本例の場合、ステアリングホイール31が左方向に回転されて車両1が左方向へ進行すると算出されているため、車両1の乗員(運転者)の視線は車両1の進行に合わせて左方向に変化していくと予測される。そこで、制御部25は、運転者の視線の変化に合わせて、凹面鏡26で反射されてウインドシールド18に照射される画像の表示位置を左方向に移動させるように制御する。制御部25は、画像の表示位置を左方向に移動させるために、凹面鏡26の位置を右方向に移動させるように制御する。例えば、図3において、制御部25は、凹面鏡26の位置を矢印Bに示すように実線で示される位置に移動させる。また、制御部25は、画像の表示位置を左方向に移動させるために、画像生成部24から出射される光の方向を凹面鏡26の移動位置に合わせるように光路L1の方向(右方)に変化させる。これにより、画像生成部24から出射されて凹面鏡26で反射された画像は、ウインドシールド18上において、運転者の視線の動きに対応するように矢印Cに示す左方向に移動し、照射画像41aとして表示される。
 また、例えば、ステアリングホイール31が矢印Aとは反対の右方向に回転された場合は以下のようになる。
 車両制御部3は、検出された舵角情報に基づいて、車両1が右方向へ進行すると算出し、算出された車両1の進行方向に関する情報をHUD20の制御部25に送信する。
 本例の場合、運転者の視線は車両1の進行に合わせて右方向に変化していくと予測される。そこで、制御部25は、運転者の視線の変化に合わせて画像の表示位置を右方向に移動させるために、凹面鏡26の位置を左方向に移動させるように制御する。例えば、図3において、制御部25は、凹面鏡26の位置を破線で示される位置に移動させるとともに、画像生成部24から出射される光の方向を凹面鏡26の移動位置に合わせるように光路L2の方向(左方)に変化させる。これにより、画像生成部24から出射されて凹面鏡26で反射された画像は、ウインドシールド18上において、運転者の視線の動きに対応するように右方向に移動し、照射画像41bとして表示される。このように、本実施形態に係るHUD20では、凹面鏡26の位置を左右方向に移動させることにより、画像生成部24から出射された光(所定の画像)の表示位置を移動させている。
 ところで、ウインドシールド18に照射される画像の表示位置が運転者の視線の動きに対応して移動する場合、照射された画像は表示されるウインドシールド18上の表示位置によって画像の歪み方に違いが生じる。すなわち、ウインドシールド18上の表示位置ごとに画像の形状が少しずつ相違した形状となって表示される。そこで、制御部25は、画像が表示されるウインドシールド18の表示位置に応じて、画像生成部24から出射される画像の歪み度合を予め変化させるように、画像生成部24を制御している。例えば、制御部25は、凹面鏡26の傾斜角度、ウインドシールド18上の画像の表示位置までの距離等に基づいて画像の歪み度合いを変化させている。画像生成部24は、制御部25から送信される制御信号に基づいて、ウインドシールド18上に表示される画像の表示態様が表示位置に応じて変更されるように画像を生成する。
 なお、上述した例ではステアリングホイール31の舵角情報に基づいて画像の表示位置を切り替える切替信号を制御部25から出力したが、これに限られない。
 例えば、制御部25は、車両1の乗員(例えば運転者)の視線変化に基づいて切替信号を出力するようにしてもよい。この場合、車両制御部3は、車室内に搭載されたアイトラッキングカメラ(内部カメラ6Bの一例)によって撮像された画像データに基づいて運転者の視点Eを特定する。車両制御部3は、特定された運転者の視点Eに関する視点情報を切替信号として制御部25に送信する。制御部25は、受信した視点情報に基づいて、凹面鏡26で反射された画像がウインドシールド18上において運転者の視線の変化に対応して移動するように凹面鏡26の移動方向を制御する。
 また、例えば、制御部25は、乗員による運転モード切替スイッチの操作に基づいて切替信号を出力するようにしてもよい。この場合、車両制御部3は、運転モード切替スイッチ(HMI8の一例)から入力される車両1の運転モードを検出し、検出された運転モード情報を切替信号として制御部25に送信する。制御部25は、受信した運転モード情報が自動運転モードである場合、例えば、運転者と助手席の乗員とが一緒に視認することが可能なウインドシールド18上の表示位置に所定の画像が表示されるように凹面鏡26の移動方向を制御し得る。また、制御部25は、運転モード情報を切替信号として、例えば、助手席の乗員だけ視認することが可能なウインドシールド18上の表示位置に所定の画像が表示されるように凹面鏡26の移動方向を制御し得る。これらの場合における所定の画像は、車両走行情報や周辺環境情報に限定されず、娯楽画像(動画も含む)であってもよい。
 また、例えば、制御部25は、車両1の予測される進行方向に基づいて切替信号を出力するようにしてもよい。この場合、車両制御部3は、自動運転モードにおいて、GPS9を使用したカーナビ情報に基づき目的地までの車両1の進行方向を予測する。車両制御部3は、予測された車両1の進行予測情報を切替信号として制御部25に送信する。制御部25は、受信した進行予測情報に基づいて運転者の視線の動きを算出する。制御部25は、凹面鏡26で反射された画像が、算出された運転者の視線の動きに対応してウインドシールド18上を移動するように凹面鏡26の移動方向を制御する。例えば、制御部25は、車両1の進行予測情報が次の信号を左折するという予測情報である場合、左折時の運転者の視線の動きを算出し、その視線の動きに対応して画像が移動するように凹面鏡26の移動方向を制御する。
 また、上述した例ではウインドシールド18上に照射される画像の位置を移動させるために凹面鏡26の位置を移動させたが、これに限られない。
 例えば、画像生成部24を移動させることによってウインドシールド18上に照射される画像の位置を移動させるようにしてもよい。具体的には、凹面鏡は移動させずに固定させておいて、凹面鏡に対する画像生成部24の向き、あるいは凹面鏡に対する画像生成部24の位置を左右方向に変化させることによりウインドシールド18上に照射される画像の位置を移動させるようにしてもよい。
 また、例えば、画像生成部24と凹面鏡26を収容しているハウジング22を移動させることによってウインドシールド18上に照射される画像の位置を移動させるようにしてもよい。具体的には、ハウジング22に対する凹面鏡や画像生成部は移動させずに固定させておいて、ウインドシールド18に対するハウジング22の向き、あるいはウインドシールド18に対するハウジング22の位置を左右方向に変化させることによりウインドシールド18上に照射される画像の位置を移動させるようにしてもよい。
 また、上述した例では車両制御部3によってステアリングホイール31の舵角を検出し、車両1の進行方向を算出していたが、これらの処理はHUD20の制御部25で行うようにしてもよい。同様に、トラッキングカメラによって撮像された画像データに基づいて運転者の視点Eを特定する処理、あるいはカーナビ情報に基づいて目的地までの車両1の進行方向を予測する処理についてもHUD20の制御部25で行うようにしてもよい。
 また、上述した例では、車両制御部3と制御部25とは別個の構成として設けられているが、車両制御部3と制御部25は一体的に構成されてもよい。
 以上説明したように、第一実施形態に係るHUD20は、所定の画像を生成するための光を出射する画像生成部24と、画像生成部24により出射された光がウインドシールド18に照射されるように出射光を反射させる凹面鏡26(反射部の一例)と、画像生成部24および凹面鏡26を少なくとも収容するハウジング22と、画像生成部24および凹面鏡26を制御する制御部25と、を備えている。そして、画像生成部24から出射された光によって生成される所定の画像のウインドシールド18上における表示位置を移動させることができるように構成されている。この構成によれば、車両1の運転者の視線が移動した場合にも、その視線の移動に合わせるようにウインドシールド18上における所定の画像の表示位置を移動させることができる。これにより、運転者はあらゆる運転状況において視線を移動させた場合でも、ウインドシールド18上に表示される例えば車両走行情報や周辺環境情報等を正確かつ容易に視認することができる。
 また、HUD20は、ステアリングホイール31の舵角から算出される車両1の進行方向に関する情報に基づいて、運転者の視線の変化に対応するようにウインドシールド18上における画像の表示位置を移動させるように構成されている。この構成によれば、例えば車両1の左折時に運転者が左方向に視線を移すなど、画像の表示範囲から運転者の視線が外れる可能性のある状況を適切に予測して、画像の表示位置を運転者の視線の方向に移動させることができる。
 また、HUD20は、運転者の視線の変化に対応させてウインドシールド18上における画像の表示位置を移動させるために、凹面鏡26の位置を移動させるように構成されている。この構成によれば、凹面鏡26の画像の表示位置を駆動機構27の駆動により簡便に移動させることができる。特に、凹面鏡26の位置を移動させる構成を採用するので、凹面鏡26のサイズを大きくする必要がないため低コスト化を実現することができる。
 また、HUD20は、ウインドシールド18上における画像の表示位置の移動に応じて、当該画像の表示態様を変更することができるように構成されている。この構成によれば、画像の表示位置が移動された場合にも歪みのない適切な画像をウインドシールド18上に表示することができる。
 また、HUD20において、アイトラッキングカメラで撮像された画像データにより特定される運転者の視点Eに関する視点情報に基づいて、ウインドシールド18上における画像の表示位置を移動させるように構成されている。また、HUD20において、運転モード切替スイッチから入力される車両1の運転モード情報に基づいて、ウインドシールド18上における画像の表示位置を移動させるように構成されている。さらに、HUD20において、GPS9を使用したカーナビ情報から予測される車両1の進行予測情報に基づいて、ウインドシールド18上における画像の表示位置を移動させるように構成されている。これらの構成の場合にも、画像の表示範囲から運転者の視線が外れる可能性のある状況を適切に予測して、画像の表示位置を運転者の視線の方向に移動させることができる。
 また、HUD20において、運転者の視線の変化に対応させてウインドシールド18上における画像の表示位置を移動させるために、画像生成部24あるいはハウジング22の位置を移動させるように構成されている。これらの構成の場合にも、画像の表示位置を簡便に移動させることができる。
(第二実施形態)
 図4は、第二実施形態に係るHUD120の画像の表示位置を移動させる構成を示す模式図である。図4に示すように、HUD120は、ハウジング122内に、画像生成部124と、凹面鏡126(反射部の一例)とを有する。画像生成部124は、左右方向に並列された複数(本例では5個)の光源128a~128eを有する。凹面鏡126は、画像生成部124に対向するように配置され、画像生成部124の光源128a~128eから出射される光(所定の画像)をウインドシールド18に向けて反射する。HUD120では、画像生成部124における光源128a~128eの点灯する光源を切り替えることにより、画像生成部124から出射された光(所定の画像)の表示位置を移動させている。
 図4を参照してHUD120の動作について説明する。
 例えば、ステアリングホイール31が矢印Aに示すように左方向に回転されたとする。車両制御部3は、上記第一実施形態と同様に、ステアリングホイール31の舵角情報に基づいて車両1の進行方向を算出し、算出された車両1の進行方向に関する情報を切替信号としてHUD120の制御部25に送信する。
 制御部25は、受信した車両1の進行方向に関する情報に基づいて、光源128a~128eにおける点灯させる光源を決定する。本例の場合、ステアリングホイール31が左方向に回転されて車両1が左方向へ進行すると算出されるため、車両1の運転者の視線は車両1の進行に合わせて左方向に変化していくと予測される。そこで、制御部25は、運転者の視線の変化に合わせて、凹面鏡126で反射されてウインドシールド18に照射される画像の表示位置を左方向に移動させるように制御する。制御部25は、画像の表示位置を左方向に移動させるために、光源128a~128eのうちの左側の3つの光源128a~128cを点灯させると決定する。これにより、画像生成部124の光源128a~128cから出射されて凹面鏡126で反射された画像は、ウインドシールド18上において、運転者の視線の動きに対応するように矢印Cに示す左方向に移動し、照射画像41aとして表示される。なお、HUD120では、画像生成部124の液晶ディスプレイ(表示デバイス)を各光源128a~128cに対応するように複数設けてもよいし、全ての光源128a~128cに対応する単一の液晶ディスプレイを設けてもよい。
 また、例えばステアリングホイール31が矢印Aとは反対の右方向に回転された場合、制御部25は、画像の表示位置を右方向に移動させるために、右側の3つの光源128c~128eを点灯させる。これにより、光源128c~128eから出射されて凹面鏡126で反射された画像は、ウインドシールド18上において、運転者の視線の動きに対応するように右方向に移動し、照射画像41bとして表示される。
 このように、第二実施形態に係るHUD120によれば、並列に配置させた複数の光源128a~128eの点灯位置を切り替えるという構成により、画像の表示位置を簡便に移動させることができる。
 図5は、変形例に係るHUD220の構成を示す模式図である。
 図5に示すように、変形例に係るHUD220は、HUD本体部21と、コンバイナ19とによって構成されている。コンバイナ19は、ウインドシールド18とは別体の構造物として、ウインドシールド18の内側に設けられている。コンバイナ19は、例えば、透明なプラスチックディスクであって、ウインドシールド18の代わりに、凹面鏡26(126)によって反射された光が照射される。これにより、ウインドシールド18に光を照射した場合と同様に、HUD本体部21からコンバイナ19に照射された光の一部は、乗員の視点Eに向けて反射される。この結果、乗員は、HUD本体部21からの出射光(所定の画像)をコンバイナ19(およびウインドシールド18)の前方の所定の距離において形成された虚像オブジェクトIとして認識することができる。
 このようなコンバイナ19を備えたHUD220の場合も、第一実施形態のHUD20および第二実施形態のHUD120と同様の効果を奏することができる。
 以上、本発明の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
 上記実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードは、これら4つのモードの少なくとも1つを含んでいてもよい。例えば、車両の運転モードは、いずれか一つのみを実行可能であってもよい。
 さらに、車両の運転モードの区分や表示形態は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。
 本出願は、2019年7月25日出願の日本特許出願2019-136761号に基づくものであり、その内容はここに参照として取り込まれる。

Claims (5)

  1.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射する画像生成部と、
     前記画像生成部により出射された前記光がウインドシールドまたはコンバイナへ照射されるように、前記光を反射させる反射部と、
     前記画像生成部および前記反射部を少なくとも収容するハウジングと、
     前記画像生成部および前記反射部を制御する制御部と、
    を備え、
     前記制御部は、前記所定の画像の表示位置を切り替える切替信号に基づいて、前記表示位置を移動させるように構成されている、ヘッドアップディスプレイ。
  2.  前記制御部は、前記画像生成部、前記反射部、および前記ハウジングの少なくとも一つを移動させることで前記表示位置を移動させる、請求項1に記載のヘッドアップディスプレイ。
  3.  前記画像生成部は、並列された複数の光源を含み、
     前記制御部は、前記切替信号に基づいて、前記複数の光源のうち点灯させる光源を切り替える、請求項1に記載のヘッドアップディスプレイ。
  4.  前記切替信号は、前記車両のステアリングの舵角、前記乗員の視線変化、前記乗員のスイッチ操作、前記車両の進行方向の予測の少なくとも一つに関する情報に基づいて前記制御部へ出力される、請求項1から3のいずれか一項に記載のヘッドアップディスプレイ。
  5.  前記画像生成部は、前記表示位置の移動に応じて、前記所定の画像の表示態様を変更するように構成されている、請求項1から4のいずれか一項に記載のヘッドアップディスプレイ。
PCT/JP2020/028111 2019-07-25 2020-07-20 ヘッドアップディスプレイ WO2021015171A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021534029A JPWO2021015171A1 (ja) 2019-07-25 2020-07-20

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-136761 2019-07-25
JP2019136761 2019-07-25

Publications (1)

Publication Number Publication Date
WO2021015171A1 true WO2021015171A1 (ja) 2021-01-28

Family

ID=74193396

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/028111 WO2021015171A1 (ja) 2019-07-25 2020-07-20 ヘッドアップディスプレイ

Country Status (2)

Country Link
JP (1) JPWO2021015171A1 (ja)
WO (1) WO2021015171A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176897A1 (ja) * 2022-03-16 2023-09-21 株式会社小糸製作所 画像投影装置、および画像投影方法
WO2023218773A1 (ja) * 2022-05-09 2023-11-16 マクセル株式会社 ヘッドアップディスプレイ装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6312438U (ja) * 1986-03-06 1988-01-27
JPH06115381A (ja) * 1992-10-08 1994-04-26 Y N S:Kk ヘッドアップディスプレイにおける虚像のコントロール方法及び虚像のコントロール装置
JP2010149733A (ja) * 2008-12-25 2010-07-08 Yazaki Corp ヘッドアップディスプレイ装置
JP2017039440A (ja) * 2015-08-21 2017-02-23 アルパイン株式会社 投射表示装置、投射表示方法および投射表示プログラム
JP2018034622A (ja) * 2016-08-31 2018-03-08 株式会社デンソー 車両用表示制御装置及び車両用表示システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6312438U (ja) * 1986-03-06 1988-01-27
JPH06115381A (ja) * 1992-10-08 1994-04-26 Y N S:Kk ヘッドアップディスプレイにおける虚像のコントロール方法及び虚像のコントロール装置
JP2010149733A (ja) * 2008-12-25 2010-07-08 Yazaki Corp ヘッドアップディスプレイ装置
JP2017039440A (ja) * 2015-08-21 2017-02-23 アルパイン株式会社 投射表示装置、投射表示方法および投射表示プログラム
JP2018034622A (ja) * 2016-08-31 2018-03-08 株式会社デンソー 車両用表示制御装置及び車両用表示システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176897A1 (ja) * 2022-03-16 2023-09-21 株式会社小糸製作所 画像投影装置、および画像投影方法
WO2023218773A1 (ja) * 2022-05-09 2023-11-16 マクセル株式会社 ヘッドアップディスプレイ装置

Also Published As

Publication number Publication date
JPWO2021015171A1 (ja) 2021-01-28

Similar Documents

Publication Publication Date Title
JP7254832B2 (ja) ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法
US11597316B2 (en) Vehicle display system and vehicle
WO2021065617A1 (ja) 車両用表示システム及び車両
JP7470230B2 (ja) 車両用表示システム、車両システム及び車両
CN110834583B (zh) 车辆用显示系统及车辆
WO2021054277A1 (ja) ヘッドアップディスプレイおよび画像表示システム
WO2021015171A1 (ja) ヘッドアップディスプレイ
JP7295863B2 (ja) 車両用表示システム及び車両
WO2020110598A1 (ja) ヘッドアップディスプレイ
JP7492971B2 (ja) ヘッドアップディスプレイ
US20240069335A1 (en) Head-up display
WO2022009605A1 (ja) 画像生成装置及びヘッドアップディスプレイ
WO2020218072A1 (ja) 車両用ヘッドアップディスプレイおよびそれに用いられる光源ユニット
WO2023190338A1 (ja) 画像照射装置
WO2022102374A1 (ja) 車両用表示システム
JP2023141162A (ja) 画像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20845078

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021534029

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20845078

Country of ref document: EP

Kind code of ref document: A1