WO2022009605A1 - 画像生成装置及びヘッドアップディスプレイ - Google Patents

画像生成装置及びヘッドアップディスプレイ Download PDF

Info

Publication number
WO2022009605A1
WO2022009605A1 PCT/JP2021/022287 JP2021022287W WO2022009605A1 WO 2022009605 A1 WO2022009605 A1 WO 2022009605A1 JP 2021022287 W JP2021022287 W JP 2021022287W WO 2022009605 A1 WO2022009605 A1 WO 2022009605A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
light
light source
lens
vehicle
Prior art date
Application number
PCT/JP2021/022287
Other languages
English (en)
French (fr)
Inventor
幸平 望月
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to JP2022534973A priority Critical patent/JPWO2022009605A1/ja
Publication of WO2022009605A1 publication Critical patent/WO2022009605A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/02Simple or compound lenses with non-spherical faces
    • G02B3/08Simple or compound lenses with non-spherical faces with discontinuous faces, e.g. Fresnel lens

Definitions

  • the present disclosure relates to an image generator and a head-up display provided with the image generator.
  • Patent Document 1 discloses a head-up display including a light source unit and a surface element to be scanned.
  • the scanned surface element is scanned by the light from the light source unit, and the light constituting the image is emitted from the scanned surface element.
  • the image generator is An image generator that generates images for head-up displays.
  • a second light source arranged at a certain distance from the first light source, A lens that transmits light emitted from the first light source and the second light source, and A display device that forms light for generating the image by light transmitted through the lens.
  • the lens is composed of a first region that transmits the first light from the first light source and a second region that is coupled in parallel with the first region and transmits the second light from the second light source.
  • the light emitted from the first light source is emitted as light not parallel to the optical axis of the first light source
  • the light emitted from the second light source is the optical axis of the second light source. It has a non-parallel light emission region that is emitted as light that is not parallel to The non-parallel light emitting region is located in the vicinity of the boundary portion between the first region and the second region.
  • the first region and the second region on the emission surface of the lens may be formed.
  • the boundary portion may be formed by being recessed in a curved shape. Light emitted from the first light source and the second light source and reaching the boundary portion may be internally reflected in the lens and not emitted from the lens. According to the image generator having the above configuration, the light from the first light source is not parallel to the optical axis of the first region when passing near the boundary portion with the second region in the first region of the lens. Is emitted as.
  • the light from the second light source is emitted as light that is not parallel to the optical axis of the second region when passing near the boundary portion between the second region and the first region of the lens.
  • the area of the display device illuminated by the light emitted from the boundary portion of the emission surface of the lens is illuminated by the light emitted from the vicinity of the boundary portion of the emission surface of the lens. Therefore, even if the boundary portion of the exit surface of the lens is formed by being recessed in a curved surface due to manufacturing conditions, processing conditions, etc., it is possible to suppress that a part of the image-generating region of the display device is not irradiated with light. ..
  • the head-up display is with the above image generator, It is provided with at least one reflecting unit that reflects the light so that the light emitted by the image generator is applied to the windshield or the combiner.
  • an image generation device that suppresses the irradiation of a part of an image generationable area of a display device with light, and a head-up display provided with the image generation device.
  • FIG. 3 is a sectional view taken along line IV-IV of FIG.
  • FIG. 3 is a cross-sectional view of an image generator in which the center of the light emitting surface of the light source is the focal position of the lens.
  • It is sectional drawing which shows the optical path diagram of the image generation apparatus which concerns on 1st Embodiment.
  • It is sectional drawing which shows the structure of the image generation apparatus which concerns on 2nd Embodiment.
  • horizontal direction is a direction including the "left direction” and the “right direction”.
  • the "vertical direction” is a direction including “upward” and “downward”.
  • the "front-back direction” is a direction including the "forward direction” and the “backward direction”.
  • the left-right direction is a direction orthogonal to the up-down direction and the front-back direction.
  • FIG. 1 is a block diagram of the vehicle system 2.
  • the vehicle 1 equipped with the vehicle system 2 is a vehicle (automobile) capable of traveling in the automatic driving mode.
  • the vehicle system 2 communicates wirelessly with a vehicle control unit 3, a sensor 5, a camera 6, a radar 7, an HMI (Human Machine Interface) 8, a GPS (Global Positioning System) 9, and a GPS (Global Positioning System) 9.
  • a unit 10 and a storage device 11 are provided.
  • the vehicle system 2 includes a steering actuator 12, a steering device 13, a brake actuator 14, a brake device 15, an accelerator actuator 16, and an accelerator device 17.
  • the vehicle system 2 includes a HUD 20.
  • the vehicle control unit 3 is configured to control the running of the vehicle 1.
  • the vehicle control unit 3 is composed of, for example, at least one electronic control unit (ECU: Electronic Control Unit).
  • the electronic control unit includes a computer system including one or more processors and a memory (for example, a SoC (System on a Chip) or the like), and an electronic circuit composed of an active element such as a transistor and a passive element such as a resistor.
  • the processor includes, for example, at least one of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit).
  • the CPU may be composed of a plurality of CPU cores.
  • the GPU may be composed of a plurality of GPU cores.
  • the memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • the vehicle control program may be stored in the ROM.
  • the vehicle control program may include an artificial intelligence (AI) program for autonomous driving.
  • AI is a program (trained model) constructed by supervised or unsupervised machine learning (particularly deep learning) using a multi-layer neural network.
  • the RAM may temporarily store a vehicle control program, vehicle control data, and / or peripheral environment information indicating the surrounding environment of the vehicle 1.
  • the processor may be configured to develop a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
  • the computer system may be configured by a non-Von Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). Further, the computer system may be composed of a combination of a von Neumann computer and a non-Von Neumann computer.
  • a non-Von Neumann computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
  • the computer system may be composed of a combination of a von Neumann computer and a non-Von Neumann computer.
  • the sensor 5 includes at least one of an acceleration sensor, a speed sensor and a gyro sensor.
  • the sensor 5 is configured to detect the traveling state of the vehicle 1 and output the traveling state information to the vehicle control unit 3.
  • the sensor 5 includes a seating sensor that detects whether the driver is sitting in the driver's seat, a face orientation sensor that detects the direction of the driver's face, an external weather sensor that detects the external weather condition, and whether or not there is a person in the vehicle.
  • a motion sensor or the like for detection may be further provided.
  • the camera 6 is, for example, a camera including an image pickup device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS).
  • the camera 6 includes one or more external cameras 6A and an internal camera 6B.
  • the external camera 6A is configured to acquire image data indicating the surrounding environment of the vehicle 1 and then transmit the image data to the vehicle control unit 3.
  • the vehicle control unit 3 acquires surrounding environment information based on the transmitted image data.
  • the surrounding environment information may include information on an object (pedestrian, other vehicle, sign, etc.) existing outside the vehicle 1.
  • the surrounding environment information may include information on the attributes of the object existing outside the vehicle 1 and information on the distance and position of the object with respect to the vehicle 1.
  • the external camera 6A may be configured as a monocular camera or a stereo camera.
  • the internal camera 6B is arranged inside the vehicle 1 and is configured to acquire image data indicating an occupant.
  • the internal camera 6B functions as, for example, an eye tracking camera that tracks the occupant's viewpoint E (described later in FIG. 2).
  • the internal camera 6B is provided, for example, in the vicinity of the rear-view mirror or inside the instrument panel.
  • the radar 7 includes at least one of a millimeter wave radar, a microwave radar, and a laser radar (for example, a LiDAR unit).
  • the LiDAR unit is configured to detect the surrounding environment of the vehicle 1.
  • the LiDAR unit is configured to acquire 3D mapping data (point cloud data) indicating the surrounding environment of the vehicle 1 and then transmit the 3D mapping data to the vehicle control unit 3.
  • the vehicle control unit 3 identifies the surrounding environment information based on the transmitted 3D mapping data.
  • the HMI 8 is composed of an input unit that receives an input operation from the driver and an output unit that outputs driving information and the like to the driver.
  • the input unit includes a steering wheel, an accelerator pedal, a brake pedal, an operation mode changeover switch for switching the operation mode of the vehicle 1, and the like.
  • the output unit is a display (excluding the HUD) that displays various driving information.
  • the GPS 9 is configured to acquire the current position information of the vehicle 1 and output the acquired current position information to the vehicle control unit 3.
  • the wireless communication unit 10 receives information about another vehicle around the vehicle 1 (for example, driving information) from the other vehicle, and transmits information about the vehicle 1 (for example, driving information) to the other vehicle. It is configured (vehicle-to-vehicle communication). Further, the wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as traffic lights and indicator lights and to transmit traveling information of the vehicle 1 to the infrastructure equipment (road-to-vehicle communication). Further, the wireless communication unit 10 receives information about the pedestrian from the portable electronic device (smartphone, tablet, wearable device, etc.) carried by the pedestrian, and transmits the own vehicle traveling information of the vehicle 1 to the portable electronic device. It is configured to do (pedestrian-to-vehicle communication).
  • the vehicle 1 may directly communicate with another vehicle, infrastructure equipment, or a portable electronic device in an ad hoc mode, or may communicate via an access point. Further, the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device via a communication network (not shown).
  • the communication network includes at least one of the Internet, a local area network (LAN), a wide area network (WAN) and a radio access network (RAN).
  • the wireless communication standard is, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), LPWA, DSRC (registered trademark) or Li-Fi.
  • the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device by using a fifth generation mobile communication system (5G).
  • 5G fifth generation mobile communication system
  • the storage device 11 is an external storage device such as a hard disk drive (HDD) or SSD (Solid State Drive).
  • the storage device 11 may store two-dimensional or three-dimensional map information and / or a vehicle control program.
  • the three-dimensional map information may be composed of 3D mapping data (point cloud data).
  • the storage device 11 is configured to output map information and a vehicle control program to the vehicle control unit 3 in response to a request from the vehicle control unit 3.
  • the map information and the vehicle control program may be updated via the wireless communication unit 10 and the communication network.
  • the vehicle control unit 3 When the vehicle 1 travels in the automatic driving mode, the vehicle control unit 3 has at least one of the steering control signal, the accelerator control signal, and the brake control signal based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like. Generate one automatically.
  • the steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal.
  • the brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal.
  • the accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and control the accelerator device 17 based on the received accelerator control signal.
  • the vehicle control unit 3 automatically controls the travel of the vehicle 1 based on the travel state information, the surrounding environment information, the current position information, the map information, and the like. That is, in the automatic driving mode, the traveling of the vehicle 1 is automatically controlled by the vehicle system 2.
  • the vehicle control unit 3 when the vehicle 1 travels in the manual operation mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal, and a brake control signal according to the manual operation of the driver with respect to the accelerator pedal, the brake pedal, and the steering wheel.
  • the steering control signal, the accelerator control signal, and the brake control signal are generated by the manual operation of the driver, so that the traveling of the vehicle 1 is controlled by the driver.
  • the operation mode consists of an automatic operation mode and a manual operation mode.
  • the automatic driving mode includes, for example, a fully automatic driving mode, an advanced driving support mode, and a driving support mode.
  • the vehicle system 2 automatically performs all driving controls such as steering control, brake control, and accelerator control, and the driver is not in a state where the vehicle 1 can be driven.
  • the vehicle system 2 automatically performs all driving controls of steering control, brake control, and accelerator control, and the driver is in a state where the vehicle 1 can be driven but does not drive the vehicle 1.
  • the driving support mode the vehicle system 2 automatically performs some driving control among steering control, brake control, and accelerator control, and the driver drives the vehicle 1 under the driving support of the vehicle system 2.
  • the manual driving mode the vehicle system 2 does not automatically control the driving, and the driver drives the vehicle 1 without the driving support of the vehicle system 2.
  • the HUD 20 directs the HUD information to the occupants of the vehicle 1 so that predetermined information (hereinafter referred to as HUD information) is superimposed on the real space outside the vehicle 1 (particularly, the surrounding environment in front of the vehicle 1). It is configured to be displayed as an image.
  • the HUD information displayed by the HUD 20 is, for example, related to vehicle running information related to the running of the vehicle 1 and / or surrounding environment information related to the surrounding environment of the vehicle 1 (particularly, related to an object existing outside the vehicle 1). Information) etc.
  • the HUD 20 is an AR display that functions as a visual interface between the vehicle 1 and the occupants.
  • the HUD 20 includes an image generation device (PGU) 24 and a control unit 25.
  • the image generation device 24 is configured to emit light for generating a predetermined image displayed toward the occupant of the vehicle 1.
  • the image generation device 24 can emit light for generating a change image that changes depending on the situation of the vehicle 1, for example.
  • the control unit 25 controls the operation of each unit of the HUD 20.
  • the control unit 25 is connected to the vehicle control unit 3, and is a control signal for controlling the operation of the image generation device 24 based on, for example, vehicle travel information and surrounding environment information transmitted from the vehicle control unit 3. Is generated, and the generated control signal is transmitted to the image generation device 24.
  • the control unit 25 is equipped with a processor such as a CPU and a memory, and the processor executes a computer program read from the memory to control the operation of the image generator 24 and the like.
  • the vehicle control unit 3 and the control unit 25 are provided as separate configurations, but the vehicle control unit 3 and the control unit 25 may be integrally configured.
  • the vehicle control unit 3 and the control unit 25 may be configured by a single electronic control unit.
  • FIG. 2 is a schematic view of the HUD 20 as viewed from the side surface side of the vehicle 1.
  • the HUD 20 has at least a part of the HUD 20 located inside the vehicle 1.
  • the HUD 20 is installed at a predetermined position in the room of the vehicle 1.
  • the HUD 20 may be located within the dashboard of vehicle 1.
  • the HUD 20 includes a HUD main body 21.
  • the HUD main body 21 has a main body housing 22 and an exit window 23.
  • the emission window 23 is made of a transparent plate that allows visible light to pass through.
  • the HUD main body portion 21 has an image generation device 24, a concave mirror 26 (an example of a reflection portion), and a plane mirror 28 inside the main body housing 22.
  • the control unit 25 of the HUD 20 is housed in the image generation device 24 in this embodiment.
  • the image generator 24 is installed in the main body housing 22 so as to emit light upward.
  • the plane mirror 28 is arranged on the optical path of the light emitted from the image generation device 24. Specifically, the plane mirror 28 is arranged above the image generation device 24, and is configured to reflect the light emitted from the image generation device 24 toward the concave mirror 26.
  • the concave mirror 26 is arranged on the optical path of the light emitted from the image generator 24 and reflected by the plane mirror 28. Specifically, the concave mirror 26 is arranged in the main body housing 22 on the front side of the image generator 24 and the plane mirror 28. The concave mirror 26 is configured to reflect the light emitted from the image generator 24 toward the windshield 18 (for example, the front window of the vehicle 1).
  • the concave mirror 26 has a reflecting surface curved in a concave shape in order to form a predetermined image, and reflects an image of light emitted from the image generation device 24 and formed at a predetermined magnification.
  • the concave mirror 26 may have, for example, a drive mechanism 27, and may be configured to be able to change the position and orientation of the concave mirror 26 based on a control signal transmitted from the control unit 25.
  • the light emitted from the image generator 24 is reflected by the plane mirror 28 and the concave mirror 26 and emitted from the exit window 23 of the HUD main body 21.
  • the light emitted from the exit window 23 of the HUD main body 21 is applied to the windshield 18.
  • a part of the light emitted from the exit window 23 to the windshield 18 is reflected toward the occupant's viewpoint E.
  • the occupant recognizes the light emitted from the HUD main body 21 as a virtual image (predetermined image) formed at a predetermined distance in front of the windshield 18.
  • the occupant can see the virtual image object I formed by the predetermined image on the road located outside the vehicle. It can be visually recognized as if it were floating.
  • the occupant's viewpoint E may be either the occupant's left eye viewpoint or the right eye viewpoint.
  • the viewpoint E may be defined as the midpoint of a line segment connecting the viewpoint of the left eye and the viewpoint of the right eye.
  • the position of the occupant's viewpoint E is specified, for example, based on the image data acquired by the internal camera 6B.
  • the position of the viewpoint E of the occupant may be updated at a predetermined cycle, or may be determined only once when the vehicle 1 is started.
  • a predetermined image is projected so as to be a virtual image of a single distance arbitrarily determined.
  • a 3D image stereo image
  • a plurality of predetermined images that are the same as or different from each other are projected so as to be virtual images at different distances.
  • the distance of the virtual image object I (distance from the viewpoint E of the occupant to the virtual image) adjusts the distance from the image generation device 24 to the viewpoint E of the occupant (for example, the distance between the image generation device 24 and the concave mirror 26). It can be adjusted as appropriate by adjusting).
  • FIG. 3 is a perspective view of the image generation device 24A.
  • FIG. 4 is a sectional view taken along line IV-IV of FIG.
  • the display device 130 is shown by an alternate long and short dashed line to indicate the lens 120 in the PGU housing 160.
  • the image generation device 24A includes a light source substrate 110, a lens 120, and a display device 130.
  • a light source 111 (first light source 111A, second light source 111B) is mounted on the light source substrate 110.
  • the lens 120 is arranged above the light source 111.
  • the display device 130 is arranged above the lens 120.
  • the image generator 24A further includes a lens holder 140A, a heat sink 150, and a PGU housing 160.
  • the lens holder 140A is arranged on the upper side of the light source substrate 110.
  • the heat sink 150 is arranged below the light source substrate 110.
  • the PGU housing 160 accommodates each part included in the image generator 24A.
  • the light source substrate 110, the lens 120, the lens holder 140A, and the heat sink 150 are screwed to the PGU housing 160, for example, with screws. Further, the display device 130 is attached to the upper surface portion of the PGU housing 160.
  • the light source 111 (first light source 111A, second light source 111B) is, for example, a laser light source or an LED light source.
  • the laser light source is, for example, an RGB laser light source configured to emit a red laser light, a green light laser light, and a blue laser light, respectively.
  • the first light source 111A and the second light source 111B are arranged on the light source substrate 110 at a distance of a certain distance in the left-right direction.
  • the light source substrate 110 is, for example, a printed circuit board made of an insulator in which wiring of an electric circuit is printed on the surface or inside of the plate.
  • the lens 120 is, for example, an aspherical convex lens in which both the incident surface 122 on which the light from the light source 111 is incident and the exit surface 123 on which the incident light is emitted are formed in a convex shape.
  • the lens 120 is configured to transmit the light emitted from the light source 111 and emit it toward the display device 130.
  • the lens 120 has a first region 121A and a second region 121B.
  • the first region 121A transmits the first light emitted from the first light source 111A.
  • the second region 121B transmits the second light emitted from the second light source 111B.
  • the first region 121A and the second region 121B are arranged in parallel in the left-right direction.
  • the first region 121A is, for example, an aspherical convex lens corresponding to the first light source 111A.
  • the second region 121B is, for example, an aspherical convex lens corresponding to the second light source 111B.
  • the incident surface 122A of the first region 121A and the incident surface 122B of the second region 121B are convex incident surfaces slightly bulging downward.
  • the exit surface 123A of the first region 121A and the exit surface 123B of the second region 121B are convex exit surfaces that bulge upward.
  • the right part of the first region 121A arranged on the left side and the left part of the second region 121B arranged on the right side are combined.
  • the boundary between the first region 121A and the second region 121B and the portion B including the periphery thereof (hereinafter referred to as the boundary portion B) are surrounded by a alternate long and short dash line.
  • the display device 130 is a liquid crystal display, a DMD (Digital Mirror Device), or the like.
  • the display device 130 forms light for generating a predetermined image by the light of the light source 111 transmitted through the lens 120.
  • the display device 130 is attached to the upper surface of the PGU housing 160 with the light emitting surface for emitting light for generating an image facing upward of the image generating device 24A.
  • the display device 130 is attached to the PGU housing 160 from the upper surface side of the PGU housing 160, for example.
  • the drawing method of the image generation device 24A may be a raster scan method, a DLP method, or an LCOS method.
  • the light source 111 of the image generation device 24A may be an LED light source.
  • the light source 111 of the image generation device 24A may be a white LED light source.
  • the lens holder 140A holds the lens 120 in the PGU housing 160 so that the light emitted from the light source 111 is correctly incident on the incident surface 122 of the lens 120.
  • the center of the light emitting surface of the first light source 111A is different from the focal position of the first region 121A, and the center of the light emitting surface of the second light source 111B is different from the focal position of the second region 121B. It is attached to the lens holder 140A.
  • the heat sink 150 is made of aluminum or copper having high thermal conductivity.
  • the heat sink 150 is provided so as to come into contact with the back surface of the light source substrate 110 in order to dissipate heat generated from the light source substrate 110.
  • the lens holder is such that the center of the light emitting surface of the first light source 111A is the focal position of the first region 121A and the center of the light emitting surface of the second light source 111B is the focal position of the second region 121B.
  • the light emitted from the first light source 111A is incident on the incident surface 122A of the lens 120.
  • the shape of the lens 120 is a shape in which two aspherical convex lenses are connected in parallel in the same manner as the image generation device 24A described above. Therefore, most of the light emitted from the first light source 111A is incident on the first region 121A of the lens 120, as shown in, for example, the first optical path 112A, and becomes light parallel to the optical axis 115A of the first light source 111A. And incident on the display device 130. Similarly, the light emitted from the second light source 111B is incident on the incident surface 122B of the lens 120. Most of the light emitted from the second light source 111B is incident on the second region 121B, becomes light parallel to the optical axis 115B of the second light source 111B, and is incident on the display device 130.
  • the boundary portion B between the first region 121A and the second region 121B on the emission surface 123 may be formed by being recessed in a curved surface shape.
  • the light emitted from the first light source 111A and reaching the boundary portion B is internally reflected in the lens 120, and the light parallel to the optical axis 115A as shown in the second optical path 112B is emitted from the lens 120.
  • the light emitted from the second light source 111B and reaching the boundary portion B is internally reflected in the lens 120, and the light parallel to the optical axis 115B is not emitted from the lens 120. That is, the region R of the display device 130 illuminated by the light emitted from the boundary portion B of the lens 120 may not be illuminated by the light emitted from the lens 120.
  • the center of the light emitting surface of the first light source 111A is different from the focal position of the first region 121A, and the center of the light emitting surface of the second light source 111B is different. It is attached to the lens holder 140A so as to be different from the focal position of the second region 121B.
  • the distance between the light source 111 and the lens 120 in the direction of the optical axis 115 is the light source in the direction of the optical axis 115 of the image generation device 24Z.
  • the lens holder 140A is formed so that its thickness TA is smaller than the thickness TZ (see FIG. 5) of the lens holder 140Z of the image generator 24Z. ..
  • the lens holder 140A is formed so that the thickness TA is 0.5 mm smaller than the thickness TZ of the lens holder 140Z.
  • the light incident on the first region 121A of the lens 120 and reaching the vicinity of the boundary portion B of the emission surface 123A is parallel to the optical axis 115A of the first light source 111A as shown by the third light path 112C in FIG. It becomes light that is not, and is incident on the region R of the display device 130.
  • the light incident on the second region 121B of the lens 120 and reaching the vicinity of the boundary portion B of the emission surface 123B becomes light that is not parallel to the optical axis 115B of the second light source 111B and becomes the region of the display device 130. It is incident on R.
  • the region R of the display device 130 emitted from the first light source 111A and the second light source 111B and irradiated with the light emitted from the boundary portion B of the emission surface 123 of the lens 120 is the boundary portion B of the emission surface 123. It is illuminated by light emitted from a region located in the vicinity.
  • the emission surface 123 of the lens 120 is emitted from the first light source 111A in the vicinity of the boundary portion B between the first region 121A and the second region 121B.
  • the light emitted is emitted as light not parallel to the optical axis 115A of the first light source 111A
  • the light emitted from the second light source 111B is emitted as light not parallel to the optical axis 115B of the second light source 111B. It has an emission area.
  • the region R of the display device 130 irradiated by the light emitted from the boundary portion B of the emission surface 123 of the lens 120 is irradiated by the light emitted from the vicinity of the boundary portion B of the lens 120. Will be done. Therefore, even if light is not emitted from the boundary portion B formed by being recessed in a curved surface due to manufacturing conditions, processing conditions, etc., it is possible to suppress that a part of the image-generating region of the display device 130 is not irradiated with light. can.
  • the center of the light emitting surface of the first light source 111A is different from the focal position of the first region 121A
  • the center of the light emitting surface of the second light source 111B is different from the focal position of the second region 121B. It is attached to the lens holder 140A. That is, the lens holder 140A adjusts the distance between the light source 111 and the lens 120 in the direction of the optical axis 115. According to such a configuration, it is possible to suppress that a part of the image-generating region of the display device 130 is not irradiated with light by a simple configuration.
  • the image generator 24A is configured to reduce the thickness of the lens holder 140A so that the distance between the light source 111 and the lens 120 in the optical axis 115 direction is shortened.
  • the image generation device 24A may be configured to increase the thickness of the lens holder 140A so that the distance between the light source 111 and the lens 120 in the optical axis 115 direction becomes long. Even in this case, the center of the light emitting surface of the first light source 111A is different from the focal position of the first region 121A of the lens 120, and the center of the light emitting surface of the second light source 111B is different from the focal position of the second region 121B of the lens 120.
  • the emission surface 123 of the lens 120 has a non-parallel light emission region. Further, the distance between the light source 111 and the lens 120 in the optical axis 115 direction may be adjusted by adjusting the thickness of the other member in addition to or changing the thickness of the lens holder 140A.
  • FIG. 7 is a cross-sectional view of the image generator 24B.
  • the distance between the light source 111 and the lens 120 in the optical axis 115 direction is adjusted by the lens holder 140A, so that a non-parallel light emission region is formed on the emission surface 123 of the lens 120. It is formed.
  • a non-parallel light emission region is formed on the emission surface 223 by changing the radius of curvature of the emission surface 223 of the lens 220.
  • the lens 220 is, for example, an aspherical convex lens in which both the incident surface 222 on which the light from the light source 111 is incident and the exit surface 223 on which the incident light is emitted are formed in a convex shape.
  • the lens 220 is configured to transmit the light emitted from the light source 111 and emit it toward the display device 130.
  • the lens 220 has a first region 221A and a second region 221B.
  • the first region 221A transmits the first light emitted from the first light source 111A.
  • the second region 221B transmits the second light emitted from the second light source 111B.
  • the first region 221A and the second region 221B are arranged in parallel in the left-right direction.
  • the first region 221A is, for example, an aspherical convex lens corresponding to the first light source 111A.
  • the second region 221B is, for example, an aspherical convex lens corresponding to the second light source 111B.
  • the incident surface 222A of the first region 221A and the incident surface 222B of the second region 221B are convex incident surfaces slightly bulging downward.
  • the exit surface 223A of the first region 221A and the exit surface 223B of the second region 221B are convex exit surfaces bulging upward.
  • the right part of the first region 221A arranged on the left side and the left part of the second region 221B arranged on the right side are combined.
  • the lens 220 is attached to the lens holder 140 so that the center of the light emitting surface of the first light source 111A is the focal position of the first region 221A and the center of the light emitting surface of the second light source 111B is the focal position of the second region 221B. ing.
  • the first region 221A is formed so that the radius of curvature of the exit surface 223A in the vicinity of the boundary portion B changes in the direction in which the first region 221A and the second region 221B are parallel to each other (left-right direction in FIG. 7).
  • the second region 121B is formed so that the radius of curvature of the exit surface 223B in the vicinity of the boundary portion B changes in the direction in which the first region 221A and the second region 221B are parallel to each other.
  • the radius of curvature of the emission surface 223A in the region C located near the boundary portion B gradually increases toward the second region 221B (to the right in FIG. 7) (in a gentle curve). It has become).
  • the radius of curvature of the emission surface 223B in the region C located in the vicinity of the boundary portion B gradually increases in the direction of the first region 221A (to the left in FIG. 7) (becomes a gentle curve). There).
  • the light emitted from the first light source 111A is incident on the incident surface 222A of the lens 220. Most of the light emitted from the first light source 111A is incident on the first region 221A of the lens 220 as shown in, for example, the fourth optical path 112D, and is displayed as light parallel to the optical axis 115A of the first light source 111A. It is incident on the device 130. Similarly, the light emitted from the second light source 111B is incident on the incident surface 222B of the lens 220. Most of the light emitted from the second light source 111B is incident on the second region 221B, becomes light parallel to the optical axis 115B of the second light source 111B, and is incident on the display device 130.
  • the light incident on the first region 221A of the lens 220 and reaching the region C near the boundary portion B of the emission surface 223A is parallel to the optical axis 115A of the first light source 111A as shown by the fifth light path 112E. It becomes light that is not, and is incident on the region R of the display device 130.
  • the light incident on the second region 221B of the lens 220 and reaching the region C near the boundary portion B of the emission surface 223B is displayed as light not parallel to the optical axis 115B of the second light source 111B. It is incident on the region R of the device 130.
  • the region R of the display device 130 emitted from the first light source 111A and the second light source 111B and irradiated with the light emitted from the boundary portion B of the emission surface 223 of the lens 220 is the boundary portion B of the emission surface 223. It is illuminated by light emitted from a region located in the vicinity.
  • the radius of curvature of the emission surface 223 is the first region 221A and the second region 221A in the vicinity of the boundary portion B between the first region 221A and the second region 221B.
  • the two regions 221B are formed so as to change in the direction in which they are arranged in parallel. That is, the region C in which the radius of curvature changes on the emission surface 223 of the lens 220 is a non-parallel light emission region emitted as light that is not parallel to the optical axis 115.
  • the boundary portion B is formed in the region R of the display device 130 corresponding to the boundary portion B. It is possible to irradiate the light emitted from the vicinity of. Therefore, it is possible to prevent the light from being irradiated to a part of the image-generating region of the display device 130 by simple processing.
  • the radius of curvature of the exit surface 223A gradually increases toward the second region 221B, and the radius of curvature of the exit surface 223B gradually increases toward the first region 221A. ..
  • the radius of curvature of the exit surface 223A may gradually decrease toward the second region 221B, and the radius of curvature of the exit surface 223B may gradually decrease toward the first region 221A.
  • the radius of curvature of the emission surface 223 of the lens 220 in the non-parallel light emission region changes in the direction in which the first region 221A and the second region 221B are parallel to each other.
  • the lens 220 is formed so that the radius of curvature of the emission surface 223 in the non-parallel light emission region further changes in the direction along the boundary line between the first region 221A and the second region 221B (front-back direction in FIG. 3). You may.
  • the distance between the light source 111 and the lens 220 in the direction of the optical axis 115 may be adjusted by the lens holder 140 as in the configuration of the first embodiment. That is, the lens 220 has a lens holder so that the center of the light emitting surface of the first light source 111A is different from the focal position of the first region 121A and the center of the light emitting surface of the second light source 111B is different from the focal position of the second region 121B. It may be attached to 140.
  • FIG. 8 is a cross-sectional view of the image generator 24C.
  • the emission surface 323 of the lens 320 is wave-processed to form a non-parallel light emission region on the emission surface 323.
  • the lens 320 is, for example, an aspherical convex lens in which both the incident surface 322 on which the light from the light source 111 is incident and the exit surface 323 on which the incident light is emitted are formed in a convex shape.
  • the lens 320 is configured to transmit the light emitted from the light source 111 and emit it toward the display device 130.
  • the lens 320 has a first region 321A and a second region 321B.
  • the first region 321A transmits the first light emitted from the first light source 111A.
  • the second region 321B transmits the second light emitted from the second light source 111B.
  • the first region 321A and the second region 321B are arranged in parallel in the left-right direction.
  • the first region 321A is, for example, an aspherical convex lens corresponding to the first light source 111A.
  • the second region 321B is, for example, an aspherical convex lens corresponding to the second light source 111B.
  • the incident surface 322A of the first region 321A and the incident surface 322B of the second region 321B are convex incident surfaces slightly bulging downward.
  • the exit surface 323A of the first region 321A and the exit surface 323B of the second region 321B are convex exit surfaces bulging upward.
  • a part of the right side of the first region 321A arranged on the left side and a part of the left side of the second region 321B arranged on the right side are combined.
  • the center of the light emitting surface of the first light source 111A is the focal position of the first region 321A
  • the center of the light emitting surface of the second light source 111B is the focal position of the second region 321B.
  • the emission surface 323A of the first region 321A is wave-processed W.
  • the emission surface 323B of the second region 321B is subjected to wave processing W.
  • the light emitted from the first light source 111A is incident on the incident surface 322A of the lens 320. Most of the light emitted from the first light source 111A is incident on the first region 321A of the lens 320 as shown in, for example, the sixth optical path 112F, and is displayed as light parallel to the optical axis 115A of the first light source 111A. It is incident on the device 130. Similarly, the light emitted from the second light source 111B is incident on the incident surface 322B of the lens 320. Most of the light emitted from the second light source 111B is incident on the second region 321B, becomes light parallel to the optical axis 115B of the second light source 111B, and is incident on the display device 130.
  • the light incident on the first region 121A of the lens 320 and reaching the vicinity of the boundary portion B of the emission surface 323A is not parallel to the optical axis 115A of the first light source 111A as shown by the seventh optical path 112G. Then, it is incident on the region R of the display device 130.
  • the light incident on the second region 321B of the lens 320 and reaching the vicinity of the boundary portion B of the emission surface 323B becomes light not parallel to the optical axis 115B of the second light source 111B and becomes the region of the display device 130. It is incident on R.
  • the region R of the display device 130 emitted from the first light source 111A and the second light source 111B and irradiated with the light emitted from the boundary portion B of the emission surface 323 of the lens 320 is the boundary portion B of the emission surface 323. It is illuminated by light emitted from a region located in the vicinity.
  • the emission surface 323 of the lens 320 of the image generation device 24C according to the third embodiment is wave-processed W in the vicinity of the boundary portion B between the first region 321A and the second region 321B. That is, the region of the emission surface 323 of the lens 320 that has been wave-processed W is a non-parallel light emission region that is emitted as light that is not parallel to the optical axis 115.
  • the boundary portion B is formed in the region R of the display device 130 corresponding to the boundary portion B. It is possible to irradiate the light emitted from the vicinity of. Therefore, it is possible to prevent the light from being irradiated to a part of the image-generating region of the display device 130 by simple processing.
  • the distance between the light source 111 and the lens 320 in the direction of the optical axis 115 may be adjusted by the lens holder 140 as in the configuration of the first embodiment. That is, the lens 320 has a lens holder so that the center of the light emitting surface of the first light source 111A is different from the focal position of the first region 321A and the center of the light emitting surface of the second light source 111B is different from the focal position of the second region 321B. It may be attached to 140.
  • the lenses 120, 220, and 320 have a convex surface shape on both the incident surface 122, 222, 322 on which the light from the light source 111 is incident and the exit surface 123, 223, and 323 on which the incident light is emitted. It is an aspherical convex lens formed in.
  • the lenses 120, 220, and 320 may be aspherical concave lenses formed in a concave shape that emits parallel light. That is, the first region 121A, 221A, 321A and the second region 121B, 221B, 321B may be an aspherical concave lens instead of the aspherical convex lens.
  • the lenses 120, 220, and 320 have the same configuration as the first region and the second region, and the third region and the fourth region. It may have an area.
  • the third region and the fourth region are arranged in parallel with, for example, the first region and the second region, respectively.
  • the light source 111 includes a first light source 111A and a second light source 111B.
  • the light source 111 may have three or more light sources.
  • the light source 111 includes four light sources arranged in parallel in a direction in which the first region and the second region are arranged in parallel (horizontal direction in the figure), and three light sources arranged in parallel in a direction orthogonal to the direction. I can prepare.
  • the light emitted from the image generator 24 is configured to be reflected by the concave mirror 26 and irradiated to the windshield 18, but the present invention is not limited to this.
  • the light reflected by the concave mirror 26 may be applied to a combiner (not shown) provided inside the windshield 18.
  • the combiner is composed of, for example, a transparent plastic disc. A part of the light emitted from the image generator 24 of the HUD main body 21 to the combiner is reflected toward the viewpoint E of the occupant as in the case of irradiating the windshield 18 with light.
  • the vehicle driving mode has been described as including a fully automated driving mode, an advanced driving support mode, a driving support mode, and a manual driving mode. It should not be limited to one mode.
  • the driving mode of the vehicle may include at least one of these four modes. For example, only one of the driving modes of the vehicle may be executable.
  • the classification and display form of the driving mode of the vehicle may be appropriately changed in accordance with the laws and regulations related to automatic driving in each country.
  • the definitions of "fully automatic driving mode”, “advanced driving support mode”, and “driving support mode” described in the description of this embodiment are merely examples, and the laws and regulations related to automatic driving in each country or In line with the rules, these definitions may be changed accordingly.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)

Abstract

レンズ(120)は、第一光源(111A)からの第一光を透過する第一領域(121A)と、第一領域(121A)と並列結合されて第二光源(111B)からの第二光を透過する第二領域(121B)とから構成されている。レンズ(120)の出射面(123)は、第一光源(111A)から出射された光が第一光源(111A)の光軸に平行ではない光として出射され、第二光源(111B)から出射された光が第二光源(111B)の光軸に平行ではない光として出射される非平行光出射領域を有している。非平行光出射領域は、第一領域(121A)と第二領域(121B)の境界部分(B)の近傍に位置する。

Description

画像生成装置及びヘッドアップディスプレイ
 本開示は、画像生成装置及び当該画像生成装置を備えたヘッドアップディスプレイに関する。
 特許文献1は、光源部と被走査面素子を備えるヘッドアップディスプレイを開示している。光源部からの光により被走査面素子が走査されて、被走査面素子から画像を構成する光が出射される。
日本国特許出願公開2019-56923号公報
 ところで、上記のようなヘッドアップディスプレイにおいて、光源部からの光を被走査面素子である表示デバイスに照射する構造には改善の余地がある。
 本開示は、表示デバイスの画像生成可能領域の一部に光が照射されないことを抑制する画像生成装置及び当該画像生成装置を備えたヘッドアップディスプレイを提供することを目的とする。
 本開示の一側面に係る画像生成装置は、
 ヘッドアップディスプレイ用の画像を生成する画像生成装置であって、
 第一光源と、
 前記第一光源とは一定距離だけ離隔して配置された第二光源と、
 前記第一光源及び前記第二光源から出射された光を透過するレンズと、
 前記レンズを透過した光により前記画像を生成するための光を形成する表示デバイスと、を備え、
 前記レンズは、前記第一光源からの第一光を透過する第一領域と、前記第一領域と並列結合されて前記第二光源からの第二光を透過する第二領域とから構成され、
 前記レンズの出射面は、前記第一光源から出射された光が前記第一光源の光軸に平行ではない光として出射され、前記第二光源から出射された光が前記第二光源の光軸に平行ではない光として出射される非平行光出射領域を有しており、
 前記非平行光出射領域は、前記第一領域と前記第二領域の境界部分の近傍に位置する。
 複数のレンズが並列結合されることにより第一領域と第二領域とから構成されるレンズが形成される場合、製造条件または加工条件などにより、レンズの出射面における第一領域と第二領域の境界部分が曲面状に凹んで形成されることがある。第一光源および第二光源から出射されて当該境界部分に到達する光は、レンズ内で内反射されてレンズから出射されない恐れがある。上記構成の画像生成装置によれば、第一光源からの光は、レンズの第一領域における第二領域との境界部分の近傍を通過する際に、第一領域の光軸に平行ではない光として出射される。また、第二光源からの光は、レンズの第二領域における第一領域との境界部分の近傍を通過する際に、第二領域の光軸に平行ではない光として出射される。これにより、レンズの出射面の境界部分から出射される光により照射される表示デバイスの領域は、レンズの出射面の境界部分の近傍から出射された光により照射される。したがって、製造条件や加工条件などによりレンズの出射面の境界部分が曲面状に凹んで形成されたとしても、表示デバイスの画像生成可能領域の一部に光が照射されないことを抑制することができる。
 また、本開示の一側面に係るヘッドアップディスプレイは、
 上記の画像生成装置と、
 前記画像生成装置により出射された光がウインドシールドまたはコンバイナへ照射されるように、前記光を反射させる少なくとも一つの反射部と、を備えている。
 上記構成によれば、表示デバイスの画像生成可能領域の一部に光が照射されないことを抑制することができる。
 本開示によれば、表示デバイスの画像生成可能領域の一部に光が照射されないことを抑制する画像生成装置及び当該画像生成装置を備えたヘッドアップディスプレイを提供することができる。
本実施形態に係るヘッドアップディスプレイ(HUD)を備えた車両システムのブロック図である。 HUDの構成を示す模式図である。 第一実施形態に係る画像生成装置の構成を示す斜視図である。 図3のIV-IV線断面図である。 光源の発光面中心がレンズの焦点位置となる画像生成装置の断面図である。 第一実施形態に係る画像生成装置の光路図を示す断面図である。 第二実施形態に係る画像生成装置の構成を示す断面図である。 第三実施形態に係る画像生成装置の構成を示す断面図である。
 以下、本開示の実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 また、本実施形態の説明では、説明の便宜上、「左右方向」、「上下方向」、「前後方向」について適宜言及する場合がある。これらの方向は、図2に示すHUD(Head-Up Display)20について設定された相対的な方向である。ここで、「左右方向」は、「左方向」および「右方向」を含む方向である。「上下方向」は、「上方向」および「下方向」を含む方向である。「前後方向」は、「前方向」および「後方向」を含む方向である。左右方向は、図2では示されていないが、上下方向および前後方向に直交する方向である。
 図1を参照して、本実施形態に係るHUD20を備える車両システム2について以下に説明する。図1は、車両システム2のブロック図である。当該車両システム2が搭載された車両1は、自動運転モードで走行可能な車両(自動車)である。
 図1に示すように、車両システム2は、車両制御部3と、センサ5と、カメラ6と、レーダ7と、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11とを備える。また、車両システム2は、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。さらに、車両システム2は、HUD20を備える。
 車両制御部3は、車両1の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサおよびメモリを備えるコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子および抵抗等のパッシブ素子から構成される電子回路とを含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、およびTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)とを含む。ROMには、車両制御プログラムが記憶されてもよい。例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有りまたは教師なし機械学習(特に、ディープラーニング)によって構築されたプログラム(学習済みモデル)である。RAMには、車両制御プログラム、車両制御データ及び/又は車両1の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。
 センサ5は、加速度センサ、速度センサおよびジャイロセンサのうち少なくとも一つを含む。センサ5は、車両1の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサおよび車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。
 カメラ6は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6は、一以上の外部カメラ6Aと、内部カメラ6Bとを含む。
 外部カメラ6Aは、車両1の周辺環境を示す画像データを取得した上で、当該画像データを車両制御部3に送信するように構成されている。車両制御部3は、送信された画像データに基づいて、周辺環境情報を取得する。ここで、周辺環境情報は、車両1の外部に存在する対象物(歩行者、他車両、標識等)に関する情報を含んでもよい。例えば、周辺環境情報は、車両1の外部に存在する対象物の属性に関する情報と、車両1に対する対象物の距離や位置に関する情報とを含んでもよい。外部カメラ6Aは、単眼カメラとして構成されてもよいし、ステレオカメラとして構成されてもよい。
 内部カメラ6Bは、車両1の内部に配置されると共に、乗員を示す画像データを取得するように構成されている。内部カメラ6Bは、例えば、乗員の視点E(図2で後述する)をトラッキングするアイトラッキングカメラとして機能する。内部カメラ6Bは、例えば、ルームミラーの近傍、あるいはインストルメントパネルの内部等に設けられている。
 レーダ7は、ミリ波レーダ、マイクロ波レーダ、およびレーザーレーダ(例えば、LiDARユニット)のうちの少なくとも一つを含む。例えば、LiDARユニットは、車両1の周辺環境を検出するように構成されている。特に、LiDARユニットは、車両1の周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを車両制御部3に送信するように構成されている。車両制御部3は、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。
 HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両1の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイ(HUDを除く)である。
 GPS9は、車両1の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。
 無線通信部10は、車両1の周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両1に関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部10は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両1の自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両1は、他車両、インフラ設備または携帯型電子機器との間をアドホックモードにより直接通信してもよいし、アクセスポイントを介して通信してもよい。さらに、車両1は、図示しない通信ネットワークを介して他車両、インフラ設備または携帯型電子機器と通信してもよい。通信ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)および無線アクセスネットワーク(RAN)のうちの少なくとも一つを含む。無線通信規格は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)、LPWA、DSRC(登録商標)又はLi-Fiである。また、車両1は、他車両、インフラ設備または携帯型電子機器と第5世代移動通信システム(5G)を用いて通信してもよい。
 記憶装置11は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置11には、2次元または3次元の地図情報及び/又は車両制御プログラムが記憶されてもよい。例えば、3次元の地図情報は、3Dマッピングデータ(点群データ)によって構成されてもよい。記憶装置11は、車両制御部3からの要求に応じて、地図情報や車両制御プログラムを車両制御部3に出力するように構成されている。地図情報や車両制御プログラムは、無線通信部10と通信ネットワークを介して更新されてもよい。
 車両1が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号およびブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、車両1の走行を自動的に制御する。つまり、自動運転モードでは、車両1の走行は車両システム2により自動制御される。
 一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダルおよびステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号およびブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号およびブレーキ制御信号が運転者の手動操作によって生成されるので、車両1の走行は運転者により制御される。
 上述の通り、運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、例えば、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御およびアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御およびアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両1を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御およびアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両1を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2の運転支援なしに運転者が車両1を運転する。
 HUD20は、所定の情報(以下、HUD情報という。)が車両1の外部の現実空間(特に、車両1の前方の周辺環境)と重畳されるように、当該HUD情報を車両1の乗員に向け画像として表示するように構成されている。HUD20によって表示されるHUD情報は、例えば、車両1の走行に関連した車両走行情報及び/又は車両1の周辺環境に関連した周辺環境情報(特に、車両1の外部に存在する対象物に関連した情報)等である。HUD20は、車両1と乗員との間の視覚的インターフェースとして機能するARディスプレイである。
 HUD20は、画像生成装置(PGU)24と、制御部25とを備える。
 画像生成装置24は、車両1の乗員に向けて表示される所定の画像を生成するための光を出射するように構成されている。画像生成装置24は、例えば、車両1の状況に応じて変化する変化画像を生成するための光を出射可能である。
 制御部25は、HUD20の各部の動作を制御する。制御部25は、車両制御部3に接続されており、例えば、車両制御部3から送信される車両走行情報や周辺環境情報等に基づいて、画像生成装置24の動作を制御するための制御信号を生成し、生成された制御信号を画像生成装置24に送信する。制御部25は、CPU等のプロセッサとメモリが搭載され、メモリから読みだしたコンピュータプログラムをプロセッサが実行して、画像生成装置24等の動作を制御する。なお、本実施形態では、車両制御部3と制御部25とは別個の構成として設けられているが、車両制御部3と制御部25は一体的に構成されてもよい。例えば、車両制御部3と制御部25は、単一の電子制御ユニットにより構成されていてもよい。
 図2は、HUD20を車両1の側面側から見た模式図である。HUD20は、少なくともHUD20の一部が車両1の内部に位置する。具体的には、HUD20は、車両1の室内の所定箇所に設置されている。例えば、HUD20は、車両1のダッシュボード内に配置されてもよい。
 図2に示すように、HUD20は、HUD本体部21を備える。HUD本体部21は、本体ハウジング22と、出射窓23とを有する。出射窓23は可視光を透過させる透明板で構成されている。HUD本体部21は、本体ハウジング22の内部に、画像生成装置24と、凹面鏡26(反射部の一例)と、平面鏡28と、を有する。なお、HUD20の制御部25は、本実施形態では画像生成装置24内に収容されている。
 画像生成装置24は、本体ハウジング22内において、光を上方に出射するように設置されている。平面鏡28は、画像生成装置24から出射される光の光路上に配置されている。具体的には、平面鏡28は、画像生成装置24の上方に配置され、画像生成装置24から出射された光を凹面鏡26に向けて反射するように構成されている。
 凹面鏡26は、画像生成装置24から出射されて平面鏡28により反射された光の光路上に配置されている。具体的には、凹面鏡26は、本体ハウジング22内において、画像生成装置24及び平面鏡28の前側に配置されている。凹面鏡26は、画像生成装置24から出射された光をウインドシールド18(例えば、車両1のフロントウィンドウ)に向けて反射するように構成されている。凹面鏡26は、所定の画像を形成するために凹状に湾曲した反射面を有し、画像生成装置24から出射され結像された光の像を所定の倍率で反射させる。凹面鏡26は、例えば駆動機構27を有し、制御部25から送信される制御信号に基づいて凹面鏡26の位置及び向きを変化させることができるように構成されていてもよい。
 画像生成装置24から出射された光は、平面鏡28及び凹面鏡26で反射されてHUD本体部21の出射窓23から出射される。HUD本体部21の出射窓23から出射された光は、ウインドシールド18に照射される。出射窓23からウインドシールド18に照射された光の一部は、乗員の視点Eに向けて反射される。この結果、乗員は、HUD本体部21から出射された光をウインドシールド18の前方の所定の距離において形成される虚像(所定の画像)として認識する。このように、HUD20によって表示される画像がウインドシールド18を通して車両1の前方の現実空間に重畳される結果、乗員は、所定の画像により形成される虚像オブジェクトIが車両外部に位置する道路上に浮いているように視認することができる。
 ここで、乗員の視点Eは、乗員の左目の視点又は右目の視点のいずれかであってもよい。または、視点Eは、左目の視点と右目の視点を結んだ線分の中点として規定されてもよい。乗員の視点Eの位置は、例えば、内部カメラ6Bによって取得された画像データに基づいて特定される。乗員の視点Eの位置は、所定の周期で更新されてもよいし、車両1の起動時に一回だけ決定されてもよい。
 なお、虚像オブジェクトIとして2D画像(平面画像)を形成する場合には、所定の画像を任意に定めた単一距離の虚像となるように投影する。虚像オブジェクトIとして3D画像(立体画像)を形成する場合には、互いに同一または互いに異なる複数の所定の画像をそれぞれ異なる距離の虚像となるように投影する。また、虚像オブジェクトIの距離(乗員の視点Eから虚像までの距離)は、画像生成装置24から乗員の視点Eまでの距離を調整する(例えば画像生成装置24と凹面鏡26との間の距離を調整する)ことによって適宜調整可能である。
(第一実施形態)
 図3から図6を参照して、第一実施形態に係る画像生成装置24Aについて説明する。図3は、画像生成装置24Aの斜視図である。図4は、図3のIV-IV線断面図である。図3において、表示デバイス130は、PGUハウジング160内のレンズ120を示すために二点鎖線で示されている。
 図3及び図4に示すように、画像生成装置24Aは、光源基板110と、レンズ120と、表示デバイス130とを備える。光源基板110には、光源111(第一光源111A,第二光源111B)が搭載されている。レンズ120は、光源111の上側に配置される。表示デバイス130は、レンズ120の上側に配置される。画像生成装置24Aは、さらに、レンズホルダ140Aと、ヒートシンク150と、PGUハウジング160と、を備える。レンズホルダ140Aは、光源基板110の上側に配置される。ヒートシンク150は、光源基板110の下側に配置される。PGUハウジング160は、画像生成装置24Aが備える各部を収容する。光源基板110、レンズ120、レンズホルダ140A、及びヒートシンク150は、例えばネジによってPGUハウジング160にネジ止めされている。また、表示デバイス130は、PGUハウジング160の上面部に取り付けられている。
 光源111(第一光源111A,第二光源111B)は、例えば、レーザ光源またはLED光源である。レーザ光源は、例えば、赤色レーザ光と、緑光レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。第一光源111Aと第二光源111Bとは、光源基板110上において、左右方向に一定の距離だけ離隔して配置されている。光源基板110は、例えば、電気回路の配線が板の表面や内部にプリントされた絶縁体からなるプリント基板である。
 レンズ120は、例えば、光源111からの光が入射される入射面122及び当該入射した光が出射される出射面123のいずれも凸面状に形成された非球面凸レンズである。レンズ120は、光源111から出射された光を透過して表示デバイス130に向けて出射するように構成されている。
 レンズ120は、第一領域121Aと、第二領域121Bとを有する。第一領域121Aは、第一光源111Aから出射された第一光を透過する。第二領域121Bは、第二光源111Bから出射された第二光を透過する。第一領域121Aと第二領域121Bとは左右方向に並列配置されている。第一領域121Aは、例えば、第一光源111Aに対応した非球面凸レンズである。第二領域121Bは、例えば、第二光源111Bに対応した非球面凸レンズである。すなわち、第一領域121Aの入射面122A及び第二領域121Bの入射面122Bは、下方にやや膨らんだ凸状の入射面である。第一領域121Aの出射面123A及び第二領域121Bの出射面123Bは、上方に膨らんだ凸状の出射面である。左側に配置される第一領域121Aにおける右側の一部分と、右側に配置される第二領域121Bにおける左側の一部分とが結合されている。図3及び図4において、第一領域121Aと第二領域121Bの境界とその周囲を含む部分B(以下、境界部分Bと称する)は一点鎖線で囲まれている。
 表示デバイス130は、液晶ディスプレイ、DMD(Digital Mirror Device)等である。表示デバイス130は、レンズ120を透過した光源111の光により所定の画像を生成するための光を形成する。表示デバイス130は、画像を生成する光を出射するための光出射面を画像生成装置24Aの上方へ向けた状態でPGUハウジング160の上面部に取り付けられている。表示デバイス130は、例えば、PGUハウジング160の上面側からPGUハウジング160に取り付けられる。画像生成装置24Aの描画方式は、ラスタースキャン方式、DLP方式またはLCOS方式であってもよい。DLP方式またはLCOS方式が採用される場合、画像生成装置24Aの光源111はLED光源であってもよい。なお、液晶ディスプレイ方式が採用される場合、画像生成装置24Aの光源111は白色LED光源であってもよい。
 レンズホルダ140Aは、光源111から出射された光がレンズ120の入射面122に対して正しく入射されるようにレンズ120をPGUハウジング160内に保持する。
 第一実施形態に係るレンズ120は、第一光源111Aの発光面中心が第一領域121Aの焦点位置とは異なるとともに第二光源111Bの発光面中心が第二領域121Bの焦点位置とは異なるように、レンズホルダ140Aに取り付けられている。
 ヒートシンク150は、熱伝導性の高いアルミや銅などで形成されている。ヒートシンク150は、光源基板110から発生する熱を放熱するために、光源基板110の裏面に接触するように設けられている。
 図5は、レンズ120が、第一光源111Aの発光面中心が第一領域121Aの焦点位置となるとともに第二光源111Bの発光面中心が第二領域121Bの焦点位置となるように、レンズホルダ140Zに取り付けられている画像生成装置24Zを示す図である。図5では、第一光源111Aから出射された光の光路のみが示されている。
 画像生成装置24Zにおいて、第一光源111Aから出射された光は、レンズ120の入射面122Aに入射する。レンズ120の形状は、上述した画像生成装置24Aと同様に2個の非球面凸レンズを並列結合させた形状である。したがって、第一光源111Aから出射された光の多くは、例えば第一光路112Aに示すように、レンズ120の第一領域121Aに入射し、第一光源111Aの光軸115Aに平行な光となって表示デバイス130に入射する。同様に第二光源111Bから出射された光は、レンズ120の入射面122Bに入射する。第二光源111Bから出射された光の多くは、第二領域121Bに入射し、第二光源111Bの光軸115Bに平行な光となって表示デバイス130に入射する。
 ところが、レンズ120の製造条件または加工条件などにより、出射面123における第一領域121Aと第二領域121Bの境界部分Bが曲面状に凹んで形成されることがある。この場合、第一光源111Aから出射されて境界部分Bに到達する光は、レンズ120内で内反射されてしまい、第二光路112Bに示すような光軸115Aに平行な光がレンズ120から出射されない。同様に、第二光源111Bから出射されて境界部分Bに到達する光は、レンズ120内で内反射されてしまい、光軸115Bに平行な光がレンズ120から出射されない。すなわち、レンズ120の境界部分Bから出射される光により照射される表示デバイス130の領域Rは、レンズ120から出射される光により照射されないおそれがある。
 これに対して、第一実施形態に係る画像生成装置24Aでは、レンズ120は、第一光源111Aの発光面中心が第一領域121Aの焦点位置とは異なるとともに第二光源111Bの発光面中心が第二領域121Bの焦点位置とは異なるように、レンズホルダ140Aに取り付けられている。本例においては、画像生成装置24Aのレンズ120は、光軸115(光軸115A,光軸115B)方向における光源111とレンズ120との間の距離が画像生成装置24Zの光軸115方向における光源111とレンズ120との間の距離よりも短くなるように、配置されている。具体的には、レンズホルダ140Aは、図6に示すように、その厚さTAが画像生成装置24Zのレンズホルダ140Zの厚さTZ(図5参照)よりも小さくなるように、形成されている。例えば、レンズホルダ140Aは、厚さTAがレンズホルダ140Zの厚さTZよりも0.5mm小さくなるように、形成される。
 これにより、レンズ120の第一領域121Aに入射して出射面123Aの境界部分Bの近傍に到達した光は、図6において第三光路112Cで示すような第一光源111Aの光軸115Aに平行ではない光となって表示デバイス130の領域Rに入射する。同様に、レンズ120の第二領域121Bに入射して出射面123Bの境界部分Bの近傍に到達した光は、第二光源111Bの光軸115Bに平行ではない光となって表示デバイス130の領域Rに入射する。すなわち、第一光源111Aおよび第二光源111Bから出射されてレンズ120の出射面123の境界部分Bから出射される光により照射される表示デバイス130の領域Rは、出射面123の境界部分Bの近傍に位置する領域から出射された光により照射される。
 上記のように、第一実施形態に係る画像生成装置24Aにおいては、レンズ120の出射面123は、第一領域121Aと第二領域121Bの境界部分Bの近傍において、第一光源111Aから出射された光が第一光源111Aの光軸115Aに平行ではない光として出射され、第二光源111Bから出射された光が第二光源111Bの光軸115Bに平行ではない光として出射される非平行光出射領域を有している。
 このような構成によれば、レンズ120の出射面123の境界部分Bから出射される光により照射される表示デバイス130の領域Rは、レンズ120の境界部分Bの近傍から出射された光により照射される。したがって、製造条件や加工条件などにより曲面状に凹んで形成された境界部分Bから光が出射されない場合でも、表示デバイス130の画像生成可能領域の一部に光が照射されないことを抑制することができる。
 特に本実施形態では、レンズ120は、第一光源111Aの発光面中心が第一領域121Aの焦点位置とは異なるとともに第二光源111Bの発光面中心が第二領域121Bの焦点位置とは異なるように、レンズホルダ140Aに取り付けられている。すなわち、レンズホルダ140Aにより、光軸115方向における光源111とレンズ120との間の距離が調節される。このような構成によれば、簡便な構成により、表示デバイス130の画像生成可能領域の一部に光が照射されないことを抑制することができる。
 なお、本実施形態では、画像生成装置24Aは、レンズホルダ140Aの厚さを小さくして、光軸115方向における光源111とレンズ120との間の距離が短くなるように構成されている。しかしながら、画像生成装置24Aは、レンズホルダ140Aの厚さを大きくして、光軸115方向における光源111とレンズ120との間の距離が長くなるように構成されてもよい。この場合でも、第一光源111Aの発光面中心がレンズ120の第一領域121Aの焦点位置とは異なり、第二光源111Bの発光面中心がレンズ120の第二領域121Bの焦点位置とは異なるので、レンズ120の出射面123は非平行光出射領域を有する。また、レンズホルダ140Aの厚さに加えてまたは変えて、他の部材の厚さを調節することにより、光軸115方向における光源111とレンズ120との間の距離を調節してもよい。
(第二実施形態)
 次に、図7を参照して、第二実施形態に係る画像生成装置24Bについて説明する。第一実施形態に係る画像生成装置24Aと同一の符号を付した部材については画像生成装置24Aと同様の構成であるため説明を省略する。図7は、画像生成装置24Bの断面図である。
 第一実施形態に係る画像生成装置24Aでは、レンズホルダ140Aにより光軸115方向における光源111とレンズ120との間の距離を調節することにより、レンズ120の出射面123に非平行光出射領域が形成されている。第二実施形態に係る画像生成装置24Bでは、レンズ220の出射面223の曲率半径を変化させることにより、出射面223に非平行光出射領域が形成される。
 レンズ220は、例えば、光源111からの光が入射される入射面222及び当該入射した光が出射される出射面223のいずれも凸面状に形成された非球面凸レンズである。レンズ220は、光源111から出射された光を透過して表示デバイス130に向けて出射するように構成されている。
 レンズ220は、第一領域221Aと、第二領域221Bとを有する。第一領域221Aは、第一光源111Aから出射された第一光を透過する。第二領域221Bは、第二光源111Bから出射された第二光を透過する。第一領域221Aと第二領域221Bとは左右方向に並列配置されている。第一領域221Aは、例えば、第一光源111Aに対応した非球面凸レンズである。第二領域221Bは、例えば、第二光源111Bに対応した非球面凸レンズである。すなわち、第一領域221Aの入射面222A及び第二領域221Bの入射面222Bは、下方にやや膨らんだ凸状の入射面である。第一領域221Aの出射面223A及び第二領域221Bの出射面223Bは、上方に膨らんだ凸状の出射面である。左側に配置される第一領域221Aにおける右側の一部分と、右側に配置される第二領域221Bにおける左側の一部分とが結合されている。
 レンズ220は、第一光源111Aの発光面中心が第一領域221Aの焦点位置となるとともに第二光源111Bの発光面中心が第二領域221Bの焦点位置となるように、レンズホルダ140に取り付けられている。
 第一領域221Aは、境界部分Bの近傍における出射面223Aの曲率半径が第一領域221Aと第二領域221Bが並列されている方向(図7において左右方向)に変化するように、形成されている。同様に、第二領域121Bは、境界部分Bの近傍における出射面223Bの曲率半径は、第一領域221Aと第二領域221Bが並列されている方向に変化するように、形成されている。本例においては、境界部分Bの近傍に位置する領域Cにおける出射面223Aの曲率半径が第二領域221Bの方向(図7において右方向)に向かって徐々に大きくなっている(緩やかなカーブになっている)。同様に、境界部分Bの近傍に位置する領域Cにおける出射面223Bの曲率半径が第一領域221Aの方向(図7において左方向)に向かって徐々に大きくなっている(緩やかなカーブになっている)。
 第一光源111Aから出射された光は、レンズ220の入射面222Aに入射する。第一光源111Aから出射された光の多くは、例えば第四光路112Dに示すように、レンズ220の第一領域221Aに入射し、第一光源111Aの光軸115Aに平行な光となって表示デバイス130に入射する。同様に第二光源111Bから出射された光は、レンズ220の入射面222Bに入射する。第二光源111Bから出射された光の多くは、第二領域221Bに入射し、第二光源111Bの光軸115Bに平行な光となって表示デバイス130に入射する。
 一方、レンズ220の第一領域221Aに入射して出射面223Aの境界部分Bの近傍である領域Cに到達した光は、第五光路112Eで示すような第一光源111Aの光軸115Aに平行ではない光となって表示デバイス130の領域Rに入射する。同様に、レンズ220の第二領域221Bに入射して出射面223Bの境界部分Bの近傍である領域Cに到達した光は、第二光源111Bの光軸115Bに平行ではない光となって表示デバイス130の領域Rに入射する。すなわち、第一光源111Aおよび第二光源111Bから出射されてレンズ220の出射面223の境界部分Bから出射される光により照射される表示デバイス130の領域Rは、出射面223の境界部分Bの近傍に位置する領域から出射された光により照射される。
 上記のように、第二実施形態に係る画像生成装置24Bのレンズ220は、第一領域221Aと第二領域221Bの境界部分Bの近傍において、出射面223の曲率半径が第一領域221Aと第二領域221Bが並列されている方向に変化するように、形成されている。すなわち、レンズ220の出射面223において曲率半径が変化している領域Cは、光軸115平行ではない光として出射される非平行光出射領域となる。
 このような構成によれば、製造条件や加工条件などにより曲面状に凹んで形成された境界部分Bから光が出射されない場合でも、境界部分Bに対応する表示デバイス130の領域Rに境界部分Bの近傍から出射された光を照射させることができる。したがって、簡便な加工により、表示デバイス130の画像生成可能領域の一部に光が照射されないことを抑制することができる。
 なお、本実施形態では、出射面223Aの曲率半径が第二領域221Bの方向に向かって徐々に大きくなり、出射面223Bの曲率半径が第一領域221Aの方向に向かって徐々に大きくなっている。しかしながら、出射面223Aの曲率半径は第二領域221Bの方向に向かって徐々に小さくなり、出射面223Bの曲率半径は第一領域221Aの方向に向かって徐々に小さくてもよい。
 また、本実施形態では、非平行光出射領域におけるレンズ220の出射面223の曲率半径は、第一領域221Aと第二領域221Bが並列されている方向に変化している。しかしながら、レンズ220は、非平行光出射領域における出射面223の曲率半径がさらに第一領域221Aと第二領域221Bの境界線に沿う方向に(図3の前後方向)変化するように、形成されてもよい。
 また、本実施形態は、第一実施形態の構成のように、レンズホルダ140により光軸115方向における光源111とレンズ220との間の距離を調節されてもよい。すなわち、レンズ220は、第一光源111Aの発光面中心が第一領域121Aの焦点位置とは異なるとともに第二光源111Bの発光面中心が第二領域121Bの焦点位置とは異なるように、レンズホルダ140に取り付けられてもよい。
(第三実施形態)
 次に、図8を参照して、第三実施形態に係る画像生成装置24Cについて説明する。第一実施形態に係る画像生成装置24Aと第二実施形態に係る画像生成装置24Bと同一の符号を付した部材については画像生成装置24Aまたは画像生成装置24Bと同様の構成であるため説明を省略する。図8は、画像生成装置24Cの断面図である。
 第三実施形態に係る画像生成装置24Cでは、レンズ320の出射面323にウエーブ加工が施されることにより、出射面323に非平行光出射領域が形成される。
 レンズ320は、例えば、光源111からの光が入射される入射面322及び当該入射した光が出射される出射面323のいずれも凸面状に形成された非球面凸レンズである。レンズ320は、光源111から出射された光を透過して表示デバイス130に向けて出射するように構成されている。
 レンズ320は、第一領域321Aと、第二領域321Bとを有する。第一領域321Aは、第一光源111Aから出射された第一光を透過する。第二領域321Bは、第二光源111Bから出射された第二光を透過する。第一領域321Aと第二領域321Bとは左右方向に並列配置されている。第一領域321Aは、例えば、第一光源111Aに対応した非球面凸レンズである。第二領域321Bは、例えば、第二光源111Bに対応した非球面凸レンズである。第一領域321Aの入射面322A及び第二領域321Bの入射面322Bは、下方にやや膨らんだ凸状の入射面である。第一領域321Aの出射面323A及び第二領域321Bの出射面323Bは、上方に膨らんだ凸状の出射面である。左側に配置される第一領域321Aにおける右側の一部分と、右側に配置される第二領域321Bにおける左側の一部分とが結合されている。
 レンズ320は、図8に示すように、第一光源111Aの発光面中心が第一領域321Aの焦点位置となるとともに第二光源111Bの発光面中心が第二領域321Bの焦点位置となるように、レンズホルダ140に取り付けられている。
 レンズ320の出射面323の境界部分Bの近傍において、第一領域321Aの出射面323Aにはウエーブ加工Wが施されている。同様に、レンズ320の出射面323の境界部分Bの近傍において、第二領域321Bの出射面323Bにはウエーブ加工Wが施されている。
 第一光源111Aから出射された光は、レンズ320の入射面322Aに入射する。第一光源111Aから出射された光の多くは、例えば第六光路112Fに示すように、レンズ320の第一領域321Aに入射し、第一光源111Aの光軸115Aに平行な光となって表示デバイス130に入射する。同様に第二光源111Bから出射された光は、レンズ320の入射面322Bに入射する。第二光源111Bから出射された光の多くは、第二領域321Bに入射し、第二光源111Bの光軸115Bに平行な光となって表示デバイス130に入射する。
 一方、レンズ320の第一領域121Aに入射して出射面323Aの境界部分Bの近傍に到達した光は、第七光路112Gで示すような第一光源111Aの光軸115Aに平行ではない光となって表示デバイス130の領域Rに入射する。同様に、レンズ320の第二領域321Bに入射して出射面323Bの境界部分Bの近傍に到達した光は、第二光源111Bの光軸115Bに平行ではない光となって表示デバイス130の領域Rに入射する。すなわち、第一光源111Aおよび第二光源111Bから出射されてレンズ320の出射面323の境界部分Bから出射される光により照射される表示デバイス130の領域Rは、出射面323の境界部分Bの近傍に位置する領域から出射された光により照射される。
 上記のように、第三実施形態に係る画像生成装置24Cのレンズ320の出射面323は、第一領域321Aと第二領域321Bの境界部分Bの近傍においてウエーブ加工Wが施されている。すなわち、レンズ320の出射面323におけるウエーブ加工Wが施された領域は、光軸115に平行ではない光として出射される非平行光出射領域となる。
 このような構成によれば、製造条件や加工条件などにより曲面状に凹んで形成された境界部分Bから光が出射されない場合でも、境界部分Bに対応する表示デバイス130の領域Rに境界部分Bの近傍から出射された光を照射させることができる。したがって、簡便な加工により、表示デバイス130の画像生成可能領域の一部に光が照射されないことを抑制することができる。
 また、本実施形態は、第一実施形態の構成のように、レンズホルダ140により光軸115方向における光源111とレンズ320との間の距離を調節されてもよい。すなわち、レンズ320は、第一光源111Aの発光面中心が第一領域321Aの焦点位置とは異なるとともに第二光源111Bの発光面中心が第二領域321Bの焦点位置とは異なるように、レンズホルダ140に取り付けられてもよい。
 以上、本開示の実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
 上記実施形態では、レンズ120、220、320は、光源111からの光が入射される入射面122、222、322及び当該入射した光が出射される出射面123、223、323のいずれも凸面状に形成された非球面凸レンズである。しかしながら、レンズ120、220、320は、平行光を出射する凹面状に形成された非球面凹レンズでもよい。すなわち、第一領域121A、221A、321Aおよび第二領域121B、221B、321Bは、非球面凸レンズの代わりに、非球面凹レンズでもよい。
 また、レンズ120、220、320は、第一領域121A、221A、321Aおよび第二領域121B、221B、321Bに加えて、第一領域および第二領域と同様の構成を備える第三領域および第四領域を有してもよい。第三領域および第四領域はそれぞれ、例えば、第一領域および第二領域と並列に配置される。
 上記実施形態では、光源111は、第一光源111Aと第二光源111Bを備えている。しかしながら、光源111は、三つ以上の光源を有しうる。例えば、光源111は、第一領域および第二領域が並列された方向(図では左右方向)に並列配置された四つの光源と、当該方向に直交する方向に並列配置された三つの光源とを備えうる。
 上記実施形態では、画像生成装置24から出射された光は、凹面鏡26で反射されてウインドシールド18に照射されるように構成されているが、これに限られない。例えば、凹面鏡26で反射された光は、ウインドシールド18の内側に設けたコンバイナ(不図示)に照射されるようにしてもよい。コンバイナは、例えば、透明なプラスチックディスクで構成される。HUD本体部21の画像生成装置24からコンバイナに照射された光の一部は、ウインドシールド18に光を照射した場合と同様に、乗員の視点Eに向けて反射される。
 また、上記実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードは、これら4つのモードの少なくとも1つを含んでいてもよい。例えば、車両の運転モードは、いずれか一つのみを実行可能であってもよい。
 さらに、車両の運転モードの区分や表示形態は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。
 本開示の一部を構成するものとして、2020年7月8日に提出された日本国特許出願2020-117975号の内容が援用される。

Claims (5)

  1.  ヘッドアップディスプレイ用の画像を生成する画像生成装置であって、
     第一光源と、
     前記第一光源とは一定距離だけ離隔して配置された第二光源と、
     前記第一光源及び前記第二光源から出射された光を透過するレンズと、
     前記レンズを透過した光により前記画像を生成するための光を形成する表示デバイスと、を備えており、
     前記レンズは、前記第一光源からの第一光を透過する第一領域と、前記第一領域と並列結合されて前記第二光源からの第二光を透過する第二領域とから構成され、
     前記レンズの出射面は、前記第一光源から出射された光が前記第一光源の光軸に平行ではない光として出射され、前記第二光源から出射された光が前記第二光源の光軸に平行ではない光として出射される非平行光出射領域を有しており、
     前記非平行光出射領域は、前記第一領域と前記第二領域の境界部分の近傍に位置する、画像生成装置。
  2.  前記レンズを保持するレンズホルダを備えており、
     前記レンズは、前記第一光源の発光面中心が前記第一領域の焦点位置とは異なるとともに前記第二光源の発光面中心が前記第二領域の焦点位置とは異なるように、レンズホルダに取り付けられている、請求項1に記載の画像生成装置。
  3.  前記レンズは、前記非平行光出射領域における前記出射面の曲率半径が前記第一領域と前記第二領域が並列されている方向に変化するように、形成されている、請求項1に記載の画像生成装置。
  4.  前記レンズの出射面の前記非平行光出射領域にはウエーブ加工が施されている、請求項1に記載の画像生成装置。
  5.  請求項1から4のいずれか一項に記載の画像生成装置と、
     前記画像生成装置により出射された光がウインドシールドまたはコンバイナへ照射されるように、前記光を反射させる少なくとも一つの反射部と、を備えている、ヘッドアップディスプレイ。
     
PCT/JP2021/022287 2020-07-08 2021-06-11 画像生成装置及びヘッドアップディスプレイ WO2022009605A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022534973A JPWO2022009605A1 (ja) 2020-07-08 2021-06-11

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020117975 2020-07-08
JP2020-117975 2020-07-08

Publications (1)

Publication Number Publication Date
WO2022009605A1 true WO2022009605A1 (ja) 2022-01-13

Family

ID=79552502

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022287 WO2022009605A1 (ja) 2020-07-08 2021-06-11 画像生成装置及びヘッドアップディスプレイ

Country Status (2)

Country Link
JP (1) JPWO2022009605A1 (ja)
WO (1) WO2022009605A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076832A (ja) * 2009-09-30 2011-04-14 Denso Corp 照明装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076832A (ja) * 2009-09-30 2011-04-14 Denso Corp 照明装置

Also Published As

Publication number Publication date
JPWO2022009605A1 (ja) 2022-01-13

Similar Documents

Publication Publication Date Title
JP7254832B2 (ja) ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法
US11597316B2 (en) Vehicle display system and vehicle
WO2021065617A1 (ja) 車両用表示システム及び車両
WO2021054277A1 (ja) ヘッドアップディスプレイおよび画像表示システム
JP2023175794A (ja) ヘッドアップディスプレイ
WO2021015171A1 (ja) ヘッドアップディスプレイ
US20210347259A1 (en) Vehicle display system and vehicle
WO2021193074A1 (ja) 画像生成装置、反射鏡及びヘッドアップディスプレイ
WO2022009605A1 (ja) 画像生成装置及びヘッドアップディスプレイ
WO2021220955A1 (ja) 画像生成装置及びヘッドアップディスプレイ
JP7492971B2 (ja) ヘッドアップディスプレイ
US20240069335A1 (en) Head-up display
WO2020218072A1 (ja) 車両用ヘッドアップディスプレイおよびそれに用いられる光源ユニット
WO2021220722A1 (ja) 画像生成装置及びヘッドアップディスプレイ
US20240036311A1 (en) Head-up display
WO2023190338A1 (ja) 画像照射装置
WO2022102374A1 (ja) 車両用表示システム
US20240184125A1 (en) Image generation device, image irradiation device equipped with said image generation device, and image irradiation device
WO2022209792A1 (ja) 画像生成装置、当該画像生成装置を備える画像照射装置、及び画像照射装置
JP2023141162A (ja) 画像表示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21837904

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022534973

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21837904

Country of ref document: EP

Kind code of ref document: A1