WO2023063084A1 - 画像照射装置、画像照射装置の制御方法、画像生成装置、ヘッドアップディスプレイ及びカバー - Google Patents

画像照射装置、画像照射装置の制御方法、画像生成装置、ヘッドアップディスプレイ及びカバー Download PDF

Info

Publication number
WO2023063084A1
WO2023063084A1 PCT/JP2022/036240 JP2022036240W WO2023063084A1 WO 2023063084 A1 WO2023063084 A1 WO 2023063084A1 JP 2022036240 W JP2022036240 W JP 2022036240W WO 2023063084 A1 WO2023063084 A1 WO 2023063084A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information
region
vehicle
piece
Prior art date
Application number
PCT/JP2022/036240
Other languages
English (en)
French (fr)
Inventor
大輔 籾山
真由 塚本
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Publication of WO2023063084A1 publication Critical patent/WO2023063084A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays

Definitions

  • the present disclosure relates to an image irradiation device, a control method for the image irradiation device, an image generation device, a head-up display and a cover provided with the image generation device.
  • Patent Document 1 discloses a head-up display (HUD) in which light for forming an image emitted from an image generation unit is reflected by a concave mirror and projected onto a windshield of a vehicle.
  • HUD head-up display
  • a HUD can realize so-called AR (Augmented Reality) by projecting an image or video onto a windshield or combiner, superimposing the image on the real space through the windshield or combiner, and making it visible to the occupant.
  • AR Augmented Reality
  • the HUD is equipped with an image generation device and optical members.
  • the imaging device forms an image at the imaging surface of the display, and the optics direct this image to the windshield and combiner.
  • sunlight enters the windshield or the combiner, it follows the optical path in the opposite direction and enters the liquid crystal portion, which may cause a local temperature rise in the display.
  • Patent Document 2 discloses a display device that includes an optical sensor that detects sunlight and a cover glass that has cloudy liquid crystal in order to prevent local temperature rise of the display due to sunlight.
  • the optical sensor detects that the intensity of sunlight exceeds a predetermined threshold
  • the light distribution of the liquid crystal molecules of the cloudy liquid crystal of the cover glass is made irregular, so that the sunlight reaches the display. It prevents light from being collected.
  • Patent Literature 3 discloses a display device including a temperature detection section that detects the operating environment temperature around the display section in order to improve the response delay of the liquid crystal section due to low temperatures.
  • HUD in addition to information related to the running of the vehicle (information on navigation to the destination, information on objects such as pedestrians and other vehicles existing around the vehicle), Various information such as information about the store may be displayed. In such a case, when the number of pieces of information to be displayed increases, a plurality of pieces of information are displayed overlapping or clustered together, which reduces the visibility of the information.
  • the display device described in Patent Document 2 can suppress temperature rise due to sunlight, it requires dedicated parts such as an optical sensor, a cover glass having cloudy liquid crystal, and a control device for this.
  • the HUD is equipped with an image generation device and optical members.
  • the image-producing device forms an image on the image-producing surface of the liquid crystal portion, and the optical elements direct this image to the windshield and combiner.
  • sunlight when sunlight is incident on the windshield or combiner, it follows the optical path in the opposite direction and enters the liquid crystal portion, which may cause a local temperature rise in the liquid crystal portion.
  • the purpose of this disclosure is to improve the visibility of information displayed for passengers.
  • a further object of the present disclosure is to provide an image generation device in which local temperature rise due to sunlight is suppressed with a simple configuration, and a HUD including the image generation device.
  • a further object of the present disclosure is to provide an image irradiation device in which local temperature rise due to sunlight is suppressed.
  • the image irradiation device includes An image irradiation device configured to display a predetermined image to an occupant of a vehicle, an image generator that generates the image; and a control unit that controls the image generation unit,
  • the control unit acquires line-of-sight information of an occupant of the vehicle, determines to which of a plurality of areas within an image displayable area the line of sight of the occupant belongs based on the line-of-sight information, and
  • the image generator is caused to generate an image showing information about the object corresponding to the region.
  • a method for controlling an image irradiation device includes: A control method for an image irradiation device mounted on the vehicle, comprising an image generation unit that generates an image to be displayed to an occupant of the vehicle and a control unit that controls the image generation unit, obtaining line-of-sight information of an occupant of the vehicle; determining to which of a plurality of areas within an image displayable area the line of sight of the occupant belongs based on the line of sight information; and causing the image generator to generate an image showing information about an object corresponding to the determined region.
  • An image generating device is an image generating device for a head-up display, a liquid crystal portion for generating an image; a cover that covers at least a portion of the exit surface of the liquid crystal unit and is composed of a plurality of pieces.
  • a head-up display is a head-up display provided in a vehicle and configured to display an image to an occupant of the vehicle, an image generation device as described above;
  • a reflecting mirror is provided for reflecting the light emitted from the image generating device.
  • a cover according to a second aspect of the present disclosure is a cover of an image generating device for a head-up display, having multiple pieces, The plurality of pieces cover at least a portion of the exit surface of the image production device.
  • the image irradiation device includes a liquid crystal portion having a plurality of regions, each configured to form an associated similar virtual image; an optical member that guides light emitted from the liquid crystal portion to a predetermined position; and a control unit that controls the optical member so as to guide light emitted from at least one region selected from the plurality of regions to the predetermined position.
  • the image generation device of the present disclosure includes a cover that covers the exit surface of the liquid crystal unit, it is possible to suppress temperature rise of the exit surface due to sunlight. Furthermore, since the cover of the present disclosure is composed of a plurality of pieces, by adjusting the number of pieces, it is easy to form a cover suitable for the shape and size of the liquid crystal portion, which is highly convenient.
  • each of the plurality of regions forms a related and similar virtual image.
  • a similar virtual image is formed on the display. Therefore, the viewer can perceive the virtual image without discomfort regardless of the light emitted from any region.
  • the control section controls the optical member so as to guide the light emitted from one region of the liquid crystal section to a predetermined position.
  • the sunlight that enters the liquid crystal part by following the optical path in the opposite direction is irradiated to one area of the liquid crystal part, but if the control part switches the area where the sunlight enters, the sunlight will enter a specific area. It can be suppressed that it continues to be done. As a result, local temperature rise in the liquid crystal portion due to sunlight can be suppressed.
  • FIG. 1 is a schematic diagram of a head-up display (HUD) according to a first embodiment viewed from the side of a vehicle;
  • FIG. It is a figure which shows the structure of the vehicle containing HUD.
  • 4 is a flow chart showing the flow of processing executed by a control unit; It is a figure which shows the scenery seen through a windshield from the passenger compartment of a vehicle.
  • 5 is a diagram showing the scenery shown in FIG. 4 in position coordinates;
  • FIG. It is a figure which shows an example of peripheral information DB.
  • FIG. 10 is a diagram showing a virtual image object displayed by the HUD when the passenger's line of sight belongs to the first area;
  • FIG. 10 is a diagram showing a virtual image object displayed by the HUD when the passenger's line of sight belongs to the second area;
  • FIG. 4 is a diagram showing all virtual image objects belonging to an image displayable area displayed by the HUD;
  • FIG. 10 is a schematic diagram showing the configuration of the HUD according to the second embodiment.
  • FIG. 11 is a schematic diagram showing the configuration of the HUD image generating device shown in FIG. 12 is a plan view of the image generating device shown in FIG. 11.
  • FIG. 13 is an enlarged view of one cover of the image generating device shown in FIG. 12;
  • FIG. 14 is a partially enlarged view of another cover of the image generating device shown in FIG. 12.
  • FIG. FIG. 15 is a schematic diagram for explaining an optical path when external light enters the HUD.
  • FIG. 16 is a partially enlarged view showing Modification 1 of another cover.
  • FIG. 17 is a partially enlarged view showing Modification 2 of another cover.
  • FIG. 18 is a partially enlarged view showing Modification 3 of another cover.
  • FIG. 19 is a partially enlarged view showing Modification 4 of another cover.
  • FIG. 20 is a schematic diagram showing the configuration of an image irradiation device according to the third embodiment.
  • 21 is a plan view of the liquid crystal portion of the image generating device shown in FIG. 20.
  • FIG. FIG. 22 is a schematic diagram showing the configuration of the shielding member of the image generating apparatus.
  • 23 is a plan view of the liquid crystal portion after the shielding member shown in FIG. 22 is controlled;
  • FIG. 24 is a schematic diagram showing a configuration of a modification of the shielding member of the image generating device.
  • a HUD (Head-Up Display) 10 is installed inside a vehicle 20 .
  • HUD 10 is located within the dashboard of vehicle 20 .
  • HUD 10 serves as a visual interface between vehicle 20 and the occupants of vehicle 20 .
  • the HUD 10 is configured to display predetermined information as an image to the occupants of the vehicle 20 so that the information is superimposed on the real space outside the vehicle 20 (for example, the surrounding environment in front of the vehicle 20). ing.
  • the predetermined image is displayed as a still image or moving image (video).
  • the HUD 10 is an example of an image irradiation device.
  • the HUD 10 includes a HUD main body 11.
  • the HUD body portion 11 has a housing 12 and an exit window 13 .
  • the exit window 13 is composed of a transparent plate that transmits visible light.
  • the HUD body section 11 has an image generation section (PGU: Picture Generation Unit) 14 , a plane mirror 15 , a concave mirror 16 , and a control section 17 inside a housing 12 .
  • the plane mirror 15 and the concave mirror 16 are examples of the reflecting section.
  • the image generation unit 14 is configured to emit light for generating a predetermined image to be displayed to the occupants of the vehicle 20 .
  • the light emitted from the image generator 14 is, for example, visible light.
  • the image generator 14 is fixed to the housing 12 .
  • the plane mirror 15 is arranged on the optical path of the light emitted from the image generation section 14 . Specifically, the plane mirror 15 is arranged above the image generator 14 and is configured to reflect the light emitted from the image generator 14 toward the concave mirror 16 .
  • the plane mirror 15 has a planar reflecting surface, and reflects the image of the light emitted from the image generator 14 and formed into an image at the same magnification.
  • the concave mirror 16 is arranged on the optical path of the light emitted from the image generator 14 and reflected by the plane mirror 15 . Specifically, the concave mirror 16 is arranged in front of the image generator 14 and the plane mirror 15 in the housing 12 . The concave mirror 16 is configured to reflect the light emitted from the image generator 14 toward the windshield 21 (for example, the front window of the vehicle 20). The concave mirror 16 has a concavely curved reflecting surface. The concave mirror 16 reflects the image of the light emitted from the image generator 14 so that the image is formed at a predetermined magnification.
  • the control unit 17 controls the operation of each unit of the HUD 20.
  • the control unit 17 is implemented by a processor such as a CPU (Central Processing Unit) and a memory.
  • the processor controls the operation of each part of the HUD 20 by executing the computer program read from the memory.
  • the control unit 17 outputs a control signal for controlling the operation of the image generation unit 14 based on, for example, vehicle travel information related to travel of the vehicle 20 and/or surrounding environment information related to the surrounding environment of the vehicle 20. Generate.
  • the image generation unit 14 generates a predetermined image based on the control signal output from the control unit 17, and emits light L for generating the image, as illustrated in FIG.
  • the light L emitted from the image generation unit 14 is reflected by the plane mirror 15 and the concave mirror 16 and emitted from the emission window 13 of the HUD main body 11 .
  • Light emitted from the emission window 13 of the HUD main body 11 is applied to the windshield 21 .
  • a part of the light emitted from the emission window 13 to the windshield 21 is reflected toward the viewpoint E of the passenger.
  • the passenger perceives the light emitted from the HUD main body 11 as a virtual image formed at a predetermined distance in front of the windshield 21 .
  • a predetermined image is projected so as to become a virtual image at an arbitrarily determined single distance.
  • a 3D image stereo image
  • a plurality of predetermined images that are the same or different from each other are projected so as to be virtual images at different distances.
  • the distance of the virtual image object I (the distance from the occupant's viewpoint E to the virtual image) is adjusted by adjusting the distance from the image generator 14 to the occupant's viewpoint E (for example, by adjusting the optical path length between the image generator 14 and the concave mirror 16). can be adjusted as appropriate by
  • the HUD 10 acquires vehicle travel information and surrounding environment information from devices mounted on the vehicle 20 and from the outside of the vehicle 20 .
  • the vehicle 20 includes a running state acquisition unit 22, a surrounding environment acquisition unit 23, a GPS (Global Positioning System) 24, and a storage device 25.
  • GPS Global Positioning System
  • the running state acquisition unit 22 is configured to detect the running state of the vehicle 20 such as the running speed of the vehicle 20 and output running state information I22 to the HUD 10.
  • Examples of the running state acquisition unit 22 include an acceleration sensor, a speed sensor, a gyro sensor, and the like.
  • the surrounding environment acquisition unit 23 is configured to acquire data indicating the surrounding environment of the vehicle 20 and output surrounding environment information I23 to the HUD 10.
  • An example of the surrounding environment acquisition unit 23 is a camera that acquires image data representing the surrounding environment of the vehicle 20 .
  • Another example of the surrounding environment acquisition unit 23 is a radar including at least one of millimeter wave radar, microwave radar, and laser radar (for example, LiDAR unit).
  • the LiDAR unit acquires 3D mapping data (point cloud data) representing the surrounding environment of the vehicle 20 .
  • the GPS 24 is configured to acquire the current position information of the vehicle 20 and output the acquired current position information I24 to the HUD 10.
  • the storage device 25 is a storage device such as a hard disk drive (HDD) or SSD (Solid State Drive).
  • the storage device 25 stores, for example, 2D or 3D map information.
  • the storage device 25 is configured to output the map information I25 to the HUD 10 in response to a request from the HUD 10 .
  • the storage device 25 includes a peripheral information DB (database) 251 .
  • Information on objects is stored in the peripheral information DB 251 .
  • information related to objects fixed on the road surface such as shops, parking lots, and traffic lights is recorded in association with position coordinates fixed on the road surface.
  • Information about an object is information that provides benefits to the user regarding the object, such as opening hours of a restaurant, availability of a parking lot, waiting time at a traffic light, and the like.
  • Information on objects stored in the peripheral information DB 251 is referred to by the HUD 10 as necessary.
  • the HUD 10 acquires infrastructure information I30 from infrastructure equipment 30 such as traffic lights and marker lights via a wireless communication network (road-to-vehicle communication). Furthermore, the HUD 10 acquires information on other vehicles around the vehicle 20 from other vehicles via a wireless communication network (vehicle-to-vehicle communication), and acquires information on pedestrians from portable electronic devices carried by pedestrians. (pedestrian-to-vehicle communication).
  • the control unit 17 of the HUD 10 acquires the vehicle running information and the surrounding environment information output from the running state acquisition unit 22, the surrounding environment acquisition unit 23, the GPS 24, the storage device 25, the infrastructure equipment 30, etc., and outputs them to the image generation unit 14.
  • a control signal CS for generating a predetermined image is generated.
  • the vehicle 20 further includes a line-of-sight acquisition unit 26.
  • the line-of-sight acquisition unit 26 is configured, for example, to detect the line-of-sight of the occupant of the vehicle 20 and output the line-of-sight information I26 to the HUD 10 .
  • the line-of-sight acquisition unit 26 detects the line of sight of the occupant from the image data of the occupant acquired by at least one camera installed in the vehicle interior of the vehicle 20 .
  • the control unit 17 detects the line of sight of the occupant based on the image data.
  • the occupant's line of sight is represented, for example, by the position of the occupant's eyes and angle information (vertical angle and horizontal angle) from the position of the occupant's eyes.
  • FIG. 3 is an example of a control method for the image irradiation device.
  • the control unit 17 acquires the speed information of the vehicle 20 from the running state acquisition unit 22 (STEP 1). Then, based on the speed information, the control unit 17 determines whether the vehicle 20 is stopped (STEP 2). It should be noted that the state in which the vehicle 20 is stopped is not limited to a state where the traveling speed is zero (complete stop), and may include a state close to zero (a so-called slow state). That is, the case where the vehicle 20 is stopped includes the case where the running speed is below a predetermined value such as 40 km/h or less, 30 km/h or less, or 20 km/h or less.
  • control unit 17 When it is determined that the vehicle 20 is not stopped (NO in STEP2), the control unit 17 causes the image generation unit 14 to generate an image showing predetermined information regardless of the passenger's line of sight (STEP3). For example, based on the vehicle running information and the surrounding environment information, the control unit 17 provides information related to the running of the vehicle 20, such as the running state of the vehicle 20 (running speed and remaining amount of fuel), navigation to the destination, and/or Alternatively, the image generation unit 14 is caused to generate an image showing information such as objects such as pedestrians and other vehicles. Alternatively, if it is determined that vehicle 20 is not stopped (NO in STEP2), control unit 17 may be configured to simply end the process.
  • the control unit 17 acquires the line-of-sight information I26 of the occupant of the vehicle 20 from the line-of-sight acquisition unit 26 (STEP4). Then, the control unit 17 determines whether the passenger's line of sight belongs to the first area in the image displayable area based on the line of sight information I26 (STEP 5).
  • FIG. 4 shows a landscape seen through the windshield 21 from the interior of the vehicle 20.
  • FIG. 5 shows the scenery shown in FIG. 4 as viewed from above the vehicle 20, and shows the position coordinates of each point.
  • P0 is the position coordinate of the vehicle 20
  • P1 is the position coordinate of the store 1 (O1)
  • P2 is the position coordinate of the store 2 (O2)
  • P3 is the position coordinate of the traffic light (O3).
  • Store 1, store 2, and a traffic light are examples of objects.
  • Position information is information including position coordinates.
  • Positional coordinates are information indicating the absolute position of the object. The position coordinates are expressed using, for example, north latitude and east longitude.
  • the image displayable area AA is an area in which an image can be displayed outside (in this example, in front) the vehicle 20 (area in which the virtual image object I in FIG. 1 can be formed).
  • the image displayable area AA is virtually divided into two areas, a first area AA1 and a second area AA2.
  • the control unit 17 converts the line of sight of the occupant into position coordinates, and determines to which of the first area AA1 and the second area AA2 the position coordinates indicated by the line of sight of the occupant belong.
  • the position coordinates indicated by the line of sight of the occupant can be calculated from the position of the occupant's eyes and the angle of the line of sight of the occupant.
  • the control unit 17 acquires the height of one or more objects in front of the vehicle and the distance between the occupant and those objects from LiDAR, the height and distance of these objects, the position of the occupant's eyes, and the occupant's line of sight , the position coordinates indicated by the line of sight of the passenger can be calculated.
  • control unit 17 causes the image generation unit to generate an image showing information about the object corresponding to the first area AA1. 14 (STEP 6).
  • control unit 17 identifies information about all objects corresponding to the image displayable area AA. Then, the control unit 17 causes the image generation unit 14 to generate an image showing information about the object corresponding to the first area AA1 to which the line of sight of the occupant belongs among the specified information.
  • the peripheral information DB 251 stores objects and their positional information and detailed information.
  • the control unit 17 specifies the position coordinates included in the image displayable area AA, and extracts from the peripheral information DB 251 information on an object having the position coordinates included in the image displayable area AA.
  • the image displayable area AA includes position coordinates P1, P2, and P3.
  • the control unit 17 extracts the information of the store 1, the store 2, and the traffic lights, which are the position coordinates P1, P2, and P3, from the peripheral information DB 251.
  • the control unit 17 selects the information included in the first area AA1 among the extracted information on the store 1, the store 2, and the traffic light. It is determined that the information of the store 1 and the traffic light having the position coordinates that are displayed is the information to be displayed as an image. Then, the control unit 17 outputs to the image generation unit 14 a control signal CS for displaying the information of the store 1 and the traffic light as an image. As a result, as exemplified in FIG.
  • the control unit 17 controls the object corresponding to the second area AA2.
  • the image generating unit 14 is caused to generate an image showing the information (STEP 7). Specifically, the control unit 17 determines that the information of the store 2 having the position coordinates included in the second area AA2 among the extracted information of the store 1, the store 2, and the traffic light is the information to be displayed as an image. do.
  • the control unit 17 outputs a control signal CS for displaying the information of the store 2 as an image to the image generation unit 14 .
  • the information of the store 2 (O2) located in the second area AA2 belonging to the line of sight of the passenger 40 is displayed as the virtual image object I2A.
  • the acquisition of line-of-sight information (STEP 4) and the determination of whether the line-of-sight of the occupant belongs to the first area AA1 (STEP 5) are performed before the acquisition of speed information (STEP 1) or the stop determination of the vehicle 20 (STEP 2). may be performed.
  • the HUD 10 of the present embodiment is configured to acquire the line-of-sight information I26 of the occupant of the vehicle 20 and display an image showing information about the object corresponding to the area to which the line of sight of the occupant of the vehicle 20 belongs.
  • the control unit 17 acquires the line-of-sight information I26 of the occupant from the line-of-sight acquisition unit 26 mounted on the vehicle 20, and based on the line-of-sight information I26 of the occupant, the line of sight of the occupant is displayed at a plurality of positions within the image displayable area AA. Determine which of the regions it belongs to. Then, the control unit 17 generates a control signal CS that causes the image generation unit 14 to generate an image showing information about the object corresponding to the determined area.
  • an image showing information about an object corresponding to the area to which the line of sight of the occupant 40 of the vehicle 20 belongs is displayed.
  • the image showing the information of the object corresponding to the area that does not belong to the line of sight of the occupant 40 is not displayed.
  • the virtual image objects I1A, I2A, and I3A of information about all objects corresponding to the image displayable area AA are displayed, the virtual image objects I1A, I2A, and I3A A part overlaps and it may be difficult for the crew member 40 to acquire information. That is, in the HUD 10 according to the present embodiment, only the information of the object in the area viewed by the occupant 40 is displayed, so that the occupant 40 can easily acquire the information and the visibility of the information is high.
  • information about all objects corresponding to the image displayable area AA is identified, and information about the object corresponding to the area belonging to the line of sight of the occupant 40 among the plurality of identified information is displayed as an image. information to be selected.
  • the virtual image can be immediately displayed even if the direction of the line of sight of the occupant changes. can be displayed. That is, the processing speed of the control unit 17 is high because there is no need to specify and acquire the information to be displayed again even if the occupant's line of sight changes.
  • the information that is displayed or hidden based on the line-of-sight information of the occupant is store information.
  • information about the surrounding environment such as shop information, which is not related to the running of the vehicle, while reducing the annoyance of the occupants.
  • the information that is displayed or hidden based on the line-of-sight information of the occupant is traffic signal information.
  • traffic signal information As a result, it is possible to reduce the annoyance of passengers while providing traffic information such as traffic signals.
  • an image showing information about the object corresponding to the area to which the line of sight of the occupant 40 of the vehicle 20 belongs is displayed. Accordingly, the occupant 40 can confirm the information regarding the traveling of the vehicle 20 while the vehicle 20 is traveling, and can grasp the information regarding the surrounding environment such as a store when the vehicle 20 is stopped such as waiting for a signal.
  • control unit 17 causes the image generating unit 14 to generate an image showing the traffic information regardless of the line of sight of the occupant 40.
  • control unit 17 adds the traffic information to the information of the object corresponding to the first area AA1. is included (STEP 8).
  • the image generator 14 is made to generate only an image showing the information on the object corresponding to the second area AA2. (STEP7).
  • the image generator 14 is caused to generate an image showing the traffic information to be displayed (STEP 9).
  • the first area AA1 Information on the traffic light (O3) located at is displayed as a virtual image object I3A.
  • the occupant 40 of the vehicle 20 can confirm the traffic information to be referred to when the vehicle 20 travels.
  • the image generator 14 may be configured to generate an image showing traffic information corresponding to the second area AA2 in addition to the image showing the information of the object corresponding to the one area AA1.
  • the information about the object corresponding to the image displayable area AA is obtained from the peripheral information DB 251.
  • the control unit 17 may acquire information about an object corresponding to the image displayable area AA from the infrastructure equipment 30 .
  • the control unit 17 may acquire information about the waiting time from the traffic light (O3) and display the information about the waiting time as a virtual image object I3A. By displaying the information indicating the waiting time of the traffic light in this manner, the crew member 40 can prepare for the start of the next run.
  • the HUD 10 directly acquires vehicle running information and surrounding environment information from the running state acquisition unit 22, the surrounding environment acquisition unit 23, the GPS 24, the storage device 25, the line of sight acquisition unit 26, and the infrastructure equipment 30. may be acquired via a vehicle control unit (not shown) that controls the running of the vehicle. Also, the control unit 17 of the HUD 10 may be configured integrally with the vehicle control unit.
  • the image displayable area AA is divided into two areas, but may be divided into three or more areas. Also, the plurality of areas of the image displayable area AA may be divided so that parts thereof overlap each other.
  • store information is given, but information such as entertainment facilities other than stores is also acceptable.
  • traffic information traffic signal information is given, but information other than traffic signals such as traffic signs (speed limit display and destination guide display) may be used.
  • the peripheral information DB 251 is included in the storage device 25 mounted on the vehicle 20.
  • the peripheral information DB 251 may be provided, for example, in an external server connectable to the vehicle 20 via a wireless communication network.
  • the HUD 10 While the vehicle 20 is stopped, the HUD 10 displays an image showing information about the object corresponding to the area to which the line of sight of the occupant of the vehicle 20 belongs.
  • the HUD 10 may be configured to display an image showing information about an object corresponding to an area to which the line of sight of the occupant of the vehicle 20 belongs, for example, when the vehicle 20 is driving automatically.
  • the light emitted from the image generation unit 14 is configured to be reflected by the concave mirror 16 and illuminate the windshield 21, but is not limited to this.
  • the light reflected by the concave mirror 16 may be directed to a combiner (not shown) provided inside the windshield 21 .
  • the combiner consists, for example, of transparent plastic discs. A portion of the light emitted from the image generator 14 of the HUD main body 11 to the combiner is reflected toward the occupant's viewpoint E in the same manner as when the windshield 21 is irradiated with light.
  • the HUD 10 was mentioned as an example of the image irradiation device, it is not limited to this.
  • the terms “horizontal direction”, “vertical direction”, and “front-back direction” may be referred to as appropriate. These directions are relative directions set for the HUD 20B shown in FIG.
  • the “horizontal direction” is a direction including “leftward direction” and “rightward direction”.
  • the “vertical direction” is a direction that includes the “upward direction” and the “downward direction”.
  • “Fore-and-aft direction” is a direction that includes "forward direction” and "rearward direction.”
  • the left-right direction is a direction orthogonal to the up-down direction and the front-rear direction.
  • FIG. 10 is a schematic diagram of the HUD 20B provided on the vehicle 1B, viewed from the side of the vehicle 1B. At least part of the HUD 20B is located inside the vehicle 1B. Specifically, the HUD 20B is installed at a predetermined location inside the vehicle 1B. For example, HUD 20B may be located within the dashboard of vehicle 1B.
  • the HUD 20B directs the HUD information to the occupant of the vehicle 1B so that the predetermined information (hereinafter referred to as HUD information) is superimposed on the real space outside the vehicle 1B (in particular, the surrounding environment in front of the vehicle 1B). It is configured to be displayed as an image.
  • the HUD information displayed by the HUD 20B includes, for example, vehicle running information related to running of the vehicle 1B and/or surrounding environment information related to the surrounding environment of the vehicle 1B (in particular, information), etc.
  • HUD 20B is an AR display that functions as a visual interface between vehicle 1B and passengers.
  • the HUD 20B includes a HUD body section 21B, an image generation unit (PGU) 24B, a control section 25B, and a concave mirror 26B.
  • PGU image generation unit
  • the HUD body portion 21B has a body housing 22B and an exit window 23B.
  • the exit window 23B is composed of a transparent plate that transmits visible light.
  • the HUD body portion 21B accommodates an image generation device 24B, a control portion 25B, and a concave mirror 26B inside a body housing 22B.
  • the image generation device 24B is configured to emit light that generates a predetermined image displayed to the occupants of the vehicle 1B.
  • the image generation device 24B can emit light that generates a changing image that changes according to the situation of the vehicle 1B, for example. Details of the image generation device 24B will be described later.
  • the control section 25B controls the operation of each section of the HUD 20B.
  • the control unit 25B is connected to the vehicle control unit, and generates a control signal for controlling the operation of the image generation device 24B based on, for example, vehicle running information and surrounding environment information transmitted from the vehicle control unit, The generated control signal is transmitted to the image generation device 24B.
  • the control unit 25B is equipped with a processor such as a CPU and a memory, and the processor executes a computer program read from the memory to control operations of the image generation device 24B and the like.
  • the concave mirror 26B is arranged on the optical path of the light emitted from the image generating device 24B.
  • the concave mirror 26B is configured to reflect the light emitted from the image generation device 24B toward the windshield 18B (for example, the front window of the vehicle 1B).
  • the concave mirror 26B has a reflecting surface curved concavely to form a predetermined image, and reflects the image of the light emitted from the image generating device 24B and formed at a predetermined magnification.
  • the concave mirror 26B has, for example, a drive mechanism 27B, and may be configured to change the position and orientation of the concave mirror 26B based on a control signal transmitted from the control section 25B.
  • Concave mirror 26B is an example of a reflecting mirror.
  • the control unit 25B may generate a control signal for changing the position and orientation of the concave mirror 26B, and transmit the generated control signal to the driving mechanism 27B.
  • the light emitted from the image generation device 24B is reflected by the concave mirror 26B and emitted from the emission window 23B of the HUD main body 21B.
  • the light emitted from the emission window 23B of the HUD body portion 21B is applied to the windshield 18B, which is a transmissive member. A part of the light emitted from the emission window 23B to the windshield 18B is reflected toward the viewpoint E of the passenger.
  • the passenger recognizes the light emitted from the HUD body 21B as a virtual image (predetermined image) formed at a predetermined distance in front of the windshield 18B.
  • the occupant will not be able to see the virtual image object I formed by the predetermined image on the road outside the vehicle. It can be visually recognized as if it is floating.
  • the configuration of the HUD 20B is not limited to this.
  • a plane mirror may be provided as an example of a reflecting member between the image generation device 24B and the concave mirror 26B. In this case, the light emitted from the image generating device 24B is reflected twice by the plane mirror and the concave mirror 26B.
  • the reflecting member provided between the image generating device 24B and the concave mirror 26B is not limited to a plane mirror, and may be a convex mirror or other concave mirrors.
  • the viewpoint E of the occupant may be either the viewpoint of the occupant's left eye or the viewpoint of the right eye. Alternatively, viewpoint E may be defined as the midpoint of a line connecting the viewpoints of the left and right eyes.
  • the position of the occupant's viewpoint E is identified, for example, based on image data acquired by an internal camera of the vehicle 1B. The position of the occupant's viewpoint E may be updated at predetermined intervals, or may be determined only once when the vehicle 1B is started.
  • the distance of the virtual image object I (the distance from the occupant's viewpoint E to the virtual image) is adjusted by adjusting the distance from the image generation device 24B to the occupant's viewpoint E (for example, by adjusting the distance between the image generation device 24B and the concave mirror 26B). adjustment).
  • FIG. 11 is a schematic diagram showing the configuration of the image generation device 24B.
  • the image generation device 24B includes at least one light source 111, at least one lens 120 (optical element), a liquid crystal section 130, and a cover 140.
  • the lens 120 is arranged between the light source 111 and the liquid crystal section 130 .
  • the liquid crystal section 130 is arranged between the lens 120 and the cover 140 .
  • Cover 140 is arranged to cover the front side of liquid crystal unit 130 .
  • the light source 111 is, for example, a white LED or laser light source that excites a phosphor with a blue LED or laser.
  • Light source 111 may be an RGB LED (or laser) light source composed of red, green, and blue.
  • Light source 111 may be a combination of a white light source and an RGB light source.
  • the light source 111 is mounted on the light source board 110 .
  • the light source 111 comprises a first light source 111A and a second light source 111B.
  • the first light source 111A and the second light source 111B are arranged on the light source substrate 110 with a certain distance therebetween in the left-right direction.
  • the light source substrate 110 is, for example, a printed circuit board in which electric circuit wiring is printed on the surface or inside of a base substrate made of an insulator.
  • the lens 120 is, for example, an aspherical convex lens in which both a lens entrance surface 122 into which light from the light source 111 is incident and a lens exit surface 123 through which the incident light is emitted are convex. Lens 120 is configured to transmit light emitted from light source 111 and emit the light toward liquid crystal section 130 .
  • the lens 120 has a first lens region 121A that transmits the first light emitted from the first light source 111A and a second lens region 121B that transmits the second light emitted from the second light source 111B.
  • the first lens area 121A is an aspheric convex lens corresponding to the first light source 111A.
  • the second lens area 121B is an aspheric convex lens corresponding to the second light source 111B.
  • a lens incident surface 122A of the first lens region 121A and a lens incident surface 122B of the second lens region 121B are convex incident surfaces that bulge slightly downward.
  • a lens exit surface 123A of the first lens region 121A and a lens exit surface 123B of the second lens region 121B are convex exit surfaces that bulge upward.
  • a right portion of the first lens region 121A arranged on the left side and a left portion of the second lens region 121B arranged on the right side are combined.
  • the lens 120 is arranged so that the center of the light emitting surface of the first light source 111A becomes the focal position of the first lens region 121A and the center of the light emitting surface of the second light source 111B becomes the focal position of the second lens region 121B. (not shown).
  • the liquid crystal section 130 is configured to generate a predetermined image with light emitted from the lens 120 .
  • the liquid crystal portion 130 of this embodiment includes a liquid crystal phase 131 including a base, a polarizing film 132, and a drive circuit (not shown).
  • the liquid crystal unit 130 has an emission surface 133 that emits light toward the front of the image generation device 24B.
  • the liquid crystal portion 130 is attached to the front portion of the PGU housing (not shown).
  • the liquid crystal portion 130 may include a protective film 134 attached to the polarizing film 132 .
  • the liquid crystal phase 131 is provided on the base. By applying a voltage to the liquid crystal phase 131 by a driving circuit, it is possible to switch between a state in which the polarizing film 132 transmits light and a non-transmitting state in which the polarizing film 132 does not transmit light.
  • the liquid crystal phase 131 and the polarizing film 132 are divided into a plurality of pixels Z, and each pixel Z is switched between a light transmission state and a light non-transmission state. By making certain pixels Z transparent and certain other pixels Z opaque, the image generator 24B produces a given image. In addition, in FIG. 11, the division line of the pixel Z is drawn only on a part of the liquid crystal phase 131 for the sake of simplification of the drawing.
  • the light formed in the liquid crystal phase 131 passes through the polarizing film 132 and is emitted from the emission surface 133 to the outside (forward in this embodiment).
  • the exit surface 133 is the surface of the polarizing film 132 when the liquid crystal portion 130 does not include the protective film 134 , and is the surface of the protective film 134 when the liquid crystal portion 130 includes the protective film 134 .
  • the exit surface 133 has a display area X that generates a predetermined image that is displayed toward the occupant of the vehicle 1B, and a non-display area Y that does not generate an image at all times.
  • the image generation device 24B when the image generation device 24B is incorporated in the HUD 20B, depending on how the HUD 20B is used, part of the exit surface 133 may not contribute to image generation.
  • the display region X is the portion of the output surface 133 that generates the predetermined image
  • the non-display region Y is the other portion. becomes.
  • the cover 140 is arranged on the front side of the liquid crystal section 130 so as to cover at least part of the exit surface 133 of the liquid crystal section 130 .
  • Cover 140 is made of a highly heat-resistant material.
  • the cover 140 covers the polarizing film 132 or protective film 134 of the liquid crystal section 130 .
  • Cover 140 may be provided in direct contact with polarizing film 132 or protective film 134, or may be attached to the front portion of the PGU housing (not shown) without contacting polarizing film 132 or protective film 134.
  • may be Cover 140 is preferably provided so that the distance between cover 140 and polarizing film 132 or protective film 134 is short. Furthermore, the cover 140 covers the non-display area Y of the emission surface 133 of the liquid crystal section 130 .
  • FIG. 12 is a plan view of the image generation device 24B as viewed from the front.
  • the liquid crystal unit 130 of the present embodiment has display areas X, X1, and X2 that generate images, and non-display areas Y, Y1, and Y2 that do not generate images at all times.
  • the display area X for example, an image showing vehicle speed information and legal speed information is generated.
  • the image generated in the display area X differs depending on the driving conditions of the vehicle 1B. When the vehicle 1B is stopped, the image showing the vehicle speed information and legal speed information may not be generated in the display area X.
  • An image of a left arrow is generated in the display area X1.
  • An image of a right arrow is generated in the display area X2.
  • a left arrow image is generated in the display area X1, and nothing is generated in the display area X2.
  • a right arrow image is generated in the display area X2, and nothing is generated in the display area X1.
  • the left arrow in the display area X1 may be flashed to the occupant of the vehicle 1B. In this case, in the display area X1, the operation of generating and disappearing an image is repeated for a certain period of time. The same applies to the right arrow in the display area X2.
  • the non-display areas Y, Y1, and Y2 are areas that do not always generate images regardless of the driving conditions of the vehicle 1.
  • a non-display area Y1 surrounding the left arrow of the display area X1 and a non-display area Y2 surrounding the right arrow of the display area X2 are arranged.
  • two non-display areas Y are arranged in addition to these display areas X, X1, X2 and non-display areas Y1, Y2.
  • the liquid crystal part 130 is supplied as a part having a rectangular display part.
  • the liquid crystal portion 130 having a rectangular display portion is incorporated into the HUD 20B without changing the shape of the display portion.
  • an area that is not always used for display occurs in part of the display section.
  • the HUD 20B is configured to display only the vehicle speed, traveling direction, and vehicle speed limit in the layout of FIG. 12, the areas Y, Y1, and Y2 are not always used for display.
  • Such an area is called a non-display area.
  • the two non-display areas Y are arranged on the left side of the display area X and the right side of the display area X, respectively.
  • the number and shape of the display areas, the number and shape of the non-display areas, and the images to be displayed shown in FIG. 12 are merely examples, and are not limited to these.
  • the cover 140 has a cover 140Y covering the non-display area Y, a cover 140Y1 covering the non-display area Y1, and a cover 140Y2 covering the non-display area Y2.
  • FIG. 13 is an enlarged view of cover 140Y1 shown in FIG.
  • the cover 140Y1 is composed of one piece 148.
  • the shape of piece 148 is rectangular.
  • Piece 148 in this embodiment is rectangular.
  • Piece 148 has a light shielding property.
  • the surface of piece 148 is covered with an antireflection layer.
  • the piece 148 may be made of a resin material, and a black coating film may be provided on the surface of the resin material.
  • the surface of the piece 148 may be textured.
  • the piece 148 has a hole 149 with a shape corresponding to the image of the left arrow. Specifically, the piece 148 has a hole 149 in the shape of a left arrow slightly larger than the left arrow of the display area X1, and is provided so as to surround the left arrow of the display area X1. Thus, the piece 148 covers the non-display area Y1, which is part of the output surface 133 of the image generator 24B.
  • Piece 148 is an example of a piece belonging to the first piece group.
  • FIG. 14 is a partially enlarged view of the cover 140Y.
  • the cover 140Y is composed of a plurality of pieces 141.
  • Each piece 141 has a rectangular shape. In this embodiment, each piece 141 is square and all have the same shape.
  • Each piece 141 has a light shielding property.
  • the surface of each piece 141 is covered with an antireflection layer.
  • each piece 141 may be made of a resin material, and a black coating film may be provided on the surface of the resin material.
  • the surface of each piece 141 may be textured.
  • Piece 148 of cover 140Y1 has a hole 149, while each piece 141 of cover 140Y does not have a hole. That is, the shape of each piece 141 is different from the shape of piece 148 .
  • Each piece 141 is an example of a piece belonging to the second piece group.
  • At least part of one piece 141A of the plurality of pieces 141 is in contact with at least part of the other piece 141B.
  • the piece 141A has a left side A1, an upper side A2, a right side A3, and a lower side A4.
  • the piece 141B has a left side B1, an upper side B2, a right side B3, and a lower side B4.
  • the right side A3 of the piece 141A is arranged so as to be in contact with the left side B1 of the piece 141B.
  • the piece 141C has a left side C1, an upper side C2, a right side C3, and a lower side C4.
  • the right side B3 of the piece 141B is arranged so as to be in contact with the left side C1 of the piece 141C.
  • the plurality of pieces 141 are spread over the non-display area Y, which is part of the emission surface 133 of the image generation device 24B.
  • the state of being "covered” is preferably a state in which the pieces are arranged in contact with each other without gaps, but includes a state in which some of the pieces are partially in contact with each other. sell. Not all pieces are necessarily in complete contact with each other.
  • FIG. 15 is a schematic diagram for explaining an optical path when sunlight enters the HUD 20B.
  • sunlight an example of outside light
  • the sunlight is reflected by the concave mirror 26B, and is reflected by the image generating device 24B.
  • the far-infrared rays contained in the sunlight cause a local temperature rise on the emission surface 133 of the liquid crystal unit 130, resulting in polarized light.
  • Film 132 may deteriorate.
  • the cover 140Y1 covers the non-display area Y1, the cover 140Y2 covers the non-display area Y2, and the cover 140Y covers the non-display area Y, which are part of the emission surface 133 of the liquid crystal unit 130.
  • the cover 140 covers a part of the emission surface 133, so at least the area covered by the cover 140 is exposed to the sunlight.
  • the exit surface 133 of the portion 130 is not directly irradiated. Therefore, it is possible to suppress the local temperature rise of the output surface 133 and suppress the deterioration of the polarizing film 132 .
  • the cover 140 of the present disclosure covers at least a portion of the exit surface 133 of the liquid crystal section 130, local temperature rise of the exit surface 133 due to sunlight can be suppressed. Since the image generation device 24B and the HUD 20B of the present disclosure include such a cover 140, durability against sunlight can be improved. In addition, there is no need for parts for controlling or driving the cover 140, and local temperature rise due to sunlight can be suppressed with a simple configuration.
  • the cover 140Y of the present disclosure is composed of a plurality of pieces 141, it is easy to form a cover suitable for the shape of the liquid crystal unit 130 and the size and shape of the non-display area Y by adjusting the number of pieces. .
  • vehicles differ in the shape and size of the liquid crystal portion and the shape and size of the display area depending on the type of vehicle. Since the cover 140 of the present disclosure is composed of a plurality of pieces 141, it is possible to suppress local temperature rise of the emission surface 133 due to sunlight in each vehicle type. Therefore, a highly convenient cover can be realized.
  • cover 140 of the present disclosure covers the polarizing film 132 or the protective film 134 of the liquid crystal portion 130, deterioration of the polarizing film 132 due to sunlight can be suppressed.
  • the exit surface 133 of the present disclosure always has a non-image-producing non-display area Y, and the cover 140 covers this non-display area Y, so that the exit surface is exposed to sunlight without reducing the brightness of the image. Local temperature rise of 133 can be suppressed.
  • the multiple pieces 141 of the present disclosure are arranged so that the side A3 of one piece 141A is in contact with the side B1 of the other piece 141B. Since each piece 141 has a rectangular shape, it is easy to arrange so that the side A3 and the side B1 are in contact with each other. Therefore, the area where the cover 140Y covers the emission surface 133 can be continuously expanded. Therefore, local temperature rise due to sunlight can be more effectively suppressed.
  • the plurality of pieces 141 of the present disclosure are spread over the non-display area Y, which is part of the emission surface of the image generation device 24B, local temperature rise due to sunlight can be further suppressed.
  • the gap is relatively small compared to the size of each piece 141, or the gap is surrounded by the pieces 141. If so, it is possible to suppress the local temperature rise of the emission surface 133 due to sunlight.
  • each piece 141 of the present disclosure has the same shape, it is possible to reduce the manufacturing cost of the cover 140Y compared to the case where the pieces have different shapes.
  • the cover 140 of the present disclosure has a piece 148 belonging to the first piece group and a plurality of pieces 141 belonging to the second piece group. Since the cover 140 has a plurality of pieces with different shapes and sizes, it is easy to install a cover suitable for the shape and size of each of the non-display areas Y, Y1, and Y2. As a result, it is possible to more effectively suppress local temperature rise of the emission surface 133 due to sunlight.
  • the piece 148 of the first piece group of the present disclosure has a hole 149 having a shape corresponding to the image of the left arrow in the display region X1. It is possible to suppress the local temperature rise of the output surface 133 due to .
  • the plurality of pieces 141 and 148 of the present disclosure have a light shielding property, local temperature rise of the emission surface 133 due to sunlight can be further suppressed.
  • the surfaces of the plurality of pieces 141 and 148 of the present disclosure are coated with an antireflection film, unintended emission of light (stray light) inside the image generating device 24B and inside the HUD 20B can be prevented.
  • the non-display area Y1 in this embodiment is covered with the cover 140Y1 configured by one piece 148, it may be covered with a plurality of pieces 141. Even in this case, the plurality of pieces 141 are arranged to form a hole 149 shaped like a left arrow that is slightly larger than the left arrow of the display area X1. Therefore, it is possible to suppress the local temperature rise of the output surface 133 due to sunlight without lowering the brightness of the image of the left arrow in the display area X1.
  • FIG. 14 shows an embodiment in which each piece 141 has the same shape, the shape of each piece 141 is not limited to the same shape.
  • FIG. 16 shows a partially enlarged view of a cover 140YA as Modification 1. As shown in FIG. Components that are the same as or correspond to those of the cover 140Y in FIG. 14 are given the same reference numerals, and descriptions thereof are omitted.
  • each piece 141 of the cover 140YA is square, there are multiple sizes of the pieces.
  • one piece 141D among the plurality of pieces 141 is four times as large as the other piece 141A. That is, the pieces 141A and 141D are in a similar relationship.
  • one piece 141D is four times as large as the other piece 141B. That is, the pieces 141B and 141D are in a similar relationship.
  • At least part of one piece 141A is in contact with at least part of another piece 141D.
  • the piece 141D has a left side D1, an upper side D2, a right side D3, and a lower side D4.
  • the left side A1 of the piece 141A is arranged so as to be in contact with the right side D3 of the piece 141D.
  • the left side B1 of the piece 141B is arranged so as to be in contact with the right side D3 of the piece 141D.
  • the plurality of pieces 141 are spread over the non-display area Y, which is part of the exit surface 133 of the image generation device 24B.
  • the size of one piece 141D and the size of the other piece 141A or 141B are different from each other, so the emission surface 133 can be covered more effectively.
  • the number of large pieces 141D increases, the number of pieces to be arranged can be reduced, and the number of man-hours can be reduced.
  • the larger the number of small pieces 141A and 141B the easier it is to arrange them precisely according to the shape of the non-display area Y, and the more precisely the non-display area Y can be covered.
  • the cover 140YA of the present embodiment also covers at least part of the emission surface 133 of the liquid crystal section 130, the same effect as described above can be obtained.
  • FIG. 17 shows a partially enlarged view of a cover 140YB as Modified Example 2. As shown in FIG. Components that are the same as or correspond to those of the cover 140Y in FIG. 14 are given the same reference numerals, and descriptions thereof are omitted.
  • each piece 141 of the cover 140YB has a rectangular shape, while the pieces 141E and 141F have rectangular shapes.
  • one piece 141E is twice as large as the other piece 141A.
  • one piece 141F is twice as large as the other piece 141A.
  • Piece 141E and piece 141F have the same shape.
  • At least part of one piece 141A is in contact with at least part of another piece 141E.
  • the piece 141E has a left side E1, an upper side E2, a right side E3, and a lower side E4.
  • the left side A1 of the piece 141A is arranged so as to be in contact with the right side E3 of the piece 141E.
  • the piece 141F has a left side F1, an upper side F2, a right side F3, and a lower side F4.
  • the left side B1 of the piece 141B is arranged so as to be in contact with the right side F3 of the piece 141F.
  • the lower side E4 of the piece 141E is arranged so as to be in contact with the upper side F2 of the piece 141F.
  • the plurality of pieces 141 are spread over the non-display area Y, which is part of the exit surface 133 of the image generation device 24B.
  • the shape of one piece 141E or piece 141F and the shape of the other piece 141A or piece 141B are different from each other, so that the emission surface 133 can be covered more effectively.
  • the number of large pieces 141E or 141F increases, the number of pieces to be arranged can be reduced, and the number of man-hours can be reduced.
  • the larger the number of small pieces 141A and 141B the easier it is to arrange them precisely according to the shape of the non-display area Y, and the more precisely the non-display area Y can be covered. Since the cover 140YB of the present embodiment also covers at least part of the emission surface 133 of the liquid crystal section 130, the same effect as described above can be obtained.
  • FIG. 18 shows a partially enlarged view of a cover 140YC as Modified Example 3. As shown in FIG. Components that are the same as or correspond to those of the cover 140Y in FIG. 14 are given the same reference numerals, and descriptions thereof are omitted.
  • each piece 141 has at least one convex portion and at least one concave portion.
  • a convex portion of one piece 141 is configured to fit with a concave portion of another piece 141 .
  • the piece 141G has a left side G1, an upper side G2, a right side G3, and a lower side G4.
  • the piece 141G has a convex portion G5 formed on the left side G1 and a concave portion G6 formed on the right side G3.
  • the piece 141H has a left side H1, an upper side H2, a right side H3, a lower side H4, a protrusion H5 formed on the left side H1, and a recess H6 formed on the right side H3.
  • the convex portion H5 of the piece 141H is configured to fit with the concave portion G6 of the piece 141G.
  • the piece 141I has a left side I1, an upper side I2, a right side I3, a lower side I4, a convex portion I5 formed on the left side I1, and a concave portion I6 formed on the right side I3.
  • the convex portion I5 of the piece 141I is configured to fit with the concave portion H6 of the piece 141H.
  • the cover 140YC of the present disclosure can more reliably cover the emission surface 133, and can further suppress local temperature rise of the emission surface 133 due to sunlight.
  • FIG. 19 shows a partially enlarged view of a cover 140YD as Modified Example 4. As shown in FIG. Components that are the same as or correspond to those of the cover 140Y in FIG. 14 are given the same reference numerals, and descriptions thereof are omitted.
  • each piece 141 has two protrusions and two recesses.
  • the piece 141J has a left side J1, an upper side J2, a right side J3, and a lower side J4.
  • the piece 141J has a convex portion J5 formed on the left side J1, a concave portion J6 formed on the right side J3, a convex portion J7 formed on the upper side J2, and a concave portion J8 formed on the lower side J4.
  • the convex portion J5 and the concave portion J6 are opposed to each other.
  • the convex portion J7 and the concave portion J8 are opposed to each other.
  • the piece 141K includes a left side K1, an upper side K2, a right side K3, a lower side K4, a convex portion K5 formed on the left side K1, a concave portion K6 formed on the right side K3, and a convex portion K7 formed on the upper side K2. and a recess K8 formed in the lower side K4.
  • the convex portion K5 and the concave portion K6 are opposed to each other.
  • the convex portion K7 and the concave portion K8 face each other.
  • the convex portion K5 of the piece 141K is configured to fit with the concave portion J6 of the piece 141J.
  • the left side K1 is an example of the first side.
  • the upper side K2 is an example of the second side.
  • the right side K3 is an example of the third side.
  • the lower side K4 is an example of the fourth side.
  • the convex portion K5 is an example of a first convex portion.
  • the convex portion K7 is an example of a second convex portion.
  • the recess K6 is an example of a first recess.
  • the recess K8 is an example of a second recess.
  • the piece 141L includes a left side L1, an upper side L2, a right side L3, a lower side L4, a convex portion L5 formed on the left side L1, a concave portion L6 formed on the right side L3, and a concave portion L6 formed on the upper side L2. It has a convex portion L7 and a concave portion L8 formed in the lower side L4. The convex portion L5 and the concave portion L6 are opposed to each other. The convex portion L7 and the concave portion L8 are opposed to each other.
  • the convex portion K7 of the piece 141K is configured to fit with the concave portion L8 of the piece 141L.
  • the cover 140YD of the present disclosure can more reliably cover the emission surface 133, and can further suppress local temperature rise of the emission surface 133 due to sunlight.
  • FIG. 20 is a schematic diagram of the HUD 20C provided on the vehicle 1C viewed from the side of the vehicle 1C.
  • HUD 20C is an example of an image irradiation device.
  • the HUD 20C includes a HUD body section 21B, an image generation unit (PGU) 24C, a control section 25C, and a concave mirror 26C.
  • PGU image generation unit
  • the image generation device 24C is configured to emit light that generates a predetermined image displayed to the occupants of the vehicle 1C.
  • the configuration of the image generation device 24C is the same as the configuration of the image generation device 24B, except that the cover 140 is not provided, so description thereof will be omitted.
  • the control section 25C controls the operation of each section of the HUD 20C.
  • the concave mirror 26C is arranged on the optical path of the light emitted from the image generation device 24C.
  • the concave mirror 26C is configured to guide the light emitted from the image generation device 24C to a predetermined position.
  • the concave mirror 26C has a reflecting surface 26A curved concavely to form a predetermined image.
  • the reflecting surface 26A reflects the image of light emitted from the image generating device 24C and formed into an image at a predetermined magnification.
  • the concave mirror 26C has, for example, a drive mechanism 27C, and is configured to be able to displace the position and orientation of the concave mirror 26C based on a control signal transmitted from the controller 25C.
  • the concave mirror 26C is an example of an optical member.
  • the reflecting surface 26A is an example of a reflecting member. Concave mirror 26C directs light emitted from image generator 24C to a predetermined position, such as a specific position on windshield 18B.
  • FIG. 21 is a plan view of the liquid crystal section 130 of the image generation device 24C.
  • liquid crystal portion 130 has a plurality of regions each configured to form an associated similar virtual image.
  • Each region is composed of a plurality of pixels Z of the liquid crystal portion 130 .
  • Each region is composed of the same number of pixels Z, respectively.
  • three regions of region A, region B, and region C are arranged in a line.
  • Region B is provided between region A and region C.
  • FIG. Region B in this embodiment is provided in contact with both region A and region C, but may be provided without contact with one or both regions.
  • Region A is an example of a first region.
  • Region B is an example of a second region.
  • the virtual images formed by the regions A, B, and C are the same in this embodiment.
  • an image representing vehicle speed information and legal speed information is formed in each area.
  • a left arrow image may be formed when the vehicle 1 turns left, and a right arrow image may be formed when the vehicle 1 turns right. Note that the display positions and sizes of the vehicle speed information and the legal speed information, and the positions and sizes of the arrows shown in FIG.
  • the liquid crystal section 130 is provided with at least one temperature sensor 30 that measures the temperature of a plurality of areas A, B, and C.
  • a plurality of temperature sensors 30 are provided to measure the temperature of one corresponding region.
  • a first temperature sensor 31 that measures the temperature of area A
  • a second temperature sensor 32 that measures the temperature of area B
  • a third temperature sensor 33 that measures the temperature of area C are provided.
  • These first temperature sensor 31, second temperature sensor 32, and third temperature sensor 33 are arranged along the direction in which the regions A, B, and C are arranged.
  • the first temperature sensor 31, the second temperature sensor 32, and the third temperature sensor 33 of this embodiment all have the same configuration, but these configurations may differ from each other.
  • the control unit 25C of the present disclosure controls at least one other region. to select.
  • the controller 25C controls the concave mirror 26C so as to guide the light emitted from the selected area to a predetermined position. That is, the control unit 25C generates a control signal for displacing the position and orientation of the concave mirror 26C according to the position of the selected area, and transmits the generated control signal to the driving mechanism 27C.
  • the driving mechanism 27C drives a built-in motor (not shown) based on the received control signal to displace the concave mirror 26C.
  • the position and direction in which the concave mirror 26C is displaced correspond to the direction and direction in which the plurality of regions A, B, and C are arranged.
  • the controller 25C guides the light emitted from the selected area to a predetermined position by displacing the concave mirror 26C.
  • the control unit 25C of the present embodiment selects the area B when the temperature of the area A becomes equal to or higher than the first threshold while the light emitted from the area A is guided to a predetermined position.
  • the first threshold is set, for example, 5 degrees lower than the first failure temperature. Furthermore, the controller 25C displaces the concave mirror 26C so as to guide the light emitted from the selected area B to a predetermined position. The region where sunlight is incident is switched from region A to region B by displacing concave mirror 26C. Therefore, it is possible to prevent the sunlight from continuing to enter the area A.
  • the first threshold is an example of a predetermined value.
  • the liquid crystal portion 130 of the present disclosure has a plurality of regions A, B, and C, each configured to form a similar virtual image associated therewith, so that light output from any region , a similar virtual image is formed on the windshield 18B.
  • the virtual images formed by the regions A, B, and C of this embodiment are all the same. Therefore, the occupant of the vehicle 1C can recognize the virtual image without any sense of discomfort regardless of the light emitted from any region.
  • the light emitted from the area A is reflected by the concave mirror 26C and has an optical path length of an optical path to reach a predetermined position
  • the light emitted from the area B is reflected by the concave mirror 26C.
  • the optical path lengths of the optical paths that reach a predetermined position may differ from each other. In this case, depending on the selected region and its optical path, the occupant of the vehicle 1C may feel uncomfortable with the displayed virtual image.
  • the output surface 133 and the reflecting surface 26A are configured so that the distances from each area to the reflecting surface 26A are equal, and the entire concave mirror 26C including the reflecting surface 26A is displaced. Therefore, the optical path length is the same regardless of which optical path is selected, and the virtual image can be displayed without discomfort to the occupant.
  • the shape of the concave mirror 26C is set to an appropriate shape, so that the optical path lengths of the respective regions are aligned. It may be configured to allow
  • the control unit 25C of the present disclosure controls the concave mirror 26C so as to guide light emitted from at least one region of the liquid crystal unit 130 to a predetermined position.
  • the control unit 25C controls the concave mirror 26C so as to guide light emitted from at least one region of the liquid crystal unit 130 to a predetermined position.
  • the concave mirror 26C of the present disclosure has a reflective surface 26A that reflects the light emitted from the liquid crystal unit 130, and the control unit 25C displaces the entire concave mirror 26C including the reflective surface 26A so that the light is output from the selected area. guide the light. Since the control unit 25C displaces the reflecting surface 26A, the optical path length from the selected area can be kept equal regardless of which area is selected, and a virtual image can be displayed without discomfort to the occupant.
  • the control unit 25C of the present disclosure guides the light emitted from the region B to the predetermined position when the temperature of the region A becomes equal to or higher than the first threshold value in a state in which the light emitted from the region A is guided to the predetermined position. to control the concave mirror 26C. Therefore, it is possible to prevent the sunlight from continuing to enter the area A, and to suppress the local temperature rise in the area A.
  • the HUD 20C of the present disclosure includes at least one temperature sensor 30 that measures the temperatures of multiple regions A, B, and C of the liquid crystal portion 130.
  • a first temperature sensor 31 for measuring the temperature of region A a second temperature sensor 32 for measuring the temperature of region B, and a third temperature sensor 33 for measuring the temperature of region C are provided. Since a plurality of temperature sensors 30 are provided to measure the temperature of one corresponding region, the local temperature rise in each of the plurality of regions A, B, and C can be detected more accurately. Therefore, local temperature rise of the liquid crystal portion 130 due to sunlight can be suppressed.
  • the liquid crystal portion 130 has three regions A, B, and C in this embodiment, the number of regions is not limited to three.
  • the number of regions may be two, or four or more. If the area is divided into four or more areas, the light from two areas may be guided to a predetermined position. For example, if there are areas A, B, C, and D, the state in which the light from the areas A and B is guided to a predetermined position is switched to the state in which the light from the areas C and D is guided to a predetermined position. good too.
  • the light from each region may be partially combined and guided to a predetermined position to form a single image.
  • a first temperature sensor 31, a second temperature sensor 32, and a third temperature sensor 33 are provided as the plurality of temperature sensors 30, but the number of temperature sensors 30 is not limited to three. Only one temperature sensor may be provided. For example, only one second temperature sensor 32 may be provided, and the second temperature sensor 32 may be configured to estimate the temperature of area A according to the distance from this second temperature sensor 32 to area A. Similarly, the second temperature sensor 32 may be configured to estimate the temperature of the area C according to the distance of the area C from the second temperature sensor 32 . Even when only the second temperature sensor 32 is provided, the same effect as described above can be obtained. Moreover, the manufacturing cost can be suppressed compared to the case where a plurality of temperature sensors 30 are provided.
  • the temperature sensor 30 may be a thermo camera 34 that collectively measures all areas A, B, and C of the liquid crystal section 130 (FIG. 21).
  • Thermal camera 34 is configured to measure the temperature of a measurement area 34A, which includes a plurality of areas A, B, C (Fig. 21).
  • the thermo camera 34 transmits the information to the control unit 25C when the temperature of a certain area becomes equal to or higher than a predetermined value. Even when the thermo camera 34 is provided, the same effect as described above can be obtained. Moreover, the manufacturing cost can be suppressed compared to the case where a plurality of temperature sensors 30 are provided.
  • control unit 25C switches the area on which sunlight is incident from the area A to the area B, but the area switching is not limited to this.
  • the control unit 25C may switch from area B to area C.
  • the control unit 25C of the present embodiment selects the area C when the temperature of the area B becomes equal to or higher than the third threshold while the light emitted from the area B is guided to a predetermined position.
  • the third threshold is set, for example, 5 degrees lower than the third failure temperature.
  • the controller 25C displaces the concave mirror 26C so as to guide the light emitted from the selected region C to a predetermined position.
  • the area where the sunlight is incident is switched from the area B to the area C by the displacement of the concave mirror 26C.
  • Region B is an example of a third region.
  • Region C is an example of a fourth region.
  • the third area may be the first, second, or other area.
  • the fourth area may be the first area, the second area, or another area.
  • the first threshold and the third threshold may be different from each other.
  • sunlight may be easily condensed in a specific area.
  • the first threshold is lower than the third threshold. Since the first threshold value and the third threshold value are different from each other in this way, it is possible to suppress the local temperature rise of the liquid crystal unit 130 depending on the optical system and vehicle type.
  • the first threshold and the third threshold may be the same.
  • the processing load on the control unit 25C is reduced. Therefore, compared to the case where a plurality of threshold values that are different from each other are provided, it is possible to speed up the processing of the control unit 25C.
  • the manufacturing cost can be suppressed compared to the case where a plurality of threshold values are provided.
  • control unit 25C when the temperature of region A becomes equal to or higher than the first threshold value in a state in which the light emitted from region A is guided to a predetermined position, control unit 25C directs the light emitted from region B to a predetermined position.
  • the concave mirror 26C is controlled so as to lead to the above, the operation of the controller 25C is not limited to this.
  • the control unit 25C may control the concave mirror 26C to guide the light emitted from the region B to a predetermined position after the state of guiding the light emitted from the region A to the predetermined position continues for a predetermined time.
  • the HUD 20C may have a timer 35 that measures the usage time (Fig. 21).
  • the control unit 25C measures the time for guiding the light emitted from one region (for example, region A) to a predetermined position. If the timer 35 clocks a predetermined time, the controller 25C controls the concave mirror 26C so as to guide the light emitted from another area (for example, area B) to a predetermined position.
  • the controller 25C controls the concave mirror 26C so that the light emitted from another region is guided to a predetermined position. Therefore, it is possible to prevent a specific area from being continuously used for a long time. Therefore, local temperature rise of the liquid crystal portion 130 due to sunlight can be suppressed.
  • HUD20C may be provided with the temperature sensor 30, and does not need to be provided.
  • the control unit 25C may measure the usage time. That is, a processor such as a CPU included in the control unit 25C may pseudo-measure the usage time by counting a predetermined frequency. Even when the control unit 25C measures the usage time, the same effect as described above can be obtained. Moreover, when the control unit 25C measures the usage time, the HUD 20C does not need to be provided with the temperature sensor 30 and the timer 35, and the manufacturing cost can be suppressed.
  • the optical member is not limited to the concave mirror 26C.
  • the optical member may be a shielding member.
  • FIG. 22 is a schematic diagram showing the structure of the shielding member 28.
  • FIG. 23 is a plan view of the liquid crystal section 130 after the control section 25C controls the shielding member 28.
  • FIG. 23 In the configuration shown in FIG. 23, the same components as those shown in FIG. 21 are denoted by the same reference numerals, and descriptions thereof are omitted.
  • the shielding member 28 is provided between the image generating device 24C and the concave mirror 26C inside the HUD 20C.
  • the shielding member 28 is preferably positioned close to the liquid crystal unit 130 of the image generation device 24C.
  • the material of the shielding member 28 is a member having higher heat resistance than general materials, such as aluminum, iron, and ceramics.
  • the color of the shielding member 28 is black to prevent stray light.
  • the distance between the shielding member 28 and the liquid crystal portion 130 is made as short as possible, a certain gap may be maintained and a heat insulating material may be placed between the shielding member 28 and the liquid crystal portion 130 .
  • the shielding member 28 has cover portions 28X and 28Y configured to individually cover the regions A, B, and C of the liquid crystal portion 130. As shown in FIG.
  • the cover portions 28X and 28Y are movably supported inside the frame. In the illustrated example, the cover portions 28X and 28Y can be moved vertically in the figure by actuators (not shown).
  • the cover part 28X is configured to be positioned in the region 28A or the region 28B.
  • Cover portion 28Y is configured to be positioned in region 28B or region 28C.
  • the controller 25C of the HUD 20C controls the shielding member 28 so as to guide the light emitted from the selected area to a predetermined position. That is, the control unit 25C generates a control signal for displacing the positions of the cover portions 28X and 28Y of the shielding member 28 according to the position of the selected region, and transmits the generated control signal to the shielding member 28. Send.
  • the shielding member 28 drives a built-in motor (not shown) based on the received control signal to displace the cover portion 28X and the cover portion 28Y.
  • the cover section 28X is located in the area 28B and the cover section 28Y is located in the area 28C.
  • the control unit 25C selects the region B when the temperature of the region A becomes equal to or higher than the first threshold.
  • the controller 25C displaces the cover 28X positioned in the area 28B to the area 28A (arrow in FIG. 22).
  • the cover portion 28X displaced to the area 28A in this way blocks the sunlight that irradiates the area A of the liquid crystal portion 130.
  • the cover portion 28Y blocks the sunlight irradiating the area C of the liquid crystal portion 130 while being positioned in the area 28C.
  • the control unit 25C controls the shielding member 28, only the light from the selected area B is emitted and viewed by the occupant of the vehicle 1C. Therefore, it is possible to prevent stray light from light from the areas A and C, which are areas (non-selected areas) other than the selected area B, and improve the visibility of the virtual image. Furthermore, since the shielding member 28 covers the non-selected area, it is possible to protect the non-selected area from sunlight, and to suppress temperature rise in the non-selected area of the liquid crystal section 130 due to sunlight.
  • the shielding member 28 has two cover portions, the cover portion 28X and the cover portion 28Y, the number of cover portions is not limited to two.
  • the shielding member 28 may have three covering portions, each covering the three regions A, B, and C of the liquid crystal portion 130, respectively. In this case, each cover can block light or guide it to a predetermined position by switching between a state of covering the corresponding area and a state of not covering the corresponding area.
  • the shielding member 28 may be a rotating body having a plurality of covering portions.
  • the configuration and operation of a shielding member 28R will be described as a modification of the shielding member with reference to FIGS. 20 and 24.
  • FIG. FIG. 24 is a schematic diagram showing the configuration of the shielding member 28R.
  • the shielding member 28R is provided between the image generating device 24C and the concave mirror 26C inside the HUD 20C.
  • the shielding member 28R is preferably positioned close to the liquid crystal unit 130 of the image generating device 24C.
  • the shielding member 28R has a cylindrical shape and is a rotating body that rotates about the axis L. As shown in FIG. The shielding member 28 ⁇ /b>R is provided so that the axis L is substantially orthogonal to the light emitted from the plurality of regions A, B, and C of the liquid crystal portion 130 . Further, the shielding member 28R has cover portions 28D, 28E and 28F configured to cover respective regions A, B and C of the liquid crystal portion 130 respectively. The covering portion 28D has a first protrusion 28D1 configured to cover the region B and a second protrusion 28D2 configured to cover the region C. As shown in FIG.
  • the first protrusion 28D1 and the second protrusion 28D2 are arranged along the axis L on the cylindrical side surface of the shielding member 28R.
  • the covering portion 28E has a third protrusion 28E1 configured to cover the area A and a fourth protrusion 28E2 configured to cover the area C. As shown in FIG.
  • the third protrusion 28E1 and the fourth protrusion 28E2 are arranged along the axis L on the cylindrical side surface of the shielding member 28R.
  • the covering portion 28F has a fifth protrusion 28F1 configured to cover the region A and a sixth protrusion 28F2 configured to cover the region B. As shown in FIG.
  • the fifth protrusion 28F1 and the sixth protrusion 28F2 are arranged along the axis L on the cylindrical side surface of the shielding member 28R.
  • the cover portion 28D is positioned at the rotational position P in a state in which the light emitted from the area A is guided to a predetermined position.
  • the first projecting portion 28D1 blocks the sunlight traveling toward the region B
  • the second projecting portion 28D2 blocks the sunlight traveling toward the region C.
  • the control unit 25C selects the region B when the temperature of the region A becomes equal to or higher than the first threshold.
  • the controller 25C rotates the shielding member 28R around the axis L so that the cover 28E is positioned at the rotational position P (counterclockwise in this embodiment).
  • the third projecting portion 28E1 of the cover portion 28E displaced to the rotational position P in this manner blocks the sunlight irradiating the region A of the liquid crystal portion 130.
  • the fourth projecting portion 28E2 blocks the sunlight traveling toward the area C.
  • the light emitted from the region B of the liquid crystal portion 130 is not blocked by the shielding member 28R and reaches a predetermined position. be guided.
  • the control unit 25C controls the shielding member 28R, only light from the selected area B is emitted and viewed by the occupants of the vehicle 1C. Therefore, it is possible to prevent stray light from light from the areas A and C, which are areas (non-selected areas) other than the selected area B, and improve the visibility of the virtual image. Furthermore, since the shielding member 28R covers the non-selected area, it is possible to protect the non-selected area from sunlight, and to suppress temperature rise in the non-selected area of the liquid crystal section 130 due to sunlight.
  • the light source 111 of the image generating device 24C of the HUD 20C includes a plurality of light sources corresponding to the plurality of regions A, B, and C of the liquid crystal portion 130 respectively.
  • the first light source 111A is configured to turn on or off the area A of the liquid crystal portion 130 .
  • the second light source 111B is configured to turn on or turn off the area B of the liquid crystal portion 130 .
  • a third light source (not shown) is configured to turn on or off the region C of the liquid crystal portion 130 . These light sources are turned on or off based on control signals sent from the controller 25C.
  • the first light source 111A In a state where the controller 25C guides the light emitted from the area A to a predetermined position, the first light source 111A is turned on.
  • the control unit 25C selects the area B, the first light source 111A is turned off and the second light source 111B is turned on. Since area C is not selected, the third light source continues to be turned off.
  • the control unit 25C turns on the second light source 111B corresponding to the selected region B, and the second light source 111B corresponding to the regions A and C (non-selected regions) other than the selected region B. Since the first light source 111A and the third light source are turned off, light is emitted only from the selected area B and is visible. Since no light is emitted from the non-selected regions A and C, it is possible to suppress deterioration in the visibility of the virtual image due to stray light. In addition, by emitting only the minimum necessary light, it is possible to prevent heat generation of the light source 111 and reduce temperature rise of the entire image generation device 24C.

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Instrument Panels (AREA)

Abstract

画像生成部(14)は、車両(20)の乗員に向けて表示する画像を生成する。制御部(17)は、画像生成部(14)を制御する。制御部(17)は、車両(20)の乗員の視線情報を取得し、視線情報に基づき乗員の視線が画像表示可能領域内の複数の領域のいずれの領域に属するかを判定する。制御部(17)は、判定された領域に対応する物体に関する情報を示す画像を画像生成部(14)に生成させる。

Description

画像照射装置、画像照射装置の制御方法、画像生成装置、ヘッドアップディスプレイ及びカバー
 本開示は、画像照射装置、画像照射装置の制御方法、画像生成装置、当該画像生成装置を備えたヘッドアップディスプレイ及びカバーに関する。
 特許文献1は、画像生成部から出射された画像を形成するための光を凹面鏡により反射させて車両のウインドシールドに投射するヘッドアップディスプレイ(Head―Up Display:HUD)を開示している。
 また、特許文献2のような車両用HUDが知られている。HUDは、ウインドシールドやコンバイナに画像や映像を投影させ、その画像をウインドシールドやコンバイナを通して現実空間と重畳させて乗員に視認させることで、いわゆるAR(Augmented Reality)を実現することができる。
 HUDは画像生成装置と光学部材を備えている。画像生成装置は、表示器の画像生成面で像を形成し、光学部材はウインドシールドやコンバイナにこの像を導いている。しかしながら、ウインドシールドやコンバイナに太陽光が入射すると、光学経路を逆にたどって液晶部に入射してしまい、表示器に局所的な温度上昇が起こることがある。
 そこで特許文献2は、太陽光による表示器の局所的な昇温を防ぐため、太陽光を検知する光センサと、白濁液晶を有するカバーガラスを備えた表示装置を開示している。この表示装置は、太陽光の強度が所定の閾値を超えたことを光センサが検知した場合、カバーガラスの白濁液晶の液晶分子の配光を不規則にすることで、太陽光が表示器に集光されることを防いでいる。
 さらに、画像照射装置の一例として、特許文献3のような車両用HUDが知られている。特許文献3は、低温度に伴う液晶部の応答遅れを改善するために、表示部の周りの使用環境温度を検知する温度検知部を備えた表示装置を開示している。
国際公開第2020/110580号公報 日本国特開平6-144083号公報 日本国特開2021-076652号公報
 上記のようなHUDでは、車両の走行に関する情報(目的地までのナビゲーションの情報、車両の周辺に存在する歩行者や他車両などの対象物の情報など)の他に、車両の周辺に存在する店舗に関する情報など様々な情報が表示される場合がある。このような場合に、表示される情報の数が多くなると、複数の情報が重複または密集して表示されてしまい、情報の視認性が低下する。
 また、特許文献2に記載の表示装置は、太陽光による昇温を抑制できるものの、光センサや白濁液晶を有するカバーガラス、およびこれの制御装置など専用の部品が必要となる。
 また、HUDは画像生成装置と光学部材を備えている。画像生成装置は、液晶部の画像生成面で像を形成し、光学部材はウインドシールドやコンバイナにこの像を導いている。しかしながら、ウインドシールドやコンバイナに太陽光が入射すると、光学経路を逆にたどって液晶部に入射してしまい、液晶部に局所的な温度上昇が起こることがある。
 本開示は、乗員に向けて表示される情報の視認性を向上させることを目的とする。
 さらに本開示は、簡易な構成で太陽光による局所的な昇温が抑制された画像生成装置及び当該画像生成装置を備えたHUDを提供することを目的とする。
 さらに本開示は、太陽光による局所的な昇温が抑制された画像照射装置を提供することを目的とする。
 本開示の第一態様に係る画像照射装置は、
 所定の画像を車両の乗員に向けて表示するように構成された画像照射装置であって、
 前記画像を生成する画像生成部と、
 前記画像生成部を制御する制御部と、を備えており、
 前記制御部は、前記車両の乗員の視線情報を取得し、前記視線情報に基づき前記乗員の視線が画像表示可能領域内の複数の領域のいずれの領域に属するかを判定し、判定された前記領域に対応する物体に関する情報を示す画像を前記画像生成部に生成させる。
 本開示の第二態様に係る画像照射装置の制御方法は、
 車両の乗員に向けて表示する画像を生成する画像生成部と前記画像生成部を制御する制御部とを備える、前記車両に搭載される画像照射装置の制御方法であって、
 前記車両の乗員の視線情報を取得する工程と、
 前記視線情報に基づき前記乗員の視線が画像表示可能領域内の複数の領域のいずれの領域に属するかを判定する工程と、
 判定された前記領域に対応する物体に関する情報を示す画像を前記画像生成部に生成させる工程と、を含む。
 本開示の第二態様に係る画像生成装置は、ヘッドアップディスプレイの画像生成装置であって、
 像を生成する液晶部と、
 前記液晶部の出射面の少なくとも一部を覆い、複数のピースで構成されたカバーと、を備える。
 本開示の第二態様に係るヘッドアップディスプレイは、車両に設けられ、像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
 上述した画像生成装置と、
 前記画像生成装置から出射された光を反射する反射鏡を備える。
 本開示の第二態様に係るカバーは、ヘッドアップディスプレイの画像生成装置のカバーであって、
 複数のピースを有し、
 前記複数のピースは前記画像生成装置の出射面の少なくとも一部を覆う。
 本開示の第三態様に係る画像照射装置は、
 各々が関連する類似の虚像を形成するよう構成された、複数の領域を有する液晶部と、
 前記液晶部から出射される光を所定の位置まで導く光学部材と、
 前記複数の領域から選択された少なくとも一つの領域から出射される光を前記所定の位置まで導くように前記光学部材を制御する制御部と、を備える。
 本開示によれば、乗員に向けて表示される情報の視認性を向上させることができる。
 本開示の画像生成装置は、液晶部の出射面を覆うカバーを備えるため、太陽光による出射面の昇温を抑制することができる。さらに本開示のカバーは複数のピースで構成されるため、ピースの数を調節することにより液晶部の形状や大きさに適したカバーを形成しやすく、利便性が高い。
 本開示の画像照射装置によれば、複数の領域それぞれは関連する類似の虚像を形成するので、光学部材がどの領域から出射された光を所定の位置まで導いても、ウインドシールドやコンバイナなどの表示部には類似の虚像が形成される。よって、どの領域から出射された光でも、視認者は違和感なく虚像を認識することができる。
 また、制御部は、液晶部の一つの領域から出射される光を所定の位置まで導くように光学部材を制御する。つまり、光学経路を逆にたどって液晶部に入射する太陽光は液晶部の一つの領域に照射されるところ、制御部が太陽光の入射する領域を切り替えれば、特定の領域に太陽光が入射され続けることを抑制できる。これにより、太陽光による液晶部の局所的な昇温を抑制することができる。
第一実施形態に係るヘッドアップディスプレイ(HUD)を車両の側面側から見た模式図である。 HUDを含む車両の構成を示す図である。 制御部により実行される処理の流れを示すフローチャートである。 車両の車室内からウインドシールド越しに見える風景を示す図である。 図4に示される風景を位置座標で示した図である。 周辺情報DBの一例を示す図である。 乗員の視線が第一領域に属する場合のHUDにより表示される虚像オブジェクトを示す図である。 乗員の視線が第二領域に属する場合のHUDにより表示される虚像オブジェクトを示す図である。 HUDにより表示される画像表示可能領域に属する全ての虚像オブジェクトを示す図である。 図10は、第二実施形態に係るHUDの構成を示す模式図である。 図11は、図10に示すHUDの画像生成装置の構成を示す模式図である。 図12は、図11に示す画像生成装置の平面図である。 図13は、図12に示す画像生成装置の一つのカバーの拡大図である。 図14は、図12に示す画像生成装置の他のカバーの部分拡大図である。 図15は、HUDに外光が入り込んだ場合の光路を説明するための模式図である。 図16は、他のカバーの変形例1を示す部分拡大図である。 図17は、他のカバーの変形例2を示す部分拡大図である。 図18は、他のカバーの変形例3を示す部分拡大図である。 図19は、他のカバーの変形例4を示す部分拡大図である。 図20は、第三実施形態に係る画像照射装置の構成を示す模式図である。 図21は、図20に示す画像生成装置の液晶部の平面図である。 図22は、画像生成装置の遮蔽部材の構成を示す模式図である。 図23は、図22に示す遮蔽部材が制御された後における、液晶部の平面図である。 図24は、画像生成装置の遮蔽部材の変形例の構成を示す模式図である。
(第一実施形態)
 以下、本開示の第一実施形態について図面を参照しながら説明する。図面において、矢印Uは、図示された構造の上方向を示している。矢印Dは、図示された構造の下方向を示している。矢印Fは、図示された構造の前方向を示している。矢印Bは、図示された構造の後方向を示している。これらの方向は、図1に示されたHUD10について設定された相対的な方向である。
 図1に例示されるように、本実施形態に係るHUD(ヘッドアップディスプレイ(Head―Up Display))10は、車両20の車室内に設置される。例えば、HUD10は、車両20のダッシュボード内に配置される。HUD10は、車両20と車両20の乗員との間の視覚的インターフェースとして機能する。HUD10は、所定の情報が車両20の外部の現実空間(例えば、車両20の前方の周辺環境)と重畳されるように、当該情報を車両20の乗員に向けて画像として表示するように構成されている。所定の画像は、静止画または動画(映像)として表示される。HUD10は、画像照射装置の一例である。
 HUD10は、HUD本体部11を備える。HUD本体部11は、ハウジング12と出射窓13を有する。出射窓13は可視光を透過させる透明板で構成されている。HUD本体部11は、ハウジング12の内部に、画像生成部(PGU:Picture Generation Unit)14、平面鏡15、凹面鏡16、および制御部17を有する。平面鏡15と凹面鏡16は、反射部の一例である。
 画像生成部14は、車両20の乗員に向けて表示される所定の画像を生成するための光を出射するように構成されている。画像生成部14から出射される光は、例えば、可視光である。画像生成部14は、ハウジング12に固定されている。
 平面鏡15は、画像生成部14から出射される光の光路上に配置されている。具体的には、平面鏡15は、画像生成部14の上方に配置され、画像生成部14から出射された光を凹面鏡16に向けて反射するように構成されている。平面鏡15は、平面状の反射面を有し、画像生成部14から出射されて結像された光の像が同一の倍率で結像されるように反射させる。
 凹面鏡16は、画像生成部14から出射されて平面鏡15により反射された光の光路上に配置されている。具体的には、凹面鏡16は、ハウジング12内において、画像生成部14及び平面鏡15の前側に配置されている。凹面鏡16は、画像生成部14から出射された光をウインドシールド21(例えば、車両20のフロントウィンドウ)に向けて反射するように構成されている。凹面鏡16は、凹状に湾曲した反射面を有する。凹面鏡16は、画像生成部14から出射され結像された光の像が所定の倍率で結像されるように反射させる。
 制御部17は、HUD20の各部の動作を制御する。制御部17は、CPU(Central Processing Unit)等のプロセッサとメモリにより実現される。プロセッサがメモリから読みだしたコンピュータプログラムを実行することにより、HUD20の各部の動作を制御する。
 制御部17は、例えば、車両20の走行に関連した車両走行情報および/または車両20の周辺環境に関連した周辺環境情報などに基づいて、画像生成部14の動作を制御するための制御信号を生成する。画像生成部14は、制御部17から出力された制御信号に基づいて所定の画像を生成し、図1に例示されるように、当該画像を生成するための光Lを出射する。
 画像生成部14から出射された光Lは、平面鏡15及び凹面鏡16で反射されてHUD本体部11の出射窓13から出射される。HUD本体部11の出射窓13から出射された光は、ウインドシールド21に照射される。出射窓13からウインドシールド21に照射された光の一部は、乗員の視点Eに向けて反射される。この結果、乗員は、HUD本体部11から出射された光をウインドシールド21の前方の所定の距離において形成される虚像として認識する。このように、HUD10によって表示される画像がウインドシールド21を通して車両20の前方の現実空間に重畳される結果、乗員は、所定の画像により形成される虚像オブジェクトIが車両20の外部に位置する道路上に浮いているように視認することができる。
 虚像オブジェクトIとして2D画像(平面画像)を形成する場合は、所定の画像は任意に定めた単一距離の虚像となるように投影される。虚像オブジェクトIとして3D画像(立体画像)を形成する場合は、互いに同一または互いに異なる複数の所定の画像がそれぞれ異なる距離の虚像となるように投影される。虚像オブジェクトIの距離(乗員の視点Eから虚像までの距離)は、画像生成部14から乗員の視点Eまでの距離を調整する(例えば画像生成部14と凹面鏡16との間の光路長を調整する)ことによって適宜調整可能である。
 HUD10は、車両20に搭載された装置や車両20の外部から車両走行情報や周辺環境情報を取得する。例えば、図2に示されるように、車両20は、走行状態取得部22、周辺環境取得部23、GPS(Global Positioning System)24、および記憶装置25を備えている。
 走行状態取得部22は、車両20の走行速度などの車両20の走行状態を検出し、走行状態情報I22をHUD10へ出力するように構成されている。走行状態取得部22の例としては、加速度センサ、速度センサおよびジャイロセンサなどが挙げられる。
 周辺環境取得部23は、車両20の周辺環境を示すデータを取得し、周辺環境情報I23をHUD10へ出力するように構成されている。周辺環境取得部23の例としては、車両20の周辺環境を示す画像データを取得するカメラが挙げられる。また、周辺環境取得部23の他の例としては、ミリ波レーダ、マイクロ波レーダ、およびレーザーレーダ(例えば、LiDARユニット)のうちの少なくとも一つを含むレーダが挙げられる。例えば、LiDARユニットは、車両20の周辺環境を示す3Dマッピングデータ(点群データ)を取得する。
 GPS24は、車両20の現在の位置情報を取得し、当該取得された現在の位置情報I24をHUD10に出力するように構成されている。
 記憶装置25は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の記憶装置である。記憶装置25には、例えば2D又は3Dの地図情報が記憶されている。記憶装置25は、HUD10からの要求に応じて、地図情報I25をHUD10に出力するように構成されている。本例においては、記憶装置25は、周辺情報DB(データベース)251を含んでいる。周辺情報DB251には、物体の情報が記憶されている。例えば周辺情報DB251には、店舗、駐車場、信号機などといった路面に固定された物体に関する情報が、その路面に固定された位置座標と関連付けられて記録されている。物体に関する情報とは、例えばレストランの営業時間であったり、駐車場の空き状況、信号機の待ち時間など、該物体に関してユーザの便益を供する情報である。周辺情報DB251に記憶されている物体の情報は、必要に応じてHUD10により参照される。
 また、HUD10は、無線通信ネットワークを介して、例えば信号機や標識灯等のインフラ設備30からインフラ情報I30を取得する(路車間通信)。さらに、HUD10は、無線通信ネットワークを介して車両20の周囲にいる他車に関する情報を他車から取得したり(車車間通信)、歩行者が携帯する携帯型電子機器から歩行者に関する情報を取得してもよい(歩車間通信)。
 HUD10の制御部17は、走行状態取得部22、周辺環境取得部23、GPS24、記憶装置25、およびインフラ設備30などから出力された車両走行情報や周辺環境情報を取得し、画像生成部14に所定の画像を生成させる制御信号CSを生成する。
 車両20は、さらに視線取得部26を備えている。視線取得部26は、例えば、車両20の乗員の視線を検出して、視線情報I26をHUD10出力するように構成されている。具体的には、視線取得部26は、車両20の車室内に設置された少なくとも一台のカメラにより取得された乗員の画像データから乗員の視線を検出する。なお、視線取得部26から画像データが視線情報I26としてHUD10へ出力される場合は、制御部17により画像データに基づいて乗員の視線が検出される。乗員の視線は、例えば、乗員の目の位置と、乗員の目の位置からの角度情報(上下方向の角度および左右方向の角度)として表される。
 次に、図3から図8を参照しつつ、制御部17の処理により行われる処理の流れの一例について説明する。本例においては、車両20が停止している間にHUD10が画像を表示する例について説明する。図3に示す処理の流れは、画像照射装置の制御方法の一例である。
 まず、図3に例示されるように、制御部17は、走行状態取得部22から車両20の速度情報を取得する(STEP1)。そして、制御部17は、速度情報に基づいて、車両20が停止しているかを判断する(STEP2)。なお、車両20が停止している状態とは、走行速度がゼロ(完全停止)だけに限られず、ゼロに近い状態(いわゆる徐行の状態)も含みうる。すなわち、車両20が停止している場合とは、走行速度が40km/h以下、30km/h以下あるいは20km/h以下など所定値以下である場合も含む。
 車両20が停止していないと判断されると(STEP2においてNO)、制御部17は、乗員の視線に関係なく所定の情報を示す画像を画像生成部14に生成させる(STEP3)。例えば、制御部17は、車両走行情報や周辺環境情報に基づいて、車両20の走行に関係する、車両20の走行状態(走行速度や燃料残量)や目的地までのナビゲーションなどの情報および/または歩行者や他車両などの対象物などの情報を示す画像を画像生成部14に生成させる。あるいは車両20が停止していないと判断されると(STEP2においてNO)、制御部17は、単に処理を終了するように構成してもよい。
 車両20が停止していると判断されると(STEP2においてYES)、制御部17は、視線取得部26から車両20の乗員の視線情報I26を取得する(STEP4)。そして、制御部17は、視線情報I26に基づき乗員の視線が画像表示可能領域における第一領域に属するかを判定する(STEP5)。
 ここで図4を用いて、画像表示可能領域、第一領域および第二領域について説明する。図4は、車両20の車室内からウインドシールド21越しに見える風景を示している。図5は、図4に示した風景を車両20の上方から見たものであり、各々の点の位置座標を示している。図5において、P0は車両20の位置座標、P1は店舗1(O1)の位置座標、P2は店舗2(O2)の位置座標、およびP3は信号機(O3)の位置座標を示している。店舗1、店舗2および信号機は、物体の一例である。
 画像表示可能領域AAは、GPS24から取得した車両20の現在の位置情報I24に基づいて特定される。位置情報とは、位置座標を含む情報である。位置座標とは、該物体の絶対的な位置を示す情報である。位置座標は、例えば北緯と東経を用いて表される。
 画像表示可能領域AAとは、車両20の外部(本例においては、前方)において画像が表示可能である領域(図1の虚像オブジェクトIが形成可能である領域)である。本例においては、図5に示されるように、画像表示可能領域AAは、第一領域AA1と第二領域AA2の二つの領域に仮想的に分けられている。STEP5において、制御部17は、乗員の視線を位置座標に換算し、乗員の視線が示す位置座標が第一領域AA1と第二領域AA2のいずれの領域に属するかを判定する。例えば、地面が平坦であると仮定した場合には、乗員の目の位置と乗員の視線の角度から乗員の視線が示す位置座標を算出できる。あるいは、制御部17がLiDARより車両前方の一つ以上の物体の高さや乗員とそれらの物体との距離を取得している場合、これら物体の高さと距離と乗員の目の位置と乗員の視線の角度から、乗員の視線が示す位置座標を算出できる。
 乗員の視線が画像表示可能領域AAにおける第一領域AA1に属すると判定されると(ステップS5においてYES)、制御部17は、第一領域AA1に対応する物体に関する情報を示す画像を画像生成部14に生成させる(STEP6)。
 例えば、制御部17は、画像表示可能領域AAに対応する全ての物体に関する情報を特定する。そして、制御部17は、特定した情報のうち乗員の視線が属する第一領域AA1に対応する物体に関する情報を示す画像を画像生成部14に生成させる。
 具体的には、図6に例示されるように、周辺情報DB251には、物体と、その物体の位置情報および詳細情報が記憶されている。制御部17は、画像表示可能領域AAが含む位置座標を特定し、周辺情報DB251から画像表示可能領域AAに含まれる位置座標を有する物体の情報を抽出する。本例においては、図5に例示されるように、画像表示可能領域AAには、位置座標P1,P2,P3が含まれている。制御部17は、周辺情報DB251から位置座標P1,P2,P3である店舗1,店舗2,信号機の情報を抽出する。
 続いて、乗員の視線が画像表示可能領域AAにおける第一領域AA1に属すると判定されると、制御部17は、抽出した店舗1,店舗2,信号機の情報のうち、第一領域AA1に含まれる位置座標を有する店舗1と信号機の情報を画像として表示される情報であると判断する。そして、制御部17は、店舗1と信号機の情報を画像として表示させる制御信号CSを画像生成部14へ出力する。これにより、図7に例示されるように、乗員40の視線(図において矢印方向)に属する第一領域AA1に位置する店舗1(O1)と信号機(O3)の情報が虚像オブジェクトI1A,I3Aとして表示される。
 なお、図3に戻り、乗員の視線が画像表示可能領域AAにおける第一領域AA1に属さないと判定されると(ステップS5においてNO)、制御部17は、第二領域AA2に対応する物体に関する情報を示す画像を画像生成部14に生成させる(STEP7)。具体的には、制御部17は、抽出した店舗1,店舗2,信号機の情報のうち、第二領域AA2に含まれる位置座標を有する店舗2の情報を画像として表示される情報であると判断する。制御部17は、店舗2の情報を画像として表示させる制御信号CSを画像生成部14へ出力する。これにより、図8に例示されるように、乗員40の視線(図において矢印方向)に属する第二領域AA2に位置する店舗2(O2)の情報が虚像オブジェクトI2Aとして表示される。
 また、上記処理において、視線情報の取得(STEP4)と乗員の視線が第一領域AA1に属するかの判定(STEP5)は、速度情報の取得(STEP1)または車両20の停止判断(STEP2)の前に行われてもよい。
 このように本実施形態のHUD10は、車両20の乗員の視線情報I26を取得し、車両20の乗員の視線が属する領域に対応する物体に関する情報を示す画像を表示するように構成されている。具体的には、制御部17は、車両20に搭載された視線取得部26から乗員の視線情報I26を取得し、乗員の視線情報I26に基づき乗員の視線が画像表示可能領域AA内の複数の領域のいずれの領域に属するかを判定する。そして、制御部17は、判定された領域に対応する物体に関する情報を示す画像を画像生成部14に生成させる制御信号CSを生成する。
 つまり、本実施形態に係るHUD10によれば、車両20の乗員40の視線が属する領域に対応する物体の情報を示す画像が表示される。他方、乗員40の視線に属さない領域に対応する物体の情報を示す画像は表示されない。これに対して、例えば、図9に示されるように、画像表示可能領域AAに対応する全ての物体に関する情報の虚像オブジェクトI1A,I2A,I3Aが表示される場合、虚像オブジェクトI1A,I2A,I3Aの一部が重なってしまい、乗員40にとって情報を取得することが困難である場合がある。すなわち、本実施形態に係るHUD10では、乗員40が見ている領域にある物体の情報のみが表示されるため、乗員40にとって情報を取得しやすく、情報の視認性が高い。
 また、本実施形態においては、画像表示可能領域AAに対応する全ての物体に関する情報が特定され、特定された複数の情報のうち乗員40の視線に属する領域に対応する物体に関する情報が画像として表示すべき情報として選択される。このような構成によれば、乗員の視線が属する領域を判定して、判定された領域に属する物体に関する情報のみを取得する構成と比べて、乗員の視線の先が変わってもすぐに虚像を表示できる。すなわち、乗員の視線の先が変わっても表示すべき情報を再度特定して取得する必要がないので、制御部17の処理速度が速い。
 また、本実施形態においては、乗員の視線情報に基づき表示または非表示となる情報は、店舗の情報である。これにより、車両の走行に関係のない、店舗の情報などの周辺環境に関する情報を提供しつつ、乗員の煩わしさも軽減できる。
 また、本実施形態においては、乗員の視線情報に基づき表示または非表示となる情報は、信号機の情報である。これにより、信号機などの交通情報を提供しつつ、乗員の煩わしさも軽減できる。
 また、本実施形態においては、車両20が停止している間、車両20の乗員40の視線が属する領域に対応する物体に関する情報を示す画像を表示している。これにより、乗員40は、車両20の走行時は車両20の走行に関する情報を確認することができ、他方、信号待ち等の車両20の停止時には店舗などの周辺環境に関する情報を把握できる。
 なお、本実施形態においては、乗員40の視線が属さない領域に対応する物体の情報は表示されない。しかしながら、例えば、乗員40の視線が属さない領域に対応する物体の情報に交通情報が含まれる場合、制御部17は、乗員の視線にかかわらず、交通情報を示す画像を画像生成部14に生成させるように構成されてもよい。
 例えば、図3に示されるように、STEP5において、乗員40の視線が第一領域AA1に属していないと判断されると、制御部17は、第一領域AA1に対応する物体の情報に交通情報が含まれるかを判断する(STEP8)。
 第一領域AA1に対応する物体の情報に交通情報が含まれないと判断されると(STEP8においてNO)、第二領域AA2に対応する物体の情報を示す画像のみを画像生成部14に生成させる(STEP7)。
 第一領域AA1に対応する物体の情報に交通情報が含まれると判断されると(STEP8においてYES)、第二領域AA2に対応する物体の情報を示す画像に加えて、第一領域AA1に対応する交通情報を示す画像を画像生成部14に生成させる(STEP9)。これにより、図8に例示されるように、乗員40の視線(図において矢印方向)に属する第二領域AA2に位置する店舗2(O2)の情報の虚像オブジェクトI2Aに加えて、第一領域AA1に位置する信号機(O3)の情報が虚像オブジェクトI3Aとして表示される。このような構成によれば、車両20の乗員40は、車両20の走行に際して参照すべき交通情報を確認することができる。
 なお、STEP5において乗員40の視線が第一領域AA1に属していると判断された場合も同様に、第二領域AA2に対応する物体の情報に交通情報が含まれると判断される場合は、第一領域AA1に対応する物体の情報を示す画像に加えて、第二領域AA2に対応する交通情報を示す画像を画像生成部14に生成させるように構成されてもよい。
 また、本実施形態においては、画像表示可能領域AAに対応する物体に関する情報は、周辺情報DB251から取得している。しかしながら、例えば、制御部17は、画像表示可能領域AAに対応する物体に関する情報をインフラ設備30から取得してもよい。例えば、図8に示されるように、制御部17は、信号機(O3)から待ち時間に関する情報を取得し、待ち時間に関する情報を虚像オブジェクトI3Aとして表示させてもよい。このように、信号機の待ち時間を示す情報を表示することにより、乗員40は次の走行開始に向けての準備ができる。
 なお、HUD10は、走行状態取得部22、周辺環境取得部23、GPS24、記憶装置25、視線取得部26およびインフラ設備30から、車両走行情報や周辺環境情報を直接取得しているが、車両20の走行を制御する車両制御部(図示なし)を介して取得してもよい。また、HUD10の制御部17は、車両制御部と一体的に構成されてもよい。
 画像表示可能領域AAは、二つの領域に分けられているが、三つ以上の領域に分けられてもよい。また、画像表示可能領域AAの複数の領域は、その一部が互いに重複ように分けられてもよい。
 車両の走行に関係のない、周辺環境に関する情報の一例として、店舗の情報を挙げているが、店舗以外の娯楽施設などの情報でもよい。交通情報の一例として、信号機の情報を挙げているが、信号機以外の交通標識(速度制限表示や行先案内表示)などの情報でもよい。
 周辺情報DB251は、車両20に搭載された記憶装置25に含まれている。しかしながら、周辺情報DB251は、例えば、車両20と無線通信ネットワークを介して接続可能な外部サーバに備えられてもよい。
 HUD10は、車両20が停止している間に、車両20の乗員の視線が属する領域に対応する物体に関する情報を示す画像を表示する。しかしながら、HUD10は、例えば、車両20が自動運転により走行している場合に、車両20の乗員の視線が属する領域に対応する物体に関する情報を示す画像を表示するように構成されてもよい。
 画像生成部14から出射された光は、凹面鏡16で反射されてウインドシールド21に照射されるように構成されているが、これに限られない。例えば、凹面鏡16で反射された光は、ウインドシールド21の内側に設けたコンバイナ(不図示)に照射されるようにしてもよい。コンバイナは、例えば、透明なプラスチックディスクで構成される。HUD本体部11の画像生成部14からコンバイナに照射された光の一部は、ウインドシールド21に光を照射した場合と同様に、乗員の視点Eに向けて反射される。
 画像照射装置の一例としてHUD10を挙げたが、これに限定されない。
(第二実施形態)
 以下、本開示の第二実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 また、本実施形態の説明では、説明の便宜上、「左右方向」、「上下方向」、「前後方向」について適宜言及する場合がある。これらの方向は、図10に示すHUD20Bについて設定された相対的な方向である。ここで、「左右方向」は、「左方向」および「右方向」を含む方向である。「上下方向」は、「上方向」および「下方向」を含む方向である。「前後方向」は、「前方向」および「後方向」を含む方向である。左右方向は、図10では示されていないが、上下方向および前後方向に直交する方向である。
 図10は、車両1Bに設けられたHUD20Bを、車両1Bの側面側から見た模式図である。HUD20Bは、少なくともHUD20Bの一部が車両1Bの内部に位置する。具体的には、HUD20Bは、車両1Bの室内の所定箇所に設置されている。例えば、HUD20Bは、車両1Bのダッシュボード内に配置されてもよい。
 HUD20Bは、所定の情報(以下、HUD情報という。)が車両1Bの外部の現実空間(特に、車両1Bの前方の周辺環境)と重畳されるように、当該HUD情報を車両1Bの乗員に向け画像として表示するように構成されている。HUD20Bによって表示されるHUD情報は、例えば、車両1Bの走行に関連した車両走行情報及び/又は車両1Bの周辺環境に関連した周辺環境情報(特に、車両1Bの外部に存在する対象物に関連した情報)等である。HUD20Bは、車両1Bと乗員との間の視覚的インターフェースとして機能するARディスプレイである。
 図10に示すように、HUD20Bは、HUD本体部21Bと、画像生成装置(PGU)24Bと、制御部25Bと、凹面鏡26Bと、を備える。
 HUD本体部21Bは、本体ハウジング22Bと、出射窓23Bとを有する。出射窓23Bは可視光を透過させる透明板で構成されている。HUD本体部21Bは、本体ハウジング22Bの内部に、画像生成装置24Bと、制御部25Bと、凹面鏡26Bとを収容する。
 画像生成装置24Bは、車両1Bの乗員に向けて表示される所定の画像を生成する光を出射するように構成されている。画像生成装置24Bは、例えば、車両1Bの状況に応じて変化する変化画像を生成する光を出射可能である。画像生成装置24Bの詳細は、後述する。
 制御部25Bは、HUD20Bの各部の動作を制御する。制御部25Bは、車両制御部に接続されており、例えば、車両制御部から送信される車両走行情報や周辺環境情報等に基づいて、画像生成装置24Bの動作を制御する制御信号を生成し、生成された制御信号を画像生成装置24Bに送信する。制御部25Bは、CPU等のプロセッサとメモリが搭載され、メモリから読みだしたコンピュータプログラムをプロセッサが実行して、画像生成装置24B等の動作を制御する。
 凹面鏡26Bは、画像生成装置24Bから出射される光の光路上に配置されている。凹面鏡26Bは、画像生成装置24Bから出射された光をウインドシールド18B(例えば、車両1Bのフロントウィンドウ)に向けて反射するように構成されている。凹面鏡26Bは、所定の画像を形成するために凹状に湾曲した反射面を有し、画像生成装置24Bから出射され結像された光の像を所定の倍率で反射させる。凹面鏡26Bは、例えば駆動機構27Bを有し、制御部25Bから送信される制御信号に基づいて凹面鏡26Bの位置及び向きを変化させることができるように構成されていてもよい。凹面鏡26Bは反射鏡の一例である。
 制御部25Bは、凹面鏡26Bの位置及び向きを変化させるための制御信号を生成し、当該生成された制御信号を駆動機構27Bに送信してもよい。
 画像生成装置24Bから出射された光は、凹面鏡26Bで反射されてHUD本体部21Bの出射窓23Bから出射される。HUD本体部21Bの出射窓23Bから出射された光は、透過部材であるウインドシールド18Bに照射される。出射窓23Bからウインドシールド18Bに照射された光の一部は、乗員の視点Eに向けて反射される。この結果、乗員は、HUD本体部21Bから出射された光をウインドシールド18Bの前方の所定の距離において形成される虚像(所定の像)として認識する。このように、HUD20Bによって表示される像がウインドシールド18Bを通して車両1Bの前方の現実空間に重畳される結果、乗員は、所定の像により形成される虚像オブジェクトIが車両外部に位置する道路上に浮いているように視認することができる。
 なお本実施形態では、画像生成装置24Bから出射された光が凹面鏡26Bで1回反射される構成を説明したが、HUD20Bの構成はこれに限らない。画像生成装置24Bと凹面鏡26Bの間に、反射部材の一例として平面鏡が設けられてもよい。この場合、画像生成装置24Bから出射された光は平面鏡と凹面鏡26Bとで2回反射される。また、画像生成装置24Bと凹面鏡26Bの間に設けられる反射部材は平面鏡に限らず、凸面鏡や他の凹面鏡であってもよい。
 乗員の視点Eは、乗員の左目の視点又は右目の視点のいずれかであってもよい。または、視点Eは、左目の視点と右目の視点を結んだ線分の中点として規定されてもよい。乗員の視点Eの位置は、例えば、車両1Bの内部カメラによって取得された画像データに基づいて特定される。乗員の視点Eの位置は、所定の周期で更新されてもよいし、車両1Bの起動時に一回だけ決定されてもよい。
 なお、虚像オブジェクトIの距離(乗員の視点Eから虚像までの距離)は、画像生成装置24Bから乗員の視点Eまでの距離を調整する(例えば画像生成装置24Bと凹面鏡26Bとの間の距離を調整する)ことによって適宜調整可能である。
 次に画像生成装置24Bについて説明する。図11は、画像生成装置24Bの構成を示す模式図である。
 図11に示すように、画像生成装置24Bは、少なくとも一つの光源111と、少なくとも一つのレンズ120(光学素子)と、液晶部130と、カバー140と、を備えている。レンズ120は、光源111と液晶部130の間に配置される。液晶部130は、レンズ120とカバー140の間に配置される。カバー140は、液晶部130の前側を覆うように配置される。
 光源111は、例えば、青色LEDまたはレーザで蛍光体を励起させる白色LEDまたはレーザ光源である。光源111は、赤色、緑色、青色で構成されるRGBLED(またはレーザ)光源であってもよい。光源111は、白色光源とRGB光源の組合せであってもよい。光源111は、光源基板110に搭載されている。本実施形態においては、光源111は、第一光源111Aと第二光源111Bを備えている。第一光源111Aと第二光源111Bは、光源基板110上において、左右方向に一定の距離だけ離隔して配置されている。光源基板110は、例えば、絶縁体からなるベース基板の表面や内部に電気回路の配線がプリントされたプリント基板である。
 レンズ120は、例えば、光源111からの光が入射されるレンズ入射面122及び当該入射した光が出射されるレンズ出射面123のいずれも凸面状に形成された非球面凸レンズである。レンズ120は、光源111から出射された光を透過させて液晶部130に向けて出射するように構成されている。
 本実施形態においてレンズ120は、第一光源111Aから出射された第一光を透過する第一レンズ領域121Aと、第二光源111Bから出射された第二光を透過する第二レンズ領域121Bとを有している。第一レンズ領域121Aは、第一光源111Aに対応した非球面凸レンズである。第二レンズ領域121Bは、第二光源111Bに対応した非球面凸レンズである。第一レンズ領域121Aのレンズ入射面122A及び第二レンズ領域121Bのレンズ入射面122Bは、下方にやや膨らんだ凸状の入射面である。第一レンズ領域121Aのレンズ出射面123A及び第二レンズ領域121Bのレンズ出射面123Bは、上方に膨らんだ凸状の出射面である。左側に配置される第一レンズ領域121Aにおける右側の一部分と、右側に配置される第二レンズ領域121Bにおける左側の一部分とが結合されている。レンズ120は、例えば、第一光源111Aの発光面中心が第一レンズ領域121Aの焦点位置となるとともに第二光源111Bの発光面中心が第二レンズ領域121Bの焦点位置となるように、レンズホルダ(図示せず)に取り付けられている。
 液晶部130は、レンズ120から出射された光により所定の像を生成するよう構成されている。本実施形態の液晶部130は、基台を含む液晶相131と、偏光フィルム132と、駆動回路(図示せず)と、を備えている。液晶部130は、画像生成装置24Bの前方へ向けて光を照射する出射面133を備えている。液晶部130は、PGUハウジング(図示せず)の前面部に取り付けられている。液晶部130は、偏光フィルム132に貼り付けられた保護フィルム134を備えていてもよい。
 液晶相131は、基台上に設けられている。駆動回路により液晶相131に電圧を付与することにより、偏光フィルム132から光が透過する状態と偏光フィルム132から光が透過できない不透過の状態とを切り替えることができる。液晶相131と偏光フィルム132は複数の画素Zに分割されており、画素Zごとに光の透過と不透過状態とが切り替えられる。ある画素Zは光を透過させ、他のある画素Zは光を不透過にすることにより、画像生成装置24Bが所定の像を生成する。なお図11においては、図の簡略化のために液晶相131の一部のみに画素Zの区分け線を描いている。
 液晶相131で形成された光は、偏光フィルム132を通過し、出射面133から外部(本実施形態においては前方)に向けて出射される。出射面133は、液晶部130が保護フィルム134を備えない場合は偏光フィルム132の表面であり、液晶部130が保護フィルム134を備える場合は保護フィルム134の表面である。出射面133は、車両1Bの乗員に向けて表示される所定の像を生成する表示領域Xと、常に像を生成しない非表示領域Yとを有する。より詳細には、画像生成装置24BがHUD20Bに組み込まれた際、HUD20Bの使用態様により、出射面133の一部が像の生成に寄与しないことがある。HUD20Bが所定の像の表示と非表示とを繰り返すように構成されている場合、出射面133のうち、所定の像を生成する部位は表示領域Xであり、それ以外の部位が非表示領域Yとなる。
 カバー140は、液晶部130の前側であって、液晶部130の出射面133の少なくとも一部を覆うよう配置されている。カバー140は高耐熱性材料で形成されている。カバー140は、液晶部130の偏光フィルム132または保護フィルム134を覆っている。カバー140は、偏光フィルム132または保護フィルム134上に直接接触して設けられていてもよいし、偏光フィルム132または保護フィルム134に接触せず、PGUハウジング(図示せず)の前面部に取り付けられていてもよい。カバー140は、カバー140と偏光フィルム132または保護フィルム134との間の距離が短くなるよう設けられることが好ましい。さらにカバー140は、液晶部130の出射面133のうち、非表示領域Yを覆っている。
 次にカバー140の詳細を説明する。図12は、前方から見たときの画像生成装置24Bの平面図である。
 図12に示すように、本実施形態の液晶部130は、像を生成する表示領域X、X1、X2と、常に像を生成しない非表示領域Y、Y1、Y2と、を有する。表示領域Xには、例えば車速情報や法定速度情報を示す像が生成される。車両1Bの運転状況によって、表示領域Xに生成される像は異なる。車両1Bが停止している場合、車速情報や法定速度情報を示す像は表示領域Xに生成されなくてもよい。表示領域X1には左矢印の像が生成される。表示領域X2には右矢印の像が生成される。例えば車両1Bが左折するときは表示領域X1に左矢印の像が生成され、表示領域X2には何も生成されない。逆に車両1Bが右折するときは表示領域X2に右矢印の像が生成され、表示領域X1には何も生成されない。表示領域X1の左矢印は、車両1Bの乗員に対して点滅表示されてもよい。この場合、表示領域X1には、像が生成されては消えるという動作が一定時間繰り返される。表示領域X2の右矢印も同様である。
 非表示領域Y、Y1、Y2は、車両1の運転状況に関わらず、常に像を生成しない領域である。本実施形態においては、表示領域X1の左矢印周りを囲う非表示領域Y1と、表示領域X2の右矢印周りを囲う非表示領域Y2が配置されている。更にこれら表示領域X、X1、X2と、非表示領域Y1、Y2の領域以外に、2つの非表示領域Yが配置されている。
 ところで、液晶部130は矩形状の表示部を有する部品として供給される。矩形状の表示部を有する液晶部130はそのまま表示部の形状が変更されないまま、HUD20Bに組み込まれる。しかしながら、HUD20Bに求められる表示態様によっては、表示部の一部に常に表示に用いられない領域が生じてしまう。例えば車速、進行方向、車速制限のみを図12のレイアウトで表示するようにHUD20Bが構成されている場合、領域Y,Y1,Y2は常に表示に用いられない。このような領域を非表示領域と呼んでいる。
 なお、本実施形態において、2つの非表示領域Yは表示領域Xの左側と、表示領域Xの右側にそれぞれ配置されている。なお図12に示す表示領域の数や形、非表示領域の数や形、表示される像は一例であって、これらに限定されるものではない。
 カバー140は、非表示領域Yを覆うカバー140Yと、非表示領域Y1を覆うカバー140Y1と、非表示領域Y2を覆うカバー140Y2と、を有している。
 まず、カバー140Y1の詳細を説明する。カバー140Y2の構成は、矢印の向きを除いて、カバー140Y1の構成と同様であるため、カバー140Y2の構成の説明は省略する。
 図13は、図12で示すカバー140Y1の拡大図である。図13に示すようにカバー140Y1は、一つのピース148で構成されている。ピース148の形状は矩形である。本実施形態のピース148は長方形である。ピース148は、遮光性を有している。ピース148の表面は反射防止層で覆われている。例えばピース148は、樹脂材料で形成され、樹脂材料の表面に黒い塗装膜が設けられていてもよい。反射防止層の他の例として、ピース148の表面はシボ面で構成されてもよい。
 ピース148は、左矢印の像に対応する形状の孔部149を有する。具体的にピース148は、表示領域X1の左矢印より僅かに大きい左矢印をかたどった孔部149を有しており、表示領域X1の左矢印周りを囲うように設けられている。このようにしてピース148は、画像生成装置24Bの出射面133の一部である、非表示領域Y1を覆っている。ピース148は第一ピース群に属するピースの一例である。
 次に、カバー140Yの構成を説明する。
 図14は、カバー140Yの部分拡大図である。図14に示すように、カバー140Yは複数のピース141で構成されている。各ピース141の形状は矩形である。本実施形態において各ピース141は正方形であり、いずれも同一形状である。各ピース141は遮光性を有している。各ピース141の表面は反射防止層で覆われている。例えば各ピース141は、樹脂材料で形成され、樹脂材料の表面に黒い塗装膜が設けられていてもよい。各ピース141の表面はシボ面で構成されてもよい。カバー140Y1のピース148は孔部149を有するのに対し、カバー140Yの各ピース141は孔部を有していない。すわなち、各ピース141の形状は、ピース148の形状と異なる。各ピース141は第二ピース群に属するピースの一例である。
 複数のピース141のうち、一つのピース141Aの少なくとも一部は、他の一つのピース141Bの少なくとも一部に接している。本実施形態においては、ピース141Aは、左辺A1と、上辺A2と、右辺A3と、下辺A4と、を有している。ピース141Bは、左辺B1と、上辺B2と、右辺B3と、下辺B4と、を有している。ピース141Aの右辺A3は、ピース141Bの左辺B1と接するように配置されている。同様にして、ピース141Cは、左辺C1と、上辺C2と、右辺C3と、下辺C4と、を有している。ピース141Bの右辺B3はピース141Cの左辺C1と接するように配置されている。
 このようにして複数のピース141は、画像生成装置24Bの出射面133の一部である非表示領域Yに敷き詰められている。なお本願において「敷き詰められている」状態は、各ピースが隙間なく互いに接触して配置されている状態であることが好ましいが、各ピースの一部が互いに部分的に接触している状態を含みうる。必ずしも全てのピースが互いに完全に接触していなくてもよい。
 次にカバー140の機能を説明する。図15は、HUD20Bに太陽光が入り込んだ場合の光路を説明するための模式図である。図15に示すように、車両1B外から入射した太陽光(外光の一例)が出射窓23Bから本体ハウジング22B内へ入射した場合、太陽光は凹面鏡26Bによって反射されるとともに、画像生成装置24Bへ集光される。このような集光された太陽光が画像生成装置24Bの液晶部130に照射されると、太陽光に含まれる遠赤外線により液晶部130の出射面133に局所的な温度上昇が発生し、偏光フィルム132が劣化してしまう可能性がある。
 本開示の画像生成装置24Bは、液晶部130の出射面133の一部である非表示領域Y1をカバー140Y1が、非表示領域Y2をカバー140Y2が、非表示領域Yをカバー140Yがそれぞれ覆っている。太陽光が画像生成装置24Bの液晶部130に照射された場合であっても、カバー140が出射面133の一部を覆っているため、少なくともカバー140が覆っている領域では、太陽光が液晶部130の出射面133に直接照射されることはない。したがって、出射面133の局所的な昇温を抑制し、偏光フィルム132の劣化を抑制することができる。
 以上説明したように、本開示のカバー140は、液晶部130の出射面133の少なくとも一部を覆っているため、太陽光による出射面133の局所的な昇温を抑制することができる。本開示の画像生成装置24B及びHUD20Bはこのようなカバー140を備えるため、太陽光に対する耐久性を向上することができる。また、カバー140を制御する部品や駆動する部品が不要であり、簡素な構成で太陽光による局所的な昇温を抑制できる。
 さらに本開示のカバー140Yは複数のピース141で構成されているため、ピースの数を調節することにより、液晶部130の形状やその非表示領域Yの大きさや形状に適したカバーを形成しやすい。また一般的に車両は、車種によって液晶部の形状や大きさ、表示領域の形状や大きさが異なる。本開示のカバー140は複数のピース141で構成されるため、各車種において太陽光による出射面133の局所的な昇温を抑制することができる。したがって、利便性の高いカバーを実現することができる。
 本開示のカバー140は、液晶部130の偏光フィルム132または保護フィルム134を覆っているため、太陽光による偏光フィルム132の劣化を抑制することができる。
 本開示の出射面133は常に像を生成しない非表示領域Yを有しており、カバー140はこの非表示領域Yを覆っているため、像の輝度を低下させることなく、太陽光による出射面133の局所的な昇温を抑制することができる。
 本開示の複数ピース141は、一つのピース141Aの辺A3が、他の一つのピース141Bの辺B1に接するように配置されている。各ピース141の形状が矩形であるため、辺A3と辺B1とを接するように配置しやすい。このためカバー140Yが出射面133を覆う領域を連続的に拡げることができる。したがって太陽光による局所的な昇温をより効果的に抑制することができる。
 本開示の複数のピース141は、画像生成装置24Bの出射面の一部である非表示領域Yに敷き詰められているため、太陽光による局所的な昇温をより抑制することができる。本開示においては、仮にピース141Aとピース141Bの間に僅かな隙間があったとしても、当該隙間が各ピース141の大きさに対して相対的に小さく、あるいは当該隙間周りを各ピース141が囲っていれば、太陽光による出射面133の局所的な昇温を抑制することは可能である。
 本開示の各ピース141はいずれも同一形状であるため、ピースの形状が相異なる場合と比較してカバー140Yの製造コストを抑制することができる。
 本開示のカバー140は、第一ピース群に属するピース148と、第二ピース群に属する複数のピース141とを有している。このようにカバー140は複数種類の形状、大きさのピースを有するため、各非表示領域Y、Y1、Y2の形状や大きさにより適したカバーを設置しやすい。その結果、太陽光による出射面133の局所的な昇温をより効果的に抑制することができる。
 本開示の第一ピース群のピース148は、表示領域X1の左矢印の像に対応する形状の孔部149を有するため、表示領域X1の左矢印の像の輝度を低下させることなく、太陽光による出射面133の局所的な昇温を抑制することができる。
 本開示の複数のピース141及びピース148は遮光性を有するため、太陽光による出射面133の局所的な昇温をより抑制することができる。特に本開示の複数のピース141及びピース148の表面は反射防止膜が施されているため、画像生成装置24B内およびHUD20B内において意図しない光の出射(迷光)を防ぐことができる。
 なお本実施形態の非表示領域Y1は、一つのピース148で構成されたカバー140Y1によって覆われているが、複数のピース141で覆われていてもよい。この場合においても、複数のピース141は、表示領域X1の左矢印よりわずかに大きい左矢印をかたどる孔部149を形成するよう、配置される。したがって表示領域X1の左矢印の像の輝度を低下させることなく、太陽光による出射面133の局所的な昇温を抑制することができる。
(変形例1)
 図14は、各ピース141が同一形状である実施例を示したが、各ピース141の形状は同一形状に限定されない。図16は、変形例1として、カバー140YAの部分拡大図を示す。図14に係るカバー140Yと同一または対応する構成要素には同様の参照番号を付すとともに、説明は省略する。
 図16に示すように、カバー140YAの各ピース141の形状は正方形であるものの、ピースの大きさは複数存在する。本実施形態においては、複数のピース141のうち、一つのピース141Dは、他の一つのピース141Aの4倍の大きさである。すなわち、ピース141Aとピース141Dは相似関係にある。同様に、一つのピース141Dは、他の一つのピース141Bの4倍の大きさである。すなわち、ピース141Bとピース141Dは相似関係にある。
 一つのピース141Aの少なくとも一部は、他の一つのピース141Dの少なくとも一部に接している。本実施形態においては、ピース141Dは、左辺D1と、上辺D2と、右辺D3と、下辺D4と、を有している。ピース141Aの左辺A1は、ピース141Dの右辺D3と接するように配置されている。同様にしてピース141Bの左辺B1はピース141Dの右辺D3と接するように配置されている。このようにして複数のピース141は、画像生成装置24Bの出射面133の一部である非表示領域Yに敷き詰められている。
 このように、複数のピース141のうち、一つのピース141Dの大きさと、他の一つのピース141Aあるいは141Bの大きさとは互いに異なるため、より効果的に出射面133を覆うことができる。具体的には、大きいピース141Dの数が多いほど配置するピースの数を減らすことができ、工数削減を実現できる。一方、小さいピース141Aや141Bの数が多いほど、非表示領域Yの形状にあわせて緻密に配置しやすく、より高精度に非表示領域Yを覆うことができる。本実施形態のカバー140YAも液晶部130の出射面133の少なくとも一部を覆っているため、上記と同様の効果が得られる。
(変形例2)
 図14及び図16はともに、各ピース141の形状が正方形である実施例を示したが、各ピース141の形状は正方形に限定されない。図17は、変形例2として、カバー140YBの部分拡大図を示す。図14に係るカバー140Yと同一または対応する構成要素には同様の参照番号を付すとともに、説明は省略する。
 図17に示すように、カバー140YBの各ピース141の形状は矩形であるものの、ピース141E及びピース141Fの形状は長方形である。本実施形態においては、一つのピース141Eは、他の一つのピース141Aの2倍の大きさである。同様に、一つのピース141Fは、他の一つのピース141Aの2倍の大きさである。ピース141Eとピース141Fは同一形状である。
 一つのピース141Aの少なくとも一部は、他の一つのピース141Eの少なくとも一部に接している。本実施形態においては、ピース141Eは、左辺E1と、上辺E2と、右辺E3と、下辺E4と、を有している。ピース141Aの左辺A1は、ピース141Eの右辺E3と接するように配置されている。同様にして、ピース141Fは、左辺F1と、上辺F2と、右辺F3と、下辺F4と、を有している。ピース141Bの左辺B1はピース141Fの右辺F3と接するように配置されている。ピース141Eの下辺E4はピース141Fの上辺F2と接するように配置されている。このようにして複数のピース141は、画像生成装置24Bの出射面133の一部である非表示領域Yに敷き詰められている。
 このように、複数のピース141のうち、一つのピース141Eあるいはピース141Fの形状と、他の一つのピース141Aあるいはピース141Bの形状とは互いに異なるため、より効果的に出射面133を覆うことができる。具体的には、大きいピース141Eあるいはピース141Fの数が多いほど配置するピースの数を減らすことができ、工数削減を実現できる。一方、小さいピース141Aやピース141Bの数が多いほど、非表示領域Yの形状にあわせて緻密に配置しやすく、より高精度に非表示領域Yを覆うことができる。本実施形態のカバー140YBも液晶部130の出射面133の少なくとも一部を覆っているため、上記と同様の効果が得られる。
(変形例3)
 各ピース141は少なくとも一つの凸部と、少なくとも一つの凹部を有してもよい。図18は、変形例3として、カバー140YCの部分拡大図を示す。図14に係るカバー140Yと同一または対応する構成要素には同様の参照番号を付すとともに、説明は省略する。
 図18に示すように、各ピース141は少なくとも一つの凸部と、少なくとも一つの凹部を有する。一つのピース141の凸部は、他の一つのピース141の凹部と嵌合するよう構成されている。本実施形態においては、ピース141Gは、左辺G1と、上辺G2と、右辺G3と、下辺G4と、を有している。更にピース141Gは、左辺G1に形成された凸部G5と、右辺G3に形成された凹部G6を有している。ピース141Hは、左辺H1と、上辺H2と、右辺H3と、下辺H4と、左辺H1に形成された凸部H5と、右辺H3に形成された凹部H6を有している。ピース141Hの凸部H5は、ピース141Gの凹部G6と嵌合するよう構成されている。同様にして、ピース141Iは、左辺I1と、上辺I2と、右辺I3と、下辺I4と、左辺I1に形成された凸部I5と、右辺I3に形成された凹部I6を有している。ピース141Iの凸部I5は、ピース141Hの凹部H6と嵌合するよう構成されている。
 このように、ピース141Hの凸部H5はピース141Gの凹部G6と嵌合するため、ピース141Gあるいはピース141Hが、カバー140YCから脱落することを防ぐことができる。したがって、本開示のカバー140YCは出射面133をより確実に覆うことができ、太陽光による出射面133の局所的な昇温をより抑制することができる。
(変形例4)
 各ピース141は二つの凸部と、二つの凹部を有してもよい。図19は、変形例4として、カバー140YDの部分拡大図を示す。図14に係るカバー140Yと同一または対応する構成要素には同様の参照番号を付すとともに、説明は省略する。
 図19に示すように、各ピース141は二つの凸部と、二つの凹部を有する。本実施形態においては、ピース141Jは、左辺J1と、上辺J2と、右辺J3と、下辺J4と、を有している。更にピース141Jは、左辺J1に形成された凸部J5と、右辺J3に形成された凹部J6と、上辺J2に形成された凸部J7と、下辺J4に形成された凹部J8を有している。凸部J5と凹部J6は互いに対向している。凸部J7と凹部J8は互いに対向している。
 ピース141Kは、左辺K1と、上辺K2と、右辺K3と、下辺K4と、左辺K1に形成された凸部K5と、右辺K3に形成された凹部K6と、上辺K2に形成された凸部K7と、下辺K4に形成された凹部K8を有している。凸部K5と凹部K6は互いに対向している。凸部K7と凹部K8は互いに対向している。ピース141Kの凸部K5は、ピース141Jの凹部J6と嵌合するよう構成されている。左辺K1は第一辺の一例である。上辺K2は第二辺の一例である。右辺K3は第三辺の一例である。下辺K4は第四辺の一例である。凸部K5は第一凸部の一例である。凸部K7は第二凸部の一例である。凹部K6は第一凹部の一例である。凹部K8は第二凹部の一例である。
 同様に、ピース141Lは、左辺L1と、上辺L2と、右辺L3と、下辺L4と、左辺L1に形成された凸部L5と、右辺L3に形成された凹部L6と、上辺L2に形成された凸部L7と、下辺L4に形成された凹部L8を有している。凸部L5と凹部L6は互いに対向している。凸部L7と凹部L8は互いに対向している。ピース141Kの凸部K7は、ピース141Lの凹部L8と嵌合するよう構成されている。
 このように、ピース141Kの凸部K5は、ピース141Jの凹部J6と嵌合し、且つピース141Kの凸部K7は、ピース141Lの凹部L8と嵌合するため、ピース141Kが、カバー140YDから脱落することを防ぐことができる。したがって、本開示のカバー140YDは出射面133をより確実に覆うことができ、太陽光による出射面133の局所的な昇温をより抑制することができる。
(第三実施形態)
 以下、本開示の第三実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 図20は、車両1Cに設けられたHUD20Cを、車両1Cの側面側から見た模式図である。図20に示す構成において、図10に示した構成と同一の構成については同一の符号を付し、その説明を省略する。HUD20Cは画像照射装置の一例である。
 図20に示すように、HUD20Cは、HUD本体部21Bと、画像生成装置(PGU)24Cと、制御部25Cと、凹面鏡26Cと、を備える。
 画像生成装置24Cは、車両1Cの乗員に向けて表示される所定の画像を生成する光を出射するように構成されている。画像生成装置24Cの構成は、カバー140を備えないこと以外は、画像生成装置24Bの構成と同様であるため、説明を省略する。
 制御部25Cは、HUD20Cの各部の動作を制御する。
 凹面鏡26Cは、画像生成装置24Cから出射される光の光路上に配置されている。凹面鏡26Cは、画像生成装置24Cから出射される光を所定の位置まで導くよう構成されている。凹面鏡26Cは、所定の画像を形成するために凹状に湾曲した反射面26Aを有する。反射面26Aは、画像生成装置24Cから出射され結像された光の像を所定の倍率で反射させる。凹面鏡26Cは、例えば駆動機構27Cを有し、制御部25Cから送信される制御信号に基づいて凹面鏡26Cの位置及び向きを変位させることができるように構成されている。凹面鏡26Cは光学部材の一例である。反射面26Aは反射部材の一例である。凹面鏡26Cは、例えばウインドシールド18Bの特定の位置などの所定の位置に、画像生成装置24Cから出射される光を導く。
 図21は、画像生成装置24Cの液晶部130の平面図である。図21に示すように、液晶部130は、各々が関連する類似の虚像を形成するよう構成された領域を複数有する。各々の領域は液晶部130の複数の画素Zで構成されている。各々の領域はそれぞれ同じ数の画素Zで構成されている。本実施形態の液晶部130には、領域A、領域B、領域Cの3つの領域が一列に配列されている。領域Bは、領域Aと領域Cの間に設けられている。本実施形態の領域Bは、領域A及び領域Cの両方と接して設けられているが、一方あるいは両方の領域と接せずに設けられていてもよい。領域Aは第一領域の一例である。領域Bは第二領域の一例である。
 領域A、領域B、領域Cそれぞれが形成する虚像は、本実施形態においては同一である。各領域では、例えば車速情報、法定速度情報を示す像が形成される。さらに各領域では、車両1が左折する場合には左矢印の像が、車両1が右折する場合には右矢印の像が形成されてもよい。なお図3に示す車速情報、法定速度情報の表示位置や大きさ及び、矢印の位置や大きさは、表示される一例であって、これらに限定されるものではない。
 液晶部130には、複数の領域A、B、Cの温度を測定する、少なくとも一つの温度センサ30が設けられている。本実施形態では、対応する一つの領域の温度を測定する温度センサ30が複数設けられている。具体的には、領域Aの温度を測定する第一温度センサ31、領域Bの温度を測定する第二温度センサ32、領域Cの温度を測定する第三温度センサ33がそれぞれ設けられている。これら第一温度センサ31、第二温度センサ32、第三温度センサ33は、領域A、B、Cの配列方向に沿って配置されている。本実施形態の第一温度センサ31、第二温度センサ32及び第三温度センサ33は全て同じ構成であるが、これら構成は互いに異なっていてもよい。
 次に制御部25Cの動作を説明する。
 図15に示したように、太陽光(外光の一例)が出射窓23Bから本体ハウジング22B内へ入射した場合、太陽光に含まれる遠赤外線により液晶部130の出射面133に局所的な温度上昇が発生し、偏光フィルム132が劣化してしまう可能性がある。
 そこで本開示の制御部25Cは、少なくとも一つの領域から出射される光を所定の位置まで導く状態において一つの領域の液晶部130の温度が所定値以上となったとき、少なくとも一つの他の領域を選択する。そして制御部25Cは、この選択した領域から出射される光を所定の位置まで導くように、凹面鏡26Cを制御する。すなわち制御部25Cは、選択した領域の位置に応じて、凹面鏡26Cの位置及び向きを変位させるための制御信号を生成し、当該生成された制御信号を駆動機構27Cに送信する。駆動機構27Cは、受信した制御信号に基づいて、内蔵するモータ(図示せず)を駆動して凹面鏡26Cを変位させる。凹面鏡26Cが変位する位置及び向きは、複数の領域A、B、Cの配列方向に対応する方向、向きに対応する。このようにして制御部25Cは、凹面鏡26Cを変位させることにより、選択された領域から出射される光を所定位置まで導く。
 例えば、初期状態として領域Aが選択されており、太陽光が凹面鏡26Cによって反射されるとともに、液晶部130の領域Aへ集光された場合を説明する。領域Aに対して太陽光の集光が続くと、領域Aにおける液晶部130の温度(以下、領域Aの温度という。)が上昇する。領域Aの温度が第一破損温度を超えると、領域Aの偏光フィルム132が劣化する蓋然性が高まる。そこで本実施形態の制御部25Cは、領域Aから出射される光を所定の位置まで導く状態において領域Aの温度が第一閾値以上となったとき、領域Bを選択する。第一閾値は、第一破損温度より、例えば5度低く設定されている。更に制御部25Cは、この選択した領域Bから出射される光を所定の位置まで導くように、凹面鏡26Cを変位させる。凹面鏡26Cが変位することで、太陽光の入射する領域が領域Aから領域Bへ切り替わる。したがって太陽光が領域Aに入射され続けることを抑制することができる。第一閾値は所定値の一例である。
 以上説明したように、本開示の液晶部130は、各々が関連する類似の虚像を形成するよう構成された、複数の領域A、B、Cを有するため、いずれの領域から出力された光でも、ウインドシールド18Bには類似の虚像が形成される。特に本実施形態の領域A、B、Cが形成する虚像はいずれも同一である。したがって、どの領域から出射された光でも、車両1Cの乗員は違和感なく虚像を認識することができる。
 なお、各々の領域から所定の位置までの光路長を等しく設定しておくことが好ましい。
 例えば、本実施形態とは異なり、領域Aから出射された光が、凹面鏡26Cにより反射されて所定の位置まで到達する光学経路の光路長と、領域Bから出射された光が、凹面鏡26Cにより反射されて所定の位置まで到達する光学経路の光路長とは、互いに異なることがある。この場合、選択される領域とその光学経路によっては、表示される虚像に対して車両1Cの乗員は違和感を覚えることがある。
 しかしながら本実施形態においては、各々の領域から反射面26Aまでの距離が等しくなるように、出射面133と反射面26Aとが構成されており、反射面26Aを含む凹面鏡26C全体が変位する。このため、どの光学経路が選択された場合でもその光路長は等しく、乗員に対して違和感なく虚像を表示させる。なお本実施形態では凹面鏡26Cの形状を適切な形状としたことで、各々の領域の光路長を揃えたが、制御部25Cが選択した領域ごとに凹面鏡26Cなどの光学部材の位置や向きを変位させるように構成してもよい。
 本開示の制御部25Cは、液晶部130の少なくとも一つの領域から出射される光を所定の位置まで導くように凹面鏡26Cを制御する。制御部25Cが太陽光の入射する領域を切り替えることで、特定の領域に太陽光が入射され続けることを抑制できる。これにより、太陽光による液晶部130の局所的な昇温を抑制することができる。
 本開示の凹面鏡26Cは、液晶部130から出射された光を反射する反射面26Aを有し、制御部25Cは反射面26Aを含む凹面鏡26C全体を変位させることにより、選択された領域から出力される光を導く。制御部25Cが反射面26Aを変位させるため、どの領域が選択された場合でも、選択された領域からの光路長を等しく保つことができ、乗員に対して違和感なく虚像を表示させることができる。
 本開示の制御部25Cは、領域Aから出射される光を所定の位置まで導く状態において領域Aの温度が第一閾値以上となったとき、領域Bから出射される光を当該位置まで導くように凹面鏡26Cを制御する。このため、領域Aに太陽光が入射され続けることを回避し、領域Aにおける局所的な昇温を抑制することができる。
 本開示のHUD20Cは、液晶部130の複数の領域A、B、Cの温度を測定する、少なくとも一つの温度センサ30を備える。特に本開示では、領域Aの温度を測定する第一温度センサ31、領域Bの温度を測定する第二温度センサ32、領域Cの温度を測定する第三温度センサ33が設けられている。対応する一つの領域の温度を測定する温度センサ30が複数設けられているため、複数の領域A、B、Cにおける局所的な昇温をそれぞれより正確に検知することができる。したがって、太陽光による液晶部130の局所的な昇温を抑制することができる。
 複数の温度センサである、第一温度センサ31、第二温度センサ32、第三温度センサ33は、複数の領域A、B、Cの配列方向に沿って設けられている。すなわち各温度センサの、各領域に対する位置的条件は同じである。したがって、各領域の温度をより高精度に温度を測定することができ、太陽光による液晶部130の局所的な昇温をより抑制することができる。
 なお本実施形態では、液晶部130は3つの領域A、B、Cを有するが、領域の数は3つに限られない。領域の数は、2つでもよいし、4つ以上でも良い。領域が4つ以上に分かれている場合、2つの領域からの光を所定の位置に導くように構成してもよい。例えば、A,B,C,Dの領域がある場合、A,Bの領域からの光を所定の位置に導く状態から、C,Dの領域からの光を所定の位置に導くように切り替えてもよい。また、各領域からの光を一部ずつ合わせて所定の位置に導き、一つの像を形成するように構成してもよい。
 本実施形態では、複数の温度センサ30として、第一温度センサ31、第二温度センサ32、第三温度センサ33が設けられているが、温度センサ30の数は3つに限らない。一つの温度センサのみが設けられてもよい。例えば1つの第二温度センサ32のみが設けられ、この第二温度センサ32から領域Aまでの距離に応じて、領域Aの温度を推定するよう第二温度センサ32が構成されてもよい。同様に、第二温度センサ32から領域Cまでの距離に応じて、領域Cの温度を推定するよう第二温度センサ32が構成されてもよい。第二温度センサ32のみが設けられた場合においても、上記と同様の効果が得られる。また温度センサ30を複数設ける場合と比較して、製造コストを抑制することができる。
 温度センサ30は、液晶部130の全ての領域A,B、Cを一括して測定するサーモカメラ34であってもよい(図21)。サーモカメラ34は、複数の領域A,B、Cを包含する測定領域34Aの温度を測定するよう構成されている(図21)。サーモカメラ34は、ある領域の温度が所定値以上となった場合、当該情報を制御部25Cに送信する。サーモカメラ34が設けられた場合においても、上記と同様の効果が得られる。また温度センサ30を複数設ける場合と比較して、製造コストを抑制することができる。
 本実施形態では、制御部25Cが太陽光の入射する領域を、領域Aから領域Bへ切り替える場合を説明したが、領域の切り替えはこれに限らない。制御部25Cは、領域Bから領域Cへ切り替えてもよい。
 例えば、領域Bに対して太陽光の集光が続くと、領域Bの温度が上昇する。領域Bの温度が第三破損温度を超えると、領域Bの偏光フィルム132が劣化する蓋然性が高まる。そこで本実施形態の制御部25Cは、領域Bから出射される光を所定の位置まで導く状態において領域Bの温度が第三閾値以上となったとき、領域Cを選択する。第三閾値は、第三破損温度より、例えば5度低く設定されている。更に制御部25Cは、この選択した領域Cから出射される光を所定の位置まで導くように、凹面鏡26Cを変位させる。凹面鏡26Cが変位することで、太陽光の入射する領域が領域Bから領域Cへ切り替わる。領域Bは第三領域の一例である。領域Cは第四領域の一例である。第三領域は、第一、第二でもいいし、他の領域でもあっていい。第四領域は、第一、第二でもいいし、他の領域でもあっていい。
 第一閾値と第三閾値は互いに異なっていてもよい。HUD20C内の光学系や車両1Cの車種によっては、太陽光が特定領域に集光されやすい場合がある。本開示によれば、太陽光が集光されやすい領域には第一閾値を有する温度センサを、太陽光が集光されにくい領域には第三閾値を有する温度センサを設けることができる。この場合、第一閾値は、第三閾値よりも低い。このように第一閾値と第三閾値は互いに異なっているため、光学系や車種に応じて液晶部130の局所的な昇温を抑制することができる。
 第一閾値と第三閾値は同じであってもよい。この場合、設定される閾値は一つとなるため、制御部25Cの処理負担が軽減される。したがって、各々が互いに異なる複数の閾値が設けられる場合と比較して、制御部25Cの処理の高速化を実現することができる。また一つの閾値のみを設ければよいので、複数の閾値が設けられる場合と比較して、製造コストを抑制することができる。
 本実施形態では、制御部25Cは、領域Aから出射される光を所定の位置まで導く状態において領域Aの温度が第一閾値以上となったとき、領域Bから出射される光を所定の位置まで導くように凹面鏡26Cを制御したが、制御部25Cの動作はこれに限られない。制御部25Cは、領域Aから出射される光を所定の位置まで導く状態が所定時間継続した後に、領域Bから出射される光を所定の位置まで導くように凹面鏡26Cを制御してもよい。
 この場合、HUD20Cは、使用時間を計時するタイマー35を備えてもよい(図21)。タイマー35が所定時間を計時することで、制御部25Cが一つの領域(例えば領域A)から出射される光を所定の位置まで導いた時間が計時される。仮にタイマー35が所定時間を計時すると、制御部25Cは、他の一つの領域(例えば領域B)から出射される光を所定の位置まで導くように凹面鏡26Cを制御する。
 このように、一つの領域から出射される光を所定の位置まで導く状態が所定時間経過すると、他の一つの領域から出射される光を所定位置まで導くよう、制御部25Cが凹面鏡26Cを制御するため、特定の領域のみを長時間使用し続けることを防ぐことができる。したがって太陽光による液晶部130の局所的な昇温を抑制することができる。なおHUD20Cがタイマー35を備える場合、HUD20Cは温度センサ30を備えてもよいし、備えなくてもよい。
 制御部25Cが使用時間を計時してもよい。すなわち、制御部25Cが有するCPU等のプロセッサが、所定周波数をカウントすることで疑似的に使用時間を計時してもよい。制御部25Cが使用時間を計時する場合においても、上記と同様の効果が得られる。また制御部25Cが使用時間を計時する場合、HUD20Cは温度センサ30やタイマー35を備える必要はなく、製造コストを抑制することができる。
 上記は光学部材の一例として凹面鏡26Cを説明したが、光学部材は凹面鏡26Cに限らない。光学部材は遮蔽部材であってもよい。
(第一変形例)
 図20、図22及び図23を用いて、遮蔽部材28の構成と動作を説明する。図22は、遮蔽部材28の構成を示す模式図である。図23は、制御部25Cが遮蔽部材28を制御した後における、液晶部130の平面図である。図23に示す構成においては、図21に示した構成と同一の構成については同一の符号を付し、その説明を省略する。
 図20に示すように遮蔽部材28は、HUD20C内において、画像生成装置24Cと凹面鏡26Cの間に設けられている。遮蔽部材28は、画像生成装置24Cの液晶部130に近い位置が好ましい。遮蔽部材28の材質は、一般的な材料よりも高耐熱の部材であり、例えば、アルミ、鉄、セラミック等である。遮蔽部材28の色は、迷光を防止するため黒色である。遮蔽部材28と液晶部130間の距離は可能な限り短いものとするが、一定の隙間を保持し、遮蔽部材28と液晶部130間に断熱材が配置されてもよい。
 図22に示すように遮蔽部材28は、液晶部130の各々の領域A、B、Cを個別に覆うよう構成された覆い部28X及び28Yを有する。覆い部28X,28Yは、フレームの内部に移動可能に支持されている。図示の例では、覆い部28X,28Yは図示せぬアクチュエータにより、図の上下方向に移動可能である。
 覆い部28Xは領域28Aまたは領域28Bに位置できるよう構成されている。覆い部28Yは領域28Bまたは領域28Cに位置できるよう構成されている。覆い部28Xが領域28Aに位置する場合、太陽光は覆い部28Xに遮られ、液晶部130の領域Aには到達しない。覆い部28Xあるいは覆い部28Yが領域28Bに位置する場合、太陽光は覆い部28Xあるいは覆い部28Yに遮られ、液晶部130の領域Bには到達しない。覆い部28Yが領域28Cに位置する場合、太陽光は覆い部28Yに遮られ、液晶部130の領域Cには到達しない。
 HUD20Cの制御部25Cは、選択された領域から出射される光を所定位置まで導くように、遮蔽部材28を制御する。すなわち制御部25Cは、選択した領域の位置に応じて、遮蔽部材28の覆い部28X及び覆い部28Yの位置を変位させるための制御信号を生成し、当該生成された制御信号を遮蔽部材28に送信する。遮蔽部材28は、受信した制御信号に基づいて、内蔵するモータ(図示せず)を駆動して覆い部28X及び覆い部28Yを変位させる。
 例えば、制御部25Cが領域Aから出射される光を所定の位置まで導く状態において、覆い部28Xは領域28Bに、覆い部28Yは領域28Cに位置する。領域Aの温度が第一閾値以上となったとき、制御部25Cは領域Bを選択する。このとき制御部25Cは、領域28Bに位置していた覆い部28Xを、領域28Aへ変位させる(図22の矢印)。このようにして領域28Aへ変位した覆い部28Xは、液晶部130の領域Aへ照射される太陽光を遮る。覆い部28Yは、領域28Cに位置したまま、液晶部130の領域Cへ照射される太陽光を遮る。一方、領域28Bには覆い部28X及び覆い部28Yがいずれも位置しないため、液晶部130の領域Bから出射される光は、遮蔽部材28に遮られることなく、所定の位置まで導かれる(図23)。
 このように本開示によれば、制御部25Cは遮蔽部材28を制御するため、選択された領域Bからの光のみが出射され、車両1Cの乗員によって視認される。したがって、選択された領域B以外の領域(非選択領域)である、領域A及び領域Cからの光による迷光を防ぎ、虚像の視認性を向上することができる。さらに遮蔽部材28は非選択領域を覆っているため、太陽光から非選択領域を保護することができ、太陽光による液晶部130の非選択領域における昇温を抑制することができる。
 上記遮蔽部材28は、覆い部28X及び覆い部28Yの2つの覆い部を有することを説明したが、覆い部の数は2つに限らない。遮蔽部材28は、3つの覆い部を有し、各覆い部が液晶部130の3つの領域A、B、Cそれぞれを覆うよう構成されていてもよい。この場合、各覆い部は対応する領域を覆う状態と、対応する領域を覆わない状態とを切り替えることで、光を遮ったり、所定の位置まで導いたりすることができる。
(第二変形例)
 あるいは遮蔽部材28は、複数の覆い部を有する回転体であってもよい。図20及び図24を用いて、遮蔽部材の変形例として、遮蔽部材28Rの構成と動作を説明する。図24は、遮蔽部材28Rの構成を示す模式図である。
 図20に示すように遮蔽部材28Rは、HUD20C内において、画像生成装置24Cと凹面鏡26Cの間に設けられている。遮蔽部材28Rは、画像生成装置24Cの液晶部130に近い位置が好ましい。
 図24に示すように、遮蔽部材28Rは、円柱形状を有しており、軸線Lを中心に回転する回転体である。遮蔽部材28Rは、軸線Lが液晶部130の複数の領域A、B、Cから出射される光と略直交するよう設けられている。さらに遮蔽部材28Rは、液晶部130の各々の領域A、B、Cを個別に覆うよう構成された覆い部28D、28E及び28Fを有する。覆い部28Dは、領域Bを覆うよう構成された第一突起部28D1と、領域Cを覆うよう構成された第二突起部28D2を有する。第一突起部28D1及び第二突起部28D2は、遮蔽部材28Rの円柱側面部に、軸線Lに沿って配置されている。覆い部28Eは、領域Aを覆うよう構成された第三突起部28E1と、領域Cを覆うよう構成された第四突起部28E2を有する。第三突起部28E1及び第四突起部28E2は、遮蔽部材28Rの円柱側面部に、軸線Lに沿って配置されている。覆い部28Fは、領域Aを覆うよう構成された第五突起部28F1と、領域Bを覆うよう構成された第六突起部28F2を有する。第五突起部28F1及び第六突起部28F2は、遮蔽部材28Rの円柱側面部に、軸線Lに沿って配置されている。
 例えば、領域Aから出射される光を所定の位置まで導く状態においては、覆い部28Dが回転位置Pに位置する。このとき、第一突起部28D1は領域Bに向かう太陽光を遮り、第二突起部28D2は領域Cに向かう太陽光を遮る。領域Aの温度が第一閾値以上となったとき、制御部25Cは領域Bを選択する。このとき制御部25Cは、回転位置Pに覆い部28Eが位置するよう遮蔽部材28Rを、(本実施形態においては反時計回りに)軸線Lを中心に回転させる。このようにして回転位置Pへ変位した覆い部28Eの第三突起部28E1は、液晶部130の領域Aへ照射される太陽光を遮る。第四突起部28E2は、領域Cに向かう太陽光を遮る。一方、領域28Bには第三突起部28E1及び第四突起部28E2がいずれも位置しないため、液晶部130の領域Bから出射される光は、遮蔽部材28Rに遮られることなく、所定の位置まで導かれる。
 このように本開示によれば、制御部25Cは遮蔽部材28Rを制御するため、選択された領域Bからの光のみが出射され、車両1Cの乗員によって視認される。したがって、選択された領域B以外の領域(非選択領域)である、領域A及び領域Cからの光による迷光を防ぎ、虚像の視認性を向上することができる。さらに遮蔽部材28Rは非選択領域を覆っているため、太陽光から非選択領域を保護することができ、太陽光による液晶部130の非選択領域における昇温を抑制することができる。
 本実施形態、第一変形例あるいは第二変形例に加えて、HUD20Cの画像生成装置24Cの光源111は、液晶部130の複数の領域A、B、Cそれぞれに対応した複数の光源を備えていてもよい。例えば第一光源111Aは、液晶部130の領域Aを点灯あるいは消灯するよう構成されている。第二光源111Bは、液晶部130の領域Bを点灯あるいは消灯するよう構成されている。第三光源(図示せず)は、液晶部130の領域Cを点灯あるいは消灯するよう構成されている。これら複数の光源は、制御部25Cから送られる制御信号に基づいて点灯あるいは消灯する。制御部25Cが領域Aから出射される光を所定の位置まで導く状態においては、第一光源111Aは点灯する。制御部25Cが領域Bを選択したときは、第一光源111Aは消灯するとともに、第二光源111Bは点灯する。領域Cは選択されていないため、第三光源は消灯を続ける。
 このように本開示によれば、制御部25Cは選択された領域Bに対応する第二光源111Bを点灯させるとともに、選択された領域B以外の領域A、C(非選択領域)に対応する第一光源111A及び第三光源は消灯させるため、選択された領域Bからのみ光が出射され、視認される。非選択領域A及びCから光は出射されないため、迷光による虚像の視認性低下を抑制することができる。また、最低限必要な光のみ出射することで光源111の発熱を防止し、画像生成装置24C全体の温度上昇を低減することができる。
 以上、本開示の実施形態について説明をしたが、本開示の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本開示の技術的範囲は請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
 本出願は、2021年10月11日出願の日本出願第2021-166677号、2021年10月22日出願の日本出願第2021-173257号及び2021年10月27日出願の日本出願第2021-175505号に基づく優先権を主張し、前記日本出願に記載された全ての記載内容を援用するものである。

Claims (37)

  1.  所定の画像を車両の乗員に向けて表示するように構成された画像照射装置であって、
     前記画像を生成する画像生成部と、
     前記画像生成部を制御する制御部と、を備えており、
     前記制御部は、前記車両の乗員の視線情報を取得し、前記視線情報に基づき前記乗員の視線が画像表示可能領域内の複数の領域のいずれの領域に属するかを判定し、判定された前記領域に対応する物体に関する情報を示す画像を前記画像生成部に生成させる、画像照射装置。
  2.  前記制御部は、
     前記車両の周辺に存在する物体の情報が記憶された周辺情報データベースから、前記画像表示可能領域に対応する物体に関する情報を抽出し、抽出された前記情報のうち前記判定された前記領域に対応する物体に関する情報を示す画像を前記画像生成部に生成させる、請求項1に記載の画像照射装置。
  3.  前記制御部は、
     前記車両の周辺に存在するインフラ設備から、前記画像表示可能領域に対応する物体に関する情報を取得し、取得された前記情報のうち前記判定された前記領域に対応する物体に関する情報を示す画像を前記画像生成部に生成させる、請求項1または2に記載の画像照射装置。
  4.  前記物体に関する情報は、車両の走行に関係のない、店舗の情報を含む周辺環境に関する情報を含む、請求項1または2に記載の画像照射装置。
  5.  前記物体に関する情報は、信号機と交通標識の少なくとも一つの情報を含む交通情報を含む、請求項1または2に記載の画像照射装置。
  6.  前記制御部は、
     前記画像表示可能領域に対応する物体に関する情報に信号機と交通標識の少なくとも一つの情報を含む交通情報が含まれている場合、前記乗員の視線にかかわらず、前記交通情報を示す画像を前記画像生成部に生成させる、請求項2に記載の画像照射装置。
  7.  前記交通情報は、前記信号機の待ち時間を示す情報である、請求項5に記載の画像照射装置。
  8.  前記制御部は、前記車両の走行速度が所定値以下の場合に、前記物体に関する情報を示す画像を前記画像生成部に生成させる、請求項1または2に記載の画像照射装置。
  9.  車両の乗員に向けて表示する画像を生成する画像生成部と前記画像生成部を制御する制御部とを備える、前記車両に搭載される画像照射装置の制御方法であって、
     前記車両の乗員の視線情報を取得する工程と、
     前記視線情報に基づき前記乗員の視線が画像表示可能領域内の複数の領域のいずれの領域に属するかを判定する工程と、
     判定された前記領域に対応する物体に関する情報を示す画像を前記画像生成部に生成させる工程と、を含む、画像照射装置の制御方法。
  10.  前記画像を生成させる工程は、
     前記車両の周辺に存在する物体の情報が記憶された周辺情報データベースから、前記画像表示可能領域に対応する物体に関する情報を抽出する工程と、
     抽出された前記情報のうち前記判定された前記領域に対応する物体に関する情報を示す画像を前記画像生成部に生成させる工程と、を含む、請求項9に記載の画像照射装置の制御方法。
  11.  前記画像を生成させる工程は、
     前記車両の周辺に存在するインフラ設備から、前記画像表示可能領域に対応する物体に関する情報を取得する工程と、
     取得された前記情報のうち前記判定された前記領域に対応する物体に関する情報を示す画像を前記画像生成部に生成させる工程と、を含む、請求項9または10に記載の画像照射装置の制御方法。
  12.  ヘッドアップディスプレイの画像生成装置であって、
     像を生成する液晶部と、
     前記液晶部の出射面の少なくとも一部を覆い、複数のピースで構成されたカバーと、を備える、画像生成装置。
  13.  前記カバーは、前記液晶部の偏光フィルムまたは前記偏光フィルムに貼り付けられた保護フィルムを覆っている、請求項12に記載の画像生成装置。
  14.  前記出射面は、常に前記像を生成しない非表示領域を有し、
     前記カバーは前記非表示領域を覆っている、請求項12に記載の画像生成装置。
  15.  前記複数のピースのうち、一つのピースの少なくとも一部は、他の一つのピースの少なくとも一部に接している、請求項12に記載の画像生成装置。
  16.  前記複数のピースは、前記出射面の少なくとも一部に敷き詰められている、請求項12に記載の画像生成装置。
  17.  各前記ピースは、少なくとも一つの凸部と、少なくとも一つの凹部を有し、
     一つのピースの前記凸部は、他の一つのピースの前記凹部と嵌合するよう構成された、請求項15に記載の画像生成装置。
  18.  各前記ピースの形状は矩形であり、
     各前記ピースは、前記矩形の第一辺に設けられた第一凸部と、前記矩形の第二辺に設けられた第二凸部と、前記矩形の第三辺に設けられた第一凹部と、前記矩形の第四辺に設けられた第二凹部を有し、
     前記第一凸部と前記第一凹部は互いに対向し、
     前記第二凸部と前記第二凹部は互いに対向し、
     一つのピースの前記第一凸部は、他の一つのピースの前記第一凹部と嵌合するよう構成され、
     一つのピースの前記第二凸部は、他の一つのピースの前記第二凹部と嵌合するよう構成されている、請求項17に記載の画像生成装置。
  19.  各前記ピースはいずれも同一形状である、請求項12に記載の画像生成装置。
  20.  前記カバーは、第一ピース群と、前記第一ピース群に属するピースと形状の異なるピースを有する第二ピース群と、を有する、請求項12に記載の画像生成装置。
  21.  前記第一ピース群の前記ピースは、前記像に対応する形状の孔部を有し、
     前記第二ピース群の前記ピースは、前記孔部を有さない、請求項20に記載の画像生成装置。
  22.  各前記ピースは遮光性を有する、請求項12に記載の画像生成装置。
  23.  各前記ピースの表面は反射防止層で覆われている、請求項12に記載の画像生成装置。
  24.  各前記ピースは高耐熱性材料で形成されている、請求項12に記載の画像生成装置。
  25.  車両に設けられ、像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
     請求項12から24の何れか一項に記載の画像生成装置と、
     前記画像生成装置から出射された光を反射する反射鏡を備える、ヘッドアップディスプレイ。
  26.  ヘッドアップディスプレイの画像生成装置のカバーであって、
     複数のピースを有し、
     前記複数のピースは前記画像生成装置の出射面の少なくとも一部を覆う、カバー。
  27.  各々が関連する類似の虚像を形成するよう構成された、複数の領域を有する液晶部と、
     前記液晶部から出射される光を所定の位置まで導く光学部材と、
     前記複数の領域から選択された少なくとも一つの領域から出射される光を前記所定の位置まで導くように前記光学部材を制御する制御部と、を備える、画像照射装置。
  28.  前記光学部材は、前記液晶部から出射された光を反射する反射部材を有し、
     前記制御部は、前記反射部材を変位させることにより、選択された前記領域から出射される光を前記所定の位置まで導く、請求項27に記載の画像照射装置。
  29.  前記光学部材は、前記液晶部の各々の前記領域を個別に覆うよう構成された覆い部を有する遮蔽部材を有し、
     前記制御部は、前記遮蔽部材を制御することにより、選択された前記領域から出射される光を前記所定の位置まで導く、請求項27に記載の画像照射装置。
  30.  前記複数の領域それぞれに対応した、複数の光源を更に備え、
     選択した前記領域に対応する光源は点灯するとともに、選択されなかった前記領域に対応する光源は消灯する、請求項28または29に記載の画像照射装置。
  31.  前記制御部は、選択された前記領域から出射される光を前記所定の位置まで導く状態において選択された前記領域の前記液晶部の温度が所定値以上となったとき、他の領域から出射される光を前記所定の位置まで導くように前記光学部材を制御する、請求項27または28に記載の画像照射装置。
  32.  前記液晶部の前記複数の領域の温度を測定する、少なくとも一つの温度センサを更に備える、請求項31に記載の画像照射装置。
  33.  対応する一つの領域の温度を測定する温度センサが複数設けられる、請求項32に記載の画像照射装置。
  34.  前記複数の温度センサが、前記複数の領域の配列方向に沿って配置されている、請求項33に記載の画像照射装置。
  35.  前記複数の領域は、第一領域、第二領域、第三領域、第四領域を有し、
     前記第一領域から出射される光を前記所定の位置まで導く状態から前記第二領域から出射される光を前記所定の位置まで導くように前記制御部が前記光学部材を制御する場合、前記第一領域の温度は第一閾値であり、
     前記第三領域から出射される光を前記所定の位置まで導く状態から前記第四領域から出射される光を前記所定の位置まで導くように前記制御部が前記光学部材を制御する場合、前記第三領域の温度は第三閾値であり、
     前記第一閾値と第三閾値は互いに異なる、請求項31に記載の画像照射装置。
  36.  前記制御部は、選択した前記領域から出射される光を前記所定の位置まで導く状態が所定時間継続した後に、他の領域から出射される光を前記所定の位置まで導くように前記光学部材を制御する、請求項27または28に記載の画像照射装置。
  37.  使用時間を計時するタイマーを更に備え、
     前記タイマーが前記所定時間を計時すると、前記制御部は、他の前記領域から出射される光を前記所定の位置まで導くように前記光学部材を制御する、請求項36に記載の画像照射装置。
PCT/JP2022/036240 2021-10-11 2022-09-28 画像照射装置、画像照射装置の制御方法、画像生成装置、ヘッドアップディスプレイ及びカバー WO2023063084A1 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2021166677 2021-10-11
JP2021-166677 2021-10-11
JP2021-173257 2021-10-22
JP2021173257 2021-10-22
JP2021-175505 2021-10-27
JP2021175505 2021-10-27

Publications (1)

Publication Number Publication Date
WO2023063084A1 true WO2023063084A1 (ja) 2023-04-20

Family

ID=85988297

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/036240 WO2023063084A1 (ja) 2021-10-11 2022-09-28 画像照射装置、画像照射装置の制御方法、画像生成装置、ヘッドアップディスプレイ及びカバー

Country Status (1)

Country Link
WO (1) WO2023063084A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004170661A (ja) * 2002-11-20 2004-06-17 Yazaki Corp 車両用表示装置
JP2005077206A (ja) * 2003-08-29 2005-03-24 Nippon Seiki Co Ltd 表示装置
JP2015077876A (ja) * 2013-10-16 2015-04-23 株式会社デンソー ヘッドアップディスプレイ装置
JP2016004514A (ja) * 2014-06-19 2016-01-12 日本精機株式会社 車両用表示装置
JP2016103008A (ja) * 2014-11-12 2016-06-02 日本精機株式会社 ヘッドアップディスプレイ装置
JP2019113595A (ja) * 2017-12-21 2019-07-11 アルパイン株式会社 ヘッドアップディスプレイシステム
JP2020138696A (ja) * 2019-03-01 2020-09-03 日産自動車株式会社 車両用情報表示方法及び車両用情報表示装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004170661A (ja) * 2002-11-20 2004-06-17 Yazaki Corp 車両用表示装置
JP2005077206A (ja) * 2003-08-29 2005-03-24 Nippon Seiki Co Ltd 表示装置
JP2015077876A (ja) * 2013-10-16 2015-04-23 株式会社デンソー ヘッドアップディスプレイ装置
JP2016004514A (ja) * 2014-06-19 2016-01-12 日本精機株式会社 車両用表示装置
JP2016103008A (ja) * 2014-11-12 2016-06-02 日本精機株式会社 ヘッドアップディスプレイ装置
JP2019113595A (ja) * 2017-12-21 2019-07-11 アルパイン株式会社 ヘッドアップディスプレイシステム
JP2020138696A (ja) * 2019-03-01 2020-09-03 日産自動車株式会社 車両用情報表示方法及び車両用情報表示装置

Similar Documents

Publication Publication Date Title
US9678341B2 (en) Head-up display apparatus
US9030749B2 (en) Bifocal head-up display system
US7952808B2 (en) Display system for vehicle and display method
CN112074770A (zh) 可调整的三维增强现实平视显示器
JP2019014474A (ja) 動的焦点面を備える立体ヘッドアップディスプレイ
KR102397089B1 (ko) 이미지 처리 방법 및 이미지 처리 장치
CN113165513A (zh) 平视显示器、车辆用显示系统以及车辆用显示方法
US11597316B2 (en) Vehicle display system and vehicle
EP4089467A1 (en) Head-up display system and control method therefor, and vehicle
KR20190071818A (ko) 허상 표시 장치, 중간상 형성부 및 화상 표시광 생성 유닛
WO2021054277A1 (ja) ヘッドアップディスプレイおよび画像表示システム
CN114302828A (zh) 车辆用显示系统及车辆
EP3835128A1 (en) Vehicle display system and vehicle
WO2019208365A1 (ja) 情報表示装置
WO2021015171A1 (ja) ヘッドアップディスプレイ
WO2023063084A1 (ja) 画像照射装置、画像照射装置の制御方法、画像生成装置、ヘッドアップディスプレイ及びカバー
WO2020110598A1 (ja) ヘッドアップディスプレイ
CN115629515B (zh) 立体投影系统、投影系统和交通工具
JP2001021836A (ja) 車両用表示装置
CN117348320A (zh) 投影装置、交通工具和显示设备
CN117518518A (zh) 立体显示装置、立体显示系统和交通工具
JP7332448B2 (ja) ヘッドアップディスプレイシステム及び移動体
JP2020204773A (ja) 虚像表示装置
JP2017149353A (ja) ヘッドアップディスプレイ装置
US20240184125A1 (en) Image generation device, image irradiation device equipped with said image generation device, and image irradiation device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22880780

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023555091

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE