WO2020110580A1 - ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法 - Google Patents

ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法 Download PDF

Info

Publication number
WO2020110580A1
WO2020110580A1 PCT/JP2019/042583 JP2019042583W WO2020110580A1 WO 2020110580 A1 WO2020110580 A1 WO 2020110580A1 JP 2019042583 W JP2019042583 W JP 2019042583W WO 2020110580 A1 WO2020110580 A1 WO 2020110580A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
display
image
light
control unit
Prior art date
Application number
PCT/JP2019/042583
Other languages
English (en)
French (fr)
Inventor
耕平 村田
隆延 豊嶋
佐藤 典子
Original Assignee
株式会社小糸製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社小糸製作所 filed Critical 株式会社小糸製作所
Priority to EP19889683.9A priority Critical patent/EP3888965B1/en
Priority to CN201980078724.9A priority patent/CN113165513A/zh
Priority to US17/298,459 priority patent/US20220107497A1/en
Priority to JP2020558210A priority patent/JP7254832B2/ja
Publication of WO2020110580A1 publication Critical patent/WO2020110580A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/23Head-up displays [HUD]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/166Navigation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/177Augmented reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/186Displaying information according to relevancy
    • B60K2360/1868Displaying information according to relevancy according to driving situations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/23Optical features of instruments using reflectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/31Virtual images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/60Structural details of dashboards or instruments
    • B60K2360/66Projection screens or combiners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/785Instrument locations other than the dashboard on or in relation to the windshield or windows
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q2400/00Special features or arrangements of exterior signal lamps for vehicles
    • B60Q2400/50Projected symbol or information, e.g. onto the road or car body
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0112Head-up displays characterised by optical features comprising device for genereting colour display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0154Head-up displays characterised by mechanical features with movable elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/04Maintaining the quality of display appearance
    • G09G2320/041Temperature compensation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0613The adjustment depending on the type of the information to be displayed
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present disclosure relates to a head-up display, a vehicle display system, and a vehicle display method.
  • the vehicle system automatically controls the traveling of the vehicle. Specifically, in the automatic driving mode, the vehicle system performs steering control based on information (surrounding environment information) indicating the surrounding environment of the vehicle obtained from sensors such as cameras and radars (for example, laser radar and millimeter wave radar). At least one of (control of traveling direction of vehicle), brake control, and accelerator control (control of vehicle braking, acceleration/deceleration) is automatically performed.
  • the driver controls the traveling of the vehicle, as is the case with most conventional vehicles.
  • the traveling of the vehicle is controlled in accordance with the driver's operation (steering operation, braking operation, accelerator operation), and the vehicle system does not automatically perform steering control, brake control and accelerator control.
  • the driving mode of a vehicle is not a concept that exists only in some vehicles, but a concept that exists in all vehicles including conventional vehicles that do not have an automatic driving function. It is classified according to the method.
  • autonomous driving vehicle vehicles that are traveling in the automatic driving mode on public roads
  • manual driving vehicle vehicles that are traveling in the manual driving mode
  • a head-up display can be used to provide visual communication between the vehicle and the occupant.
  • a head-up display can realize so-called AR (Augmented Reality) by projecting an image or video on a windshield or combiner, superimposing the image on the real space through the windshield or combiner, and making it visible to an occupant. ..
  • Patent Document 1 discloses a display device including an optical system for displaying a stereoscopic virtual image using a transparent display medium.
  • the display device projects light into the driver's field of view on a windshield or combiner. Part of the projected light is transmitted through the windshield or combiner, while the other part is reflected by the windshield or combiner. This reflected light goes to the driver's eyes. The driver sees the reflected light that entered the eyes as an image of the object on the opposite side (outside the car) across the windshield and combiner against the background of the real object seen through the windshield and combiner. Perceive as a virtual image.
  • the present disclosure aims to provide a head-up display capable of reducing a feeling of strangeness given to an occupant while suppressing a processing load related to image generation.
  • the present disclosure aims to provide a head-up display and a vehicle display system with improved convenience.
  • An object of the present disclosure is to provide a head-up display, a vehicle display system, and a vehicle display method that allow a vehicle occupant to easily recognize a light pattern displayed by a road surface drawing device and an image displayed by the head-up display. To do.
  • the present disclosure aims to provide a head-up display capable of preventing the occurrence of heat damage due to external light without deteriorating the quality of image generation to be displayed to an occupant.
  • a head-up display provided on a vehicle and configured to display a predetermined image to an occupant of the vehicle,
  • An image generation unit that emits light for generating the predetermined image and irradiates the light to the windshield or combiner,
  • a control unit for controlling the operation of the image generation unit,
  • the control unit sets the display mode of the virtual image object, which is formed by the predetermined image and is viewed by the occupant through the windshield or the combiner, to either a two-dimensional image or a three-dimensional image according to a predetermined condition.
  • the image generation unit is controlled so as to select either.
  • the display mode of the virtual image object When the display mode of the virtual image object is projected as a planar image in association with an object existing around the vehicle, a two-dimensional object is displayed with respect to the object that is a three-dimensional object, which gives an occupant a strange feeling. Sometimes. On the other hand, if an attempt is made to generate an image of all virtual image objects projected in the visual field area of the occupant as a three-dimensional object, the processing load for image generation increases. In such a state, according to the above configuration, the display mode of the virtual image object can be switched between the two-dimensional image and the three-dimensional image according to a predetermined condition. As a result, it is possible to reduce the processing load when generating the image of the virtual image object, and reduce the discomfort felt by the occupant.
  • the predetermined condition is at least one of a distance from the occupant to the virtual image object, an attribute of an object in the physical space, an area where the virtual image object is arranged in a visual field area of the occupant, and a traveling scene of the vehicle. May be included.
  • the display mode of the virtual image object can be appropriately determined according to the situation such as the projection distance of the virtual image object and the attribute of the target object.
  • the control unit when the distance is less than or equal to a threshold, the display mode as the stereoscopic image, and when the distance is greater than the threshold, the display mode as the planar image, the image generation unit, You may control.
  • the virtual image object displayed as a stereoscopic image and the virtual image object displayed as a planar image can be appropriately switched according to the projection distance of the virtual image object.
  • the control unit sets the display mode of the virtual image object to the stereoscopic image for the object of high importance, and sets the display mode of the virtual image object to the plane for the object of low importance.
  • the image generation unit may be controlled so as to form an image.
  • the object when the importance of the object is high, for example, when the object is of high urgency for the occupant, the object is visually recognized by the occupant by setting the display mode of the virtual image object to a stereoscopic image. It is easy to make. Further, when the importance of the object is low, the display mode of the virtual image object is set to a planar image, so that the processing load for image generation can be reduced.
  • the control unit sets the display mode to the stereoscopic image when the virtual image object is located in the central area of the visual field area, and displays the display mode when the virtual image object is located in an area other than the central area of the visual field area.
  • the image generation unit may be controlled so that is the planar image.
  • the virtual image object displayed as a stereoscopic image and the virtual image object displayed as a plane image can be appropriately switched according to the position of the virtual image object in the visual field area of the occupant.
  • the control unit when the vehicle is traveling on a general road, the display mode is the stereoscopic image, and when the vehicle is traveling on a highway, the display mode is the planar image, You may control the said image production part.
  • the virtual image object displayed as a stereoscopic image and the virtual image object displayed as a plane image can be appropriately switched according to the traveling scene of the vehicle.
  • a head-up display provided on a vehicle and configured to display a predetermined image to an occupant of the vehicle, An image generation unit that emits light for generating the predetermined image and irradiates the light to the windshield or combiner, A control unit for controlling the operation of the image generation unit, The control unit is configured to change a display mode of a virtual image object formed by the predetermined image and viewed by the occupant through the windshield or the combiner, based on an object in the physical space, the image generation unit.
  • the second distance which is the distance from the occupant to the virtual image object. The second distance is changed according to the first distance, and when the first distance is larger than the predetermined threshold value, the second distance is made constant.
  • the second distance may be set to be a distance equal to or larger than the predetermined threshold.
  • the predetermined threshold may be changeable according to a predetermined condition.
  • the predetermined condition includes illuminance around the vehicle
  • the predetermined threshold may be increased as the illuminance increases.
  • the threshold when the surroundings of the vehicle are bright, the occupant can clearly see the image far away. Therefore, it is preferable to increase the threshold as the illuminance increases to reduce the discomfort given to the occupant as much as possible. ..
  • the predetermined condition includes a traveling speed of the vehicle,
  • the predetermined threshold may be increased as the traveling speed increases.
  • the size of the virtual image object displayed may be changed according to the first distance.
  • a head-up display provided on a vehicle and configured to display a predetermined image to an occupant of the vehicle,
  • An image generation unit that emits light for generating the predetermined image and irradiates the light to the windshield or combiner,
  • a control unit for controlling the operation of the image generation unit, The control unit determines that a virtual image object formed by the predetermined image and viewed by the occupant through the windshield or the combiner is viewed by the occupant so as to overlap an object existing around the vehicle.
  • the image generation unit is controlled so that the display of the predetermined image becomes light in at least a region of the virtual image object that overlaps the object.
  • the virtual object When the virtual object is located close to the virtual object and is visible near the virtual object, the virtual object appears to be embedded in the virtual object, which makes the occupant feel uncomfortable. Will be given. In addition, it is difficult for the vehicle occupant to recognize which is closer to the target object or the virtual image object. In such a state, according to the above configuration, it is possible to make the occupant lightly recognize the area of the virtual image object that overlaps the target object. As a result, the occupant can easily recognize that the target object is located nearby, and can reduce the discomfort felt by the occupant.
  • control unit may control the image generation unit so that the display of the predetermined image in the overlapping area does not become light and has a standard density. ..
  • the virtual image object when the virtual image object is associated with the target object, the virtual image object can be visually recognized by the standard density without thinning it, so that the occupant can positively recognize the virtual image object.
  • the control unit may control the image generation unit so that the entire predetermined image becomes thin when only a part of the virtual image object overlaps the target object.
  • the control unit controls the image generation unit so that, when the plurality of virtual image objects overlap the object, at least one of the plurality of predetermined images forming the plurality of virtual image objects becomes thin. May be.
  • the control unit may determine a predetermined image to be thinned out of the plurality of predetermined images based on an overlapping degree or an importance degree of each of the virtual image objects.
  • a head-up display provided on a vehicle and configured to display a predetermined image to an occupant of the vehicle, An image generation unit that emits light for generating the predetermined image, A control unit for controlling the operation of the image generation unit, When the control unit irradiates at least a part of the light pattern to a blind spot area that cannot be visually recognized by an occupant of the vehicle by a road surface drawing device configured to irradiate a light pattern toward a road surface outside the vehicle.
  • the image generation unit is controlled so as to generate a predetermined image corresponding to the light pattern based on the information.
  • the vehicle occupant when the light pattern emitted by the road surface drawing device cannot be visually recognized by the vehicle occupant, a predetermined image corresponding to the light pattern is displayed on the head-up display, so that the vehicle occupant is irradiated outside the vehicle. It is possible to accurately recognize the light pattern. That is, it is possible to provide a head-up display with improved convenience.
  • control unit when the information includes that only a part of the light pattern is irradiated to the blind spot area, the control unit generates the image so as to generate a predetermined image corresponding to the entire light pattern. You may control a part.
  • the image corresponding to the entire light pattern is displayed by the head-up display, so that the occupant of the vehicle is exposed to the light pattern outside the vehicle. Can be recognized more accurately.
  • an emission angle of light by the road surface drawing device or an irradiation range of light on the road surface by the road surface drawing device is defined corresponding to the blind spot area, and the information is the emission of light by the road surface drawing device. It may be based on an angle or an irradiation range of light on the road surface by the road surface drawing device.
  • the emission angle of light by the road surface drawing device corresponding to the blind spot area or the irradiation range of light on the road surface by the road surface drawing device is specified in advance, the light pattern actually drawn on the road surface is detected. It is not necessary to judge whether or not it is visible to the passenger.
  • a vehicle display system configured to display a predetermined image toward an occupant of the vehicle;
  • a road surface drawing device provided in the vehicle and configured to irradiate a light pattern toward a road surface outside the vehicle;
  • At least a control unit for controlling the operation of the head-up display The control unit generates a predetermined image corresponding to the light pattern based on information that at least a part of the light pattern is irradiated to a blind spot area that cannot be visually recognized by an occupant of the vehicle by the road surface drawing device.
  • control unit causes the head-up so as to generate a predetermined image corresponding to the entire light pattern.
  • the display may be controlled.
  • the image corresponding to the entire light pattern is displayed by the head-up display, so that the occupant of the vehicle is exposed to the light pattern outside the vehicle. Can be recognized more accurately.
  • an emission angle of light by the road surface drawing device or an irradiation range of light on the road surface by the road surface drawing device is defined corresponding to the blind spot area, and the control unit controls the light by the road surface drawing device. Whether or not at least a part of the light pattern is irradiated by the road surface drawing device to a blind spot area that cannot be visually recognized by an occupant of the vehicle on the basis of the emission angle of the road surface drawing device or the irradiation range of the light on the road surface by the road surface drawing device. You may judge whether.
  • the blind spot area is defined in advance as described above, it is not necessary to detect the light pattern actually drawn on the road surface and judge whether or not it can be visually recognized by the occupant.
  • a head-up display provided on a vehicle and configured to display a predetermined image to an occupant of the vehicle, An image generation unit that emits light for generating the predetermined image, A control unit for controlling the operation of the image generation unit, The control unit, based on color information of the light pattern emitted by a road surface drawing device configured to emit a light pattern toward a road surface outside the vehicle, a predetermined image corresponding to the light pattern.
  • the image generation unit is controlled so as to generate a color different from the color of the light pattern.
  • the occupant of the vehicle can easily recognize the displayed light pattern and the image. Further, since the light pattern and the predetermined image are visually recognized in different colors, the visibility of the occupant is good.
  • control unit may control the image generation unit to generate the predetermined image in a color different from white.
  • Road surface drawing may be limited to white display to prevent misrecognition by drivers and pedestrians outside the vehicle. Even in such a case, according to the above configuration, since the predetermined image is displayed in a color different from white, the visibility of the occupant is further improved.
  • a vehicle display system In order to achieve the above object, a vehicle display system according to an aspect of the present disclosure, A head-up display provided on the vehicle and configured to display a predetermined image toward an occupant of the vehicle; A road surface drawing device provided in the vehicle and configured to irradiate a light pattern toward a road surface outside the vehicle; A control unit that controls the operation of at least one of the head-up display and the road surface drawing device; The control unit controls the operation so that the predetermined image and the light pattern correspond to each other, and the predetermined image and the light pattern have different colors.
  • the occupant of the vehicle can easily recognize the displayed light pattern and the image. Further, since the light pattern and the predetermined image are visually recognized in different colors, the visibility of the occupant is good.
  • control unit may control the head-up display so as to generate the predetermined image in a color different from white.
  • Road surface drawing may be limited to white display to prevent misrecognition by drivers and pedestrians outside the vehicle. Even in such a case, according to the above configuration, since the predetermined image is displayed in a color different from white, the visibility of the occupant is further improved.
  • a vehicle display method configured to display a predetermined image toward an occupant of the vehicle;
  • a road display device provided in the vehicle, and a road surface drawing device configured to irradiate a light pattern toward a road surface outside the vehicle, and a display method for a vehicle, comprising:
  • the head-up display displays the predetermined image and the road surface so that the predetermined image and the light pattern correspond to each other and the predetermined image and the light pattern have different colors.
  • the drawing device is caused to display the light pattern.
  • the occupant of the vehicle can easily recognize the displayed light pattern and the image. Further, since the light pattern and the predetermined image are visually recognized in different colors, the visibility of the occupant is good.
  • the light pattern may be displayed in white and the predetermined image may be displayed in a color different from white.
  • Road surface drawing may be limited to white display to prevent misrecognition by drivers and pedestrians outside the vehicle. Even in such a case, according to the above configuration, since the predetermined image is displayed in a color different from white, the visibility of the occupant is further improved.
  • a head-up display provided on a vehicle and configured to display a predetermined image to an occupant of the vehicle, An image generation unit that emits light for generating the predetermined image, The light emitted by the image generation unit, a reflection unit that reflects the light so that the windshield or combiner is irradiated with the light, A drive unit for swinging at least one of the direction of the reflection unit and the image generation unit, A control unit for controlling the operation of the image generation unit, Equipped with The control unit changes the emission position of light in the image generating unit according to the direction of the reflecting unit by the driving unit and the swing of at least one of the image generating units.
  • the light emission position in the image generation unit is changed according to the swing, so the image formation position with respect to the windshield or combiner is desired. Is controlled so that the vehicle occupant is prevented from feeling uncomfortable. That is, according to the above configuration, it is possible to prevent the occurrence of heat damage due to outside light without deteriorating the quality of image generation displayed to the occupant.
  • the reflector may include a concave mirror.
  • the head-up display of the present disclosure is Further comprising a heat sensor capable of detecting a temperature rise of the image generation unit,
  • the drive unit may swing at least one of the direction of the reflection unit and the image generation unit in response to detection of a temperature increase by the thermal sensor.
  • At least one of the direction of the reflecting section and the image generating section is swung when the image generating section is irradiated with external light and the temperature rises. That is, it is possible to prevent the drive unit from performing an unnecessary operation and prolong the life of the drive unit. Moreover, the energy consumption of the drive unit can be reduced.
  • the head-up display of the present disclosure is Further comprising an optical sensor capable of detecting external light incident on the reflecting portion,
  • the drive unit may swing at least one of the direction of the reflection unit and the image generation unit in response to detection of external light by the optical sensor.
  • At least one of the direction of the reflection section and the image generation section is swung when the external light is reflected by the reflection section and is applied to the image generation section. That is, it is possible to prevent the drive unit from performing an unnecessary operation and prolong the life of the drive unit. Moreover, the energy consumption of the drive unit can be reduced.
  • the head-up display of the present disclosure is
  • the emission position of the light in the image generation unit is such that before the movement of at least one of the reflection unit and the image generation unit, a condensing region of external light that enters the image generation unit and the reflection unit and the image generation unit.
  • the position may be changed to a position where the outside light condensing region after at least one movement does not overlap.
  • a head-up display provided on a vehicle and configured to display a predetermined image to an occupant of the vehicle, An image generation unit that emits light for generating the predetermined image, The light emitted by the image generation unit, so that the windshield or combiner is irradiated, a reflection unit that reflects the light, An optical member that transmits the light emitted from the image generation unit and makes the light incident on the reflection unit, A drive unit for swinging the optical member, A control unit for controlling the operation of the image generation unit, The control unit changes the emission position of light in the image generation unit according to the swing of the optical member by the drive unit.
  • a head-up display that can reduce a feeling of strangeness given to an occupant while suppressing a processing load related to image generation.
  • a head-up display a vehicle display system, and a vehicle display method that allow a vehicle occupant to easily recognize the displayed light pattern and image.
  • a head-up display capable of preventing the occurrence of heat damage due to outside light without deteriorating the quality of image generation displayed to the occupant.
  • FIG. 1 It is a block diagram of a system for vehicles provided with a display system for vehicles.
  • FIG. 1 shows the 1st example of the visual field area in the state in which the virtual image object was displayed by the HUD which concerns on 1st embodiment so that it may be superimposed on the real space outside a vehicle.
  • FIG. 1 shows the 1st example of the visual field area in the state in which the virtual image object was displayed by the HUD which concerns on 1st embodiment so that it may be superimposed on the real space outside a vehicle.
  • FIG. 1 shows the 1st example of the visual field area in the state displayed by the HUD which concerns on 2nd embodiment so that a virtual image object may be superimposed on the real space outside a vehicle.
  • FIG. 1 shows the 1st example of the visual field area in the state displayed by the HUD which concerns on 2nd embodiment so that a virtual image object may be superimposed on the real space outside a vehicle.
  • FIG. 1 shows the 1st example of the visual field area in the state displayed by the HUD which concerns on 2nd embodiment so that a virtual image object may be superimposed on the real space outside a vehicle.
  • FIG. 1 shows the 1st example of the visual field area in the state displayed by the HUD which concerns on 2nd embodiment so that a virtual image object may be superimposed on the real space outside a vehicle.
  • FIG. 1 shows the 1st example of the visual field area in the state displayed by the HUD which concerns on 2nd embodiment so that a virtual image object may be superimposed on the real space outside a vehicle.
  • FIG. 1 shows
  • FIG. 4th embodiment it is the schematic diagram which looked at the light pattern irradiated to the blind spot area ahead of the vehicle from the upper side of the vehicle. It is a figure which shows an example of the windshield in which the image corresponding to the light pattern of FIG. 17 was displayed. It is the schematic diagram which looked at the light pattern with which the one part was irradiated to the blind spot area ahead of the vehicle from the upper side of the vehicle. It is a figure which shows an example of the windshield in which the image corresponding to the light pattern of FIG. 19 was displayed. In 5th embodiment, it is a figure which shows an example of the windshield in which the light pattern and virtual image object which correspond mutually are overlapped and displayed. FIG. 22 is a diagram showing an example of the light pattern and virtual image object of FIG.
  • lateral direction”, “vertical direction”, and “front-back direction” may be referred to as appropriate. These directions are relative directions set for the HUD (Head-Up Display) 42 shown in FIG.
  • the “left-right direction” is a direction including the “left direction” and the “right direction”.
  • Up-down direction is a direction including "upward direction” and “downward direction”.
  • the “front-rear direction” is a direction including the “front direction” and the “rear direction”.
  • the left-right direction is a direction orthogonal to the up-down direction and the front-back direction, which is not shown in FIG.
  • FIG. 1 is a block diagram of a vehicle system 2.
  • the vehicle 1 equipped with the vehicle system 2 is a vehicle (automobile) capable of traveling in the automatic driving mode.
  • the vehicle system 2 includes a vehicle control unit 3, a vehicle display system 4 (hereinafter simply referred to as “display system 4”), a sensor 5, a camera 6, and a radar 7. .. Further, the vehicle system 2 includes an HMI (Human Machine Interface) 8, a GPS (Global Positioning System) 9, a wireless communication unit 10, a storage device 11, a steering actuator 12, a steering device 13, a brake actuator 14, and the like. The brake device 15, the accelerator actuator 16, and the accelerator device 17 are provided.
  • HMI Human Machine Interface
  • GPS Global Positioning System
  • the vehicle control unit 3 is configured to control the traveling of the vehicle.
  • the vehicle control unit 3 is composed of, for example, at least one electronic control unit (ECU: Electronic Control Unit).
  • the electronic control unit includes a computer system (for example, SoC (System on a Chip)) including one or more processors and one or more memories, and an electronic circuit including active elements such as transistors and passive elements.
  • the processor includes, for example, at least one of a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), and a TPU (Tensor Processing Unit).
  • the CPU may be composed of a plurality of CPU cores.
  • the GPU may be composed of a plurality of GPU cores.
  • the memory includes a ROM (Read Only Memory) and a RAM (Random Access Memory).
  • a vehicle control program may be stored in the ROM.
  • the vehicle control program may include an artificial intelligence (AI) program for autonomous driving.
  • the AI program is a program (learned model) constructed by supervised or unsupervised machine learning (in particular, deep learning) using a multilayer neural network.
  • the RAM may temporarily store a vehicle control program, vehicle control data, and/or surrounding environment information indicating a surrounding environment of the vehicle.
  • the processor may be configured to develop a program designated from various vehicle control programs stored in the ROM on the RAM and execute various processes in cooperation with the RAM.
  • the computer system may be configured by a non-Neumann type computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array). Further, the computer system may be configured by a combination of a Neumann type computer and a non-Neumann type computer.
  • a non-Neumann type computer such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field-Programmable Gate Array).
  • the computer system may be configured by a combination of a Neumann type computer and a non-Neumann type computer.
  • the display system 4 includes a headlamp 20, a road surface drawing device 45, a HUD 42, and a display control unit 43.
  • the headlamps 20 are arranged on the left and right sides of the front surface of the vehicle, and are a low beam lamp configured to irradiate a low beam in front of the vehicle and a high beam configured to irradiate a high beam in front of the vehicle 1. And a lamp.
  • Each of the low beam lamp and the high beam lamp has at least one light emitting element such as an LED (Light Emitting Diode) and an LD (Laser Diode), and optical members such as a lens and a reflector.
  • the road surface drawing device 45 is arranged in the lamp room of the headlamp 20.
  • the road surface drawing device 45 is configured to emit a light pattern toward a road surface outside the vehicle.
  • the road surface drawing device 45 includes, for example, a light source unit, a driving mirror, an optical system such as a lens and a mirror, a light source driving circuit, and a mirror driving circuit.
  • the light source unit is a laser light source or an LED light source.
  • the laser light source is an RGB laser light source configured to emit red laser light, green laser light, and blue laser light, respectively.
  • the drive mirror is, for example, a MEMS (Micro Electro Mechanical Systems) mirror, a DMD (Digital Mirror Device), a galvano mirror, a polygon mirror, or the like.
  • the light source drive circuit is configured to drive and control the light source unit.
  • the light source drive circuit generates a control signal for controlling the operation of the light source unit based on the signal related to the predetermined light pattern transmitted from the display control unit 43, and then outputs the generated control signal to the light source.
  • the mirror drive circuit is configured to drive and control the drive mirror.
  • the mirror drive circuit generates a control signal for controlling the operation of the drive mirror based on the signal related to the predetermined light pattern transmitted from the display control unit 43, and then drives the generated control signal. It is configured to send to the mirror.
  • the light source unit is an RGB laser light source
  • the road surface drawing device 45 can draw light patterns of various colors on the road surface by scanning the laser light.
  • the light pattern may be an arrow-shaped light pattern indicating the traveling direction of the vehicle.
  • the drawing method of the road surface drawing device 45 may be a raster scan method, a DLP (Digital Light Processing) method, or an LCOS (Liquid Crystal on Silicon) method.
  • the light source unit may be an LED light source.
  • a projection method may be adopted as a drawing method of the road surface drawing apparatus.
  • the light source unit may be a plurality of LED light sources arranged in a matrix.
  • the road surface drawing device 45 may be arranged in each of the left and right headlamp lighting chambers, or may be arranged on the vehicle body roof, the bumper, or the grill portion.
  • the HUD 42 is located inside the vehicle. Specifically, the HUD 42 is installed at a predetermined location inside the vehicle compartment. For example, the HUD 42 may be located within the dashboard of the vehicle. The HUD 42 acts as a visual interface between the vehicle and the occupants. The HUD 42 is configured to display the HUD information to an occupant so that predetermined information (hereinafter, referred to as HUD information) is superimposed on a real space outside the vehicle (in particular, a surrounding environment in front of the vehicle). Has been done. In this way, the HUD 42 functions as an AR (Augmented Reality) display.
  • the HUD information displayed by the HUD 42 is, for example, vehicle traveling information related to traveling of the vehicle and/or surrounding environment information related to the surrounding environment of the vehicle (in particular, information related to an object existing outside the vehicle). is there.
  • the HUD 42 includes a HUD body 420.
  • the HUD body 420 has a housing 422 and an emission window 423.
  • the emission window 423 is a transparent plate that transmits visible light.
  • the HUD main body 420 includes an image generation unit (PGU: Picture Generation Unit) 424, a HUD control unit (an example of a control unit) 425, a lens 426, a screen 427, and a concave mirror (of the reflection unit).
  • PGU Picture Generation Unit
  • the image generation unit 424 has a light source, an optical component, and a display device.
  • the light source is, for example, a laser light source or an LED light source.
  • the laser light source is, for example, an RGB laser light source configured to emit red laser light, green laser light, and blue laser light, respectively.
  • the optical component appropriately has a prism, a lens, a diffusion plate, a magnifying glass, and the like.
  • the display device is a liquid crystal display, a DMD (Digital Mirror Device), or the like.
  • the drawing method of the image generation unit 424 may be the raster scan method, the DLP method, or the LCOS method.
  • the light source of the HUD 42 may be an LED light source.
  • the light source of the HUD 42 may be a white LED light source.
  • the HUD control unit 425 is configured to control the operations of the image generation unit 424, the lens 426, and the screen 427.
  • the HUD control unit 425 includes a processor such as a CPU (Central Processing Unit) and a memory, and the processor executes the computer program read from the memory to control the operations of the image generation unit 424, the lens 426, and the screen 427. ..
  • the HUD control unit 425 generates a control signal for controlling the operation of the image generation unit 424 based on the image data transmitted from the display control unit 43, and then outputs the generated control signal to the image generation unit 424. Configured to send to.
  • the HUD control unit 425 generates each control signal for adjusting the positions of the lens 426 and the screen 427 based on the image data transmitted from the display control unit 43, and then the generated control signal is output. It is configured to transmit to the lens 426 and the screen 427, respectively. Further, the HUD control unit 425 may control so as to change the direction of the concave mirror 428.
  • the lens 426 is arranged on the optical path of the light emitted from the image generation unit 424.
  • the lens 426 includes a convex lens, for example, and is configured to project the image generated by the image generation unit 424 on the screen 427 in a desired size.
  • the lens 426 includes a drive unit, and is configured to be able to change the distance from the image generation unit 424 by parallel translation at a response speed in a short time by a control signal generated by the HUD control unit 425.
  • the screen 427 is arranged on the optical path of the light emitted from the image generation unit 424.
  • the light emitted from the image generation unit 424 passes through the lens 426 and is projected on the screen 427.
  • the screen 427 includes a driving unit, and is configured to be able to change a distance between the image generating unit 424 and the lens 426 by moving in parallel at a response speed of a short time according to a control signal generated by the HUD controlling unit 425.
  • the image generation unit 424 may include the lens 426 and the screen 427. Further, the lens 426 and the screen 427 may not be provided.
  • the concave mirror 428 is arranged on the optical path of the light emitted from the image generation unit 424.
  • the concave mirror 428 reflects the light emitted by the image generation unit 424 and transmitted through the lens 426 and the screen 427 toward the windshield 18.
  • the concave mirror 428 has a reflecting surface curved in a concave shape to form a virtual image, and reflects the image of the light formed on the screen 427 at a predetermined magnification.
  • the light emitted from the HUD main body 420 is applied to the windshield 18 (for example, the front window of the vehicle 1).
  • a part of the light emitted from the HUD main body 420 to the windshield 18 is reflected toward the viewpoint E of the occupant.
  • the occupant recognizes the light (predetermined image) emitted from the HUD main body 420 as a virtual image formed at a predetermined distance in front of the windshield 18.
  • the occupant is on the road where the virtual image object I formed by the predetermined image is located outside the vehicle. It can be seen as if it is floating.
  • the distance of the virtual image object I (the distance from the viewpoint E of the occupant to the virtual image) can be adjusted as appropriate by adjusting the positions of the lens 426 and the screen 427.
  • a predetermined image is projected so as to be a virtual image of a single distance that is arbitrarily determined.
  • a 3D image stereo image
  • the display control unit 43 is configured to control the operations of the road surface drawing device 45, the headlamp 20, and the HUD 42.
  • the display controller 43 is composed of an electronic control unit (ECU).
  • the electronic control unit includes a computer system (for example, SoC or the like) including one or more processors and one or more memories, and an electronic circuit including active elements such as transistors and passive elements.
  • the processor includes at least one of CPU, MPU, GPU and TPU.
  • the memory includes a ROM and a RAM. Further, the computer system may be configured by a non-Neumann type computer such as ASIC or FPGA.
  • the vehicle control unit 3 and the display control unit 43 are provided as separate components, but the vehicle control unit 3 and the display control unit 43 may be integrally configured.
  • the display control unit 43 and the vehicle control unit 3 may be configured by a single electronic control unit.
  • the display control unit 43 also has two electronic control units, an electronic control unit configured to control the operations of the headlamp 20 and the road surface drawing device 45, and an electronic control unit configured to control the operations of the HUD 42. It may be configured by a unit.
  • the HUD control unit 425 that controls the operation of the HUD 42 may be configured as a part of the display control unit 43.
  • the sensor 5 includes at least one of an acceleration sensor, a speed sensor and a gyro sensor.
  • the sensor 5 is configured to detect the traveling state of the vehicle and output the traveling state information to the vehicle control unit 3.
  • the sensor 5 is a seating sensor that detects whether the driver is sitting in the driver's seat, a face orientation sensor that detects the direction of the driver's face, an external weather sensor that detects external weather conditions, and whether there is a person in the vehicle.
  • a human sensor for detecting may be further provided.
  • the camera 6 is a camera including an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS).
  • the camera 6 includes one or more external cameras 6A and an internal camera 6B.
  • the external camera 6A is configured to acquire image data indicating the surrounding environment of the vehicle and then transmit the image data to the vehicle control unit 3.
  • the vehicle control unit 3 acquires surrounding environment information based on the transmitted image data.
  • the surrounding environment information may include information about objects (pedestrians, other vehicles, signs, etc.) existing outside the vehicle.
  • the surrounding environment information may include information about the attributes of the object existing outside the vehicle and information about the distance and position of the object with respect to the vehicle.
  • the external camera 6A may be configured as a monocular camera or a stereo camera.
  • the internal camera 6B is arranged inside the vehicle and is configured to acquire image data showing an occupant.
  • the internal camera 6B functions as a tracking camera that tracks the viewpoint E of the occupant.
  • the viewpoint E of the occupant may be either the viewpoint of the left eye or the viewpoint of the right eye of the occupant.
  • the viewpoint E may be defined as the midpoint of a line segment connecting the left-eye viewpoint and the right-eye viewpoint.
  • the display control unit 43 may specify the position of the viewpoint E of the occupant based on the image data acquired by the internal camera 6B.
  • the position of the viewpoint E of the occupant may be updated in a predetermined cycle based on the image data, or may be determined only once when the vehicle is started.
  • the radar 7 includes at least one of a millimeter wave radar, a microwave radar, and a laser radar (for example, a LiDAR unit).
  • the LiDAR unit is configured to detect the surrounding environment of the vehicle.
  • the LiDAR unit is configured to acquire the 3D mapping data (point cloud data) indicating the surrounding environment of the vehicle and then transmit the 3D mapping data to the vehicle control unit 3.
  • the vehicle control unit 3 specifies the surrounding environment information based on the transmitted 3D mapping data.
  • the HMI 8 is composed of an input unit that receives an input operation from the driver and an output unit that outputs driving information and the like to the driver.
  • the input unit includes a steering wheel, an accelerator pedal, a brake pedal, a driving mode switching switch that switches the driving mode of the vehicle, and the like.
  • the output unit is a display (excluding HUD) that displays various traveling information.
  • the GPS 9 is configured to acquire current position information of the vehicle and output the acquired current position information to the vehicle control unit 3.
  • the wireless communication unit 10 is configured to receive information (for example, driving information and the like) about another vehicle around the vehicle from the other vehicle and transmit information about the vehicle (for example, driving information and the like) to the other vehicle. (Vehicle-to-vehicle communication).
  • the wireless communication unit 10 is configured to receive infrastructure information from infrastructure equipment such as a traffic light and a sign light, and transmit traveling information of the vehicle 1 to the infrastructure equipment (road-vehicle communication).
  • the wireless communication unit 10 receives information about a pedestrian from a portable electronic device (smartphone, tablet, wearable device, etc.) carried by the pedestrian, and also transmits vehicle running information of the vehicle to the portable electronic device. It is configured as follows (communication between pedestrians).
  • the vehicle may directly communicate with another vehicle, infrastructure equipment, or a portable electronic device in an ad hoc mode, or may communicate via an access point. Furthermore, the vehicle may communicate with other vehicles, infrastructure equipment, or portable electronic devices via a communication network (not shown).
  • the communication network includes at least one of the Internet, a local area network (LAN), a wide area network (WAN) and a radio access network (RAN).
  • the wireless communication standard is, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), ZigBee (registered trademark), LPWA, DSRC (registered trademark), or Li-Fi.
  • the vehicle 1 may communicate with another vehicle, infrastructure equipment, or a portable electronic device using the fifth generation mobile communication system (5G).
  • 5G fifth generation mobile communication system
  • the storage device 11 is an external storage device such as a hard disk drive (HDD) or SSD (Solid State Drive).
  • the storage device 11 may store two-dimensional or three-dimensional map information and/or a vehicle control program.
  • the three-dimensional map information may be composed of 3D mapping data (point cloud data).
  • the storage device 11 is configured to output map information and a vehicle control program to the vehicle control unit 3 in response to a request from the vehicle control unit 3.
  • the map information and the vehicle control program may be updated via the wireless communication unit 10 and a communication network.
  • the vehicle control unit 3 determines at least one of the steering control signal, the accelerator control signal, and the brake control signal based on the traveling state information, the surrounding environment information, the current position information, the map information, and the like.
  • the steering actuator 12 is configured to receive a steering control signal from the vehicle control unit 3 and control the steering device 13 based on the received steering control signal.
  • the brake actuator 14 is configured to receive a brake control signal from the vehicle control unit 3 and control the brake device 15 based on the received brake control signal.
  • the accelerator actuator 16 is configured to receive an accelerator control signal from the vehicle control unit 3 and control the accelerator device 17 based on the received accelerator control signal. In this way, the vehicle control unit 3 automatically controls the traveling of the vehicle based on the traveling state information, the surrounding environment information, the current position information, the map information and the like. That is, in the automatic driving mode, the traveling of the vehicle is automatically controlled by the vehicle system 2.
  • the vehicle control unit 3 when the vehicle 1 travels in the manual operation mode, the vehicle control unit 3 generates a steering control signal, an accelerator control signal and a brake control signal according to a manual operation of the driver on the accelerator pedal, the brake pedal and the steering wheel.
  • the steering control signal, the accelerator control signal, and the brake control signal are generated by the manual operation of the driver, so that the traveling of the vehicle is controlled by the driver.
  • the operation mode includes an automatic operation mode and a manual operation mode.
  • the automatic driving mode includes a fully automatic driving mode, an advanced driving support mode, and a driving support mode.
  • the vehicle system 2 In the fully automatic driving mode, the vehicle system 2 automatically performs all traveling controls such as steering control, brake control, and accelerator control, and the driver is not in a state where the vehicle can be driven.
  • the vehicle system 2 In the advanced driving support mode, the vehicle system 2 automatically performs all traveling control such as steering control, brake control, and accelerator control, and the driver does not drive the vehicle 1 although the vehicle is in a driveable state.
  • the vehicle system 2 In the driving support mode, the vehicle system 2 automatically performs a part of the traveling control among the steering control, the brake control, and the accelerator control, and the driver drives the vehicle under the driving support of the vehicle system 2.
  • the vehicle system 2 In the manual driving mode, the vehicle system 2 does not automatically perform the traveling control, and the driver drives the vehicle without driving assistance of the vehicle system 2.
  • FIG. 3 is a diagram showing a state where a virtual image object is projected by the HUD 42 on the visual field region V of the occupant in the first example of the first embodiment.
  • FIG. 4 is a schematic diagram showing the relationship between the distance from the viewpoint E to the object and the threshold value.
  • Pedestrians P1 and P2 are present on the sidewalk R3 on the left side of the driving lane R1.
  • the HUD control unit 425 of the HUD 42 draws a virtual image object in association with the positions of the pedestrians P1 and P2 in order to alert the occupants of the vehicle 1 of the existence of the pedestrians P1 and P2 as the objects.
  • the image generation unit 424 is controlled to generate an image to be displayed in the area V.
  • the HUD control unit 425 acquires the position information of each pedestrian P1 and P2 in the visual field region V.
  • the position information of each pedestrian P1 and P2 includes information on the distance from the viewpoint E (see FIG. 2) of the occupant of the vehicle 1 to each pedestrian P1 and P2 that is the object.
  • the positions and distances of the pedestrians P1 and P2 are calculated, for example, from data indicating the surrounding environment of the vehicle acquired by the radar 7 or the external camera 6A. If the radar 7 is mounted inside the headlamp 20 of the vehicle 1 and the distance between the radar 7 or the external camera 6A and the viewpoint E is large, the distance from the radar 7 or the like to the object is large. The distance from the viewpoint E to the object can be calculated by adding the distance from the radar 7 or the like to the viewpoint E.
  • the HUD control unit 425 determines whether or not the distance from the viewpoint E to the object is less than or equal to a predetermined threshold. For example, as shown in FIG. 4, the distance L1 from the viewpoint E to the pedestrian P1 and the distance L2 from the viewpoint E to the pedestrian P2 are equal to or less than the distance (threshold distance) L D from the viewpoint E to a predetermined threshold P D. Or not. In this example, the distance L1 from the viewpoint E to the pedestrian P1 is less than or equal to the threshold distance L D , and the distance L2 from the viewpoint E to the pedestrian P2 is greater than the threshold distance L D.
  • the HUD control unit 425 As a result of the distance determination of the target object, the HUD control unit 425 generates a virtual image object as a stereoscopic image for the target object whose distance from the viewpoint E is less than or equal to a threshold, and the target whose distance from the viewpoint E is greater than the threshold. For the object, control is performed so that the virtual image object is generated as a plane image. Specifically, as illustrated in FIG. 3, the HUD control unit 425 determines that the virtual image object 3I (hereinafter, stereoscopic image) as a stereoscopic image is located above the pedestrian P1 whose distance from the viewpoint E is the threshold distance L D or less. The positions of the lens 426 and the screen 427 are adjusted so as to project the virtual image object 3I).
  • the virtual image object 3I hereinafter, stereoscopic image
  • HUD control unit 425 the overhead large pedestrian P2 than the distance threshold distance L D from the view point E, the virtual image object 2I as a planar image (hereinafter, the planar virtual image object 2I) Show
  • the positions of the lens 426 and the screen 427 are adjusted.
  • the plane virtual image object 2I and the stereoscopic virtual image object 3I are not switched, but the emitted light emitted from the image generating unit 424 is adjusted to adjust the plane virtual image object. 2I and the three-dimensional virtual image object 3I may be switched.
  • the plane virtual image object 2I when the plane virtual image object 2I is displayed in association with the object existing around the vehicle 1, the plane virtual image object which is a two-dimensional object is displayed with respect to the object which is a three-dimensional object. May be given.
  • a high processing load is imposed and it is not realistic.
  • the HUD control unit 425 selects an image such that the display mode of the virtual image object is either a two-dimensional image or a three-dimensional image according to a predetermined condition.
  • the “image generation unit” here includes at least one of the image generation unit 424, the lens 426, and the screen 427.
  • the virtual image object displayed in the visual field region V can be switched between the planar virtual image object 2I and the stereoscopic virtual image object 3I according to a predetermined condition. As a result, it is possible to reduce the processing load when generating the image of the virtual image object, and reduce the discomfort given to the occupant.
  • the distance from the viewpoint E to the virtual image object is set as a condition for switching between the planar virtual image object 2I and the stereoscopic virtual image object 3I.
  • the HUD control unit 425 projects the stereoscopic virtual image object 3I when the distance from the viewpoint E to the virtual image object (corresponding to the distance from the viewpoint E to the object) is equal to or less than the threshold, and the distance is greater than the threshold.
  • the image generation unit is controlled so that the plane virtual image object 2I is displayed when it is large. Accordingly, the plane virtual image object 2I and the stereoscopic virtual image object 3I can be appropriately switched according to the projection distance of the virtual image object.
  • FIG. 5 is a diagram showing a state in which the HUD 42 projects a virtual image object on the visual field region V of the occupant in the second example of the first embodiment.
  • an obstacle M1 exists on the traveling lane R1 in which the vehicle 1 travels and an obstacle M2 exists on the oncoming lane R2 in the occupant's visual field region V.
  • a pedestrian P3 exists on the sidewalk R3 on the left side of the traveling lane R1, and a pedestrian P4 exists on the oncoming lane R2.
  • the HUD control unit 425 may switch the display mode of the virtual image object according to the attribute of each target object regardless of the distance from the viewpoint E to the target object.
  • the attribute of each target is, for example, the importance of each target.
  • the importance of the object is, for example, the degree of urgency for alerting the occupant of the vehicle 1 of danger.
  • the obstacle R1 existing on the traveling lane R1 is farther from the viewpoint E than the obstacle R2 existing on the other lane R2, and the obstacle M1 on the traveling lane R1 is of importance ( The degree of urgency is high, and the degree of importance (urgency) of the obstacle M2 on the other lane R2 is low. In this case, as shown in FIG.
  • the HUD control unit 425 causes the three-dimensional virtual image object 3I to be displayed above the obstacle M1 having high importance regardless of the distance from the viewpoint E to the obstacles M1 and M2. , The plane virtual image object 2I is displayed above the obstacle M2 of low importance.
  • a plurality of pedestrians P3 and P4 are present in the visual field region V, and the pedestrian P3 on the sidewalk R3 is closer to the vehicle 1 than the pedestrian P4 on the other lane R2.
  • the pedestrian P4 on the other lane R2 is about to enter the traveling lane R1 from the other lane R2.
  • the HUD control unit 425 determines that the pedestrian P4 on the other lane R2, which is farther from the viewpoint E than the pedestrian P3 on the sidewalk R3, which is closer to the viewpoint E, is more important (urgency). Is judged to be high. Therefore, as shown in FIG.
  • the HUD control unit 425 causes the stereoscopic virtual image object 3I to be displayed above the pedestrian P4 having high importance regardless of the distance from the viewpoint E to the pedestrians P3 and P4,
  • the plane virtual image object 2I is displayed above the pedestrian P3 having a low importance.
  • the attribute (eg, importance) of each target object is set as a condition for switching between the plane virtual image object 2I and the stereoscopic virtual image object 3I.
  • the HUD control unit 425 causes the image generation unit to display the three-dimensional virtual image object 3I for the object of high importance and the plane virtual image object 2I for the object of low importance. Control.
  • the target object is displayed to the occupant by displaying the stereoscopic virtual image object 3I in association with the target object. It is easier to see.
  • the planar virtual image object 2I is displayed in association with the object, so that the processing load on the image generation of the object can be reduced.
  • FIG. 6 is a diagram showing a state where a virtual image object is displayed in the visual field region V of the occupant by the HUD 42 in the third example of the first embodiment.
  • the occupant's visual field V is divided into two areas, for example, a central area E1 and a peripheral area E2 other than the central area E1.
  • the HUD control unit 425 may switch the display mode of the virtual image object according to the divided areas E1 and E2 of the visual field area V. That is, as shown in FIG. 6, the object displayed in the central area E1 is the stereoscopic virtual image object 3I, and the object displayed in the peripheral area E2 is the planar virtual image object 2I.
  • the area where the virtual image object is arranged in the visual field region V is set as a condition for switching between the planar virtual image object 2I and the stereoscopic virtual image object 3I.
  • the plane virtual image object 2I and the stereoscopic virtual image object 3I can be appropriately switched according to the arrangement area of the virtual image object in the visual field region V. Therefore, with the configuration of the third example as well, similar to the first example, it is possible to reduce the processing load and reduce the uncomfortable feeling given to the occupant.
  • FIG. 7A and 7B are diagrams showing a state in which a virtual image object is displayed in the visual field V of the occupant by the HUD 42 in the fourth example of the first embodiment.
  • the vehicle 1 is traveling on a general road.
  • a plurality of pedestrians P5 and P6 exist within the visual field region V of the occupant.
  • FIG. 7B shows a state in which the vehicle 1 is traveling on a highway (toll road).
  • the HUD control unit 425 may switch the display mode of the virtual image object according to the traveling scene of the vehicle 1. That is, as shown in FIG. 7A, when the vehicle 1 is traveling on a general road, the HUD control unit 425 controls the image generation unit to display the stereoscopic virtual image object 3I. Specifically, the HUD control unit 425 displays an arrow object indicating the traveling direction of the vehicle 1 as the stereoscopic virtual image object 3I on the traveling lane R1 of the general road, and calls attention to the overhead of each pedestrian P5, P6. Object (for example, a surprise mark type object) is displayed as the three-dimensional virtual image object 3I.
  • the HUD control unit 425 controls the image generation unit to display the plane virtual image object. Specifically, the HUD control unit 425 causes the arrow object indicating the traveling direction of the vehicle 1 to be displayed as the plane virtual image object 2I on the traveling lane R1 of the highway.
  • the traveling scene of the vehicle 1 is set as a condition for switching between the planar virtual image object 2I and the stereoscopic virtual image object 3I. Accordingly, the plane virtual image object 2I and the three-dimensional virtual image object image 3I can be appropriately switched according to the traveling scene of the vehicle 1. For example, when the vehicle 1 is traveling on a general road (urban area), it is preferable to display the stereoscopic image object 3I because there are objects (pedestrians, etc.) to alert the occupants. On the other hand, when the vehicle 1 is traveling on an expressway, since there are no pedestrians and the like, it is often sufficient to display the plane virtual image object 2I.
  • the traveling scene of the vehicle 1 (whether it is an ordinary road or an expressway) may be determined according to the traveling speed of the vehicle 1, and the current position information of the vehicle acquired by the GPS 9 and the wireless communication unit. The determination may be made based on the information (ETC information or VICS (registered trademark) information) acquired in 10.
  • FIG. 8 is a schematic diagram showing the configuration of the HUD 142 according to the modification.
  • the HUD 142 according to the modified example includes a HUD main body 420 and a combiner 143.
  • the combiner 143 is provided inside the windshield 18 as a structure separate from the windshield 18.
  • the combiner 143 is, for example, a transparent plastic disk, and is irradiated with the light reflected by the concave mirror 428 instead of the windshield 18.
  • part of the light emitted from the HUD main body 420 to the combiner 143 is reflected toward the occupant's viewpoint E.
  • the occupant can recognize the emitted light (predetermined image) from the HUD main body 420 as a virtual image formed at a predetermined distance in front of the combiner 143 (and the windshield 18).
  • the virtual image object can be selected by selecting whether the display mode of the virtual image object is a two-dimensional image or a three-dimensional image according to a predetermined condition. It is possible to reduce the uncomfortable feeling given to the occupant while suppressing the processing load when generating the image.
  • FIG. 9 is a schematic diagram showing a state in which the HUD 42 projects a virtual image object onto the visual field region V of the occupant in the first example of the second embodiment.
  • FIG. 10 is a schematic diagram showing the relationship between the distance from the viewpoint E to the object and the threshold value.
  • the front vehicle C11 traveling in the traveling lane (own lane) R1 in which the vehicle 1 travels and the front vehicle traveling in front of the front traveling vehicle C11.
  • the HUD control unit 425 of the HUD 42 alerts the occupants of the vehicle 1 of the presence of the preceding vehicles C11, C12 and the oncoming vehicles C13, C14, which are the objects, and therefore the positions of the vehicles C11-C14 are not changed.
  • the image generation unit 424 is controlled so as to generate an image for projecting the virtual image object in association with.
  • the HUD control unit 425 acquires the position information of each of the vehicles C11 to C14 in the visual field region V.
  • the position information of each of the vehicles C11 to C14 includes information on the distance (an example of the first distance) from the viewpoint E (see FIG. 2) of the occupant of the vehicle 1 to each of the vehicles C11 to C14 which is the object.
  • the HUD control unit 425 causes the distance E11 from the viewpoint E to the preceding vehicle C11, the distance L12 from the viewpoint E to the preceding vehicle C12, the distance L13 from the viewpoint E to the oncoming vehicle C13, And the distance L14 from the viewpoint E to the oncoming vehicle C14, respectively.
  • the positions and distances of the vehicles C11 to C14 are calculated, for example, from data indicating the surrounding environment of the vehicle acquired by the radar 7 or the external camera 6A. If the radar 7 is mounted inside the headlamp 20 of the vehicle 1 and the distance between the radar 7 or the external camera 6A and the viewpoint E is large, the distance from the radar 7 or the like to the object is large. Then, the distance from the viewpoint E to the object can be calculated by adding the distance between the radar 7 and the viewpoint E.
  • the HUD control unit 425 determines whether or not the distance from the viewpoint E to the object is less than or equal to a predetermined threshold value. For example, as shown in FIG. 10, the HUD control unit 425 determines that the distance L11 of the preceding vehicle C11, the distance L12 of the preceding vehicle C12, the distance L13 of the oncoming vehicle C13, and the distance L14 of the oncoming vehicle C14 are the viewpoints. It is determined whether or not the distance from E is equal to or less than a distance L D (an example of a predetermined threshold value) at a predetermined position P D.
  • a distance L D an example of a predetermined threshold value
  • the distance L11 of the preceding vehicle C11 and the distance L13 of the oncoming vehicle C13 are less than or equal to the threshold distance L D
  • the distance L12 of the preceding vehicle C12 and the distance L14 of the oncoming vehicle C14 are greater than the threshold distance L D. I shall.
  • the HUD control unit 425 sets the position of the virtual image object to the position corresponding to the distance of the target object for the target object whose distance from the viewpoint E is less than or equal to the threshold value. , And controls the image generation unit 424. That is, the HUD control unit 425 sets the distance from the viewpoint E to the virtual image object (an example of the second distance) corresponding to the distance to the target object. For example, since before the distance L11 of the running vehicle C11 is below the threshold distance L D, HUD control unit 425 sets the position P11 of the virtual image objects I1 to a position corresponding to the distance L11 of a leading vehicle C11. Further, since the distance L13 oncoming C13 also below threshold distance L D, HUD control unit 425 sets the position P13 of the virtual image object I3 at a position corresponding to the distance L13 oncoming C13.
  • the HUD control unit 425 controls the image generation unit 424 so that the position where the virtual image object is arranged is constant for the object whose distance from the viewpoint E is larger than the threshold value.
  • the distance L12 of a leading vehicle C12 is greater than the threshold distance L D
  • HUD control unit 425 the position Pa which is set regardless of the position of a leading vehicle C12 and position a virtual image object is displayed set To do.
  • larger than the distance L14 also the threshold distance L D oncoming C14, sets the position Pa which is set regardless of the position of the oncoming vehicle C14 and position a virtual image object is displayed. That is, in the case of an object whose distance from the viewpoint E is larger than a predetermined threshold value, the virtual image object related to the object is displayed at a predetermined unique position Pa (position at a distance La from the viewpoint E).
  • each virtual image object is displayed in association with each target object (for example, the vehicles C11 to C14) existing around the vehicle 1, each virtual image is displayed according to the distance of the target object in order to reduce the discomfort of the occupant of the vehicle 1. It is desirable to change the distance of the objects. However, if the distance of each virtual image object is variable according to the distances of all objects, a high processing load will be applied.
  • the HUD control unit 425 sets the distance from the viewpoint E to the target object at a predetermined threshold value or less.
  • the distance from the viewpoint E to the virtual image object is changed according to the distance to the object, and when the distance from the viewpoint E to the object is larger than a predetermined threshold, the distance to the virtual image object is fixed.
  • the image generation unit 424 is controlled so that As a result, the virtual image object at a distance close to the viewpoint E is changed according to the distance to the target object, so that it is possible to prevent the occupant from feeling uncomfortable.
  • the virtual image object far from the viewpoint E has a fixed arrangement, it is possible to suppress the processing load when generating the image of the virtual image object. Since it is more difficult for the human eye to perceive an accurate sense of distance as the object is farther away, even if the position of the virtual image object that is farther from the viewpoint E is fixed, the sense of discomfort given to the occupant is not great.
  • a fixed distance La from the viewpoint E to the virtual image object is set to be equal to or greater than the distance L D threshold . If a virtual image object displayed for an object located far from the viewpoint E is projected closer than a virtual image object displayed for an object located closer to the viewpoint E, the occupant will feel discomfort. Will end up. Therefore, in the present embodiment, by setting the fixed distance La to be a threshold value of the distance L D above, it is possible to reduce the sense of discomfort given to the passenger.
  • the threshold P D may be changeable according to a predetermined condition.
  • the threshold value P D may be increased as the illuminance around the vehicle 1 increases.
  • the occupant can see clearly to a long distance. Therefore, it is preferable to increase the threshold value as the illuminance increases to reduce the discomfort given to the occupant as much as possible.
  • it is possible to determine an appropriate threshold value while considering the balance between reduction of discomfort and suppression of processing load.
  • the threshold value P D may be increased as the traveling speed of the vehicle 1 increases.
  • the threshold value P D may be increased as the traveling speed of the vehicle 1 increases.
  • the size of the virtual image object displayed may be changed according to the distance.
  • the distance L12 from the viewpoint E to the preceding vehicle C12 is shorter than the distance L14 from the viewpoint E to the oncoming vehicle C14. Therefore, as shown in FIG. 9, the HUD control unit 425 makes the virtual image object I2 corresponding to the preceding vehicle C12 larger than the virtual image object I4 corresponding to the oncoming vehicle C14 displayed at the same distance as the virtual image object I2.
  • the image generation unit 424 is controlled so as to display. This allows the occupant to illusion that the virtual image object I2 is arranged in front of the virtual image object I4. That is, by making the sizes of the virtual image objects I2 and I4 whose distances are constant, variable, it is possible to display a virtual image object at a distance from the viewpoint E with a sense of perspective in a pseudo manner.
  • the HUD control unit 425 determines the distance from the viewpoint E to the virtual image object when the distance from the viewpoint E to the object is equal to or less than a predetermined threshold. The distance is changed according to the distance to the object, and if the distance from the viewpoint E to the object is larger than a predetermined threshold, the distance to the virtual image object is kept constant. As a result, it is possible to prevent a sense of discomfort given to the occupant while suppressing the processing load.
  • FIG. 11 is a flowchart for explaining control of the HUD 42 according to the third embodiment.
  • 12 and 13 are diagrams showing an example of the visual field region V of the occupant displayed by the HUD 42 so that the virtual image objects I1 to I3 are displayed so as to be superimposed on the physical space outside the vehicle 1. It should be noted that the visual field region V shown in FIGS. 12 and 13 includes a part of the vehicle 1 (bonnet or the like).
  • the HUD control unit 425 of the HUD 42 receives an object display signal for displaying a virtual image object at a predetermined position in front of the vehicle 1 from the display control unit 43 or the vehicle control unit 3 ( Step S1).
  • the object display signal includes the display mode (shape, color, etc.) of each virtual image object displayed in front of the vehicle, as well as the position information of each virtual image object.
  • the position information includes the display position of the virtual image object in the vertical and horizontal directions around the vehicle 1 and the display position of the virtual image object in the front-back direction of the vehicle 1.
  • the display position of the virtual image object in the front-back direction is specified by, for example, the distance from the viewpoint E (see FIG. 2) of the occupant of the vehicle 1 to the virtual image object.
  • the virtual image object can be displayed, for example, in front of the vehicle 1 at a position 5 m to 10 m away from the viewpoint E.
  • a legal speed object I1 indicating information on the legal speed of the road on which the vehicle 1 is traveling
  • a vehicle speed object indicating information on the current traveling speed of the vehicle 1.
  • I2 and a direction indicating object I3 indicating the traveling direction of the vehicle 1 may be displayed in front of the vehicle 1.
  • the HUD control unit 425 acquires the position information (including the distance from the viewpoint E to each virtual image object) of each virtual image object I1 to I3 from the display control unit 43 or the vehicle control unit 3.
  • the HUD control unit 425 receives, from the display control unit 43 or the vehicle control unit 3, position information of an object (hereinafter, referred to as an object) such as a vehicle or a pedestrian existing around the vehicle 1 (step). S2).
  • the position information of the target object includes the position of the target object in the vertical and horizontal directions around the vehicle 1 and the position of the target object in the front-back direction of the vehicle 1.
  • the position of the target object in the front-back direction is specified by the distance from the viewpoint E of the occupant of the vehicle 1 to the target object, for example.
  • the position and distance of the target object are calculated, for example, from data indicating the surrounding environment of the vehicle acquired by the radar 7 or the external camera 6A.
  • the distance from the radar 7 or the like to the object is large.
  • the distance from the viewpoint E to the object can be calculated by adding the distance from the radar 7 or the like to the viewpoint E.
  • the HUD control unit 425 acquires the position information of the preceding vehicle C (including the distance from the viewpoint E to the preceding vehicle C) from the display control unit 43 or the vehicle control unit 3.
  • the HUD control unit 425 causes the occupant of the vehicle 1 to overlap the virtual image object with the target object based on the position information of each virtual image object received in step S1 and the position information of the target object received in step S2. It is determined whether or not it is visually recognized (step S3). Specifically, the HUD control unit 425, for example, based on the position information of each virtual image object I1 to I3 and the position information of the preceding vehicle C, each virtual image within the area connecting the viewpoint E and the preceding vehicle C. It is determined whether at least a part of the objects I1 to I3 exists.
  • step S3 When it is determined in step S3 that the virtual image object is visually recognized by the occupant without overlapping the object (No in step S3), the HUD control unit 425 sets the entire virtual image object to the standard density (standard brightness). (Step S4). Specifically, when it is determined that the virtual image objects I1 to I3 do not exist in the area that connects the viewpoint E and the vehicle C in front, the HUD control unit 425 determines that the virtual image objects I1 to I3 are entirely contained. Produce at standard concentration.
  • step S3 when it is determined in step S3 that the occupant visually recognizes each virtual image object so as to overlap the target object (Yes in step S3), the HUD control unit 425 determines the occupant's viewpoint E and each virtual image object. It is determined whether or not the distance is larger than the distance between the viewpoint E and the object (step S5). That is, when it is determined that at least a part of each virtual image object I1 to I3 exists between the viewpoint E and the preceding vehicle C, the HUD control unit 425 determines that the virtual image objects I1 to I3 shown in FIG. It is determined whether or not the distance from the viewpoint E of the occupant is larger than the distance between the front vehicle C, which is the object, and the viewpoint E. That is, the HUD control unit 425 determines whether or not the virtual image objects I1 to I3 overlap with the objects I1 to I3 and are located farther than the preceding vehicle C visually recognized by the occupant.
  • step S5 When it is determined in step S5 that the distance between the viewpoint E of the occupant and the virtual image object is equal to or less than the distance between the viewpoint E and the object (No in step S5), the HUD control unit 425 determines that the virtual image object Are generated at standard concentrations (step S4). For example, when the distance between the viewpoint E and each virtual image object I1 to I3 is equal to or less than the distance between the viewpoint E and the preceding vehicle C, that is, each virtual image object I1 to I3 is closer to the viewpoint E than the preceding vehicle C. When it is located, the HUD control unit 425 generates the entire virtual image objects I1 to I3 with the standard density, as shown in FIG.
  • step S5 when it is determined in step S5 that the distance between the viewpoint E of the occupant and the virtual image object is larger than the distance between the viewpoint E and the object (Yes in step S5), the HUD control unit 425 determines It is determined whether or not the virtual image object is a virtual image object associated with the object (step S6). That is, when the virtual image objects I1 to I3 are located farther from the viewpoint E than the preceding vehicle C, the HUD control unit 425 determines that the virtual image objects I1 to I3 are associated with the preceding vehicle C. Or not.
  • step S6 When it is determined in step S6 that the virtual image object is a virtual image object associated with the target object (Yes in step S6), the HUD control unit 425 generates the entire virtual image object with standard density (step S4). ). For example, if any of the plurality of virtual image objects I1 to I3 is a virtual image object associated with the preceding vehicle C, the HUD control unit 425 generates the entire virtual image object with standard density.
  • step S6 when it is determined in step S6 that the virtual image object is not the virtual image object related to the target object (No in step S6), the HUD control unit 425 determines the degree of overlap (overlap) between the virtual image object and the target object. It is determined whether or not the area is equal to or larger than a predetermined value (step S7). That is, when it is determined that each of the virtual image objects I1 to I3 is not a virtual image object associated with the preceding vehicle C, the HUD control unit 425 causes the virtual image objects I1 to I3 and the preceding vehicle C to move in the vertical and horizontal directions. It is determined whether or not the degree of overlap in is greater than or equal to a predetermined value.
  • each of the virtual image objects (the legal speed object I1, the vehicle speed object I2, and the direction indicating object I3) is an object related to the traveling of the vehicle 1 and is not an object related to the preceding vehicle C. Therefore, in step S7, the HUD control unit 425 determines whether or not the degree of overlap with the preceding vehicle C is equal to or greater than a predetermined value for each of the virtual image objects I1 to I3.
  • step S7 When it is determined in step S7 that the degree of overlap between the virtual image object and the object is not equal to or greater than the predetermined value (No in step S7), the HUD control unit 425 generates the entire virtual image object with standard density. (Step S4).
  • the legal speed object I1 and the vehicle speed object I2 have an overlapping degree with the preceding vehicle C smaller than a predetermined value.
  • the legal speed object I1 and the vehicle speed object I2 whose degree of overlap with the preceding vehicle C is smaller than a predetermined value, are all generated with standard density.
  • step S7 when it is determined in step S7 that the degree of overlap between the virtual image object and the target object is equal to or greater than the predetermined value (Yes in step S7), the HUD control unit 425 causes the virtual image object to overlap the target object. Is displayed lighter than the standard density (step S8).
  • the direction indicating object I3 is assumed to have a degree of overlap with the preceding vehicle C of a predetermined value or more. In this case, as shown in FIG.
  • the portion overlapping with the preceding vehicle C is displayed lighter than the standard density, and A portion that does not overlap the traveling vehicle C is generated with a standard density.
  • the boundary between the direction indicating object I3 and the preceding vehicle C may be displayed so as to be blurred.
  • the HUD control unit 425 can generate the entire virtual image object with standard density without performing the processing from step S3.
  • the HUD control unit 425 determines that the virtual image object is visually recognized by the occupant so as to overlap the target, and based on the distance information of the target to the occupant.
  • the image for generating the virtual image object is faded in at least a region of the virtual image object that overlaps with the object.
  • the generation unit 424 is controlled.
  • the HUD control unit 425 does not reduce the display of the image in a region where the virtual image object and the target object overlap each other and displays the standard density.
  • the image generation unit 424 is controlled so that According to this configuration, when the virtual image object is associated with the target object, the virtual image object is visually recognized at the standard density without thinning, even if the virtual image object is visually recognized as overlapping with the target object. The passenger can be positively recognized.
  • the HUD control unit 425 may control the image generation unit 424 so that at least one of the plurality of images forming the plurality of virtual image objects becomes thin when the plurality of virtual image objects overlap the target object. ..
  • the HUD control unit 425 causes the direction instruction object I3 of the plurality of virtual image objects I1 to I3.
  • the image generation unit 424 may be controlled so that only the image forming the image is thin. According to this configuration, when a plurality of virtual image objects overlaps the target object, at least one virtual image object is visually recognized thinly, so that a sense of discomfort given to the occupant can be reduced.
  • the HUD control unit 425 can determine at least one virtual image object that thins an image among the plurality of virtual image objects I1 to I3 based on the degree of overlap with the preceding vehicle C in each virtual image object I1 to I3. According to this configuration, it is possible to appropriately determine the virtual image object to be visually recognized thinly according to the situation.
  • the HUD control unit 425 displays the image so that the area of the image corresponding to the overlapping part is displayed lighter than the standard density (standard brightness).
  • the generation unit 424 is controlled, the present invention is not limited to this example.
  • the HUD control unit 425 may control the image generation unit 424 so as to hide the image of the virtual image object corresponding to the portion overlapping the target object.
  • "displaying lighter than the standard luminance” means reducing the luminance of the image, and includes making the luminance zero.
  • the HUD control unit 425 may hide the portion of the direction indicating object I3 that overlaps with the preceding vehicle C.
  • the HUD control unit 425 reduces the entire image for generating the virtual image object or reduces the entire image of the virtual image object even when only a part of the virtual image object overlaps the object.
  • the image generation unit 424 may be controlled so as to hide. Specifically, as shown in FIG. 15, the HUD control unit 425 may hide (or lighten) the entire direction indicating object I3 that overlaps with the preceding vehicle C. According to this configuration, even if only a part of the virtual image object overlaps the target object, by making the entire virtual image object lightly recognized or by hiding the entire virtual image object, the target object can be displayed to the occupant. It is easier to see.
  • the HUD control unit 425 uses at least one virtual image object I1 to I3 that thins the image based on the degree of overlap with the preceding vehicle C in each virtual image object I1 to I3.
  • the direction indicating object I3 is determined, but the present invention is not limited to this example.
  • the HUD control unit 425 may determine at least one virtual image object that thins the image among the plurality of virtual image objects based on the importance of each virtual image object. In this example, it is assumed that the legal speed object I1 and the vehicle speed object I2 among the plurality of virtual image objects I1 to I3 have higher importance than the direction indicating object I3.
  • the HUD control unit 425 can determine the direction indicating object I3 having a low degree of importance as a virtual image object that thins an image. Also with this configuration, it is possible to appropriately determine the virtual image object to be visually recognized thinly according to the situation.
  • the display of the image for generating the virtual image object in at least the area of the virtual image object that overlaps with the object should be thin based on the predetermined condition.
  • FIG. 16 is a diagram showing an example of the front of the vehicle as seen from the driver.
  • FIG. 17 is a schematic view of a light pattern applied to a blind spot area in front of the vehicle as viewed from above the vehicle.
  • FIG. 18 is a diagram showing an example of the windshield on which an image corresponding to the light pattern of FIG. 17 is displayed.
  • FIG. 19 is a schematic view of a light pattern, a part of which is applied to a blind spot area in front of the vehicle, as viewed from above the vehicle. 20: is a figure which shows an example of the windshield in which the image corresponding to the light pattern of FIG. 19 was displayed.
  • the driver is an example of an occupant of the vehicle 1.
  • a region (hereinafter referred to as a blind spot region A) that cannot be visually recognized by the driver is formed on the road surface in front of the vehicle 1.
  • the road surface drawing device 45 draws a light pattern representing predetermined information (for example, information on the traveling direction of the vehicle 1) on an object existing near the vehicle 1 (for example, another vehicle, a pedestrian, etc.)
  • predetermined information for example, information on the traveling direction of the vehicle 1
  • object existing near the vehicle 1 for example, another vehicle, a pedestrian, etc.
  • at least a part of the light pattern may be irradiated into the blind spot area A that cannot be visually recognized by the driver of the vehicle 1.
  • the display system 4 of the present embodiment displays an image (virtual image object) corresponding to the light pattern on the HUD 42 when at least a part of the light pattern is illuminated by the road surface drawing device 45 on the blind spot area A.
  • the display control unit 43 determines the light pattern to be emitted by the road surface drawing device 45 based on the traveling state information, the surrounding environment information, etc. transmitted from the vehicle control unit 3. Then, the display control unit 43 transmits a signal related to the determined light pattern to the road surface drawing device 45.
  • the road surface drawing device 45 draws a predetermined light pattern on the road surface based on the signal transmitted from the display control unit 43.
  • the display control unit 43 also determines whether the road surface drawing device 45 irradiates the blind spot area A with at least a part of a predetermined light pattern. For example, the emission angle of the road surface drawing device 45 that emits the light applied to the blind spot area A (hereinafter, referred to as the exit angle of the light corresponding to the blind spot area A) is stored in advance in the memory of the display control unit 43. The display control unit 43 determines whether or not the emission angle of the predetermined light pattern by the road surface drawing device 45 is within the range of the emission angle of the light corresponding to the blind spot area A stored in the memory.
  • the display control unit 43 causes the road surface drawing device 45 to emit the predetermined light pattern. It is determined that at least a part of the pattern is applied to the blind spot area A.
  • the emission angle of light corresponding to the blind spot area A is calculated as follows, for example. First, based on the positions of components (eg, the hood 19 and the pillar 118 of the windshield 18) located in front of the driver of the vehicle 1 and the position of the driver's eyes (eg, the standard position of the driver's eyes). Then, the blind spot area A is estimated. Then, based on the position of the road surface drawing device 45 of the vehicle 1, the emission angle of the road surface drawing device 45 that emits the light irradiated to the estimated blind spot area A is calculated.
  • the display control unit 43 determines that the road surface drawing device 45 irradiates at least a part of the predetermined light pattern to the blind spot area A, the display control unit 43 generates a predetermined image corresponding to the predetermined light pattern.
  • the display control unit 43 transmits predetermined image data corresponding to a predetermined light pattern emitted by the road surface drawing device 45 to the HUD control unit 425 of the HUD 42.
  • the HUD control unit 425 controls the image generation unit 424 to generate a predetermined image corresponding to a predetermined light pattern emitted by the road surface drawing device 45 based on the predetermined image data transmitted from the display control unit 43. Control.
  • the image generated by the image generation unit 424 is projected on the windshield 18 via the lens 426, the screen 427, and the concave mirror 428.
  • the occupant who visually recognizes the image projected on the windshield 18 recognizes that the virtual image object I is displayed in the space outside the vehicle.
  • FIG. 17 shows an example in which the entire light pattern M1 indicating the traveling direction is drawn in the blind spot area A.
  • the light pattern M1 indicates that the stopped vehicle 1 is scheduled to start diagonally forward left.
  • the display control unit 43 determines that the entire light pattern M1 is applied to the blind spot area A, for example, as shown in FIG. 18, for displaying the virtual image object I10 corresponding to the light pattern M1 in FIG.
  • the image is displayed in the HUD display range 421A of the windshield 18.
  • FIG. 19 shows an example in which a part of the light pattern M2 indicating the traveling direction is drawn in the blind spot area A.
  • the light pattern M2 indicates that the vehicle 1 is scheduled to make a right turn.
  • the display control unit 43 determines that only a part of the light pattern is emitted to the blind spot area A, for example, as shown in FIG. 20, in order to visually recognize the virtual image object I20 corresponding to the light pattern M2 in FIG. Is displayed on the HUD display range 421A of the windshield 18.
  • the virtual image object I20 corresponds not only to the portion of the light pattern M2 that is irradiated to the blind spot area A, but also to the entire light pattern M2.
  • the display control unit 43 determines whether or not at least a part of the light pattern is irradiated on the blind spot area A, but the present invention is not limited to this.
  • the vehicle control unit 3 determines the light pattern to be emitted by the road surface drawing device 45, determines whether at least a part of the light pattern is emitted to the blind spot area A, and displays a signal indicating the determination result. You may transmit to the control part 43.
  • the display control unit 43 stores in advance a range of the light emission angle of the road surface drawing device 45 corresponding to the blind spot area A in the memory, and based on this, at least a part of the light pattern is the blind spot area A. It was determined whether or not it is irradiated with, but is not limited to this.
  • the irradiation range of light on the road surface by the road surface drawing device 45 corresponding to the blind spot area A may be calculated in advance and stored in the memory, and the determination may be performed based on this.
  • the position of the driver's eyes is detected in real time with the light pattern actually drawn on the road surface, and based on these detection data, the blind spot area A is identified and at least a part of the light pattern is applied to the blind spot area A. It may be determined whether or not to be performed.
  • the display control unit 43 determines that at least a part of the light pattern is irradiated to the blind spot area A regardless of the start of the road surface drawing by the road surface drawing device 45, but the present invention is not limited to this. ..
  • the display control unit 43 may make the determination after the road surface drawing by the road surface drawing device 45 is started. Further, after the road surface drawing device 45 starts the road surface drawing, the irradiation range on the road surface of the light pattern actually drawn by the external camera 6A is detected, and the display control unit 43 receives the light pattern received from the external camera 6A. The determination may be made based on the irradiation range data on the road surface.
  • the blind spot area A is described as an area that cannot be visually recognized by the driver on the road surface in front of the vehicle 1, but the invention is not limited to this.
  • the blind spot region A may include a region that is not visible to the driver on the road surface on the side or the rear of the vehicle due to the components of the vehicle 1 located on the side or the rear of the driver D.
  • the display system 4 displays an image (virtual image object) corresponding to the light pattern on the HUD 42 when the road surface drawing device 45 irradiates at least a part of the light pattern on the blind spot area A on the side or rear of the vehicle. You may let me.
  • the HUD control unit 425 uses the road surface drawing device 45 configured to irradiate the road surface outside the vehicle 1 with the light pattern so that the driver of the vehicle 1 cannot see the blind spot area A.
  • the image generation unit 424 is controlled so as to generate a predetermined image corresponding to the light pattern, based on the information that at least a part of the light pattern is radiated.
  • the display control unit 43 based on the information that the road surface drawing device 45 irradiates at least a part of the light pattern to the blind spot area A that cannot be visually recognized by the driver of the vehicle 1, a predetermined image corresponding to the light pattern.
  • the HUD control unit 425 generates the predetermined image corresponding to the entire light pattern based on the information that only a part of the light pattern is irradiated to the blind spot area A. 424 is controlled.
  • the display control unit 43 controls the HUD 42 to generate a predetermined image corresponding to the entire light pattern, based on the information that only a part of the light pattern is irradiated to the blind spot area A. To do. For this reason, even when only a part of the light pattern cannot be visually recognized, the image of the entire light pattern is displayed by the HUD 42, so that the driver of the vehicle 1 can more accurately recognize the light pattern irradiated to the outside of the vehicle. Can be recognized.
  • the emission angle of light by the road surface drawing device 45 corresponding to the blind spot area A or the irradiation range of light on the road surface by the road surface drawing device 45 is defined. Therefore, if the emission angle of the light by the road surface drawing device 45 corresponding to the blind spot area A or the irradiation range of the light on the road surface by the road surface drawing device 45 is defined in advance, the light pattern actually drawn on the road surface is determined. There is no need to detect and determine whether or not the driver can visually recognize it.
  • the display system 4 displays the virtual image object corresponding to the light pattern on the HUD 42 when the light pattern of the road surface drawing device 45 is applied to the blind spot area A, but the present invention is not limited to this.
  • the display system 4 may display, on the HUD 42, a virtual image object corresponding to the light pattern that the road surface drawing device 45 emits or should emit, based on the weather information.
  • the vehicle control unit 3 acquires weather information based on detection data from the external camera 6A (for example, a raindrop sensor or the like), or based on vehicle position information from the GPS 9 and weather data from the wireless communication unit 10. To do.
  • the vehicle control unit 3 may acquire the weather information by performing a predetermined image processing on the image data indicating the surrounding environment of the vehicle from the external camera 6A.
  • the display control unit 43 causes the HUD 42 to display a virtual image object corresponding to the light pattern illuminated by the road surface drawing device 45 or to be illuminated based on the weather information transmitted from the vehicle control unit 3. For example, when the weather information transmitted from the vehicle control unit 3 means “clear”, the display control unit 43 does not display the virtual image object of the HUD 42 corresponding to the light pattern of the road surface drawing device 45.
  • the display control unit 43 causes the HUD 42 to display a virtual image object corresponding to the light pattern to be emitted by the road surface drawing device 45, and draws the road surface.
  • the light pattern display by the device 45 is not performed.
  • the display control unit 43 causes the road surface drawing device 45 to emit the light.
  • the virtual image object corresponding to the existing light pattern may be displayed on the HUD 42.
  • FIG. 21 is a diagram showing an example of the windshield in which the light pattern M21 and the virtual image object I21 corresponding to each other are displayed in an overlapping manner.
  • 22A is a diagram showing an example of the light pattern M21 and the virtual image object I21 of FIG. 22B to 22D are diagrams showing other examples of light patterns and virtual image objects corresponding to each other, which are displayed on the windshield.
  • the predetermined image displayed on the HUD 42 and the light pattern emitted by the road surface drawing device 45 correspond to each other, and the predetermined image and the light pattern have different colors.
  • the operation of at least one of the HUD 42 and the road surface drawing device 45 is controlled.
  • the display control unit 43 based on the traveling state information, the surrounding environment information, and the like transmitted from the vehicle control unit 3, information to be displayed on both the road surface drawing device 45 and the HUD 42 (for example, information on the traveling direction of the vehicle 1). , Pedestrian information, other vehicle information, etc.), the light pattern (for example, shape, size, color, irradiation position on the road surface, etc.) to be irradiated by the road surface drawing device 45 corresponding to this information. And HUD 42 determines a predetermined image to be displayed (eg, shape, size, color, display position on windshield 18, etc.).
  • the display control unit 43 sets the color of the light pattern and the predetermined image so that the light pattern and the predetermined image corresponding to each other that mean the same information are displayed in different colors.
  • the light patterns and the predetermined images corresponding to each other which mean the same information, may be simply referred to as the light patterns and the predetermined images.
  • road surface drawing may be limited to white display in order to prevent erroneous recognition by drivers and pedestrians outside the vehicle. Therefore, the display control unit 43 sets the light pattern to white and sets the predetermined image corresponding to the light pattern to a color different from white.
  • the color of the predetermined image may be set according to the information to be displayed. For example, in the case of the information indicating the distance between the host vehicle 1 and the preceding vehicle, the predetermined image is displayed in blue, and in the case of the information indicating the traveling direction of the host vehicle 1, the predetermined image is set in the green display. Good.
  • the display control unit 43 displays the display position of the predetermined image on the windshield 18 so that the driver can visually recognize the virtual image object formed by the predetermined image at the position associated with the corresponding light pattern.
  • the display position of a predetermined image may be set so that the virtual image object can be visually recognized by overlapping with the corresponding light pattern.
  • the display position of the predetermined image may be set so that a part of the virtual image object can be visually recognized in a manner overlapping with the corresponding light pattern.
  • the display position of the predetermined image may be set so that the virtual image object can be visually recognized adjacent to the corresponding light pattern.
  • the display control unit 43 determines to display information indicating that a pedestrian is present on the left sidewalk on both the road surface drawing device 45 and the HUD 42
  • the light pattern of the road surface drawing device 45 and a predetermined image of the HUD 42 are set to the same shape (for example, the shape of an arrow).
  • the display control unit 43 sets the color of the light pattern to white and sets the color of the predetermined image to a different color.
  • the display control unit 43 sets the display position of the predetermined image so that the virtual image object formed by the predetermined image is visually recognized in an overlapping manner with the light pattern. In this case, as shown in FIG.
  • the driver within the HUD display range 421A of the windshield 18, displays the virtual image object I21 having the shape of the arrow formed by the predetermined image in the corresponding arrow on the road surface. It can be visually recognized in a state of overlapping with the light pattern M21 having a shape. Therefore, the driver can confirm the information of the pedestrian P by the light pattern of the road surface drawing device 45 and the virtual image object of the HUD 42. Further, since the light pattern and the predetermined image are visually recognized in different colors, the driver can more clearly visually recognize the light pattern M21 and the virtual image object I21.
  • the display control unit 43 includes the road surface drawing device 45 and the virtual surface object I21 so that the virtual image object I21 having the same shape as the light pattern M21 and having a small size can be visually recognized in a state of overlapping with the light pattern M21.
  • the light pattern M21 and the virtual image object I21 respectively display the outline of the arrow and all of the outline in a predetermined color, but the present invention is not limited to this. For example, only the outline of the arrow may be displayed in a predetermined color.
  • the light patterns and the shapes of virtual image objects corresponding to each other are not limited to the example of FIG. 22A.
  • the HUD 42 may be displayed so that the size of the virtual image object I22 can be visually recognized larger than the size of the light pattern M22.
  • the virtual image object I22 may be displayed only with the outline of the arrow.
  • the shape and size of the light pattern M23 and the virtual image object I23 may be the same, and the HUD 42 may be displayed so that the virtual image object I23 can be visually recognized adjacent to the light pattern M23.
  • the virtual image object I23 may display only the bar-shaped contour. Further, as shown in FIG.
  • the HUD 42 may be displayed so that the virtual image object I24 having a shape different from that of the light pattern M24 and having a large size can be visually recognized overlapping with the light pattern.
  • the virtual image object I24 may be displayed only with the outline of the arrow. 22B to 22D, the light pattern and the color of the virtual image object are displayed differently.
  • the display control unit 43 determines the color of the light pattern irradiated by the road surface drawing and the color of the predetermined image displayed on the HUD, but the present invention is not limited to this.
  • the HUD control unit 425 of the HUD 42 receives the signal related to the color information of the light pattern to be emitted from the road surface drawing device 45, and generates the image in a color different from the color of the light pattern. May be controlled.
  • the external camera 6A acquires the color information data of the light pattern actually irradiated by the road surface drawing device 45, and the HUD control unit 425 of the HUD 42 is based on the color information data of the light pattern transmitted from the external camera 6A.
  • the image generation unit 424 may be controlled to generate an image with a color different from the color of the light pattern.
  • the light source drive circuit of the road surface drawing device 45 receives a signal related to the color information of the image displayed on the HUD 42 from the HUD 42, and controls the light source unit to draw the light pattern in a color different from the image color. May be.
  • the HUD control unit 425 sets the predetermined image corresponding to the light pattern in a color different from the color of the light pattern based on the color information of the light pattern emitted by the road surface drawing device 45.
  • the image generation unit 424 is controlled to generate.
  • the display control unit 43 causes the predetermined image displayed on the HUD 42 and the light pattern emitted by the road surface drawing device 45 to correspond to each other, and makes the predetermined image and the light pattern have different colors.
  • the operation of at least one of the HUD 42 and the road surface drawing device 45 is controlled. By displaying a predetermined image corresponding to the light pattern drawn on the road surface, the driver of the vehicle 1 can easily recognize the displayed light pattern and image. Further, since the light pattern and the predetermined image are visually recognized in different colors, the visibility of the driver is good.
  • the HUD control unit 425 controls the image generation unit 424 so as to generate a predetermined image in a color different from white.
  • the display control unit 43 controls the HUD 42 to generate a predetermined image in a color different from white.
  • Road surface drawing may be limited to white display in order to prevent erroneous recognition by drivers and pedestrians outside the vehicle. Even in such a case, according to the above configuration, since the predetermined image is displayed in a color different from white, the visibility when the driver visually recognizes is further improved.
  • FIG. 23 is a schematic diagram of the HUD main body 420 that constitutes the HUD 42 according to this embodiment. Note that, in FIG. 23, the lens 426 and the screen 427 mounted on the HUD main body 420 are not shown.
  • FIG. 24 is a schematic diagram for explaining the relationship between the swing of the concave mirror 428 and the emission position of the light emitted from the image generation unit 424.
  • the concave mirror 428 includes a drive unit 430 for swinging the concave mirror 428.
  • the drive unit 430 includes a motor 431, a circular gear 432 attached to the motor 431, and a sector gear 436 that meshes with the circular gear 432.
  • the motor 431 can rotate the circular gear 432 around a shaft 434 extending in the left-right direction based on a control signal received from the HUD control unit 425.
  • the fan gear 436 is attached to the concave mirror 428 via a shaft 438 extending in the left-right direction.
  • the image generation unit 424 is provided with a thermal sensor 440 for detecting the heat distribution on the light emission surface (for example, liquid crystal surface) 424A of the image generation unit 424.
  • the thermal sensor 440 is, for example, a non-contact sensor. By detecting the heat distribution on the light emitting surface 424A by the thermal sensor 440, it is possible to detect the temperature rise of the light emitting surface 424A due to external light (sunlight) described later.
  • the thermal sensor 440 can transmit a detection signal indicating the heat distribution of the light emitting surface 424A to the HUD control unit 425.
  • the thermal sensor 440 detects the heat distribution on the light emitting surface 424A of the image generation unit 424, and transmits the detection signal to the HUD control unit 425.
  • the HUD control unit 425 determines, for example, whether or not the temperature increase of at least a part of the light emission surface 424A is equal to or higher than a predetermined value, based on the detection signal received from the thermal sensor 440.
  • the HUD control unit 425 causes the drive unit 430 to swing the concave mirror 428 (hereinafter, referred to as a first control signal).
  • a control signal (hereinafter, referred to as a second control signal) for changing the emission position of the light emitted from the image generation unit 424, and transmits the first control signal to the motor 431 of the drive unit 430. , And transmits the second control signal to the image generation unit 424. That is, the swing of the concave mirror 428 and the change of the image generation position in the image generation unit 424 are performed in synchronization.
  • the motor 431 of the drive unit 430 rotates the circular gear 432 about the shaft 434 based on the first control signal received from the HUD control unit 425. Based on the rotation of the circular gear 432, the fan gear 436 rotates about the shaft 438, so that the direction of the concave mirror 428 swings. That is, the drive unit 430 moves (swings) the direction of the concave mirror 428 from the position P21 which is the initial position to the position P22 along the direction D shown in FIG. As a result, as shown in FIG.
  • the position on the light emitting surface 424A where the external light L22 reflected by the concave mirror 428 is condensed can be made different.
  • the external light L21 is irradiated onto the light emitting surface 424A of the image generating unit 424 before the direction of the concave mirror 428 is changed, and the light emitting surface 424A is changed after the direction of the concave mirror 428 is changed.
  • the concave mirror 428 is swung so that the irradiation area of the external light L22 does not overlap. That is, in the range where the external light is condensed on the light emission surface 424A, the condensing ranges do not overlap before and after the swinging of the concave mirror 428, and preferably, the condensing ranges are separated by a certain distance. It is preferable to change the direction of the concave mirror 428.
  • the image generation unit 424 changes the light emission position based on the second control signal received from the HUD control unit 425. That is, the image generation unit 424 changes the position of the emitted light on the light emission surface 424A from, for example, the position G1 which is the initial position to the position G2 slightly below the position G1 (see FIG. 24).
  • the post-change position G2 of the emitted light is a position corresponding to the post-oscillation position P22 of the concave mirror 428. That is, the HUD control unit 425 changes the position of the emitted light in the image generation unit 424 so that the image forming position with respect to the windshield 18 becomes a desired position before and after the concave mirror 428 swings.
  • the virtual image object I outside the vehicle that is visible to the occupant is formed at a desired position even before and after the concave mirror 428 swings.
  • the HUD control unit 425 determines the distortion degree of the image irradiated on the windshield 18 according to the swing of the concave mirror 428. It is preferable to control the image generation unit 424 so that it is changed.
  • the emission window 423 is a transparent plate that transmits visible light. Therefore, as shown in FIG. 23, when external light L21 such as sunlight that has entered from the outside of the vehicle enters the HUD main body 420 from the emission window 423, the external light L21 is reflected by the concave mirror 428 and condensed. In some cases, the light emitting surface 424A of the image generating unit 424 may be irradiated with. When the condensed external light L21 is irradiated on the light emitting surface 424A, an excessive temperature rise may occur on the light emitting surface 424A, and the image generating unit 424 may deteriorate.
  • the HUD 42 irradiates the windshield 18 with the image generation unit 424 that emits light for generating a predetermined image and the light emitted by the image generation unit 424.
  • a concave mirror 428 (an example of a reflection unit) that reflects the emitted light
  • a drive unit 430 that swings the direction of the concave mirror 428
  • a HUD control unit 425 that controls the operation of the image generation unit 424. I have it.
  • the drive unit 430 causes the concave mirror 428 to move. Since the orientation is swung, the position on the light emission surface 424A of the image generation unit 424 irradiated with external light can be changed. Accordingly, it is possible to prevent the image generation unit 424 from being continuously irradiated with external light locally, suppress an excessive temperature rise in the image generation unit 424, and suppress deterioration of the image generation unit 424 due to heat. it can.
  • the HUD control unit 425 is configured to change the light emission position in the image generation unit 424 according to the swinging of the concave mirror 428 in the direction of the driving unit 430. As a result, even if the direction of the concave mirror 428 is swung, the emission position of light in the image generation unit 424 is changed according to the swing, so that the image forming position with respect to the windshield 18 becomes a desired position. It is controlled, and it is suppressed that an occupant of the vehicle feels uncomfortable. As described above, according to the configuration of the present embodiment, it is possible to prevent the occurrence of heat damage due to outside light without deteriorating the quality of generation of the virtual image object I displayed to the occupant.
  • the concave mirror 428 does not overlap the irradiation area of the external light L21 on the light exit surface 424A before the swing of the concave mirror 428 and the irradiation area of the external light L22 on the light exit surface 424A after the swing of the concave mirror 428.
  • the concave mirror 428 does not overlap the irradiation area of the external light L21 on the light exit surface 424A before the swing of the concave mirror 428 and the irradiation area of the external light L22 on the light exit surface 424A after the swing of the concave mirror 428.
  • the HUD 42 includes a thermal sensor 440 capable of detecting the temperature rise of the image generation unit 424, and the drive unit 430 swings the direction of the concave mirror 428 according to the detection of the temperature rise by the heat sensor 440. It is configured to move. As a result, the direction of the concave mirror 428 is swung when external light is applied to the image generation unit 424 and the temperature rises. That is, it is possible to prevent the drive unit 430 from performing an unnecessary operation and to extend the life of the drive unit 430. In addition, the energy consumption of the driving unit 430 can be reduced.
  • the light emission position in the image generation unit 424 is changed according to the swinging of the concave mirror 428 by the drive unit 430 (not shown in FIG. 8).
  • the image generation unit 424 By controlling the image generation unit 424, the generation of heat damage due to external light can be prevented without degrading the quality of generation of the virtual image object I.
  • FIG. 25 is a schematic diagram for explaining the relationship between the movement of the image generation unit 424 and the emission position of the light emitted from the image generation unit 424 according to the modification of the sixth embodiment.
  • the image generating unit 424 instead of swinging the concave mirror 428, the image generating unit 424 itself may be moved by a driving unit (not shown). In this case, the orientation of the concave mirror 428 is fixed rather than variable.
  • the position of the emitted light on the light emitting surface 424A is changed in response to moving the image generation unit 424 from the position P23 which is the initial position to the position P24 below the position P23. That is, the relative position of the emitted light with respect to the light emitting surface 424A is changed so that the position of the emitted light is fixed to the position (absolute position) G3 shown in FIG. 25 before and after the movement of the image generation unit 424.
  • the virtual image object I outside the vehicle that can be visually recognized by the occupant can be formed at a desired position before and after the movement of the image generation unit 424.
  • a swinging lens 426 or screen 427 an example of an optical member
  • the HUD 42 is configured to swing the direction of the concave mirror 428 in response to the detection of the temperature increase by the thermal sensor 440 provided in the image generation unit 424, but is not limited to this example. ..
  • the HUD may include an optical sensor capable of detecting external light incident on the concave mirror 428 instead of the thermal sensor 440.
  • the optical sensor in this case is preferably capable of detecting the direction of the external light incident on the concave mirror 428, for example. Specifically, for example, by providing a photosensor having directivity as the optical sensor in the vicinity of the emission window 423, external light incident at a specific angle can be detected.
  • the drive unit 430 can swing the direction of the concave mirror 428 in accordance with the detection of the external light by the optical sensor. As a result, similarly to the case where the thermal sensor 440 is provided, it is possible to prevent the driving unit 430 from performing an unnecessary operation, and it is possible to prolong the life of the driving unit 430 and reduce energy consumption.
  • a configuration in which the direction of the concave mirror 428 is swung about a shaft 438 extending along the left-right direction that is, a configuration in which the concave mirror 428 is swung by one axis by the driving unit 430 is adopted.
  • a configuration in which the direction of the concave mirror 428 is swung about two axes in the vertical direction and the horizontal direction In this case, for example, it is preferable to separately provide a driving unit that swings the direction of the concave mirror 428 around an axis extending in the vertical direction. Thereby, the swing of the concave mirror 428 can be controlled more precisely.
  • a reflecting section (a plane mirror or the like) different from the concave mirror 428 is provided between the screen 427 and the concave mirror 428 on the optical path of the light emitted from the image generating section 424 to swing the direction of the concave mirror 428. You may make it rock
  • the vehicle driving mode is described as including the fully automatic driving mode, the advanced driving support mode, the driving support mode, and the manual driving mode, but the vehicle driving mode includes these four modes. Should not be limited to.
  • the driving mode of the vehicle may include at least one of these four modes. For example, only one of the driving modes of the vehicle may be executable.
  • the categories of vehicle driving modes and display forms may be changed as appropriate in accordance with laws and regulations relating to autonomous driving in each country.
  • the definitions of the “fully automatic driving mode”, the “advanced driving support mode”, and the “driving support mode” described in the description of the present embodiment are merely examples, and laws and regulations relating to automatic driving in each country or In line with the rules, these definitions may be changed appropriately.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Instrument Panels (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Abstract

ヘッドアップディスプレイ(HUD)(42)は、車両に設けられ、所定の画像を車両の乗員に向けて表示するように構成されている。HUD(42)は、所定の画像を生成するための光を出射してウインドシールド(18)またはコンバイナへ照射する画像生成部(420)と、画像生成部(420)の動作を制御する制御部(425)と、を備えている。制御部(425)は、所定の画像により形成されウインドシールド(18)またはコンバイナを通して乗員に視認される虚像オブジェクトの表示態様を、所定の条件に応じて、平面画像と立体画像とのいずれかにするかを選択するように画像生成部(420)を制御する。

Description

ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法
 本開示は、ヘッドアップディスプレイ、車両用表示システム及び車両用表示方法に関する。
 現在、自動車の自動運転技術の研究が各国で盛んに行われており、自動運転モードで車両(以下、「車両」は自動車のことを指す。)が公道を走行することができるための法整備が各国で検討されている。ここで、自動運転モードでは、車両システムが車両の走行を自動的に制御する。具体的には、自動運転モードでは、車両システムは、カメラ、レーダ(例えば、レーザレーダやミリ波レーダ)等のセンサから得られる車両の周辺環境を示す情報(周辺環境情報)に基づいてステアリング制御(車両の進行方向の制御)、ブレーキ制御及びアクセル制御(車両の制動、加減速の制御)のうちの少なくとも1つを自動的に行う。一方、以下に述べる手動運転モードでは、従来型の車両の多くがそうであるように、運転者が車両の走行を制御する。具体的には、手動運転モードでは、運転者の操作(ステアリング操作、ブレーキ操作、アクセル操作)に従って車両の走行が制御され、車両システムはステアリング制御、ブレーキ制御及びアクセル制御を自動的に行わない。尚、車両の運転モードとは、一部の車両のみに存在する概念ではなく、自動運転機能を有さない従来型の車両も含めた全ての車両において存在する概念であって、例えば、車両制御方法等に応じて分類される。
 このように、将来において、公道上では自動運転モードで走行中の車両(以下、適宜、「自動運転車」という。)と手動運転モードで走行中の車両(以下、適宜、「手動運転車」という。)が混在することが予想される。
 将来の自動運転社会では、車両と人間との間の視覚的コミュニケーションが益々重要になっていくことが予想される。例えば、車両と当該車両の乗員との間の視覚的コミュニケーションが益々重要になっていくことが予想される。この点において、ヘッドアップディスプレイ(HUD)を用いて車両と乗員との間の視覚的コミュニケーションを実現することができる。ヘッドアップディスプレイは、ウインドシールドやコンバイナに画像や映像を投影させ、その画像をウインドシールドやコンバイナを通して現実空間と重畳させて乗員に視認させることで、いわゆるAR(Augmented Reality)を実現することができる。
 ヘッドアップディスプレイの一例として、特許文献1には、透明な表示媒体を用いて立体的な虚像を表示するための光学系を備える表示装置が開示されている。当該表示装置は、ウインドシールドまたはコンバイナ上で、運転手の視界内に光を投射する。投射された光の一部はウインドシールドまたはコンバイナを透過するが、他の一部はウインドシールドまたはコンバイナに反射される。この反射光は運転者の目に向かう。運転者は、目に入ったその反射光を、ウインドシールドやコンバイナ越しに見える実在の物体を背景に、ウインドシールドやコンバイナを挟んで反対側(自動車の外側)にある物体の像のように見える虚像として知覚する。
 また、太陽光などの外光がヘッドアップディスプレイの内部に入り込むと、当該外光が表示器で集光されて局所的な温度上昇を引き起こし、画像表示の乱れや表示器の熱損壊につながる可能性がある。このような問題を防ぐため、表示器の放熱性を高める構成や、表示器から反射部の間に赤外線を反射するプレートを設ける構成が知られている(特許文献2参照)。しかしながら、特許文献2では、表示器の温度上昇を抑制するための部品が別途必要であり、高コスト化につながる。
日本国特開2018-45103号公報 日本国特開2005-313733号公報
 本開示は、画像生成にかかる処理負荷を抑えつつ、乗員に与える違和感を軽減することが可能なヘッドアップディスプレイを提供することを目的とする。
 本開示は、利便性が向上したヘッドアップディスプレイ及び車両用表示システムを提供することを目的とする。
 本開示は、路面描画装置により表示された光パターン及びヘッドアップディスプレイにより表示された画像を車両の乗員が認識しやすいヘッドアップディスプレイ、車両用表示システム及び車両用表示方法を提供することを目的とする。
 本開示は、乗員に対して表示する画像生成の品質を低下させずに外光による熱害の発生を防止することが可能なヘッドアップディスプレイを提供することを目的とする。
 上記目的を達成するために、本開示の一態様に係るヘッドアップディスプレイは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射して前記光をウインドシールドまたはコンバイナへ照射する画像生成部と、
 前記画像生成部の動作を制御する制御部と、を備え、
 前記制御部は、前記所定の画像により形成され前記ウインドシールドまたは前記コンバイナを通して前記乗員に視認される虚像オブジェクトの表示態様を、所定の条件に応じて、平面画像と立体画像とのいずれかにするかを選択するように前記画像生成部を制御する。
 車両の周辺に存在する対象物に関連付けて虚像オブジェクトの表示態様を平面画像として投影した場合、3次元物体である対象物に対して2次元オブジェクトが表示されるため、乗員に違和感を与えてしまうことがある。一方で、乗員の視野領域内に投影されるすべての虚像オブジェクトを3次元オブジェクトとして画像生成しようとすると、画像生成のための処理負荷が高くなってしまう。そのような状態において、上記構成によれば、所定の条件に応じて、虚像オブジェクトの表示態様を平面画像と立体画像とで切り替えることができる。それにより、虚像オブジェクトの画像を生成する際の処理負荷を抑えつつ、乗員に与える違和感を軽減することができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記所定の条件は、前記乗員から前記虚像オブジェクトまでの距離、前記現実空間内の対象物の属性、前記乗員の視野領域における前記虚像オブジェクトが配置されるエリア、前記車両の走行シーンの少なくとも一つを含んでもよい。
 上記構成によれば、虚像オブジェクトの投影距離や対象物の属性等の状況に応じて虚像オブジェクトの表示態様を適切に決定することができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記所定の条件が前記乗員から前記虚像オブジェクトまでの距離である場合には、
 前記制御部は、前記距離が閾値以下であるときは前記表示態様を前記立体画像とし、前記距離が前記閾値よりも大きいときは前記表示態様を前記平面画像とするように、前記画像生成部を制御してもよい。
 上記構成によれば、虚像オブジェクトの投影距離に応じて、立体画像として表示される虚像オブジェクトと平面画像として表示される虚像オブジェクトとを適切に切り替えることができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記所定の条件が前記対象物の属性である場合には、
 前記制御部は、重要度が高い前記対象物に対しては前記虚像オブジェクトの前記表示態様を前記立体画像とし、重要度が低い前記対象物に対しては前記虚像オブジェクトの前記表示態様を前記平面画像とするように、前記画像生成部を制御してもよい。
 上記構成によれば、対象物の重要度が高い場合、例えば、乗員にとって緊急度が高い対象物である場合には、虚像オブジェクトの表示態様を立体画像とすることで、対象物を乗員に視認させやすくなる。また、対象物の重要度が低い場合には、虚像オブジェクトの表示態様を平面画像とすることで、画像生成にかかる処理負荷を軽減することができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記所定の条件が前記乗員の前記視野領域における前記虚像オブジェクトが配置されるエリアである場合には、
 前記制御部は、前記虚像オブジェクトが前記視野領域の中心エリアに位置するときは前記表示態様を前記立体画像とし、前記虚像オブジェクトが前記視野領域の中心エリア以外のエリアに位置するときは前記表示態様を前記平面画像とするように、前記画像生成部を制御してもよい。
 上記構成によれば、乗員の視野領域における虚像オブジェクトの位置に応じて、立体画像として表示される虚像オブジェクトと平面画像として表示される虚像オブジェクトとを適切に切り替えることができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記所定の条件が前記車両の前記走行シーンである場合には、
 前記制御部は、前記車両が一般道を走行しているときは前記表示態様を前記立体画像とし、前記車両が高速道路を走行しているときは前記表示態様を前記平面画像とするように、前記画像生成部を制御してもよい。
 上記構成によれば、車両の走行シーンに応じて、立体画像として表示される虚像オブジェクトと平面画像として表示される虚像オブジェクトとを適切に切り替えることができる。
 上記目的を達成するために、本開示の一態様に係るヘッドアップディスプレイは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射して前記光をウインドシールドまたはコンバイナへ照射する画像生成部と、
 前記画像生成部の動作を制御する制御部と、を備え、
 前記制御部は、前記現実空間内の対象物に基づいて、前記所定の画像により形成され前記ウインドシールドまたは前記コンバイナを通して前記乗員に視認される虚像オブジェクトの表示態様を変更するように前記画像生成部を制御し、
 前記表示態様を変更する際に、前記乗員から前記対象物までの距離である第一距離が所定の閾値以下である場合には、前記乗員から前記虚像オブジェクトまでの距離である第二距離が前記第一距離に対応して変更され、前記第一距離が前記所定の閾値よりも大きい場合には、前記第二距離が一定とされる。
 車両の周辺に存在する各対象物に関連付けて虚像オブジェクトを表示する場合、乗員の違和感を軽減するため、対象物の距離に応じて各虚像オブジェクトの距離を変更することが望ましい。ただし、すべての対象物の距離に応じて各虚像オブジェクトの距離を可変とすると、高い処理負荷がかかってしまう。そのような状態において、上記構成によれば、対象物の距離が閾値以下である場合には、虚像オブジェクトの距離が対象物の距離に対応して変更され、対象物の距離が閾値よりも大きい場合には、虚像オブジェクトの距離が一定とされる。これにより、オブジェクトの画像を生成する際の処理負荷を抑えつつ、乗員に与える違和感を軽減することができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記第一距離が前記所定の閾値よりも大きい場合には、前記第二距離は前記所定の閾値以上の距離となるように設定されてもよい。
 上記構成によれば、距離が一定とされる虚像オブジェクトを閾値以上の距離に表示させることで、乗員に与える違和感を軽減することができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記所定の閾値は、所定の条件に応じて、変更可能であってもよい。
 上記構成によれば、違和感の軽減と処理負荷の抑制とのバランスを考慮しつつ、適切な閾値を決定することができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記所定の条件は、前記車両の周囲の照度を含み、
 前記照度が大きくなるにつれて前記所定の閾値を大きくしてもよい。
 上記構成によれば、車両の周辺が明るい場合には、乗員は遠くまでクリアに視認することができるため、照度が大きくなるにつれて閾値を大きくして、乗員に与える違和感をできるだけ軽減することが好ましい。
 また、本開示のヘッドアップディスプレイにおいて、
 前記所定の条件は、前記車両の走行速度を含み、
 前記走行速度が大きくなるにつれて前記所定の閾値を大きくしてもよい。
 上記構成によれば、車両の走行速度が大きくなるにつれて閾値を大きくすることで、遠距離にある対象物や虚像オブジェクトについても乗員に正確に把握させることができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記第一距離が前記所定の閾値よりも大きい場合には、前記第一距離に応じて、表示される前記虚像オブジェクトの大きさを変更してもよい。
 上記構成によれば、距離が一定とされる虚像オブジェクトの大きさを可変とすることで、遠い位置の虚像オブジェクトについても遠近感のある表示が疑似的に可能となる。
 上記目的を達成するために、本開示の一態様に係るヘッドアップディスプレイは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射して前記光をウインドシールドまたはコンバイナへ照射する画像生成部と、
 前記画像生成部の動作を制御する制御部と、を備え、
 前記制御部は、前記所定の画像により形成され前記ウインドシールドまたは前記コンバイナを通して前記乗員に視認される虚像オブジェクトが、前記車両の周辺に存在する対象物に重なるように前記乗員に視認されると判断した場合であって、
 前記乗員に対する前記対象物の距離情報に基づいて、前記乗員に対する前記対象物の距離より前記乗員に対する前記虚像オブジェクトの距離が大きくなると判断した場合は、
 前記虚像オブジェクトにおける少なくとも前記対象物と重なる領域について前記所定の画像の表示が薄くなるように、前記画像生成部を制御する。
 車両の周辺に存在する対象物が虚像オブジェクトより近くに位置する状態では、虚像オブジェクトが対象物と重なって視認されると、虚像オブジェクトが対象物に埋め込まれているように見えるため、乗員に違和感を与えてしまう。また、車両の乗員にとって対象物と虚像オブジェクトのどちらが近いのか認識しにくい。そのような状態において、上記構成によれば、虚像オブジェクトにおける対象物と重なる領域を乗員に対して薄く認識させることができる。それにより、乗員は対象物が近くに位置していることを認識しやすくなり、乗員に与える違和感を軽減することができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記制御部は、前記所定の画像が前記対象物と関連する場合は、前記重なる領域について前記所定の画像の表示を薄くせず標準濃度となるように、前記画像生成部を制御してもよい。
 上記構成によれば、虚像オブジェクトが対象物と関連している場合に、虚像オブジェクトを薄くせず標準濃度で視認させることで、虚像オブジェクトを乗員に積極的に認識させることができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記制御部は、前記虚像オブジェクトの一部のみが前記対象物に重なる場合に、前記所定の画像の全部が薄くなるように、前記画像生成部を制御してもよい。
 上記構成によれば、虚像オブジェクトの一部のみが対象物に重なる場合であっても、虚像オブジェクトの全部を薄く認識させることで、対象物を乗員に視認させやすくなる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記制御部は、複数の前記虚像オブジェクトが前記対象物に重なる場合に、前記複数の虚像オブジェクトを形成する複数の前記所定の画像のうち少なくとも一つが薄くなるように、前記画像生成部を制御してもよい。
 上記構成によれば、複数の虚像オブジェクトが対象物に重なる場合に、少なくとも一つの虚像オブジェクトを薄く視認させることで、乗員へ与える違和感を軽減することができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記制御部は、前記複数の虚像オブジェクトにおけるそれぞれの重なり度合または重要度に基づいて、複数の前記所定の画像のうち薄くする所定の画像を決定してもよい。
 上記構成によれば、薄く視認させる虚像オブジェクトを状況に応じて適切に決定することができる。
 上記目的を達成するために、本開示の一態様に係るヘッドアップディスプレイは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射する画像生成部と、
 前記画像生成部の動作を制御する制御部と、を備え、
 前記制御部は、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置により前記車両の乗員から視認できない死角領域に前記光パターンの少なくとも一部が照射されるとの情報に基づいて、前記光パターンに対応した所定の画像を生成するように前記画像生成部を制御する。
 上記構成によれば、路面描画装置が照射した光パターンが車両の乗員から視認できない場合に、光パターンに対応した所定の画像がヘッドアップディスプレイにより表示されるため、車両の乗員は車外に照射された光パターンを正確に認識することができる。すなわち、利便性が向上したヘッドアップディスプレイを提供することができる。
 また、前記情報が前記光パターンの一部のみが前記死角領域に照射されることを含む場合に、前記制御部は、前記光パターンの全体に対応した所定の画像を生成するように前記画像生成部を制御してもよい。
 上記構成によれば、光パターンの一部のみが視認できない場合であっても、光パターンの全体に対応した画像がヘッドアップディスプレイにより表示されるため、車両の乗員は車外に照射された光パターンをより正確に認識することができる。
 また、前記死角領域に対応して前記路面描画装置による光の出射角度、または、前記路面描画装置による路面上の光の照射範囲が規定されており、前記情報は前記路面描画装置による光の出射角度、または、前記路面描画装置による路面上の光の照射範囲に基づいてもよい。
 上記のように予め死角領域に対応する路面描画装置による光の出射角度、または、路面描画装置による路面上の光の照射範囲が規定されていれば、実際に路面描画された光パターンを検出して乗員から視認できるか否かを判断する必要がない。
 上記目的を達成するために、本開示の一態様に係る車両用表示システムは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイと、
 前記車両に設けられ、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置と、
 少なくとも前記ヘッドアップディスプレイの動作を制御する制御部と、を備え、
 前記制御部は、前記路面描画装置により前記車両の乗員から視認できない死角領域に前記光パターンの少なくとも一部が照射されるとの情報に基づいて、前記光パターンに対応した所定の画像を生成するように前記ヘッドアップディスプレイを制御する。
 上記構成によれば、路面描画装置が照射した光パターンが車両の乗員から視認できない場合に、光パターンに対応した所定の画像がヘッドアップディスプレイにより表示されるため、車両の乗員は車外に照射された光パターンを正確に認識することができる。すなわち、利便性が向上した車両用表示システムを提供することができる。
 また、前記情報が前記光パターンの一部のみが前記死角領域に照射されることを含む場合に、前記制御部は、前記光パターンの全体に対応した所定の画像を生成するように前記ヘッドアップディスプレイを制御してもよい。
 上記構成によれば、光パターンの一部のみが視認できない場合であっても、光パターンの全体に対応した画像がヘッドアップディスプレイにより表示されるため、車両の乗員は車外に照射された光パターンをより正確に認識することができる。
 また、前記死角領域に対応して前記路面描画装置による光の出射角度、または、前記路面描画装置による路面上の光の照射範囲が規定されており、前記制御部は、前記路面描画装置による光の出射角度、または、前記路面描画装置による路面上の光の照射範囲に基づいて、前記路面描画装置により前記車両の乗員から視認できない死角領域に前記光パターンの少なくとも一部が照射されるか否かを判断してもよい。
 上記のように予め死角領域が規定されていれば、実際に路面描画された光パターンを検出して乗員から視認できるか否かを判断する必要がない。
 上記目的を達成するために、本開示の一態様に係るヘッドアップディスプレイは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射する画像生成部と、
 前記画像生成部の動作を制御する制御部と、を備え、
 前記制御部は、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置により照射される前記光パターンの色情報に基づいて、前記光パターンに対応した所定の画像を前記光パターンの色とは異なる色で生成するように前記画像生成部を制御する。
 上記構成によれば、路面描画された光パターンと対応した所定の画像を表示することで、表示された光パターン及び画像を車両の乗員が認識しやすい。さらに、光パターンと所定の画像は異なる色で視認されるので、乗員が視認する際の視認性が良好である。
 また、前記制御部は、前記光パターンの色情報が白色を示す情報である場合、前記所定の画像を白色とは異なる色で生成するように前記画像生成部を制御してもよい。
 路面描画は、車外のドライバーや歩行者等への誤認識を防ぐため、白色での表示に限定される場合がある。そのような場合でも、上記構成によれば、所定の画像を白色とは異なる色で表示されるので、乗員が視認する際の視認性が更に向上する。
 上記目的を達成するために、本開示の一態様に係る車両用表示システムは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイと、
 前記車両に設けられ、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置と、
 前記ヘッドアップディスプレイ及び前記路面描画装置の少なくとも一方の動作を制御する制御部を備え、
 前記制御部は、前記所定の画像と前記光パターンとが互いに対応するように、かつ、前記所定の画像と前記光パターンとが異なる色となるように、前記動作を制御する。
 上記構成によれば、路面描画された光パターンと対応した所定の画像を表示することで、表示された光パターン及び画像を車両の乗員が認識しやすい。さらに、光パターンと所定の画像は異なる色で視認されるので、乗員が視認する際の視認性が良好である。
 また、前記制御部は、前記光パターンの色が白色である場合、前記所定の画像を白色とは異なる色で生成するように前記ヘッドアップディスプレイを制御してもよい。
 路面描画は、車外のドライバーや歩行者等への誤認識を防ぐため、白色での表示に限定される場合がある。そのような場合でも、上記構成によれば、所定の画像を白色とは異なる色で表示されるので、乗員が視認する際の視認性が更に向上する。
 上記目的を達成するために、本開示の一態様に係る車両用表示方法は、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイと、
 前記車両に設けられ、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置と、を用いて表示を行う車両用表示方法であって、
 前記所定の画像と前記光パターンとが互いに対応するように、かつ、前記所定の画像と前記光パターンとが異なる色となるように、前記ヘッドアップディスプレイに前記所定の画像を表示させるとともに前記路面描画装置に前記光パターンを表示させる。
 上記構成によれば、路面描画された光パターンと対応した所定の画像を表示することで、表示された光パターン及び画像を車両の乗員が認識しやすい。さらに、光パターンと所定の画像は異なる色で視認されるので、乗員が視認する際の視認性が良好である。
 また、前記光パターンを白色で表示させ、前記所定の画像を白色とは異なる色で表示させてもよい。
 路面描画は、車外のドライバーや歩行者等への誤認識を防ぐため、白色での表示に限定される場合がある。そのような場合でも、上記構成によれば、所定の画像を白色とは異なる色で表示されるので、乗員が視認する際の視認性が更に向上する。
 上記目的を達成するために、本開示の一態様に係るヘッドアップディスプレイは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射する画像生成部と、
 前記画像生成部により出射された光がウインドシールドまたはコンバイナへ照射されるように前記光を反射させる反射部と、
 前記反射部の向きおよび前記画像生成部の少なくとも一方を揺動させるための駆動部と、
 前記画像生成部の動作を制御する制御部と、
を備え、
 前記制御部は、前記駆動部による前記反射部の向きおよび前記画像生成部の少なくとも一方の揺動に応じて前記画像生成部における光の出射位置を変更させる。
 上記構成によれば、車両外部から入射した太陽光等の外光が反射部により反射されて画像生成部に照射された場合であっても、反射部の向きおよび画像生成部の少なくとも一方が揺動されるため画像生成部における外光が照射される位置を変動させることができる。これにより、画像生成部に外光が局所的に照射され続けることを防ぐことができ、画像生成部における過度の温度上昇が抑制され、熱による画像生成部の劣化を抑制することができる。このように反射部または画像生成部を揺動させるという簡便な方法により、画像生成部の温度上昇の抑制を低コストで実現することができる。
 また、反射部の向きおよび画像生成部の少なくとも一方が揺動されても、その揺動に応じて画像生成部における光の出射位置が変更されるため、ウインドシールドまたはコンバイナに対する画像形成位置が所望の位置となるように制御され、車両の乗員に対して違和感を生じさせることが抑制される。
 すなわち、上記構成によれば、乗員に対して表示する画像生成の品質を低下させずに外光による熱害の発生を防止することができる。
 また、本開示のヘッドアップディスプレイにおいて、
 前記反射部は凹面鏡を含んでもよい。
 上記構成によれば、外光が凹面鏡により反射されて集光された状態で画像生成部に照射された場合であっても、熱による画像生成部の劣化を抑制することができる。
 また、本開示のヘッドアップディスプレイは、
 前記画像生成部の温度上昇を検出可能な熱センサをさらに備え、
 前記駆動部は、前記熱センサによる温度上昇の検出に応じて、前記反射部の向きおよび前記画像生成部の少なくとも一方を揺動させてもよい。
 上記構成によれば、外光が画像生成部に照射されて温度が上昇した状態となったときに反射部の向きおよび画像生成部の少なくとも一方が揺動される。すなわち、駆動部に不必要な動作を行わせることを防ぎ、駆動部の寿命を長くすることができる。また、駆動部の消費エネルギーを低減することができる。
 また、本開示のヘッドアップディスプレイは、
 前記反射部に入射される外光を検出可能な光センサをさらに備え、
 前記駆動部は、前記光センサによる外光の検出に応じて、前記反射部の向きおよび前記画像生成部の少なくとも一方を揺動させてもよい。
 上記構成によれば、外光が反射部により反射されて画像生成部に照射される状態となったときに反射部の向きおよび画像生成部の少なくとも一方が揺動される。すなわち、駆動部に不必要な動作を行わせることを防ぎ、駆動部の寿命を長くすることができる。また、駆動部の消費エネルギーを低減することができる。
 また、本開示のヘッドアップディスプレイは、
 前記画像生成部における前記光の出射位置は、前記反射部および前記画像生成部の少なくとも一方の移動前において前記画像生成部に入射する外光の集光領域と前記反射部および前記画像生成部の少なくとも一方の移動後における前記外光の集光領域とが重ならない位置に変更されてもよい。
 上記構成によれば、画像生成部の局所的な温度上昇を確実に防止することができる。
 また、上記目的を達成するために、本開示の一態様に係るヘッドアップディスプレイは、
 車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
 前記所定の画像を生成するための光を出射する画像生成部と、
 前記画像生成部により出射された光がウインドシールドまたはコンバイナへ照射されるように、前記光を反射させる反射部と、
 前記画像生成部から出射された前記光を透過して前記反射部へ入射させる光学部材と、
 前記光学部材を揺動させるための駆動部と、
 前記画像生成部の動作を制御する制御部と、を備え、
 前記制御部は、前記駆動部による前記光学部材の揺動に応じて前記画像生成部における光の出射位置を変更させる。
 上記構成によれば、乗員に対して表示する画像生成の品質を低下させずに外光による熱害の発生を防止することができる。
 本開示によれば、画像生成にかかる処理負荷を抑えつつ、乗員に与える違和感を軽減することが可能なヘッドアップディスプレイを提供することができる。
 本開示によれば、利便性が向上したヘッドアップディスプレイ及び車両用表示システムを提供することができる。
 本開示によれば、表示された光パターン及び画像を車両の乗員が認識しやすいヘッドアップディスプレイ、車両用表示システム及び車両用表示方法を提供することができる。
 本開示によれば、乗員に対して表示する画像生成の品質を低下させずに外光による熱害の発生を防止することが可能なヘッドアップディスプレイを提供することができる。
車両用表示システムを備えた車両用システムのブロック図である。 車両用表示システムに含まれる本実施形態に係るヘッドアップディスプレイ(HUD)の模式図である。 第一実施形態に係るHUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域の第一例を示す図である。 車両の乗員の視点から対象物までの距離と、閾値との関係を示す模式図である。 HUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域の第二例を示す図である。 HUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域の第三例を示す図である。 HUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域の第四例を示す図である。 HUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域の第四例を示す図である。 変形例に係るHUDの模式図である。 第二実施形態に係るHUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域の第一例を示す図である。 車両の乗員の視点から対象物までの距離と、閾値との関係を示す模式図である。 第三実施形態に係るHUDの制御を説明するためのフローチャートである。 第三実施形態に係るHUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域の例を示す図である。 第三実施形態に係るHUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域の例を示す図である。 第三実施形態に係るHUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域の別の例を示す図である。 第三実施形態に係るHUDにより、虚像オブジェクトが車両外部の現実空間と重畳されるように表示された状態の視野領域のさらに別の例を示す図である。 第四実施形態において、運転者から見た車両前方の一例を示す図である。 第四実施形態において、車両の前方の死角領域に照射された光パターンを車両の上方から視た模式図である。 図17の光パターンに対応する画像が表示されたウインドシールドの一例を示す図である。 その一部が車両の前方の死角領域に照射された光パターンを車両の上方から視た模式図である。 図19の光パターンに対応する画像が表示されたウインドシールドの一例を示す図である。 第五実施形態において、互いに対応する光パターンと虚像オブジェクトとが重複されて表示されたウインドシールドの一例を示す図である。 図21の光パターン及び虚像オブジェクトの例を示す図である。 ウインドシールドに表示される、互いに対応する光パターン及び虚像オブジェクトの他の例を示す図である。 ウインドシールドに表示される、互いに対応する光パターン及び虚像オブジェクトの他の例を示す図である。 ウインドシールドに表示される、互いに対応する光パターン及び虚像オブジェクトの他の例を示す図である。 第六実施形態に係るHUDのHUD本体部の構成を示す模式図である。 第六実施形態に係るHUD本体部に搭載された、反射部の向きの揺動と画像生成部における光の出射位置との関係を示す模式図である。 第六実施形態の変形例に係る画像生成部の揺動と光の出射位置との関係を示す模式図である。
 以下、本発明の実施形態(以下、本実施形態という。)について図面を参照しながら説明する。本図面に示された各部材の寸法は、説明の便宜上、実際の各部材の寸法とは異なる場合がある。
 また、本実施形態の説明では、説明の便宜上、「左右方向」、「上下方向」、「前後方向」について適宜言及する場合がある。これらの方向は、図2に示すHUD(Head-Up Display)42について設定された相対的な方向である。ここで、「左右方向」は、「左方向」及び「右方向」を含む方向である。「上下方向」は、「上方向」及び「下方向」を含む方向である。「前後方向」は、「前方向」及び「後方向」を含む方向である。左右方向は、図2では示されていないが、上下方向及び前後方向に直交する方向である。
 最初に、図1を参照して、本実施形態に係る車両システム2について以下に説明する。図1は、車両システム2のブロック図である。当該車両システム2が搭載された車両1は、自動運転モードで走行可能な車両(自動車)である。
 図1に示すように、車両システム2は、車両制御部3と、車両用表示システム4(以下、単に「表示システム4」という。)と、センサ5と、カメラ6と、レーダ7とを備える。さらに、車両システム2は、HMI(Human Machine Interface)8と、GPS(Global Positioning System)9と、無線通信部10と、記憶装置11と、ステアリングアクチュエータ12と、ステアリング装置13と、ブレーキアクチュエータ14と、ブレーキ装置15と、アクセルアクチュエータ16と、アクセル装置17とを備える。
 車両制御部3は、車両の走行を制御するように構成されている。車両制御部3は、例えば、少なくとも一つの電子制御ユニット(ECU:Electronic Control Unit)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC(System on a Chip)等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)及びTPU(Tensor Processing Unit)のうちの少なくとも一つを含む。CPUは、複数のCPUコアによって構成されてもよい。GPUは、複数のGPUコアによって構成されてもよい。メモリは、ROM(Read Only Memory)と、RAM(Random Access Memory)を含む。ROMには、車両制御プログラムが記憶されてもよい。例えば、車両制御プログラムは、自動運転用の人工知能(AI)プログラムを含んでもよい。AIプログラムは、多層のニューラルネットワークを用いた教師有り又は教師なし機械学習(特に、ディープラーニング)によって構築されたプログラム(学習済みモデル)である。RAMには、車両制御プログラム、車両制御データ及び/又は車両の周辺環境を示す周辺環境情報が一時的に記憶されてもよい。プロセッサは、ROMに記憶された各種車両制御プログラムから指定されたプログラムをRAM上に展開し、RAMとの協働で各種処理を実行するように構成されてもよい。また、コンピュータシステムは、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)等の非ノイマン型コンピュータによって構成されてもよい。さらに、コンピュータシステムは、ノイマン型コンピュータと非ノイマン型コンピュータの組み合わせによって構成されてもよい。
 表示システム4は、ヘッドランプ20と、路面描画装置45と、HUD42と、表示制御部43とを備える。
 ヘッドランプ20は、車両の前面における左側と右側に配置されており、ロービームを車両の前方に照射するように構成されたロービームランプと、ハイビームを車両1の前方に照射するように構成されたハイビームランプとを備える。ロービームランプとハイビームランプの各々は、LED(Light Emitting Diode)やLD(Laser Diode)等の1以上の発光素子と、レンズ及びリフレクタ等の光学部材を有する。
 路面描画装置45は、ヘッドランプ20の灯室内に配置されている。路面描画装置45は、車両の外部の路面に向けて光パターンを出射するように構成されている。路面描画装置45は、例えば、光源部と、駆動ミラーと、レンズやミラー等の光学系と、光源駆動回路と、ミラー駆動回路とを有する。光源部は、レーザ光源又はLED光源である。例えば、レーザ光源は、赤色レーザ光と、緑色レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。駆動ミラーは、例えば、MEMS(MicroElectro Mechanical Systems)ミラー、DMD(Digital Mirror Device)、ガルバノミラー、ポリゴンミラー等である。光源駆動回路は、光源部を駆動制御するように構成されている。光源駆動回路は、表示制御部43から送信された所定の光パターンに関連する信号に基づいて、光源部の動作を制御するための制御信号を生成した上で、当該生成された制御信号を光源部に送信するように構成されている。ミラー駆動回路は、駆動ミラーを駆動制御するように構成されている。ミラー駆動回路は、表示制御部43から送信された所定の光パターンに関連する信号に基づいて、駆動ミラーの動作を制御するための制御信号を生成した上で、当該生成された制御信号を駆動ミラーに送信するように構成されている。光源部がRGBレーザ光源である場合、路面描画装置45は、レーザ光を走査することで様々の色の光パターンを路面上に描画することが可能となる。例えば、光パターンは、車両の進行方向を示す矢印形状の光パターンであってもよい。
 また、路面描画装置45の描画方式は、ラスタースキャン方式、DLP(Digital Light Processing)方式又はLCOS(Liquid Crystal on Silicon)方式であってもよい。DLP方式又はLCOS方式が採用される場合、光源部はLED光源であってもよい。また、路面描画装置の描画方式として、プロジェクション方式が採用されてもよい。プロジェクション方式が採用される場合、光源部は、マトリクス状に並んだ複数のLED光源であってもよい。路面描画装置45は、左右のヘッドランプの灯室内にそれぞれ配置されてもよいし、車体ルーフ上、バンパーまたはグリル部に配置されてもよい。
 HUD42は、少なくとも一部が車両の内部に位置する。具体的には、HUD42は、車両の室内の所定箇所に設置されている。例えば、HUD42は、車両のダッシュボード内に配置されてもよい。HUD42は、車両と乗員との間の視覚的インターフェースとして機能する。HUD42は、所定の情報(以下、HUD情報という。)が車両の外部の現実空間(特に、車両の前方の周辺環境)と重畳されるように当該HUD情報を乗員に向けて表示するように構成されている。このように、HUD42は、AR(Augmented Reality)ディスプレイとして機能する。HUD42によって表示されるHUD情報は、例えば、車両の走行に関連した車両走行情報及び/又は車両の周辺環境に関連した周辺環境情報(特に、車両の外部に存在する対象物に関連した情報)である。
 図2に示すように、HUD42は、HUD本体部420を備えている。HUD本体部420は、ハウジング422と出射窓423を有する。出射窓423は可視光を透過させる透明板である。HUD本体部420は、ハウジング422の内側に、画像生成部(PGU:Picture Generation Unit)424と、HUD制御部(制御部の一例)425と、レンズ426と、スクリーン427と、凹面鏡(反射部の一例)428とを有する。
 画像生成部424は、光源と、光学部品と、表示デバイスとを有する。光源は、例えば、レーザ光源又はLED光源である。レーザ光源は、例えば、赤色レーザ光と、緑色レーザ光と、青色レーザ光をそれぞれ出射するように構成されたRGBレーザ光源である。光学部品は、プリズム、レンズ、拡散板、拡大鏡等を適宜有する。表示デバイスは、液晶ディスプレイ、DMD(Digital Mirror Device)等である。画像生成部424の描画方式は、ラスタースキャン方式、DLP方式又はLCOS方式であってもよい。DLP方式又はLCOS方式が採用される場合、HUD42の光源はLED光源であってもよい。なお、液晶ディスプレイ方式が採用される場合、HUD42の光源は白色LED光源であってもよい。
 HUD制御部425は、画像生成部424、レンズ426、スクリーン427の動作を制御するように構成されている。HUD制御部425は、CPU(Central Processing Unit)等のプロセッサとメモリが搭載され、メモリから読みだしたコンピュータプログラムをプロセッサが実行して、画像生成部424、レンズ426、スクリーン427の動作を制御する。HUD制御部425は、表示制御部43から送信された画像データに基づいて、画像生成部424の動作を制御するための制御信号を生成した上で、当該生成された制御信号を画像生成部424に送信するように構成されている。また、HUD制御部425は、表示制御部43から送信された画像データに基づいて、レンズ426、スクリーン427の位置を調整するための各制御信号を生成した上で、当該生成された制御信号をそれぞれレンズ426、スクリーン427に送信するように構成されている。また、HUD制御部425は、凹面鏡428の向きを変更するように制御してもよい。
 レンズ426は、画像生成部424から出射された光の光路上に配置されている。レンズ426は、例えば凸レンズを含み、画像生成部424により生成された画像を所望の大きさでスクリーン427に投影するように構成されている。また、レンズ426は、駆動部を含み、HUD制御部425により生成された制御信号により短時間の応答速度で平行移動して画像生成部424との距離を変更できるように構成されている。
 スクリーン427は、画像生成部424から出射された光の光路上に配置されている。画像生成部424から出射された光がレンズ426を透過してスクリーン427上に投影される。また、スクリーン427は、駆動部を含み、HUD制御部425により生成された制御信号により短時間の応答速度で平行移動して画像生成部424及びレンズ426との距離を変更できるように構成されている。
 なお、画像生成部424が、レンズ426とスクリーン427とを内包していてもよい。また、レンズ426およびスクリーン427が設けられていなくてもよい。
 凹面鏡428は、画像生成部424から出射された光の光路上に配置されている。凹面鏡428は、画像生成部424により出射されてレンズ426及びスクリーン427を透過した光をウインドシールド18に向けて反射する。凹面鏡428は、虚像を形成するために凹状に湾曲した反射面を有し、スクリーン427上に結像した光の像を所定の倍率で反射させる。
 HUD本体部420から出射された光は、ウインドシールド18(例えば、車両1のフロントウィンドウ)に照射される。次に、HUD本体部420からウインドシールド18に照射された光の一部は、乗員の視点Eに向けて反射される。この結果、乗員は、HUD本体部420から出射された光(所定の画像)をウインドシールド18の前方の所定の距離において形成された虚像として認識する。このように、HUD42によって表示される画像がウインドシールド18を通して車両1の前方の現実空間に重畳される結果、乗員は、所定の画像により形成される虚像オブジェクトIが車両外部に位置する道路上に浮いているように視認することができる。
 また、虚像オブジェクトIの距離(乗員の視点Eから虚像までの距離)は、レンズ426及びスクリーン427の位置を調整することによって適宜調整可能である。虚像オブジェクトIとして2D画像(平面画像)を形成する場合には、所定の画像を任意に定めた単一距離の虚像となるように投影する。虚像オブジェクトIとして3D画像(立体画像)を形成する場合には、互いに同一または互いに異なる複数の所定の画像をそれぞれ異なる距離の虚像となるように投影する。
 表示制御部43は、路面描画装置45、ヘッドランプ20及びHUD42の動作を制御するように構成されている。表示制御部43は、電子制御ユニット(ECU)により構成されている。電子制御ユニットは、1以上のプロセッサと1以上のメモリを含むコンピュータシステム(例えば、SoC等)と、トランジスタ等のアクティブ素子及びパッシブ素子から構成される電子回路を含む。プロセッサは、CPU、MPU、GPU及びTPUのうちの少なくとも一つを含む。メモリは、ROMと、RAMを含む。また、コンピュータシステムは、ASICやFPGA等の非ノイマン型コンピュータによって構成されてもよい。
 本実施形態では、車両制御部3と表示制御部43は、別個の構成として設けられているが、車両制御部3と表示制御部43は一体的に構成されてもよい。この点において、表示制御部43と車両制御部3は、単一の電子制御ユニットにより構成されていてもよい。また、表示制御部43は、ヘッドランプ20と路面描画装置45の動作を制御するように構成された電子制御ユニットと、HUD42の動作を制御するように構成された電子制御ユニットの2つの電子制御ユニットによって構成されてもよい。また、HUD42の動作を制御するHUD制御部425が表示制御部43の一部として構成されていてもよい。
 センサ5は、加速度センサ、速度センサ及びジャイロセンサのうち少なくとも一つを含む。センサ5は、車両の走行状態を検出して、走行状態情報を車両制御部3に出力するように構成されている。センサ5は、運転者が運転席に座っているかどうかを検出する着座センサ、運転者の顔の方向を検出する顔向きセンサ、外部天候状態を検出する外部天候センサ及び車内に人がいるかどうかを検出する人感センサ等をさらに備えてもよい。
 カメラ6は、例えば、CCD(Charge-Coupled Device)やCMOS(相補型MOS)等の撮像素子を含むカメラである。カメラ6は、一以上の外部カメラ6Aと、内部カメラ6Bとを含む。外部カメラ6Aは、車両の周辺環境を示す画像データを取得した上で、当該画像データを車両制御部3に送信するように構成されている。車両制御部3は、送信された画像データに基づいて、周辺環境情報を取得する。ここで、周辺環境情報は、車両の外部に存在する対象物(歩行者、他車両、標識等)に関する情報を含んでもよい。例えば、周辺環境情報は、車両の外部に存在する対象物の属性に関する情報と、車両に対する対象物の距離や位置に関する情報とを含んでもよい。外部カメラ6Aは、単眼カメラとしても構成されてもよいし、ステレオカメラとして構成されてもよい。
 内部カメラ6Bは、車両の内部に配置されると共に、乗員を示す画像データを取得するように構成されている。内部カメラ6Bは、乗員の視点Eをトラッキングするトラッキングカメラとして機能する。ここで、乗員の視点Eは、乗員の左目の視点又は右目の視点のいずれかであってもよい。または、視点Eは、左目の視点と右目の視点を結んだ線分の中点として規定されてもよい。表示制御部43は、内部カメラ6Bによって取得された画像データに基づいて、乗員の視点Eの位置を特定してもよい。乗員の視点Eの位置は、画像データに基づいて、所定の周期で更新されてもよいし、車両の起動時に一回だけ決定されてもよい。
 レーダ7は、ミリ波レーダ、マイクロ波レーダ及びレーザーレーダ(例えば、LiDARユニット)のうちの少なくとも一つを含む。例えば、LiDARユニットは、車両の周辺環境を検出するように構成されている。特に、LiDARユニットは、車両の周辺環境を示す3Dマッピングデータ(点群データ)を取得した上で、当該3Dマッピングデータを車両制御部3に送信するように構成されている。車両制御部3は、送信された3Dマッピングデータに基づいて、周辺環境情報を特定する。
 HMI8は、運転者からの入力操作を受付ける入力部と、走行情報等を運転者に向けて出力する出力部とから構成される。入力部は、ステアリングホイール、アクセルペダル、ブレーキペダル、車両の運転モードを切替える運転モード切替スイッチ等を含む。出力部は、各種走行情報を表示するディスプレイ(HUDを除く)である。GPS9は、車両の現在位置情報を取得し、当該取得された現在位置情報を車両制御部3に出力するように構成されている。
 無線通信部10は、車両の周囲にいる他車に関する情報(例えば、走行情報等)を他車から受信すると共に、車両に関する情報(例えば、走行情報等)を他車に送信するように構成されている(車車間通信)。また、無線通信部10は、信号機や標識灯等のインフラ設備からインフラ情報を受信すると共に、車両1の走行情報をインフラ設備に送信するように構成されている(路車間通信)。また、無線通信部10は、歩行者が携帯する携帯型電子機器(スマートフォン、タブレット、ウェアラブルデバイス等)から歩行者に関する情報を受信すると共に、車両の自車走行情報を携帯型電子機器に送信するように構成されている(歩車間通信)。車両は、他車両、インフラ設備又は携帯型電子機器とアドホックモードにより直接通信してもよいし、アクセスポイントを介して通信してもよい。さらに、車両は、図示しない通信ネットワークを介して他車両、インフラ設備又は携帯型電子機器と通信してもよい。通信ネットワークは、インターネット、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)及び無線アクセスネットワーク(RAN)のうちの少なくとも一つを含む。無線通信規格は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)、LPWA、DSRC(登録商標)又はLi-Fiである。また、車両1は、他車両、インフラ設備又は携帯型電子機器と第5世代移動通信システム(5G)を用いて通信してもよい。
 記憶装置11は、ハードディスクドライブ(HDD)やSSD(Solid State Drive)等の外部記憶装置である。記憶装置11には、2次元又は3次元の地図情報及び/又は車両制御プログラムが記憶されてもよい。例えば、3次元の地図情報は、3Dマッピングデータ(点群データ)によって構成されてもよい。記憶装置11は、車両制御部3からの要求に応じて、地図情報や車両制御プログラムを車両制御部3に出力するように構成されている。地図情報や車両制御プログラムは、無線通信部10と通信ネットワークを介して更新されてもよい。
 車両が自動運転モードで走行する場合、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号のうち少なくとも一つを自動的に生成する。ステアリングアクチュエータ12は、ステアリング制御信号を車両制御部3から受信して、受信したステアリング制御信号に基づいてステアリング装置13を制御するように構成されている。ブレーキアクチュエータ14は、ブレーキ制御信号を車両制御部3から受信して、受信したブレーキ制御信号に基づいてブレーキ装置15を制御するように構成されている。アクセルアクチュエータ16は、アクセル制御信号を車両制御部3から受信して、受信したアクセル制御信号に基づいてアクセル装置17を制御するように構成されている。このように、車両制御部3は、走行状態情報、周辺環境情報、現在位置情報、地図情報等に基づいて、車両の走行を自動的に制御する。つまり、自動運転モードでは、車両の走行は車両システム2により自動制御される。
 一方、車両1が手動運転モードで走行する場合、車両制御部3は、アクセルペダル、ブレーキペダル及びステアリングホイールに対する運転者の手動操作に従って、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号を生成する。このように、手動運転モードでは、ステアリング制御信号、アクセル制御信号及びブレーキ制御信号が運転者の手動操作によって生成されるので、車両の走行は運転者により制御される。
 次に、車両の運転モードについて説明する。運転モードは、自動運転モードと手動運転モードとからなる。自動運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードとからなる。完全自動運転モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両を運転できる状態にはない。高度運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御の全ての走行制御を自動的に行うと共に、運転者は車両を運転できる状態にはあるものの車両1を運転しない。運転支援モードでは、車両システム2がステアリング制御、ブレーキ制御及びアクセル制御のうち一部の走行制御を自動的に行うと共に、車両システム2の運転支援の下で運転者が車両を運転する。一方、手動運転モードでは、車両システム2が走行制御を自動的に行わないと共に、車両システム2の運転支援なしに運転者が車両を運転する。
(第一実施形態)
 次に、図3~図7を参照して、第一実施形態に係るHUD42を用いた虚像オブジェクトの生成に関する制御の例を説明する。
(第一例)
 図3は、第一実施形態の第一例において、HUD42により、乗員の視野領域Vに虚像オブジェクトが投影された状態を示す図である。図4は、視点Eから対象物までの距離と、閾値との関係を示す模式図である。
 図3に示す例では、乗員の視野領域V内には、車両1が走行する走行車線(自車線)R1を走行している前走車C1と、対向車線R2を走行している対向車C2とが存在している。また、走行車線R1の左側の歩道R3上には、歩行者P1,P2が存在している。
 このような状況において、HUD42のHUD制御部425は、対象物である歩行者P1,P2の存在を車両1の乗員に注意喚起するため、歩行者P1,P2の位置に関連付けて虚像オブジェクトを視野領域V内に表示するための画像を生成するように画像生成部424を制御する。まず、HUD制御部425は、視野領域Vにおける各歩行者P1,P2の位置情報を取得する。各歩行者P1,P2の位置情報には、車両1の乗員の視点E(図2参照)から対象物である各歩行者P1,P2までの距離の情報が含まれる。各歩行者P1,P2の位置や距離は、例えば、レーダ7や外部カメラ6Aにより取得された車両の周辺環境を示すデータから算出される。なお、レーダ7が車両1のヘッドランプ20の内部に搭載されている場合など、レーダ7や外部カメラ6Aと視点Eとの距離が離れている場合には、レーダ7等から対象物までの距離に、レーダ7等から視点Eまでの距離を加算して、視点Eから対象物までの距離を算出し得る。
 次に、HUD制御部425は、視点Eから対象物までの距離が所定の閾値以下であるか否かを判断する。例えば、図4に示すように、視点Eから歩行者P1までの距離L1および視点Eから歩行者P2までの距離L2が、視点Eから所定の閾値Pまでの距離(閾値距離)L以下であるか否かを判断する。本例では、視点Eから歩行者P1までの距離L1は、閾値距離L以下であり、視点Eから歩行者P2までの距離L2は閾値距離Lよりも大きいものとする。
 対象物の距離判定の結果、HUD制御部425は、視点Eからの距離が閾値以下である対象物に対しては虚像オブジェクトを立体画像で生成し、視点Eからの距離が閾値よりも大きい対象物に対しては虚像オブジェクトを平面画像で生成するよう制御する。具体的には、図3に示すように、HUD制御部425は、視点Eからの距離が閾値距離L以下である歩行者P1の頭上には、立体画像としての虚像オブジェクト3I(以下、立体虚像オブジェクト3Iとする)を投影するように、レンズ426及びスクリーン427の位置を調整する。一方で、HUD制御部425は、視点Eからの距離が閾値距離Lよりも大きい歩行者P2の頭上には、平面画像としての虚像オブジェクト2I(以下、平面虚像オブジェクト2Iとする)を表示するように、レンズ426及びスクリーン427の位置を調整する。なお、レンズ426及びスクリーン427の位置を調整することで、平面虚像オブジェクト2Iと立体虚像オブジェクト3Iとを切り替えるのではなく、画像生成部424から出射される出射光を調整することで、平面虚像オブジェクト2Iと立体虚像オブジェクト3Iとを切り替えてもよい。
 ところで、車両1の周辺に存在する対象物に関連付けて平面虚像オブジェクト2Iを表示した場合、3次元物体である対象物に対して2次元オブジェクトである平面虚像オブジェクトが表示されるため、乗員に違和感を与えてしまう可能性がある。一方で、乗員の視野領域V内に投影されるすべての虚像オブジェクトを3次元オブジェクト(立体虚像オブジェクト)として画像生成しようとすると、高い処理負荷がかかり現実的ではない。
 そこで、本実施形態に係るHUD42によれば、HUD制御部425は、虚像オブジェクトの表示態様を、所定の条件に応じて、平面画像と立体画像とのいずれかにするかを選択するように画像生成部を制御する。なお、ここでの「画像生成部」には、画像生成部424、レンズ426及びスクリーン427の少なくとも一つが含まれる。このように、本実施形態では、所定の条件に応じて、視野領域V内に表示される虚像オブジェクトを、平面虚像オブジェクト2Iと立体虚像オブジェクト3Iとで切り替えることができる。これにより、虚像オブジェクトの画像を生成する際の処理負荷を抑えつつ、乗員に与える違和感を軽減することができる。
 特に、第一例においては、視点Eから虚像オブジェクトまでの距離を平面虚像オブジェクト2Iと立体虚像オブジェクト3Iとを切り替えるための条件としている。そして、HUD制御部425は、視点Eから虚像オブジェクトまでの距離(視点Eから対象物のまでの距離に相当)が閾値以下であるときに立体虚像オブジェクト3Iを投影し、当該距離が閾値よりも大きいときに平面虚像オブジェクト2Iを表示するように、画像生成部を制御する。これにより、虚像オブジェクトの投影距離に応じて、平面虚像オブジェクト2Iと立体虚像オブジェクト3Iとを適切に切り替えることができる。
(第二例)
 図5は、第一実施形態の第二例において、HUD42により、乗員の視野領域Vに虚像オブジェクトが投影された状態を示す図である。
 図5に示す例では、乗員の視野領域V内において、車両1が走行する走行車線R1上には障害物M1が存在し、対向車線R2上には障害物M2が存在している。また、走行車線R1の左側の歩道R3上には歩行者P3が存在し、対向車線R2上には歩行者P4が存在している。
 このような状況において、HUD制御部425は、視点Eから対象物までの距離に関わらず、各対象物の属性に応じて、虚像オブジェクトの表示態様を切り替えるようにしてもよい。各対象物の属性とは、例えば、各対象物の重要度である。対象物の重要度とは、例えば、車両1の乗員に対して危険を注意喚起するための緊急性の高低である。本例では、走行車線R1上に存在する障害物R1は、他車線R2上に存在する障害物R2よりも視点Eからの距離が離れており、走行車線R1上の障害物M1は重要度(緊急度)が高く、他車線R2上の障害物M2は重要度(緊急度)が低いものとする。この場合、図5に示すように、HUD制御部425は、視点Eから各障害物M1,M2までの距離に関わらず、重要度の高い障害物M1の上部には立体虚像オブジェクト3Iを表示させ、重要度の低い障害物M2の上部には平面虚像オブジェクト2Iを表示させる。
 また、本例では、視野領域V内に、複数の歩行者P3,P4が存在しており、歩道R3上の歩行者P3は、他車線R2上の歩行者P4よりも、車両1の近くにいる。そして、他車線R2上の歩行者P4は、他車線R2から走行車線R1へと入ろうとしているものとする。この場合、HUD制御部425は、視点Eからの距離が近い歩道R3上の歩行者P3よりも視点Eからの距離が遠い他車線R2上の歩行者P4の方が、重要度(緊急度)が高いと判断する。したがって、図5に示すように、HUD制御部425は、視点Eから各歩行者P3,P4までの距離に関わらず、重要度が高い歩行者P4の頭上には立体虚像オブジェクト3Iを表示させ、重要度の低い歩行者P3の頭上には平面虚像オブジェクト2Iを表示させる。
 以上説明したように、第二例においては、各対象物の属性(例えば、重要度)を、平面虚像オブジェクト2Iと立体虚像オブジェクト3Iとを切り替えるための条件としている。そして、HUD制御部425は、重要度が高い対象物に対しては立体虚像オブジェクト3Iを表示し、重要度が低い対象物に対しては平面虚像オブジェクト2Iを表示するように、画像生成部を制御する。このように、対象物の重要度が高い場合、例えば、乗員にとって緊急度が高い対象物である場合には、当該対象物に関連付けて立体虚像オブジェクト3Iを表示することで、対象物を乗員に視認させやすくなる。また、対象物の重要度が低い場合には、当該対象物に関連付けて平面虚像オブジェクト2Iを表示することで、オブジェクトの画像生成にかかる処理負荷を軽減することができる。
(第三例)
 図6は、第一実施形態の第三例において、HUD42により、乗員の視野領域Vに虚像オブジェクトが表示された状態を示す図である。
 図6に示す例では、乗員の視野領域Vを、例えば、中心エリアE1と、中心エリアE1以外の周辺エリアE2の2つのエリアに区画している。
 このような状況において、HUD制御部425は、視野領域Vの区画エリアE1,E2に応じて、虚像オブジェクトの表示態様を切り替えるようにしてもよい。すなわち、図6に示すように、中心エリアE1内に表示されるオブジェクトは立体虚像オブジェクト3Iとなり、周辺エリアE2内に表示されるオブジェクトは平面虚像オブジェクト2Iとなる。
 このように、第三例では、視野領域Vにおける虚像オブジェクトが配置されるエリアを平面虚像オブジェクト2Iと立体虚像オブジェクト3Iとを切り替えるための条件としている。これにより、視野領域Vにおける虚像オブジェクトの配置エリアに応じて、平面虚像オブジェクト2Iと立体虚像オブジェクト3Iとを適切に切り替えることができる。そのため、第三例の構成によっても、第一例と同様に、処理負荷を抑えつつ、乗員に与える違和感を軽減することができる。
(第四例)
 図7A、図7Bは、第一実施形態の第四例において、HUD42により、乗員の視野領域Vに虚像オブジェクトが表示された状態を示す図である。
 図7Aに示す例では、車両1が一般道を走行している状態を示している。そして、乗員の視野領域V内において、複数の歩行者P5,P6が存在している。一方、図7Bに示す例では、車両1が高速道路(有料道路)を走行している状態を示している。
 このような状況において、HUD制御部425は、車両1の走行シーンに応じて、虚像オブジェクトの表示態様を切り替えるようにしてもよい。すなわち、図7Aに示すように、車両1が一般道を走行している場合には、HUD制御部425は、立体虚像オブジェクト3Iを表示するように画像生成部を制御する。具体的には、HUD制御部425は、一般道の走行車線R1上に車両1の進行方向を示す矢印オブジェクトを立体虚像オブジェクト3Iとして表示させるとともに、各歩行者P5,P6の頭上に注意喚起のためのオブジェクト(例えば、ビックリマーク型のオブジェクト)を立体虚像オブジェクト3Iとして表示させる。
 一方、図7Bに示すように、車両1が高速道路を走行している場合には、HUD制御部425は、平面虚像オブジェクトを表示するように画像生成部を制御する。具体的には、HUD制御部425は、高速道路の走行車線R1上に車両1の進行方向を示す矢印オブジェクトを平面虚像オブジェクト2Iとして表示させる。
 以上説明したように、第四例においては、車両1の走行シーンを、平面虚像オブジェクト2Iと立体虚像オブジェクト3Iとを切り替えるための条件としている。これにより、車両1の走行シーンに応じて、平面虚像オブジェクト2Iと立体虚像オブジェクト画像3Iとを適切に切り替えることができる。例えば、車両1が一般道(市街地)を走行している場合には、乗員に注意喚起をすべき対象物(歩行者など)が存在するため、立体画像オブジェクト3Iを表示することが好ましい。一方、車両1が高速道路を走行している場合には、歩行者等は存在しないため、平面虚像オブジェクト2Iを表示させれば十分な場合が多い。このように、第四例の構成によっても、第一例と同様に、処理負荷を抑えつつ、乗員に与える違和感を軽減することができる。
 なお、車両1の走行シーン(一般道であるか高速道路であるか)は、車両1の走行速度に応じて判別してもよく、GPS9で取得される車両の現在位置情報や、無線通信部10で取得される情報(ETC情報やVICS(登録商標)情報)等に基づいて判別してもよい。
 図8は、変形例に係るHUD142の構成を示す模式図である。
 図8に示すように、変形例に係るHUD142は、HUD本体部420と、コンバイナ143とによって構成されている。コンバイナ143は、ウインドシールド18とは別体の構造物として、ウインドシールド18の内側に設けられている。コンバイナ143は、例えば、透明なプラスチックディスクであって、ウインドシールド18の代わりに凹面鏡428により反射された光が照射される。これにより、ウインドシールド18に光を照射した場合と同様に、HUD本体部420からコンバイナ143に照射された光の一部は、乗員の視点Eに向けて反射される。この結果、乗員は、HUD本体部420からの出射光(所定の画像)をコンバイナ143(およびウインドシールド18)の前方の所定の距離において形成された虚像として認識することができる。
 このようなコンバイナ143を備えたHUD142の場合も、虚像オブジェクトの表示態様を、所定の条件に応じて、平面画像と立体画像とのいずれかにするかを選択するようにすることで、虚像オブジェクトの画像を生成する際の処理負荷を抑えつつ、乗員に与える違和感を軽減することができる。
(第二実施形態)
 次に、図9および図10を参照して、第二実施形態に係るHUD42を用いた虚像オブジェクトの生成に関する制御の例を説明する。
 図9は、第二実施形態の第一例において、HUD42により、乗員の視野領域Vに虚像オブジェクトが投影された状態を示す模式図である。図10は、視点Eから対象物までの距離と、閾値との関係を示す模式図である。
 図9に示す例では、乗員の視野領域V内には、車両1が走行する走行車線(自車線)R1を走行している前走車C11および前走車C11の前方を走行している前走車C12と、対向車線R2を走行している対向車C13および対向車C13の後方(車両1から見て前方)を走行している対向車C14とが存在している。
 このような状況において、HUD42のHUD制御部425は、対象物である前走車C11,C12および対向車C13,C14の存在を車両1の乗員に注意喚起するため、各車両C11~C14の位置に関連付けて虚像オブジェクトを投影するための画像を生成するように画像生成部424を制御する。このとき、まず、HUD制御部425は、視野領域Vにおける各車両C11~C14の位置情報を取得する。各車両C11~C14の位置情報には、車両1の乗員の視点E(図2参照)から対象物である各車両C11~C14までの距離(第一距離の一例)の情報が含まれる。すなわち、図10に示すように、HUD制御部425は、視点Eから前走車C11までの距離L11、視点Eから前走車C12までの距離L12、視点Eから対向車C13までの距離L13、および視点Eから対向車C14までの距離L14をそれぞれ取得する。各車両C11~C14の位置や距離は、例えば、レーダ7や外部カメラ6Aにより取得された車両の周辺環境を示すデータから算出される。なお、レーダ7が車両1のヘッドランプ20の内部に搭載されている場合など、レーダ7や外部カメラ6Aと視点Eとの距離が離れている場合には、レーダ7等から対象物までの距離に、レーダ7等と視点Eとの距離を加算して、視点Eから対象物までの距離を算出し得る。
 次に、HUD制御部425は、視点Eから対象物までの距離が所定の閾値以下であるか否かを判断する。例えば、図10に示すように、HUD制御部425は、前走車C11の距離L11、前走車C12の距離L12、対向車C13の距離L13、および対向車C14の距離L14のそれぞれが、視点Eから所定の位置Pでの距離L(所定の閾値の一例)以下であるか否かを判断する。本例では、前走車C11の距離L11および対向車C13の距離L13は、閾値距離L以下であり、前走車C12の距離L12および対向車C14の距離L14は閾値距離Lよりも大きいものとする。
 対象物の距離判定の結果、HUD制御部425は、視点Eからの距離が閾値以下である対象物に対しては、当該対象物の距離に対応する位置に虚像オブジェクトの位置を設定するように、画像生成部424を制御する。すなわち、HUD制御部425は、対象物の距離に対応して視点Eから虚像オブジェクトまでの距離(第二距離の一例)を設定する。例えば、前走車C11の距離L11は閾値距離L以下であるため、HUD制御部425は、前走車C11の距離L11に対応する位置に虚像オブジェクトI1の位置P11を設定する。また、対向車C13の距離L13も閾値距離L以下であるため、HUD制御部425は、対向車C13の距離L13に対応する位置に虚像オブジェクトI3の位置P13を設定する。
 一方、HUD制御部425は、視点Eからの距離が閾値よりも大きい対象物に対しては、虚像オブジェクトを配置する位置を一定とするように、画像生成部424を制御する。例えば、前走車C12の距離L12は閾値距離Lよりも大きいため、HUD制御部425は、前走車C12の位置に関わらずに設定される位置Paを虚像オブジェクトが表示される位置と設定する。また、対向車C14の距離L14も閾値距離Lよりも大きいため、対向車C14の位置に関わらずに設定される位置Paを虚像オブジェクトが表示される位置と設定する。すなわち、視点Eからの距離が所定の閾値よりも大きい対象物の場合には、当該対象物に関連する虚像オブジェクトは予め決められた固有の位置Pa(視点Eから距離Laの位置)に表示される。
 ところで、車両1の周辺に存在する各対象物(例えば、車両C11~C14)に関連付けて虚像オブジェクトを表示する場合、車両1の乗員の違和感を軽減するため、対象物の距離に応じて各虚像オブジェクトの距離を変更することが望ましい。ただし、すべての対象物の距離に応じて各虚像オブジェクトの距離を可変とすると、高い処理負荷がかかってしまう。
 そこで、第二実施形態に係るHUD42によれば、HUD制御部425は、対象物に基づいて、虚像オブジェクトの表示態様を変更する際に、視点Eから対象物までの距離が所定の閾値以下である場合には、視点Eから虚像オブジェクトまでの距離を対象物の距離に対応して変更し、視点Eから対象物までの距離が所定の閾値よりも大きい場合には、虚像オブジェクトの距離を一定とするように、画像生成部424を制御する。これにより、視点Eに近い距離の虚像オブジェクトは対象物の距離に対応して変更されるため、乗員に与える違和感を防止することができる。一方、視点Eから遠い距離の虚像オブジェクトはその配置が一定であるため、虚像オブジェクトの画像を生成する際の処理負荷を抑えることができる。なお、人間の目は、物体が遠くにあるほど正確な距離感を把握しにくくなるため、視点Eから遠い距離にある虚像オブジェクトについてその位置を一定としても、乗員に与える違和感は大きくない。
 また、第二実施形態においては、視点Eから対象物までの距離が閾値よりも大きい場合には、視点Eから虚像オブジェクトまでの固定距離Laは閾値の距離L以上となるように設定される。視点Eから遠い距離にある対象物に対して表示される虚像オブジェクトが、視点Eから近い距離にある対象物に対して表示される虚像オブジェクトよりも近くに投影されると、乗員に違和感を与えてしまう。そこで、本実施形態においては、固定距離Laを閾値の距離L以上となるように設定することで、乗員に与える違和感を軽減することができる。
 なお、閾値P(閾値距離L)は、所定の条件に応じて、変更可能であってもよい。例えば、車両1の周囲の照度が大きくなるにつれて閾値P(閾値距離L)を大きくしてもよい。車両1の周辺が明るい場合には、乗員は遠くまでクリアに視認することができるため、照度が大きくなるにつれて閾値を大きくして、乗員に与える違和感をできるだけ軽減することが好ましい。このように、本実施形態では、違和感の軽減と処理負荷の抑制とのバランスを考慮しつつ、適切な閾値を決定することができる。
 また、車両1の走行速度が大きくなるにつれて閾値P(閾値距離L)を大きくしてもよい。車両1の車速が大きい場合には、遠距離にある対象物や虚像オブジェクトについても乗員に正確に把握させることが必要となるため、車速が大きくなるにつれて閾値を大きくすることが好ましい。この場合も、違和感の軽減と処理負荷の抑制とのバランスを考慮しつつ、適切な閾値を決定することができる。
 また、第二実施形態において、視点Eから対象物までの距離が閾値よりも大きい場合には、当該距離に応じて、表示される虚像オブジェクトの大きさを変更してもよい。例えば、視点Eから前走車C12までの距離L12は、視点Eから対向車C14までの距離L14よりも短い。そこで、HUD制御部425は、図9に示すように、前走車C12に対応する虚像オブジェクトI2を、虚像オブジェクトI2と同一の距離で表示される対向車C14に対応する虚像オブジェクトI4よりも大きく表示するように、画像生成部424を制御する。これにより、乗員は、虚像オブジェクトI2が、あたかも虚像オブジェクトI4よりも手前に配置されているかのように錯覚し得る。すなわち、距離が一定とされる虚像オブジェクトI2,I4の大きさを可変とすることで、視点Eから遠い距離にある虚像オブジェクトについても遠近感のある表示が疑似的に可能となる。
 図8に示すようなコンバイナ143を備えたHUD142の場合も、HUD制御部425は、視点Eから対象物までの距離が所定の閾値以下である場合には、視点Eから虚像オブジェクトまでの距離を対象物の距離に対応して変更し、視点Eから対象物までの距離が所定の閾値よりも大きい場合には、虚像オブジェクトの距離を一定とする。これにより、処理負荷を抑えつつ、乗員に与える違和感を防止することができる。
(第三実施形態)
 次に、図11~図13を参照して、第三実施形態に係るHUD42を用いた虚像オブジェクトの生成に関する制御を説明する。
 図11は、第三実施形態に係るHUD42の制御を説明するためのフローチャートである。図12および図13は、HUD42により、虚像オブジェクトI1~I3が車両1の外部の現実空間と重畳されるように表示された状態での乗員の視野領域Vの一例を示す図である。なお、図12および図13に示す視野領域V内には、車両1の一部(ボンネットなど)が含まれている。
 図11に示すように、まず、HUD42のHUD制御部425は、表示制御部43または車両制御部3から、車両1の前方の所定位置に虚像オブジェクトを表示するためのオブジェクト表示信号を受信する(ステップS1)。オブジェクト表示信号には、車両前方に表示される各虚像オブジェクトの表示態様(形状や色など)とともに、各虚像オブジェクトの位置情報が含まれている。位置情報には、車両1の周辺の上下左右方向における虚像オブジェクトの表示位置とともに、車両1の前後方向における虚像オブジェクトの表示位置が含まれている。前後方向における虚像オブジェクトの表示位置は、例えば、車両1の乗員の視点E(図2参照)から虚像オブジェクトまでの距離により特定される。虚像オブジェクトは、例えば、車両1の前方において、視点Eから5m~10m離れた位置に表示され得る。本例では、虚像オブジェクトとして、図12等に示すように、例えば、車両1が走行中の道路の法定速度の情報を示す法定速度オブジェクトI1、現在の車両1の走行速度の情報を示す車速オブジェクトI2、および車両1の進行方向を示す方向指示オブジェクトI3が車両1の前方に表示され得る。HUD制御部425は、表示制御部43または車両制御部3から、各虚像オブジェクトI1~I3の位置情報(視点Eから各虚像オブジェクトまでの距離を含む)を取得する。
 次に、HUD制御部425は、表示制御部43または車両制御部3から、車両1の周辺に存在する車や歩行者などの物体(以下、対象物とする)の位置情報を受信する(ステップS2)。対象物の位置情報には、車両1の周辺の上下左右方向における対象物の位置とともに、車両1の前後方向における対象物の位置が含まれている。前後方向における対象物の位置は、例えば、車両1の乗員の視点Eから対象物までの距離により特定される。対象物の位置や距離は、例えば、レーダ7や外部カメラ6Aにより取得された車両の周辺環境を示すデータから算出される。なお、レーダ7が車両1のヘッドランプ20の内部に搭載されている場合など、レーダ7や外部カメラ6Aと視点Eとの距離が離れている場合には、レーダ7等から対象物までの距離に、レーダ7等から視点Eまでの距離を加算して、視点Eから対象物までの距離を算出し得る。本例では、図12等に示すように、対象物として前走車Cが車両1の前方に存在しているものとする。HUD制御部425は、表示制御部43または車両制御部3から、前走車Cの位置情報(視点Eから前走車Cまでの距離を含む)を取得する。
 次に、HUD制御部425は、ステップS1で受信した各虚像オブジェクトの位置情報およびステップS2で受信した対象物の位置情報に基づいて、虚像オブジェクトが対象物に重なるようにして車両1の乗員に視認されるか否かを判断する(ステップS3)。具体的には、HUD制御部425は、例えば、各虚像オブジェクトI1~I3の位置情報、および前走車Cの位置情報に基づいて、視点Eと前走車Cとを繋ぐ領域内に各虚像オブジェクトI1~I3の少なくとも一部が存在するか否かを判断する。
 ステップS3において、虚像オブジェクトが対象物に重ならずに乗員に視認されると判断された場合には(ステップS3のNo)、HUD制御部425は、虚像オブジェクトの全体を標準濃度(標準輝度)で生成する(ステップS4)。具体的には、視点Eと前走車Cとを繋ぐ領域内に各虚像オブジェクトI1~I3が存在しないと判断された場合には、HUD制御部425は、各虚像オブジェクトI1~I3の全体を標準濃度で生成する。
 一方、ステップS3において、各虚像オブジェクトが対象物に重なるように乗員に視認されると判断された場合には(ステップS3のYes)、HUD制御部425は、乗員の視点Eと各虚像オブジェクトとの距離が、当該視点Eと対象物との距離よりも大きいか否かを判断する(ステップS5)。すなわち、視点Eと前走車Cとの間に各虚像オブジェクトI1~I3の少なくとも一部が存在すると判断された場合には、HUD制御部425は、図12に示す各虚像オブジェクトI1~I3と乗員の視点Eとの距離が、対象物である前走車Cと視点Eとの距離よりも大きいか否かを判断する。すなわち、HUD制御部425は、各虚像オブジェクトI1~I3が、当該各オブジェクトI1~I3と重なって乗員に視認される前走車Cよりも遠くに位置するか否かを判断する。
 ステップS5において、乗員の視点Eと虚像オブジェクトとの距離が、当該視点Eと対象物との距離以下であると判断された場合には(ステップS5のNo)、HUD制御部425は、虚像オブジェクトの全体を標準濃度で生成する(ステップS4)。例えば、視点Eと各虚像オブジェクトI1~I3との距離が視点Eと前走車Cとの距離以下である場合、すなわち、各虚像オブジェクトI1~I3が前走車Cよりも視点Eの近くに位置している場合には、HUD制御部425は、図12に示すように、各虚像オブジェクトI1~I3の全体を標準濃度で生成する。
 一方、ステップS5において、乗員の視点Eと虚像オブジェクトとの距離が、当該視点Eと対象物との距離よりも大きいと判断された場合には(ステップS5のYes)、HUD制御部425は、当該虚像オブジェクトが対象物と関連する虚像オブジェクトであるか否かを判断する(ステップS6)。すなわち、各虚像オブジェクトI1~I3が前走車Cよりも視点Eから遠くに位置している場合には、HUD制御部425は、各虚像オブジェクトI1~I3が前走車Cと関連する虚像オブジェクトであるか否かを判断する。
 ステップS6において、虚像オブジェクトが対象物と関連する虚像オブジェクトであると判断された場合には(ステップS6のYes)、HUD制御部425は、当該虚像オブジェクトの全体を標準濃度で生成する(ステップS4)。例えば、複数の虚像オブジェクトI1~I3のいずれかが前走車Cと関連する虚像オブジェクトである場合には、HUD制御部425は、当該虚像オブジェクトの全体を標準濃度で生成する。
 一方、ステップS6において、虚像オブジェクトが対象物と関連する虚像オブジェクトではないと判断された場合には(ステップS6のNo)、HUD制御部425は、当該虚像オブジェクトと対象物との重なり度合(重なり面積)が所定値以上であるか否かを判断する(ステップS7)。すなわち、各虚像オブジェクトI1~I3が前走車Cと関連する虚像オブジェクトではないと判断された場合には、HUD制御部425は、各虚像オブジェクトI1~I3と前走車Cとの上下左右方向における重なり度合が所定値以上であるか否かを判断する。本例においては、各虚像オブジェクト(法定速度オブジェクトI1、車速オブジェクトI2および方向指示オブジェクトI3)はいずれも車両1の走行に関連するオブジェクトであり、前走車Cに関連するオブジェクトではない。そのため、HUD制御部425は、ステップS7において、各虚像オブジェクトI1~I3のいずれについても、前走車Cとの重なり度合が所定値以上であるか否かを判断する。
 ステップS7において、虚像オブジェクトと対象物との重なり度合が所定値以上ではないと判断された場合には(ステップS7のNo)、HUD制御部425は、当該虚像オブジェクトの全体を標準濃度で生成する(ステップS4)。本例においては、各虚像オブジェクトI1~I3のうち、法定速度オブジェクトI1および車速オブジェクトI2は、前走車Cとの重なり度合が所定値よりも小さいものとする。この場合、図13に示すように、前走車Cとの重なり度合が所定値よりも小さい法定速度オブジェクトI1および車速オブジェクトI2は、その全体が標準濃度で生成される。
 一方、ステップS7において、虚像オブジェクトと対象物との重なり度合が所定値以上であると判断された場合には(ステップS7のYes)、HUD制御部425は、当該虚像オブジェクトにおいて対象物と重なる部分を標準濃度よりも薄く表示する(ステップS8)。本例においては、各虚像オブジェクトI1~I3のうち、方向指示オブジェクトI3は、前走車Cとの重なり度合が所定値以上であるとする。この場合、図13に示すように、前走車Cとの重なり度合が所定値以上である方向指示オブジェクトI3は、前走車Cと重なった部分が標準濃度よりも薄く表示されるとともに、前走車Cと重ならない部分が標準濃度で生成される。なお、方向指示オブジェクトI3と前走車Cとの境界をぼかすように表示してもよい。
 なお、車両1の周辺に対象物が存在しない場合には、ステップS3以降の処理を経ることなく、HUD制御部425は、虚像オブジェクトの全体を標準濃度で生成し得る。
 ところで、車両1の周辺に存在する対象物(前走車C等)が虚像オブジェクト(虚像オブジェクトI1~I3等)より近くに位置する状態では、虚像オブジェクトが対象物と重なって視認されると、虚像オブジェクトが対象物に埋め込まれているように見えるため、乗員に違和感を与えてしまう。また、虚像オブジェクトが対象物と重なって視認されると、乗員にとって、対象物と虚像オブジェクトのどちらが近いのかが認識しにくい場合がある。
 そこで、本実施形態に係るHUD42によれば、HUD制御部425は、虚像オブジェクトが、対象物に重なるように乗員に視認されると判断した場合であって、乗員に対する対象物の距離情報に基づいて、乗員に対する対象物の距離より乗員に対する虚像オブジェクトの距離が大きくなると判断した場合は、虚像オブジェクトにおける少なくとも対象物と重なる領域について虚像オブジェクトを生成するための画像の表示が薄くなるように、画像生成部424を制御する。この構成によれば、虚像オブジェクト(例えば、虚像オブジェクトI3)における対象物(例えば、前走車C)と重なる領域を乗員に対して薄く認識させることができる。それにより、乗員は前走車Cが近くに位置していることを認識しやすくなり、乗員に与える違和感を軽減することができる。
 また、HUD制御部425は、画像生成部424で生成される虚像オブジェクトの画像が対象物と関連する場合は、虚像オブジェクトと対象物とが重なる領域について当該画像の表示を薄くせず標準濃度となるように、画像生成部424を制御する。この構成によれば、虚像オブジェクトが対象物と関連している場合には、虚像オブジェクトが対象物と重なって視認されていたとしても虚像オブジェクトを薄くせず標準濃度で視認させることで、虚像オブジェクトを乗員に積極的に認識させることができる。
 また、HUD制御部425は、複数の虚像オブジェクトが対象物に重なる場合に、複数の虚像オブジェクトを形成する複数の画像のうち少なくとも一つが薄くなるように、画像生成部424を制御してもよい。例えば、図11のフローチャートに基づいて説明したように、複数の虚像オブジェクトI1~I3が前走車Cに重なる場合に、HUD制御部425は、複数の虚像オブジェクトI1~I3のうち方向指示オブジェクトI3を形成する画像のみが薄くなるように、画像生成部424を制御し得る。この構成によれば、複数の虚像オブジェクトが対象物に重なる場合に、少なくとも一つの虚像オブジェクトを薄く視認させることで、乗員へ与える違和感を軽減することができる。
 また、HUD制御部425は、各虚像オブジェクトI1~I3における前走車Cとの重なり度合に基づいて、複数の虚像オブジェクトI1~I3のうち画像を薄くする少なくとも一つの虚像オブジェクトを決定し得る。この構成によれば、薄く視認させる虚像オブジェクトを状況に応じて適切に決定することができる。
 上記実施形態においては、HUD制御部425は、虚像オブジェクトの一部のみが対象物に重なる場合に、その重なる部分に対応する画像の領域を標準濃度(標準輝度)よりも薄く表示するように画像生成部424を制御しているが、この例に限られない。HUD制御部425は、例えば、対象物と重なる部分に対応する虚像オブジェクトの画像を非表示とするように画像生成部424を制御してもよい。なお、「標準輝度よりも薄く表示する」とは、画像の輝度を小さくすることを指し、輝度をゼロにすることを含む。具体的には、図14に示すように、HUD制御部425は、方向指示オブジェクトI3の前走車Cと重なる部分を非表示としてもよい。
 また、HUD制御部425は、虚像オブジェクトの一部のみが対象物に重なる場合であっても、当該虚像オブジェクトを生成するための画像の全部を薄くするように、または当該虚像オブジェクトの画像の全部を非表示とするように、画像生成部424を制御してもよい。具体的には、図15に示すように、HUD制御部425は、前走車Cと重なる方向指示オブジェクトI3の全体を非表示とする(または薄くする)ようにしてもよい。この構成によれば、虚像オブジェクトの一部のみが対象物に重なる場合であっても、虚像オブジェクトの全部を薄く認識させる、または虚像オブジェクトの全体を非表示とすることで、対象物を乗員に視認させやすくなる。
 また、上記実施形態では、HUD制御部425は、各虚像オブジェクトI1~I3における前走車Cとの重なり度合に基づいて、複数の虚像オブジェクトI1~I3のうち画像を薄くする少なくとも一つの虚像オブジェクト(例えば、方向指示オブジェクトI3)を決定しているが、この例に限られない。HUD制御部425は、各虚像オブジェクトの重要度に基づいて、複数の虚像オブジェクトのうち画像を薄くする少なくとも一つの虚像オブジェクトを決定してもよい。本例では、複数の虚像オブジェクトI1~I3のうち法定速度オブジェクトI1と車速オブジェクトI2は、方向指示オブジェクトI3よりも重要度が高いものとする。その場合、HUD制御部425は、重要度の低い方向指示オブジェクトI3を、画像を薄くする虚像オブジェクトと決定することができる。この構成によっても、薄く視認させる虚像オブジェクトを状況に応じて適切に決定することができる。
 図8に示すようなコンバイナ143を備えたHUD142の場合も、所定の条件に基づいて、虚像オブジェクトにおける少なくとも対象物と重なる領域について虚像オブジェクトを生成するための画像の表示が薄くなるようにすることで、乗員に与える違和感を軽減することができる。
(第四実施形態)
 次に、図16から図20を参照して第四実施形態に係る表示システム4の動作の一例について以下に説明する。図16は、運転者からみた車両前方の一例を示す図である。図17は、車両の前方の死角領域に照射された光パターンを車両の上方から視た模式図である。図18は、図17の光パターンに対応する画像が表示されたウインドシールドの一例を示す図である。図19は、その一部が車両の前方の死角領域に照射された光パターンを車両の上方から視た模式図である。図20は、図19の光パターンに対応する画像が表示されたウインドシールドの一例を示す図である。運転者は、車両1の乗員の一例である。
 図16に示すように、運転手Dの前方には、例えば、車両1の構成部品である、ボンネット19及びウインドシールド18のピラー118が存在する。このため、図17に示すように、車両1の前方の路面上には、運転者から視認できない領域(以下、死角領域Aという。)が形成される。路面描画装置45により車両1近くに存在する対象物(例えば、他車、歩行者、等)に対して所定の情報(例えば、車両1の進行方向の情報)を表す光パターンを路面描画する場合、車両1の運転者から視認できない死角領域A内に光パターンの少なくとも一部が照射されることがある。
 本実施形態の表示システム4は、路面描画装置45により光パターンの少なくとも一部が死角領域Aに照射された場合、光パターンに対応した画像(虚像オブジェクト)をHUD42に表示させる。
 まず、表示制御部43は、車両制御部3から送信された走行状態情報、周辺環境情報、等に基づいて、路面描画装置45により照射すべき光パターンを決定する。そして、表示制御部43は、決定した光パターンに関連する信号を路面描画装置45へ送信する。路面描画装置45は、表示制御部43から送信された信号に基づいて、所定の光パターンを路面描画する。
 また、表示制御部43は、路面描画装置45により所定の光パターンの少なくとも一部が死角領域Aに照射されるか否かを判断する。例えば、死角領域Aに照射される光を出射する路面描画装置45の出射角度(以下、死角領域Aに対応する光の出射角度という。)が表示制御部43のメモリに予め記憶されている。表示制御部43は、路面描画装置45による所定の光パターンの出射角度が、メモリに記憶された死角領域Aに対応する光の出射角度の範囲内に含まれるか否かを判断する。路面描画装置45による所定の光パターンの出射角度がメモリに記憶された死角領域Aに対応する光の出射角度の範囲内に含まれる場合、表示制御部43は、路面描画装置45により所定の光パターンの少なくとも一部が死角領域Aに照射されると判断する。尚、死角領域Aに対応する光の出射角度は、例えば、次のように算出される。まず、車両1の運転者よりも前方に位置する構成部品(例えば、ボンネット19及びウインドシールド18のピラー118)の位置および運転者の目の位置(例えば、運転者の目の標準位置)に基づいて死角領域Aを推定する。そして、車両1の路面描画装置45の位置に基づいて、推定した死角領域Aに照射される光を出射する路面描画装置45の出射角度を算出する。
 次に、表示制御部43は、路面描画装置45により所定の光パターンの少なくとも一部が死角領域Aに照射されると判断した場合、所定の光パターンに対応した所定の画像を生成するようにHUD42を制御する。表示制御部43は、路面描画装置45により照射される所定の光パターンに対応した所定の画像データをHUD42のHUD制御部425へ送信する。HUD制御部425は、表示制御部43から送信された所定の画像データに基づいて、路面描画装置45により照射される所定の光パターンに対応した所定の画像を生成するように画像生成部424を制御する。画像生成部424により生成された画像は、レンズ426、スクリーン427、凹面鏡428を経由して、ウインドシールド18に投影される。ウインドシールド18に投影された画像を視認した乗員は、車外空間に虚像オブジェクトIが表示されていると認識する。
 例えば、図17は、進行方向を示す光パターンM1の全体が死角領域Aに描画されている例を示している。光パターンM1は、停車中の車両1が左斜め前方に発進する予定であることを示している。表示制御部43は、光パターンM1の全体が死角領域Aに照射されると判断する場合、例えば、図18に示すように、図17の光パターンM1に対応する虚像オブジェクトI10を視認させるための画像をウインドシールド18のHUD表示範囲421Aに表示させる。
 また、図19は、進行方向を示す光パターンM2の一部が死角領域Aに描画されている例を示している。光パターンM2は、車両1が右折する予定であることを示している。表示制御部43は、光パターンの一部のみが死角領域Aに照射されると判断する場合、例えば、図20に示すように、図19の光パターンM2に対応する虚像オブジェクトI20を視認させるための画像をウインドシールド18のHUD表示範囲421Aに表示させる。虚像オブジェクトI20は、光パターンM2の死角領域Aに照射される部分だけではなく、光パターンM2の全体に対応している。
 尚、本実施形態では、表示制御部43が光パターンの少なくとも一部が死角領域Aに照射されるか否かを判断しているが、これに限定されない。例えば、車両制御部3が路面描画装置45により照射すべき光パターンを決定し、光パターンの少なくとも一部が死角領域Aに照射されるか否かを判断し、その判断結果を示す信号を表示制御部43へ送信してもよい。
 また、本実施形態では、表示制御部43は死角領域Aに対応する路面描画装置45による光の出射角度の範囲を予めメモリに記憶し、これに基づいて光パターンの少なくとも一部が死角領域Aに照射されるか否かを判断していたが、これに限定されない。例えば、死角領域Aに対応する路面描画装置45による路面上の光の照射範囲を予め算出しメモリに記憶し、これに基づいて前記判断を行ってもよい。また、実際に路面描画された光パターン及びリアルタイムで運転者の目の位置を検出して、これらの検出データを基に、死角領域Aの特定および光パターンの少なくとも一部が死角領域Aに照射されるか否かの判断を行ってもよい。
 また、本実施形態では、表示制御部43が路面描画装置45による路面描画の開始に関係なく、光パターンの少なくとも一部が死角領域Aに照射されると判断しているが、これに限定されない。例えば、表示制御部43は、路面描画装置45による路面描画が開始された後に、前記判断を行ってもよい。また、路面描画装置45による路面描画の開始後に、外部カメラ6Aにより実際に路面描画されている光パターンの路面上の照射範囲を検出し、表示制御部43は、外部カメラ6Aから受信した光パターンの路面上の照射範囲データに基づいて、前記判断を行ってもよい。
 また、本実施形態では、死角領域Aは、車両1の前方の路面上の運転者から視認できない領域として述べたが、これに限定されない。例えば、死角領域Aは、運転手Dの側方や後方に位置する車両1の構成部品により、車両の側方や後方の路面上の運転者から視認できない領域を含んでもよい。表示システム4は、路面描画装置45により光パターンの少なくとも一部が車両の側方や後方の路面上の死角領域Aに照射された場合、光パターンに対応した画像(虚像オブジェクト)をHUD42に表示させてもよい。
 このように、本実施形態では、HUD制御部425は、車両1の外部の路面に向けて光パターンを照射するように構成された路面描画装置45により車両1の運転者から視認できない死角領域Aに光パターンの少なくとも一部が照射されるとの情報に基づいて、光パターンに対応した所定の画像を生成するように画像生成部424を制御する。また、表示制御部43は、路面描画装置45により車両1の運転者から視認できない死角領域Aに光パターンの少なくとも一部が照射されるとの情報に基づいて、光パターンに対応した所定の画像を生成するようにHUD42を制御する。このため、路面描画装置45が照射した光パターンが車両の運転者から視認できない場合に、光パターンに対応した所定の画像がHUD42により表示されるため、車両の運転者は車外に照射された光パターンを正確に認識することができる。すなわち、利便性が向上したHUD42を提供することができる。
 また、HUD制御部425は、光パターンの一部のみが死角領域Aに照射されることを含むとの情報に基づいて、光パターンの全体に対応した所定の画像を生成するように画像生成部424を制御する。また、表示制御部43は、光パターンの一部のみが死角領域Aに照射されることを含むとの情報に基づいて、光パターンの全体に対応した所定の画像を生成するようにHUD42を制御する。このため、光パターンの一部のみが視認できない場合であっても、光パターンの全体に対応した画像がHUD42により表示されるため、車両1の運転者は車外に照射された光パターンをより正確に認識することができる。
 また、死角領域Aに対応する路面描画装置45による光の出射角度、または、路面描画装置45による路面上の光の照射範囲が規定されている。このため、予め死角領域Aに対応する路面描画装置45による光の出射角度、または、路面描画装置45による路面上の光の照射範囲が規定されていれば、実際に路面描画された光パターンを検出して運転者から視認できるか否かを判断する必要がない。
 上記第三実施形態では、表示システム4は、路面描画装置45の光パターンが死角領域Aに照射される場合、光パターンに対応する虚像オブジェクトをHUD42に表示させていたが、これに限定されない。例えば、表示システム4は、天候情報に基づいて、路面描画装置45で照射している又は照射すべき光パターンに対応する虚像オブジェクトをHUD42に表示させてもよい。車両制御部3は、外部カメラ6A(例えば、雨滴センサ等)からの検出データに基づいて、又は、GPS9からの自車位置情報及び無線通信部10からの天気データに基づいて、天候情報を取得する。車両制御部3は、外部カメラ6Aからの車両の周辺環境を示す画像データに対して所定の画像処理を行うことにより、天候情報を取得してもよい。表示制御部43は、車両制御部3から送信された天候情報に基づいて、路面描画装置45で照射している又は照射すべき光パターンに対応する虚像オブジェクトをHUD42に表示させる。例えば、車両制御部3から送信された天候情報が「晴れ」を意味する場合、表示制御部43は、路面描画装置45の光パターンに対応するHUD42の虚像オブジェクト表示は行わない。一方、車両制御部3から送信された天候情報が「雨」を意味する場合、表示制御部43は、路面描画装置45で照射すべき光パターンに対応する虚像オブジェクトをHUD42に表示させ、路面描画装置45による光パターン表示は行わない。また、表示制御部43は、路面描画装置45により光パターンを照射している最中に天候情報の内容が「晴れ」から「雨」に変更になった場合、路面描画装置45により照射している光パターンに対応する虚像オブジェクトをHUD42に表示させてもよい。このように、晴れの日は、路面に光パターンを直接描画することで、運転者の視線を移動させることなく、所定の情報(例えば、前走車との距離、ナビゲーション情報、等)を運転者へ提供することができる。一方、雨の日は、路面に描画されたパターンを認識することが難しい場合があるため、HDU42に虚像オブジェクトとして表示することにより、同様の情報をHUD42により運転者へ提供することができる。
(第五実施形態)
 次に、図21及び図22A~図22Dを参照して第五実施形態に係る表示システム4の動作の一例について以下に説明する。図21は、互いに対応する光パターンM21と虚像オブジェクトI21とが重複されて表示されたウインドシールドの一例を示す図である。図22Aは、図21の光パターンM21及び虚像オブジェクトI21の例を示す図である。図22Bから図22Dは、ウインドシールドに表示される、互いに対応する光パターン及び虚像オブジェクトの他の例を示す図である。
 本実施形態の表示システム4は、HUD42に表示される所定の画像と路面描画装置45により照射される光パターンとが互いに対応するように、かつ、所定の画像と光パターンとが異なる色となるように、HUD42及び路面描画装置45の少なくとも一方の動作を制御する。
 表示制御部43は、車両制御部3から送信された走行状態情報、周辺環境情報、等に基づいて、路面描画装置45及びHUD42の両方に表示すべき情報(例えば、車両1の進行方向の情報、歩行者情報、他車情報、等)があると判断した場合、この情報に対応する路面描画装置45により照射すべき光パターン(例えば、形状、サイズ、色、路面上の照射位置、等)及びHUD42により表示すべき所定の画像(例えば、形状、サイズ、色、ウインドシールド18上の表示位置、等)を決定する。
 この際、表示制御部43は、同じ情報を意味する互いに対応する光パターンおよび所定の画像が異なる色で表示されるように、光パターン及び所定の画像の色を設定する。尚、以降の説明では、同じ情報を意味する互いに対応する光パターンおよび所定の画像を、単に互いに対応する光パターンおよび所定の画像、という場合がある。例えば、路面描画は、車外の運転者や歩行者等への誤認識を防ぐため、白色での表示に限定される場合がある。このため、表示制御部43は、光パターンを白色に設定し、光パターンに対応する所定の画像を白色とは異なる色に設定する。所定の画像の色は、表示する情報に応じて設定してもよい。例えば、自車両1と前走車との距離を示す情報の場合、所定の画像を青色の表示とし、自車両1の進行方向を示す情報の場合、所定の画像を緑色の表示に設定してもよい。
 また、表示制御部43は、運転者が所定の画像により形成される虚像オブジェクトを対応する光パターンに関連した位置に視認することができるように、所定の画像のウインドシールド18上における表示位置を設定する。例えば、虚像オブジェクトを対応する光パターンに重複して視認することができるように、所定の画像の表示位置を設定してもよい。また、虚像オブジェクトの一部を対応する光パターンに重複して視認することができるように、所定の画像の表示位置を設定してもよい。また、虚像オブジェクトを対応する光パターンに隣接して視認することができるように、所定の画像の表示位置を設定してもよい。
 例えば、表示制御部43は、歩行者が左側の歩道に存在しているという情報を路面描画装置45及びHUD42の両方に表示すると判断した場合、路面描画装置45の光パターン及びHUD42の所定の画像の形状を同一の形状(例えば、矢印の形状)に設定する。また、表示制御部43は、光パターンの色を白に設定し、所定の画像の色を異なる色に設定する。また、表示制御部43は、所定の画像により形成される虚像オブジェクトが光パターンに重複して視認されるように所定の画像の表示位置を設定する。この場合、図21に示すように、運転者は、ウインドシールド18のHUD表示範囲421A内で、所定の画像により形成される矢印の形状を有する虚像オブジェクトI21を、対応する路面描画された矢印の形状を有する光パターンM21に重複した状態で、視認することができる。このため、運転者は、歩行者Pの情報を路面描画装置45の光パターン及びHUD42の虚像オブジェクトにより確認することができる。また、光パターンと所定の画像は異なる色で視認されるため、運転者は、光パターンM21及び虚像オブジェクトI21をより明確に視認することができる。
 図22Aは、図21の光のパターンM21及び虚像オブジェクトI21のみを図示している。図22Aに示すように、光パターンM21と同じ形状であり且つサイズが小さい虚像オブジェクトI21が光パターンM21に重複した状態で視認することができるように、表示制御部43は、路面描画装置45及びHUD42を制御する。尚、光パターンM21及び虚像オブジェクトI21はそれぞれ矢印の輪郭及びその中の全部を所定の色で表示しているが、これに限定されない。例えば、矢印の輪郭のみを所定の色で表示してもよい。
 また、互いに対応する光のパターン及び虚像オブジェクトの形状等は、図22Aの例に限定されない。例えば、図22Bに示すように、虚像オブジェクトI22のサイズが光パターンM22のサイズよりも大きく視認することができるようにHUD42を表示してもよい。尚、虚像オブジェクトI22は、矢印の輪郭のみの表示でもよい。また、図22Cに示すように、光パターンM23及び虚像オブジェクトI23の形状及びサイズを同一とし、虚像オブジェクトI23が光パターンM23に隣接して視認することができるようにHUD42を表示してもよい。尚、虚像オブジェクトI23は、棒形状の輪郭のみを表示してもよい。また、図22Dに示すように、光パターンM24と異なる形状であり且つサイズが大きい虚像オブジェクトI24が光パターンに重複して視認できるようにHUD42を表示してもよい。尚、虚像オブジェクトI24は、矢印の輪郭のみの表示でもよい。尚、図22Bから図22Dについても、光パターン及び虚像オブジェクトの色は異なるように表示される。
 尚、本実施形態では、表示制御部43が、路面描画により照射される光パターンの色及びHUDに表示される所定の画像の色を決定していたが、これに限定されない。例えば、HUD42のHUD制御部425は、照射される光パターンの色情報に関連する信号を路面描画装置45から受信し、光パターンの色とは異なる色で画像を生成するように画像生成部424を制御してもよい。また、外部カメラ6Aにより路面描画装置45により実際照射されている光パターンの色情報データを取得し、HUD42のHUD制御部425は、外部カメラ6Aより送信された光パターンの色情報データに基づいて、光パターンの色とは異なる色で画像を生成するように画像生成部424を制御してもよい。また、路面描画装置45の光源駆動回路は、HUD42で表示される画像の色情報に関連する信号をHUD42から受信し、画像の色とは異なる色で光パターンを描画するよう光源部を制御してもよい。
 このように、本実施形態では、HUD制御部425は、路面描画装置45により照射される光パターンの色情報に基づいて、光パターンに対応した所定の画像を光パターンの色とは異なる色で生成するように画像生成部424を制御する。また、表示制御部43は、HUD42に表示される所定の画像と路面描画装置45により照射される光パターンとが互いに対応するように、かつ、所定の画像と光パターンとが異なる色となるように、HUD42及び路面描画装置45の少なくとも一方の動作を制御する。路面描画された光パターンと対応した所定の画像を表示することで、表示された光パターン及び画像を車両1の運転者が認識しやすい。さらに、光パターンと所定の画像は異なる色で視認されるので、運転者が視認する際の視認性が良好である。
 また、HUD制御部425は、光パターンの色情報が白色を示す情報である場合、所定の画像を白色とは異なる色で生成するように画像生成部424を制御する。また、表示制御部43は、光パターンの色が白色である場合、所定の画像を白色とは異なる色で生成するようにHUD42を制御する。路面描画は、車外の運転者や歩行者等への誤認識を防ぐため、白色での表示に限定される場合がある。そのような場合でも、上記構成によれば、所定の画像を白色とは異なる色で表示されるので、運転者が視認する際の視認性が更に向上する。
(第六実施形態)
 次に、図23および図24を参照して、第六実施形態に係るヘッドアップディスプレイの構成を説明する。
 図23は、本実施形態に係るHUD42を構成するHUD本体部420の模式図である。なお、図23において、HUD本体部420に搭載される、レンズ426及びスクリーン427の図示を省略している。図24は、凹面鏡428の向きの揺動と画像生成部424から出射される光の出射位置との関係を説明するための模式図である。
 図23に示すように、本実施形態に係る凹面鏡428は、凹面鏡428を揺動させるための駆動部430を備えている。駆動部430は、モータ431と、モータ431に取り付けられた円形ギヤ432と、円形ギヤ432と噛み合う扇形ギヤ436とから構成されている。モータ431は、HUD制御部425から受け取った制御信号に基づいて、左右方向に延伸する軸434を中心に円形ギヤ432を回転可能である。扇形ギヤ436は、左右方向に延伸する軸438を介して凹面鏡428に取り付けられている。
 モータ431が、制御信号に基づいて、軸434を中心に円形ギヤ432を回転させると、その回転運動が扇形ギヤ436に伝わり、扇形ギヤ436が軸438を中心に回転する。これにより、凹面鏡428の向きが左右方向に延伸する軸438を中心に揺動される。
 また、画像生成部424には、画像生成部424の光出射面(例えば、液晶面)424A上の熱分布を検知するための熱センサ440が設けられている。熱センサ440は、例えば、非接触式のセンサである。熱センサ440により、光出射面424A上の熱分布を検知することで、後述の外光(太陽光)などによる光出射面424Aの温度上昇を検知することができる。熱センサ440は、光出射面424Aの熱分布を示す検知信号をHUD制御部425へ送信可能である。
 次に、本実施形態に係るHUD本体部420の動作について、説明する。
 まず、熱センサ440は、画像生成部424の光出射面424Aの熱分布を検知し、その検知信号をHUD制御部425へ送信する。HUD制御部425は、熱センサ440から受け取った検知信号に基づき、例えば、光出射面424Aの少なくとも一部の温度上昇が所定値以上であるか否かを判断する。光出射面424Aの温度上昇が所定値以上であると判断された場合には、HUD制御部425は、駆動部430により凹面鏡428を揺動させるための制御信号(以下、第一制御信号とする)と、画像生成部424から出射する光の出射位置を変更するための制御信号(以下、第二制御信号とする)を生成し、第一制御信号を駆動部430のモータ431へ送信するとともに、第二制御信号を画像生成部424へ送信する。すなわち、凹面鏡428の揺動と、画像生成部424における画像生成位置の変更とは、同期して行われる。
 駆動部430のモータ431は、HUD制御部425から受け取った第一制御信号に基づき、軸434を中心に円形ギヤ432を回転させる。円形ギヤ432の回転に基づいて、扇形ギヤ436が軸438を中心に回転することで、凹面鏡428の向きが揺動する。すなわち、駆動部430は、凹面鏡428の向きを、例えば、初期位置である位置P21から、図24に示す方向Dに沿って位置P22へと移動(揺動)させる。これにより、図23に示すように、凹面鏡428を揺動させる前に凹面鏡428により反射された外光L21が集光される光出射面424A上の位置と、凹面鏡428を揺動させた後で凹面鏡428により反射された外光L22が集光される光出射面424A上の位置とを、異ならせることができる。なお、凹面鏡428の向きを変更する前に画像生成部424の光出射面424A上に照射される外光L21の照射領域と、凹面鏡428の向きを変更した後に光出射面424A上に照射される外光L22の照射領域とが重ならないように、凹面鏡428が揺動されることが好ましい。すなわち、光出射面424A上において外光が集光される範囲について、その集光範囲が凹面鏡428の揺動前後で重ならないように、望ましくは、その集光範囲が一定距離だけ離れるように、凹面鏡428の向きを変更することが好ましい。
 一方、画像生成部424は、HUD制御部425から受け取った第二制御信号に基づき、光の出射位置を変更する。すなわち、画像生成部424は、光出射面424Aにおける出射光の位置を、例えば、初期位置である位置G1から位置G1よりやや下方の位置G2へと変更する(図24参照)。変更後の出射光の位置G2は、凹面鏡428の揺動後の位置P22に対応した位置である。すなわち、HUD制御部425は、凹面鏡428の揺動前後において、ウインドシールド18に対する画像形成位置が所望の位置となるように、画像生成部424における出射光の位置を変更する。これにより、乗員が視認可能な車両外部の虚像オブジェクトIが、凹面鏡428の揺動前後においても所望の位置に形成される。
 なお、凹面鏡428の揺動前後において、ウインドシールド18に照射される画像の歪み方が変わるため、HUD制御部425は、ウインドシールド18に照射される画像の歪み度合を凹面鏡428の揺動に応じて変更するように、画像生成部424を制御することが好ましい。
 ところで、上述の通り、出射窓423は可視光を透過させる透明板である。そのため、図23に示すように、車両外部から入射した太陽光等の外光L21が出射窓423からHUD本体部420内部に入射すると、外光L21が凹面鏡428により反射されて集光された状態で画像生成部424の光出射面424Aに照射される場合がある。このような集光された外光L21が光出射面424Aに照射されると、光出射面424Aにおける過度の温度上昇が発生し、画像生成部424が劣化してしまう可能性がある。
 そこで、以上説明したように、本実施形態に係るHUD42は、所定の画像を生成するための光を出射する画像生成部424と、画像生成部424により出射された光がウインドシールド18に照射されるように当該出射光を反射させる凹面鏡428(反射部の一例)と、凹面鏡428の向きを揺動させるための駆動部430と、画像生成部424の動作を制御するHUD制御部425と、を備えている。この構成によれば、車両外部から入射した太陽光等の外光が凹面鏡428により反射されて画像生成部424の光出射面424Aに照射された場合であっても、駆動部430により凹面鏡428の向きが揺動されるため画像生成部424の光出射面424A上における外光が照射される位置を変動させることができる。これにより、画像生成部424に外光が局所的に照射され続けることを防ぐことができ、画像生成部424における過度の温度上昇が抑制され、熱による画像生成部424の劣化を抑制することができる。
 また、本実施形態に係るHUD42において、HUD制御部425は、駆動部430による凹面鏡428の向きの揺動に応じて画像生成部424における光の出射位置を変更させるように構成されている。これにより、凹面鏡428の向きが揺動されても、その揺動に応じて画像生成部424における光の出射位置が変更されるため、ウインドシールド18に対する画像形成位置が所望の位置となるように制御され、車両の乗員に対して違和感を生じさせることが抑制される。このように、本実施形態に係る構成によれば、乗員に対して表示する虚像オブジェクトIの生成の品質を低下させずに、外光による熱害の発生を防止することができる。
 特に、本実施形態の構成によれば、外光が凹面鏡428により反射されて集光された状態で画像生成部424に照射された場合であっても、熱による画像生成部424の劣化を抑制することができる。なお、凹面鏡428の揺動前の光出射面424Aへの外光L21の照射領域と、凹面鏡428の揺動後の光出射面424Aへの外光L22の照射領域とが重ならないように凹面鏡428の向きが変更されることで、光出射面424A上での局所的な温度上昇を確実に防止することができる。
 また、本実施形態に係るHUD42は、画像生成部424の温度上昇を検出可能な熱センサ440を備え、駆動部430は、熱センサ440による温度上昇の検出に応じて、凹面鏡428の向きを揺動させるように構成されている。これにより、外光が画像生成部424に照射されて温度が上昇した状態となったときに凹面鏡428の向きが揺動される。すなわち、駆動部430に不必要な動作を行わせることを防ぎ、駆動部430の寿命を長くすることができる。また、駆動部430の消費エネルギーを低減することができる。
 図8に示すようなコンバイナ143を備えたHUD142の場合も、駆動部430(図8では不図示)による凹面鏡428の向きの揺動に応じて画像生成部424における光の出射位置を変更させるように画像生成部424を制御することで、虚像オブジェクトIの生成の品質を低下させずに、外光による熱害の発生を防止することができる。
 上記第六実施形態に係るHUD42では、画像生成部424の光出射面424Aに外光が集光された場合の局所的な温度上昇を防止するために、駆動部430により凹面鏡428を揺動させる構成を採用しているが、この例に限られない。
 図25は、第六実施形態の変形例に係る画像生成部424の移動と画像生成部424から出射される光の出射位置との関係を説明するための模式図である。図25に示すように、凹面鏡428を揺動させる代わりに、画像生成部424自体を駆動部(不図示)により移動させる構成としてもよい。この場合、凹面鏡428の向きは可変ではなく固定である。本例では、画像生成部424を初期位置である位置P23から位置P23より下方の位置P24へ移動させるのに応じて、光出射面424Aにおける出射光の位置を変更する。すなわち、画像生成部424の移動前後において出射光の位置が図25に示す位置(絶対位置)G3に固定されるように、光出射面424Aに対する出射光の相対位置を変更する。このように、画像生成部424の移動前後において、ウインドシールド18に対する画像形成位置が所望の位置となるように、光出射面424Aにおける出射光の位置(相対位置)を変更することで、上記の実施形態と同様に、乗員が視認可能な車両外部の虚像オブジェクトIを、画像生成部424の移動前後においても所望の位置に形成することができる。
 なお、図示は省略するが、画像生成部424や凹面鏡428を揺動させる構成に代えて、レンズ426またはスクリーン427(光学部材の一例)を揺動させる構成を採用してもよい。
 上記第六実施形態に係るHUD42は、画像生成部424に設けられる熱センサ440による温度上昇の検出に応じて、凹面鏡428の向きを揺動させる構成となっているが、この例に限られない。HUDは、熱センサ440に代えて、凹面鏡428に入射される外光を検出可能な光センサを備えてもよい。この場合の光センサは、例えば、凹面鏡428に入射される外光の向きを検出可能であることが好ましい。具体的には、例えば、光センサとして、指向性のあるフォトセンサを出射窓423の近傍に設けることで、特定の角度で入射する外光を検出することができる。この場合も、駆動部430は、光センサによる外光の検出に応じて、凹面鏡428の向きを揺動させることができる。これにより、熱センサ440を備えた場合と同様に、駆動部430に不必要な動作を行わせることを防ぎ、駆動部430の長寿命化や消費エネルギーの低減を図ることができる。
 また、上記第六実施形態では、凹面鏡428の向きを、左右方向に沿って延伸する軸438を中心に揺動させる構成、すなわち、凹面鏡428を駆動部430により1軸で揺動させる構成を採用しているが、これに限られない。例えば、凹面鏡428の向きを、上下方向及び左右方向の2軸で揺動させるような構成を採用してもよい。この場合、例えば、上下方向に延伸する軸を中心として凹面鏡428の向きを揺動させるような駆動部を別途設けることが好ましい。これにより、凹面鏡428の揺動をより精密に制御することができる。なお、凹面鏡428とは別の反射部(平面ミラー等)を、画像生成部424からの出射光の光路上におけるスクリーン427と凹面鏡428との間に設け、凹面鏡428の向きを揺動させるとともに、当該別の反射部の向きも揺動させるようにしてもよい。
 また、凹面鏡または別の反射部(平面ミラー等)として、可視光を反射するとともに赤外光を透過させるような素材を用いることで、外光による画像生成部への熱害の発生をさらに抑制することができる。
 以上、本発明の各実施形態について説明をしたが、本発明の技術的範囲が本実施形態の説明によって限定的に解釈されるべきではないのは言うまでもない。本実施形態は単なる一例であって、請求の範囲に記載された発明の範囲内において、様々な実施形態の変更が可能であることが当業者によって理解されるところである。本発明の技術的範囲は請求の範囲に記載された発明の範囲及びその均等の範囲に基づいて定められるべきである。
 上記実施形態では、車両の運転モードは、完全自動運転モードと、高度運転支援モードと、運転支援モードと、手動運転モードとを含むものとして説明したが、車両の運転モードは、これら4つのモードに限定されるべきではない。車両の運転モードは、これら4つのモードの少なくとも1つを含んでいてもよい。例えば、車両の運転モードは、いずれか一つのみを実行可能であってもよい。
 さらに、車両の運転モードの区分や表示形態は、各国における自動運転に係る法令又は規則に沿って適宜変更されてもよい。同様に、本実施形態の説明で記載された「完全自動運転モード」、「高度運転支援モード」、「運転支援モード」のそれぞれの定義はあくまでも一例であって、各国における自動運転に係る法令又は規則に沿って、これらの定義は適宜変更されてもよい。
 本出願は、2018年11月30日出願の日本特許出願2018-225173号、2018年11月30日出願の日本特許出願2018-225174号、2018年11月30日出願の日本特許出願2018-225175号、2018年11月30日出願の日本特許出願2018-225176号、2018年11月30日出願の日本特許出願2018-225177号および2018年11月30日出願の日本特許出願2018-225178号に基づくものであり、その内容はここに参照として取り込まれる。 

Claims (35)

  1.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射してウインドシールドまたはコンバイナに照射する画像生成部と、
     前記画像生成部の動作を制御する制御部と、
    を備え、
     前記制御部は、前記所定の画像により形成され前記ウインドシールドまたは前記コンバイナを通して前記乗員に視認される虚像オブジェクトの表示態様を、所定の条件に応じて、平面画像と立体画像とのいずれかにするかを選択するように前記画像生成部を制御する、ヘッドアップディスプレイ。
  2.  前記所定の条件は、前記乗員から前記虚像オブジェクトまでの距離、前記現実空間内の対象物の属性、前記乗員の視野領域における前記虚像オブジェクトが配置されるエリア、前記車両の走行シーンの少なくとも一つを含む、請求項1に記載のヘッドアップディスプレイ。
  3.  前記所定の条件が前記乗員から前記虚像オブジェクトまでの距離である場合には、
     前記制御部は、前記距離が閾値以下であるときは前記表示態様を前記立体画像とし、前記距離が前記閾値よりも大きいときは前記表示態様を前記平面画像とするように、前記画像生成部を制御する、請求項2に記載のヘッドアップディスプレイ。
  4.  前記所定の条件が前記対象物の属性である場合には、
     前記制御部は、重要度が高い前記対象物に対しては前記虚像オブジェクトの前記表示態様を前記立体画像とし、重要度が低い前記対象物に対しては前記虚像オブジェクトの前記表示態様を前記平面画像とするように、前記画像生成部を制御する、請求項2に記載のヘッドアップディスプレイ。
  5.  前記所定の条件が前記乗員の前記視野領域における前記虚像オブジェクトが配置されるエリアである場合には、
     前記制御部は、前記虚像オブジェクトが前記視野領域の中心エリアに位置するときは前記表示態様を前記立体画像とし、前記虚像オブジェクトが前記中心エリア以外のエリアに位置するときは前記表示態様を前記平面画像とするように、前記画像生成部を制御する、請求項2に記載のヘッドアップディスプレイ。
  6.  前記所定の条件が前記車両の前記走行シーンである場合には、
     前記制御部は、前記車両が一般道を走行しているときは前記表示態様を前記立体画像とし、前記車両が高速道路を走行しているときは前記表示態様を前記平面画像とするように、前記画像生成部を制御する、請求項2に記載のヘッドアップディスプレイ。
  7.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射して前記光をウインドシールドまたはコンバイナへ照射する画像生成部と、
     前記画像生成部の動作を制御する制御部と、を備え、
     前記制御部は、前記現実空間内の対象物に基づいて、前記所定の画像により形成され前記ウインドシールドまたは前記コンバイナを通して前記乗員に視認される虚像オブジェクトの表示態様を変更するように前記画像生成部を制御し、
     前記表示態様を変更する際に、前記乗員から前記対象物までの距離である第一距離が所定の閾値以下である場合には、前記乗員から前記虚像オブジェクトまでの距離である第二距離が前記第一距離に対応して変更され、前記第一距離が前記所定の閾値よりも大きい場合には、前記第二距離が一定とされる、ヘッドアップディスプレイ。
  8.  前記第一距離が前記所定の閾値よりも大きい場合には、前記第二距離は前記所定の閾値以上の距離となるように設定される、請求項7に記載のヘッドアップディスプレイ。
  9.  前記所定の閾値は、所定の条件に応じて、変更可能である、請求項7または8に記載のヘッドアップディスプレイ。
  10.  前記所定の条件は、前記車両の周囲の照度を含み、
     前記照度が大きくなるにつれて前記所定の閾値を大きくする、請求項9に記載のヘッドアップディスプレイ。
  11.  前記所定の条件は、前記車両の走行速度を含み、
     前記走行速度が大きくなるにつれて前記所定の閾値を大きくする、請求項9に記載のヘッドアップディスプレイ。
  12.  前記第一距離が前記所定の閾値よりも大きい場合には、前記第一距離に応じて、表示される前記虚像オブジェクトの大きさを変更する、請求項7から11のいずれか一項に記載のヘッドアップディスプレイ。
  13.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射してウインドシールドまたはコンバイナに照射する画像生成部と、
     前記画像生成部の動作を制御する制御部と、
    を備え、
     前記制御部は、前記所定の画像により形成され前記ウインドシールドまたは前記コンバイナを通して前記乗員に視認される虚像オブジェクトが、前記車両の周辺に存在する対象物に重なるように前記乗員に視認されると判断した場合であって、
     前記乗員に対する前記対象物の距離情報に基づいて、前記乗員に対する前記対象物の距離より前記乗員に対する前記虚像オブジェクトの距離が大きくなると判断した場合は、
     前記虚像オブジェクトにおける少なくとも前記対象物と重なる領域について前記所定の画像の表示が薄くなるように、前記画像生成部を制御する、ヘッドアップディスプレイ。
  14.  前記制御部は、前記所定の画像が前記対象物と関連する場合は、前記重なる領域について前記所定の画像の表示を薄くせず標準濃度となるように、前記画像生成部を制御する、請求項13に記載のヘッドアップディスプレイ。
  15.  前記制御部は、前記虚像オブジェクトの一部のみが前記対象物に重なる場合に、前記所定の画像の全部が薄くなるように、前記画像生成部を制御する、請求項13または請求項14に記載のヘッドアップディスプレイ。
  16.  前記制御部は、複数の前記虚像オブジェクトが前記対象物に重なる場合に、前記複数の虚像オブジェクトを形成する複数の前記所定の画像のうち少なくとも一つが薄くなるように、前記画像生成部を制御する、請求項13から15のいずれか一項に記載のヘッドアップディスプレイ。
  17.  前記制御部は、前記複数の虚像オブジェクトにおけるそれぞれの重なり度合または重要度に基づいて、複数の前記所定の画像のうち薄くする所定の画像を決定する、請求項16に記載のヘッドアップディスプレイ。
  18.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射する画像生成部と、
     前記画像生成部の動作を制御する制御部と、を備え、
     前記制御部は、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置により前記車両の乗員から視認できない死角領域に前記光パターンの少なくとも一部が照射されるとの情報に基づいて、前記光パターンに対応した所定の画像を生成するように前記画像生成部を制御する、ヘッドアップディスプレイ。
  19.  前記情報が前記光パターンの一部のみが前記死角領域に照射されることを含む場合に、
     前記制御部は、前記光パターンの全体に対応した所定の画像を生成するように前記画像生成部を制御する、請求項18に記載のヘッドアップディスプレイ。
  20.  前記死角領域に対応して前記路面描画装置による光の出射角度、または、前記路面描画装置による路面上の光の照射範囲が規定されており、前記情報は前記路面描画装置による光の出射角度、または、前記路面描画装置による路面上の光の照射範囲に基づいている、請求項18または19に記載のヘッドアップディスプレイ。
  21.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイと、
     前記車両に設けられ、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置と、
     少なくとも前記ヘッドアップディスプレイの動作を制御する制御部と、を備え、
     前記制御部は、前記路面描画装置により前記車両の乗員から視認できない死角領域に前記光パターンの少なくとも一部が照射されるとの情報に基づいて、前記光パターンに対応した所定の画像を生成するように前記ヘッドアップディスプレイを制御する、車両用表示システム。
  22.  前記情報が前記光パターンの一部のみが前記死角領域に照射されることを含む場合に、
     前記制御部は、前記光パターンの全体に対応した所定の画像を生成するように前記ヘッドアップディスプレイを制御する、請求項21に記載の車両用表示システム。
  23.  前記死角領域に対応して前記路面描画装置による光の出射角度、または、前記路面描画装置による路面上の光の照射範囲が規定されており、前記制御部は、前記路面描画装置による光の出射角度、または、前記路面描画装置による路面上の光の照射範囲に基づいて、前記路面描画装置により前記車両の乗員から視認できない死角領域に前記光パターンの少なくとも一部が照射されるか否かを判断する、請求項21または22に記載の車両用表示システム。
  24.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射する画像生成部と、
     前記画像生成部の動作を制御する制御部と、を備え、
     前記制御部は、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置により照射される前記光パターンの色情報に基づいて、前記光パターンに対応した所定の画像を前記光パターンの色とは異なる色で生成するように前記画像生成部を制御する、ヘッドアップディスプレイ。
  25.  前記制御部は、前記光パターンの色情報が白色を示す情報である場合、前記所定の画像を白色とは異なる色で生成するように前記画像生成部を制御する、請求項24に記載のヘッドアップディスプレイ。
  26.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイと、
     前記車両に設けられ、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置と、
     前記ヘッドアップディスプレイ及び前記路面描画装置の少なくとも一方の動作を制御する制御部を備え、
     前記制御部は、前記所定の画像と前記光パターンとが互いに対応するように、かつ、前記所定の画像と前記光パターンとが異なる色となるように、前記動作を制御する、車両用表示システム。
  27.  前記光パターンを白色で表示させ、前記所定の画像を白色とは異なる色で表示させる、請求項26に記載の車両用表示システム。
  28.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイと、
     前記車両に設けられ、前記車両の外部の路面に向けて光パターンを照射するように構成された路面描画装置と、を用いて表示を行う車両用表示方法であって、
     前記所定の画像と前記光パターンとが互いに対応するように、かつ、前記所定の画像と前記光パターンとが異なる色となるように、前記ヘッドアップディスプレイに前記所定の画像を表示させるとともに前記路面描画装置に前記光パターンを表示させる、車両用表示方法。
  29.  前記光パターンを白色で表示させ、前記所定の画像を白色とは異なる色で表示させる、請求項28に記載の車両用表示方法。
  30.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射する画像生成部と、
     前記画像生成部により出射された光がウインドシールドまたはコンバイナへ照射されるように、前記光を反射させる反射部と、
     前記反射部の向きおよび前記画像生成部の少なくとも一方を揺動させるための駆動部と、
     前記画像生成部の動作を制御する制御部と、を備え、
     前記制御部は、前記駆動部による前記反射部の向きおよび前記画像生成部の少なくとも一方の揺動に応じて前記画像生成部における光の出射位置を変更させる、ヘッドアップディスプレイ。
  31.  前記反射部は凹面鏡を含む、請求項30に記載のヘッドアップディスプレイ。
  32.  前記画像生成部の温度上昇を検出可能な熱センサを備え、
     前記駆動部は、前記熱センサによる温度上昇の検出に応じて、前記反射部の向きおよび前記画像生成部の少なくとも一方を揺動させる、請求項30または31に記載のヘッドアップディスプレイ。
  33.  前記反射部に入射される外光を検出可能な光センサを備え、
     前記駆動部は、前記光センサによる外光の検出に応じて、前記反射部の向きおよび前記画像生成部の少なくとも一方を揺動させる、請求項30または31に記載のヘッドアップディスプレイ。
  34.  前記画像生成部における前記光の出射位置は、前記反射部および前記画像生成部の少なくとも一方の移動前において前記画像生成部に入射する外光の集光領域と前記反射部および前記画像生成部の少なくとも一方の移動後における前記外光の集光領域とが重ならない位置に変更される、請求項30から33のいずれか一項に記載のヘッドアップディスプレイ。
  35.  車両に設けられ、所定の画像を前記車両の乗員に向けて表示するように構成されたヘッドアップディスプレイであって、
     前記所定の画像を生成するための光を出射する画像生成部と、
     前記画像生成部により出射された光がウインドシールドまたはコンバイナへ照射されるように、前記光を反射させる反射部と、
     前記画像生成部から出射された前記光を透過して前記反射部へ入射させる光学部材と、
     前記光学部材を揺動させるための駆動部と、
     前記画像生成部の動作を制御する制御部と、を備え、
     前記制御部は、前記駆動部による前記光学部材の揺動に応じて前記画像生成部における光の出射位置を変更させる、ヘッドアップディスプレイ。
PCT/JP2019/042583 2018-11-30 2019-10-30 ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法 WO2020110580A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP19889683.9A EP3888965B1 (en) 2018-11-30 2019-10-30 Head-up display, vehicle display system, and vehicle display method
CN201980078724.9A CN113165513A (zh) 2018-11-30 2019-10-30 平视显示器、车辆用显示系统以及车辆用显示方法
US17/298,459 US20220107497A1 (en) 2018-11-30 2019-10-30 Head-up display, vehicle display system, and vehicle display method
JP2020558210A JP7254832B2 (ja) 2018-11-30 2019-10-30 ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法

Applications Claiming Priority (12)

Application Number Priority Date Filing Date Title
JP2018-225174 2018-11-30
JP2018225178 2018-11-30
JP2018225175 2018-11-30
JP2018-225173 2018-11-30
JP2018-225175 2018-11-30
JP2018225173 2018-11-30
JP2018225177 2018-11-30
JP2018-225176 2018-11-30
JP2018225176 2018-11-30
JP2018-225178 2018-11-30
JP2018-225177 2018-11-30
JP2018225174 2018-11-30

Publications (1)

Publication Number Publication Date
WO2020110580A1 true WO2020110580A1 (ja) 2020-06-04

Family

ID=70852051

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/042583 WO2020110580A1 (ja) 2018-11-30 2019-10-30 ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法

Country Status (5)

Country Link
US (1) US20220107497A1 (ja)
EP (1) EP3888965B1 (ja)
JP (1) JP7254832B2 (ja)
CN (1) CN113165513A (ja)
WO (1) WO2020110580A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114114685A (zh) * 2020-08-27 2022-03-01 纳宝实验室株式会社 平视显示器及其控制方法
CN114489332A (zh) * 2022-01-07 2022-05-13 北京经纬恒润科技股份有限公司 Ar-hud输出信息的显示方法及系统
WO2023090440A1 (ja) 2021-11-22 2023-05-25 株式会社小糸製作所 画像照射装置
DE112022001951T5 (de) 2021-03-31 2024-01-25 Koito Manufacturing Co., Ltd. Bilderzeugungsvorrichtung, Bildbestrahlungsvorrichtung, die mit dieser Bilderzeugungsvorrichtung ausgestattet ist, und Bildbestrahlungsvorrichtung
JP7516954B2 (ja) 2020-07-28 2024-07-17 日本精機株式会社 ヘッドアップディスプレイ装置、表示制御装置、及び表示制御プログラム
JP7552525B2 (ja) 2021-07-30 2024-09-18 株式会社デンソー 車両用表示システム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3911921A1 (en) * 2019-01-18 2021-11-24 Vestel Elektronik Sanayi ve Ticaret A.S. Head-up display system
DE102019117689A1 (de) * 2019-07-01 2021-01-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Steuereinheit zur Darstellung einer Verkehrssituation durch Ausblenden von Verkehrsteilnehmer-Symbolen
KR20220102709A (ko) * 2021-01-13 2022-07-21 현대모비스 주식회사 차량 디스플레이 제어 장치 및 그 방법
TWI788049B (zh) * 2021-10-13 2022-12-21 怡利電子工業股份有限公司 具有眼睛追蹤功能的指向性背光顯示器裝置
CN113934004B (zh) * 2021-10-26 2023-06-09 深圳迈塔兰斯科技有限公司 一种图像生成装置、抬头显示器及交通工具
US20230316914A1 (en) * 2022-04-01 2023-10-05 GM Global Technology Operations LLC System and method for providing platooning information using an augmented reality display
WO2024096161A1 (ko) * 2022-11-02 2024-05-10 엘지전자 주식회사 차량의 디스플레이 장치
JP2024106016A (ja) * 2023-01-26 2024-08-07 キヤノン株式会社 制御装置、制御方法及び制御プログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005313733A (ja) 2004-04-28 2005-11-10 Nippon Seiki Co Ltd 車両用表示装置
JP2005331624A (ja) * 2004-05-19 2005-12-02 Nippon Seiki Co Ltd 車両用ヘッドアップディスプレイ装置
JP2011121401A (ja) * 2009-12-08 2011-06-23 Toshiba Corp 表示装置、表示方法及び移動体
JP2011123119A (ja) * 2009-12-08 2011-06-23 Toshiba Corp 表示装置、表示方法及び移動体
JP2015003707A (ja) * 2013-06-24 2015-01-08 株式会社デンソー ヘッドアップディスプレイ、及びプログラム
JP2015128956A (ja) * 2014-01-08 2015-07-16 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP2015152467A (ja) * 2014-02-17 2015-08-24 パイオニア株式会社 表示制御装置、制御方法、プログラム、及び記憶媒体
JP2016024202A (ja) * 2014-07-16 2016-02-08 クラリオン株式会社 表示制御装置および表示制御方法
JP2017193246A (ja) * 2016-04-20 2017-10-26 株式会社Jvcケンウッド 虚像表示装置および虚像表示方法
JP2018039332A (ja) * 2016-09-06 2018-03-15 日本精機株式会社 ヘッドアップディスプレイ装置
JP2018045103A (ja) 2016-09-14 2018-03-22 パナソニックIpマネジメント株式会社 表示装置
JP2018097252A (ja) * 2016-12-15 2018-06-21 株式会社Jvcケンウッド ヘッドアップディスプレイ

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3949674B2 (ja) * 2004-05-11 2007-07-25 株式会社コナミデジタルエンタテインメント 表示装置、表示方法、ならびに、プログラム
JP2008014754A (ja) * 2006-07-05 2008-01-24 Xanavi Informatics Corp ナビゲーション装置
KR101957943B1 (ko) * 2012-08-31 2019-07-04 삼성전자주식회사 정보 제공 방법 및 이를 위한 정보 제공 차량
JP5987791B2 (ja) * 2013-06-28 2016-09-07 株式会社デンソー ヘッドアップディスプレイ及びプログラム
JP2015125467A (ja) * 2013-12-25 2015-07-06 キヤノン株式会社 画像処理装置、その制御方法、および制御プログラム
JP6105531B2 (ja) * 2014-09-04 2017-03-29 矢崎総業株式会社 車両用投影表示装置
JP6485109B2 (ja) * 2015-02-26 2019-03-20 アイシン・エィ・ダブリュ株式会社 虚像表示装置
JP6596883B2 (ja) * 2015-03-31 2019-10-30 ソニー株式会社 ヘッドマウントディスプレイ及びヘッドマウントディスプレイの制御方法、並びにコンピューター・プログラム
KR20160149603A (ko) * 2015-06-18 2016-12-28 삼성전자주식회사 전자 장치 및 전자 장치에서의 노티피케이션 처리 방법
WO2017134861A1 (ja) * 2016-02-05 2017-08-10 日立マクセル株式会社 ヘッドアップディスプレイ装置
KR101899981B1 (ko) * 2016-12-02 2018-09-19 엘지전자 주식회사 차량용 헤드 업 디스플레이
WO2018167844A1 (ja) * 2017-03-14 2018-09-20 マクセル株式会社 ヘッドアップディスプレイ装置とその画像表示方法
KR102306790B1 (ko) * 2017-11-08 2021-09-30 삼성전자주식회사 컨텐츠 시각화 장치 및 방법
CN108896067B (zh) * 2018-03-23 2022-09-30 江苏泽景汽车电子股份有限公司 一种用于车载ar导航的动态显示方法及装置
WO2020017677A1 (ko) * 2018-07-20 2020-01-23 엘지전자 주식회사 영상 출력 장치

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005313733A (ja) 2004-04-28 2005-11-10 Nippon Seiki Co Ltd 車両用表示装置
JP2005331624A (ja) * 2004-05-19 2005-12-02 Nippon Seiki Co Ltd 車両用ヘッドアップディスプレイ装置
JP2011121401A (ja) * 2009-12-08 2011-06-23 Toshiba Corp 表示装置、表示方法及び移動体
JP2011123119A (ja) * 2009-12-08 2011-06-23 Toshiba Corp 表示装置、表示方法及び移動体
JP2015003707A (ja) * 2013-06-24 2015-01-08 株式会社デンソー ヘッドアップディスプレイ、及びプログラム
JP2015128956A (ja) * 2014-01-08 2015-07-16 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
JP2015152467A (ja) * 2014-02-17 2015-08-24 パイオニア株式会社 表示制御装置、制御方法、プログラム、及び記憶媒体
JP2016024202A (ja) * 2014-07-16 2016-02-08 クラリオン株式会社 表示制御装置および表示制御方法
JP2017193246A (ja) * 2016-04-20 2017-10-26 株式会社Jvcケンウッド 虚像表示装置および虚像表示方法
JP2018039332A (ja) * 2016-09-06 2018-03-15 日本精機株式会社 ヘッドアップディスプレイ装置
JP2018045103A (ja) 2016-09-14 2018-03-22 パナソニックIpマネジメント株式会社 表示装置
JP2018097252A (ja) * 2016-12-15 2018-06-21 株式会社Jvcケンウッド ヘッドアップディスプレイ

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7516954B2 (ja) 2020-07-28 2024-07-17 日本精機株式会社 ヘッドアップディスプレイ装置、表示制御装置、及び表示制御プログラム
CN114114685A (zh) * 2020-08-27 2022-03-01 纳宝实验室株式会社 平视显示器及其控制方法
DE112022001951T5 (de) 2021-03-31 2024-01-25 Koito Manufacturing Co., Ltd. Bilderzeugungsvorrichtung, Bildbestrahlungsvorrichtung, die mit dieser Bilderzeugungsvorrichtung ausgestattet ist, und Bildbestrahlungsvorrichtung
JP7552525B2 (ja) 2021-07-30 2024-09-18 株式会社デンソー 車両用表示システム
WO2023090440A1 (ja) 2021-11-22 2023-05-25 株式会社小糸製作所 画像照射装置
CN114489332A (zh) * 2022-01-07 2022-05-13 北京经纬恒润科技股份有限公司 Ar-hud输出信息的显示方法及系统

Also Published As

Publication number Publication date
EP3888965B1 (en) 2023-09-13
US20220107497A1 (en) 2022-04-07
JPWO2020110580A1 (ja) 2021-11-11
CN113165513A (zh) 2021-07-23
EP3888965A1 (en) 2021-10-06
JP7254832B2 (ja) 2023-04-10
EP3888965A4 (en) 2021-12-22

Similar Documents

Publication Publication Date Title
JP7254832B2 (ja) ヘッドアップディスプレイ、車両用表示システム、及び車両用表示方法
JP7241081B2 (ja) 車両用表示システム及び車両
JP7295863B2 (ja) 車両用表示システム及び車両
US11597316B2 (en) Vehicle display system and vehicle
JP7470230B2 (ja) 車両用表示システム、車両システム及び車両
JP7478160B2 (ja) ヘッドアップディスプレイおよび画像表示システム
JP7545400B2 (ja) 車両用表示システム及び車両
WO2021015171A1 (ja) ヘッドアップディスプレイ
WO2023190338A1 (ja) 画像照射装置
JP7492971B2 (ja) ヘッドアップディスプレイ

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19889683

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020558210

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2019889683

Country of ref document: EP

Effective date: 20210630