WO2020049881A1 - ヘッドアップディスプレイ装置 - Google Patents

ヘッドアップディスプレイ装置 Download PDF

Info

Publication number
WO2020049881A1
WO2020049881A1 PCT/JP2019/028351 JP2019028351W WO2020049881A1 WO 2020049881 A1 WO2020049881 A1 WO 2020049881A1 JP 2019028351 W JP2019028351 W JP 2019028351W WO 2020049881 A1 WO2020049881 A1 WO 2020049881A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
display device
head
video
Prior art date
Application number
PCT/JP2019/028351
Other languages
English (en)
French (fr)
Inventor
望 下田
滝澤 和之
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to JP2020541050A priority Critical patent/JP7053857B2/ja
Publication of WO2020049881A1 publication Critical patent/WO2020049881A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Definitions

  • the present invention relates to a head-up display device, and more particularly to a technology effective when applied to a head-up display device using AR (Augmented Reality).
  • Patent Document 1 discloses a management system including a network camera that captures an image of a projection area of an image projection apparatus such as a liquid crystal projector, and a computer that detects an abnormality of the image projection apparatus based on information on the projection area acquired by the network camera. Is shown.
  • a vehicle represented by an automobile may be equipped with a head-up display (hereinafter, sometimes referred to as "HUD").
  • HUD head-up display
  • the HUD projects and displays various information such as running information such as vehicle speed and engine speed and navigation information on a windshield (windshield) or the like.
  • running information such as vehicle speed and engine speed and navigation information
  • windshield windshield
  • the driver can obtain necessary information without moving his line of sight to an instrument panel built into the dashboard, so-called instrument panel. For this reason, it is possible to contribute to safe driving.
  • abnormal display such as an increase in display luminance, a failure to update display information, and a large amount of unnecessary information display may occur.
  • the driver's attention may be directed to the display of the HUD instead of a real sign or obstacle, or the driver may have poor visibility, which may hinder safe driving.
  • AR-HUD AR-HUD
  • the present invention has been made in view of such circumstances, and one of its objects is to provide a head-up display device capable of preventing or suppressing abnormal display that hinders driving. is there.
  • a typical head-up display device projects a projected image onto a display area of a windshield to allow a driver of a vehicle to visually recognize a scene on which the projected image is superimposed. It has a device, a monitoring camera, and a video diagnostic unit.
  • the video data generation unit generates display video data that determines the display content of the projection video.
  • the video display device displays a display video based on the display video data.
  • the surveillance camera takes an image of the display image before the scenery is superimposed.
  • the image diagnostic unit diagnoses whether there is an abnormality in the projected image based on the image captured by the monitoring camera.
  • FIG. 1 is a schematic diagram illustrating a configuration example of a vehicle equipped with a head-up display device according to a first embodiment of the present invention.
  • FIG. 2 is a schematic diagram illustrating a configuration example around a video display unit in FIG. 1.
  • FIG. 2 is a block diagram illustrating a configuration example of a main part of the head-up display device according to the first embodiment of the present invention.
  • FIG. 4 is a block diagram illustrating a configuration example of a portion related to acquisition of vehicle information in FIG.
  • FIG. 4 is a schematic diagram illustrating an example of processing contents of a video diagnostic unit in FIG. 3.
  • FIG. 4 is a flowchart illustrating an example of processing contents of a video diagnostic unit in FIG. 3.
  • FIG. 4 is a flowchart illustrating an example of an initial operation in the head-up display device in FIG. 3.
  • FIG. 8 is a flowchart illustrating an example of a normal operation of the HUD device in FIG. 7.
  • FIG. 4 is a diagram illustrating an example of display contents on a windshield by an error processing unit in FIG. 3 when an abnormality occurs. It is a figure which shows an example of the installation location of the monitoring camera different from FIG. It is a figure which shows an example of the installation location of the monitoring camera different from FIG.
  • FIG. 7 is a block diagram showing a configuration example of a main part of a head-up display device according to a second embodiment of the present invention.
  • FIG. 13 is a schematic diagram illustrating an example of processing contents of a video diagnostic unit in FIG. 12.
  • FIG. 13 is a flowchart illustrating an example of processing contents of a video diagnostic unit in FIG. 12.
  • FIG. 13 is a diagram illustrating different examples of various installation locations of the monitoring camera in FIG. 12.
  • FIG. 16 is a diagram illustrating an example of an installation location of a monitoring camera for a video display unit different from that in FIG. 15.
  • (A) And (b) is a figure which shows an example of the abnormal display screen examined as a premise of this invention. It is a figure showing other examples of the abnormal display screen examined as a premise of the present invention.
  • FIG. 1 is a schematic diagram showing a configuration example of a vehicle equipped with a head-up display device according to Embodiment 1 of the present invention.
  • the head-up display (HUD) device 1 of FIG. The vehicle 2 is typically a car, but is not necessarily limited thereto, and may be a railway car or the like in some cases.
  • the HUD device 1 acquires vehicle information 4 from various sensors installed in each part of the vehicle 2. The various sensors detect, for example, various events that have occurred in the vehicle 2 and periodically detect values of various parameters related to the driving situation.
  • the vehicle information 4 includes, for example, speed information and gear information of the vehicle 2, steering wheel angle information, lamp lighting information, external light information, distance information, infrared information, engine ON / OFF information, camera image information inside and outside the vehicle, acceleration. Gyro information, GPS (Global Positioning System) information, navigation information, vehicle-to-vehicle communication information, road-to-vehicle communication information, and the like are included.
  • the HUD device 1 projects a projection image on the display area 5 of the windshield 3 using the image display unit 12 based on such vehicle information 4. As a result, the HUD device 1 allows the driver of the vehicle 2 to visually recognize the scene on which the projected image is superimposed.
  • FIG. 2 is a schematic diagram showing a configuration example around the video display unit in FIG.
  • the image display unit 12 shown in FIG. 2 includes an image display device 35, a reflecting mirror 36, and a concave mirror (magnifying mirror) 37.
  • the video display device 35 is, for example, a projector or an LCD (Liquid Crystal Display), and displays a display video based on display video data specified by the control unit.
  • the reflecting mirror 36 and the concave mirror 37 are, for example, free-form mirrors or mirrors having an optical axis asymmetric shape.
  • the reflecting mirror 36 reflects the display image displayed on the image display device 35 on the surface.
  • the concave mirror 37 reflects and enlarges the display image reflected by the reflecting mirror 36 on the surface, and projects the display image onto the display area 5 through the opening 7.
  • the driver 6 visually recognizes the projected image projected on the display area 5 as a virtual image ahead of the transparent windshield 3 so as to be superimposed on the scenery outside the vehicle (roads, buildings, people, etc.).
  • the projection image includes various things such as a road sign, the current speed of the own vehicle, and various information (AR information) added to an object on a landscape.
  • AR information various information added to an object on a landscape.
  • FIG. 2 for example, by adjusting the angle of the concave mirror 37, the position of the display area 5 on the windshield 3 can be adjusted, and the position of the virtual image visually recognized by the driver 6 is adjusted in the vertical direction. It is possible.
  • the area of the display area 5 can be enlarged, and more information can be projected on the display area 5. This makes it possible to realize an AR function in which various types of information are added to and displayed on an object on a landscape.
  • FIGS. 17A and 17B are diagrams showing an example of an abnormal display screen examined as a premise of the present invention.
  • FIG. 18 is a diagram showing another example of the abnormal display screen examined as a premise of the present invention.
  • an abnormality has occurred in the guidance display displayed in the display area 5 based on the navigation information. Specifically, as shown in the upper part of FIG. 17A, the display of the left turn guidance and the distance to the left turn point P1 remain even though the vehicle 76 has passed the left turn point P1 of the intersection. It is in a state. This state may occur, for example, when the video display device 35 or the navigation system freezes.
  • an abnormality has occurred in which the entire or most of the display area 5 is painted out. This state may occur, for example, when the video display device 35 breaks down.
  • an abnormality has occurred such that a large number of unnecessary and unrelated projection targets are displayed in the entire display area 5. This state can occur, for example, when there is an abnormality in the display video data itself based on the navigation system.
  • the driver may be distracted by the abnormal display portion instead of the existing sign, obstacle, or the like, which may hinder safe driving.
  • poor visibility of the driver also occurs, which may further hinder safe driving.
  • This problem of poor visibility becomes more prominent in a HUD device (referred to as an AR-HUD device) using an AR that requires a wide display area 5. Therefore, it is beneficial to use the method of the embodiment described later.
  • FIG. 3 is a block diagram showing a configuration example of a main part of the head-up display device according to the first embodiment of the present invention.
  • FIG. 4 is a block diagram showing a configuration example of a portion related to acquisition of vehicle information in FIG.
  • the head-up display (HUD) device 1 illustrated in FIG. 3 includes a control unit (ECU: Electronic Control Unit) 10a, a speaker 11, an image display unit 12, and a mirror driving unit 13.
  • the image display unit 12 includes an image display device 35 and a concave mirror 37 as shown in FIG.
  • the control unit 10a mainly controls display of a projected image (virtual image) in the HUD device 1 and controls audio output.
  • the control unit 10a includes, for example, a wiring board, and is mounted on the wiring board.
  • the system includes a failure determination unit 21, a unit failure determination unit 22, an error processing unit 23, and the like.
  • the vehicle information acquisition unit 15 is, for example, a CAN (Controller Area Network) interface or a LIN (Local Interconnect Network) interface, and acquires the vehicle information 4 based on a communication protocol such as CAN or LIN.
  • the vehicle information 4 is generated by an information acquisition device such as various sensors connected to the vehicle information acquisition unit 15, as shown in FIG. FIG. 4 shows an example of various information acquisition devices.
  • the vehicle speed sensor 41 detects the speed of the vehicle 2 in FIG. 1 and generates speed information as a detection result.
  • the shift position sensor 42 detects a current gear and generates gear information as a detection result.
  • the steering wheel steering angle sensor 43 detects a current steering wheel steering angle and generates steering wheel steering angle information as a detection result.
  • the headlight sensor 44 detects ON / OFF of the headlight, and generates lamp lighting information as a detection result.
  • the illuminance sensor 45 and the chromaticity sensor 46 detect external light and generate external light information as a detection result.
  • the distance measuring sensor 47 detects a distance between the vehicle 2 and an external object, and generates distance information as a detection result.
  • the infrared sensor 48 detects the presence or absence of an object at a short distance to the vehicle 2 and the distance, and generates infrared information as a detection result.
  • the engine start sensor 49 detects ON / OFF of the engine, and generates ON / OFF information as a detection result.
  • the acceleration sensor 50 and the gyro sensor 51 detect the acceleration and the angular velocity of the vehicle 2, respectively, and generate acceleration gyro information indicating the attitude and behavior of the vehicle 2 as a detection result.
  • the temperature sensor 52 detects the temperature inside and outside the vehicle, and generates temperature information as a detection result.
  • the road-vehicle communication wireless transceiver 53 generates road-vehicle communication information by road-vehicle communication between the vehicle 2 and a road, a sign, a signal, or the like.
  • the inter-vehicle communication wireless transceiver 54 generates inter-vehicle communication information by inter-vehicle communication between the vehicle 2 and other vehicles in the vicinity.
  • the in-vehicle camera 55 and the out-of-vehicle camera 56 generate in-vehicle camera image information and out-of-vehicle camera image information by photographing the inside and outside of the vehicle, respectively.
  • the in-vehicle camera 55 is, for example, a DMS (Driver Monitoring System) camera that captures the attitude of the driver 6, the position of the eyes, and the movement of the driver 6 in FIG. In this case, by analyzing the captured image, the fatigue state of the driver 6, the position of the line of sight, and the like can be grasped.
  • DMS Driver Monitoring System
  • the external camera 56 captures, for example, a situation around the vehicle 2 such as in front and behind. In this case, by analyzing the captured video, the presence or absence of obstacles such as other vehicles and people in the vicinity, the building and terrain, the road surface conditions such as rain and snow, freezing, unevenness, etc., and road signs etc. It becomes possible to grasp.
  • the external camera 56 includes, for example, a drive recorder that records a running state in a video.
  • the GPS receiver 57 generates GPS information obtained by receiving a GPS signal.
  • a VICS (Vehicle Information and Communication System) (registered trademark) receiver 58 generates VICS information obtained by receiving a VICS signal.
  • the GPS receiver 57 and the VICS receiver 58 may be provided as a part of the navigation system. Note that the various information acquisition devices in FIG. 4 can be appropriately deleted, another type of device can be added, or replaced with another type of device.
  • a CPU (Central Processing Unit) 16 receives such vehicle information 4 via the vehicle information acquisition unit 15 and, based on the vehicle information 4 and the like, audio data or video data for the speaker 11.
  • the display image data or the like directed to the display device 35 is generated.
  • the CPU 16 includes an audio data generation unit 27, a video data generation unit 28, a distortion correction unit 29, a light source adjustment unit 30, a mirror adjustment unit 31, and a video diagnosis unit 25a. These units are implemented by a program stored in the nonvolatile memory 17 or the volatile memory 18.
  • the audio data generation unit 27 generates audio data based on the vehicle information 4 and the like as needed.
  • the voice data is generated, for example, when voice guidance of the navigation system is performed or when a warning is issued to the driver 6 by the AR function.
  • the audio driver 19 drives the speaker 11 based on the audio data, and causes the speaker 11 to output audio.
  • the video data generator 28 generates display video data that determines the display content of the projection video projected on the display area 5 in FIG. 2 or the like based on the vehicle information 4 and the like.
  • the distortion correction unit 29 generates corrected display video data by adding distortion correction to the display video data from the video data generation unit 28. Specifically, as shown in FIG. 2, when the display image of the image display device 35 is projected on the display area 5, the distortion correction unit 29 corrects the distortion of the display image caused by the curvature of the windshield 3. .
  • the display driver 20 drives each display element in the video display device 35 based on the corrected display video data from the distortion correction unit 29. Thereby, the video display device 35 displays a display video based on the corrected display video data.
  • the light source adjustment unit 30 adjusts the light emission amount of the video display device 35.
  • the mirror adjusting unit 31 changes the angle of the concave mirror 37 in the video display unit 12 via the mirror driving unit 13 when the position of the display area 5 in the windshield 3 needs to be adjusted.
  • the vehicle information 4 includes an image captured by the monitoring camera.
  • the surveillance camera corresponds to the outside camera 56 (in some cases, the inside camera 55) shown in FIG. 4 and captures a scene in which the projected image in the display area 5 is superimposed.
  • the image diagnostic unit 25a diagnoses whether or not the projection image in the display area 5 is abnormal based on the image captured by the monitoring camera, as described in detail later.
  • the self-failure determination unit 21 determines whether there is an abnormality in the hardware or the like in the HUD device 1, that is, whether or not there is a device abnormality. When the self-failure determination unit 21 determines that the device abnormality of the HUD device 1 has occurred, it generates an abnormality occurrence signal and outputs the signal to the error processing unit 23.
  • the unit failure determination unit 22 determines whether a failure has occurred in a unit mounted on the vehicle 2 other than the HUD device 1. When determining that an abnormality has occurred in another unit, the unit failure determination unit 22 generates an abnormality occurrence signal and outputs the signal to the error processing unit 23.
  • the error processing unit 23 receives the abnormality occurrence signal output from the self-failure determination unit 21 or the unit failure determination unit 22, or displays the projection image (displayed when the image diagnosis unit 25a determines that there is an abnormality).
  • the display content of the projected image is changed so that the virtual image does not hinder driving.
  • the non-volatile memory 17 mainly stores in advance programs executed by the CPU 16 and setting parameters used in processing of each unit in the CPU 16 in advance.
  • the volatile memory 18 mainly stores the acquired vehicle information 4 and data used in processing of each unit in the CPU 16 as appropriate. For example, captured video data based on a video captured by the monitoring camera, and display video data generated by the video data generation unit 28 and the distortion correction unit 29 are stored in the volatile memory 18.
  • the self-failure determination unit 21 and the unit failure determination unit 22 detect a failure of the HUD device or a sign of the failure.
  • the video diagnostic unit 25a detects an abnormality from an actual captured image obtained by the monitoring camera.
  • the self-failure determination unit 21 and the unit failure determination unit 22 it is possible to take precautionary measures before an abnormality actually occurs in the display area 5, but all failures that cause an abnormality in the display area 5 are detected. Since it is not always possible, detection omission may occur.
  • the image diagnosis unit 25a is used together, it is possible to prevent this detection omission.
  • the image diagnosis unit 25a can be applied alone, of course, and does not necessarily need to be used together with the self-failure determination unit 21 and the unit failure determination unit 22.
  • the vehicle information acquisition unit 15, the CPU 16, the nonvolatile memory 17, the volatile memory 18, the audio driver 19, and the display driver 20 in the control unit (ECU) 10a in FIG. It may be implemented in a computer or an FPGA (Field Programmable Gate Array).
  • the self-failure determination unit 21, the unit failure determination unit 22, and the error processing unit 23 are failure determination targets including the CPU 16, and from the viewpoint of performing error processing even when the CPU 16 fails, for example, the external , Or a processor provided separately.
  • some or all of the self-failure determination unit 21, the unit failure determination unit 22, and the error processing unit 23 may be implemented in the CPU 16 in some cases.
  • FIG. 5 is a schematic diagram illustrating an example of the processing content of the video diagnostic unit in FIG.
  • the surveillance camera 56a shown in FIG. 5 is one of the exterior cameras 56 shown in FIG.
  • the monitoring camera 56a is installed, for example, near the eye point of the headrest, and captures an image of the display area 5 of the windshield from the driver's 6 line of sight.
  • a captured video (captured video data) 60 in which the projection video is superimposed on the landscape is obtained.
  • the surveillance camera is installed on the headrest, but is not limited to this, and may be installed on, for example, glasses (goggles) worn by the driver 6.
  • the video diagnostic unit 25a performs a distinction process E0 for distinguishing the landscape and the projection target (virtual image) 64 in the captured video 60.
  • the discrimination process E0 is performed, for example, by detecting a frame difference at each time with respect to the captured video 60. More specifically, normally, the projection object (virtual image) 64 has a long time in which it does not change, while the scenery changes every moment. Utilizing the difference in the change speed, the video diagnostic unit 25a changes the data of the area that changes in a short time to blank data for the captured video (captured video data) 60, for example. Only the processed captured video (captured video data) 61 in which only the remaining video data remains is generated.
  • the video diagnostic unit 25a performs, as a first diagnostic process D1, a projection target 64 in the processed captured video 61 (and thus the captured video 60) and a projection target in the output scheduled video 62 represented by the display video data.
  • the presence or absence of an abnormality in the projection image is diagnosed by verifying the identity of the projection image.
  • the video diagnostic unit 25a determines, for example, whether the size, shape, and location of the projection target 63 are equal to the size, shape, and location of the projection target 64. At this time, for example, if the difference between the size, shape, and location of the projection target 63 and the size, shape, and location of the projection target 64 is within several percent, both are determined to be equivalent.
  • the projection target 63 in the output scheduled video (display video data) 62 is one small left-turn guidance graphic, whereas the projection target 63 in the processed captured video 61 (the captured video 60).
  • the object 64 is two large left turn guide figures.
  • the video diagnostic unit 25a determines that the projection target 63 and the projection target 64 are not equivalent, and diagnoses that there is an abnormality.
  • the output scheduled video (display video data) 62 is generated by the video data generator 28 (or the distortion corrector 29) in FIG.
  • the abnormalities shown in the processed captured image 61 include two large left-turned display figures such as the projection target 64 in the output scheduled image 62 itself due to the abnormality of the output scheduled image (display image data) 62. It can also happen in some cases. Therefore, the video diagnostic unit 25a detects, as the second diagnostic process D2, the ratio of the projection target 64 in the processed captured video 61 (the captured video 60), and determines whether the ratio exceeds a predetermined threshold. Is determined, the presence or absence of an abnormality in the projected image is diagnosed. In a situation such as the processed captured image 61, the ratio of the projection target 64 exceeds the threshold value, so that it is diagnosed that there is an abnormality.
  • the video diagnostic unit 25a detects the proportion of the filled area in the captured video 60, and determines whether the proportion exceeds a predetermined threshold to determine whether the projected video is abnormal. Diagnose the presence or absence of The filled area is, for example, an area having a level of luminance that blocks scenery.
  • the video diagnosis unit 25a adds, for example, in FIG. 5, the projection target object 64 in FIG. 5 in addition to the situation shown in FIG. Even in the case of being painted out, it can be diagnosed that there is an abnormality.
  • the second diagnosis process D2 is performed by detecting the ratio of the area surrounded by the contour of the projection target 64 regardless of the internal state of the projection target 64.
  • the third diagnostic process D3 is performed by detecting the ratio of the region having a luminance level that blocks scenery regardless of the presence or absence of the projection target.
  • FIG. 6 is a flowchart showing an example of the processing content of the video diagnostic unit in FIG.
  • the video diagnostic unit 25a first obtains a video captured by the monitoring camera (video image data) and a video to be output to the video display device 35 (display video data) (step S200). Subsequently, as described in the distinction process E0 in FIG. 5, the image diagnosis unit 25a distinguishes between the landscape and the projection target in the captured image (Step S201). Next, as described in the first diagnosis processing D1 of FIG. 5, the video diagnostic unit 25a determines whether the projection target in the captured video is equal to the projection target in the output-scheduled video (Step S1). S202).
  • step S207 the error processing unit 23 changes the display content of the projected image so that the projected image (virtual image) does not hinder driving. Specifically, the error processing unit 23 performs, for example, control to substantially eliminate the projected image.
  • the image diagnosis unit 25a proceeds to step S203.
  • step S203 the video diagnostic unit 25a detects the ratio of the projection target in the captured video as described in the second diagnostic process D2 of FIG. 5, and in step S204, the ratio and a predetermined threshold value are set. Compare. When the ratio of the projection target object exceeds the threshold (“No” in step S204), the image diagnosis unit 25a outputs an abnormality occurrence signal to step S207, and when the ratio does not exceed the threshold (“Yes” in step S204). ""), The process proceeds to step S205.
  • step S205 the video diagnostic unit 25a detects the ratio of the filled area in the captured video as described in the third diagnostic process D3 in FIG. 5, and in step S206, compares the ratio with a predetermined threshold. Compare. When the ratio of the filled area exceeds the threshold (when “No” in step S206), the image diagnosis unit 25a outputs an abnormality occurrence signal to step S207, and when the ratio does not exceed the threshold (“Yes” in step S206). Time), the video diagnosis processing ends.
  • an abnormality such as that shown in FIG. 17A caused by the freeze of the video display device 35 can be detected by the process of the step S202 (first diagnosis process D1). Further, an abnormality as shown in FIG. 17B can be detected by the process of step S206 (third diagnostic process D3). Further, an abnormality as shown in FIG. 18 can be detected by the process of step S204 (second diagnostic process D2).
  • the OR operation of each diagnostic result is performed using three types of diagnostic processing. However, any one or two or more of the three types of diagnostic processing may be used, and an AND operation of each diagnostic result may be appropriately performed. It is also possible to do.
  • FIG. 7 is a flowchart showing an example of an initial operation in the head-up display device of FIG.
  • the HUD device 1 acquires the vehicle information 4 using the vehicle information acquisition unit 15 (step S01).
  • the CPU 16 calculates a suitable brightness level based on the external light information acquired by the illuminance sensor 45, the chromaticity sensor 46, and the like in the vehicle information 4 (step S03), and the calculated brightness level is obtained.
  • the light emission amount of the video display device 35 is set using the light source adjusting unit 30 (step S04).
  • the brightness level is set high when the outside light is bright, and set low when the outside light is dark.
  • the video data generator 28 generates display video data that determines the display content of the projection video (Step S05).
  • This display content is, for example, a predetermined initial image.
  • the distortion correction unit 29 performs distortion correction on the display video data from the video data generation unit 28 (Step S06), and the display driver 20 performs the video display device based on the corrected display video data.
  • the 35 display elements are driven (step S07). Accordingly, the video display device 35 displays a display video based on the corrected display video data, and the display video is projected onto the display area 5 of the windshield 3 via the mirror in the video display unit 12.
  • the video diagnostic unit 25a executes a video diagnostic process as shown in FIG. 6 (Step S101).
  • the error processing unit 23 performs a predetermined error process (step S103).
  • the error processing may include, in addition to the processing for changing the display content of the projection video, a processing for prohibiting the normal operation of the HUD device 1 due to a start-up failure.
  • step S102 if a failure occurrence signal is not output in step S102 ("No"), the starting and starting of each unit including a series of initial operations in the HUD device 1 are completed, and the HUD-ON signal is output.
  • the CPU 16 determines whether or not this HUD-ON signal has been received (step S08). If the CPU 16 has not received the HUD-ON signal, the CPU 16 waits for the HUD-ON signal for a certain period of time until receiving the HUD-ON signal (step S09). On the other hand, when receiving the HUD-ON signal, the CPU 16 starts a normal operation of the HUD device 1 described later (step S10), and ends a series of initial operations.
  • FIG. 8 is a flowchart showing an example of the normal operation of the HUD device in FIG.
  • the basic processing flow is almost the same as the initial operation shown in FIG.
  • the HUD device 1 acquires the vehicle information 4 using the vehicle information acquisition unit 15 (Step S21).
  • the CPU 16 determines whether or not to execute the process of Step S23 described later (Step S22).
  • the process of step S22 is performed every time a preset time elapses, and it is determined that the process of step S23 is performed when the set time has elapsed from the previous process.
  • step S23 If the set time has elapsed from the previous processing (“Yes” in step S22), the CPU 16 executes a failure occurrence status confirmation and display content change processing (step S23). In the process of confirming the failure occurrence status and changing the display contents, the failure occurrence status of the HUD device 1 is confirmed using the self-failure determination unit 21 and the unit failure determination unit 22, and the HUD device 1 displays using the error processing unit 23. This is the process of changing the contents. On the other hand, when the set time has not elapsed from the previous processing (“No” in step S22), the CPU 16 determines the vehicle information 4 based on the external light information acquired by the illuminance sensor 45, the chromaticity sensor 46, and the like. Then, a brightness level adjustment process is performed (step S24).
  • the video data generation unit 28 determines the update content of the projection video based on the latest vehicle information 4 acquired in the process of step S21, and generates display video data corresponding to the update content (step S25).
  • the update content There are various ways to determine the update content according to the content of the vehicle information 4 or a combination thereof. For example, when the speed information changes, the method of changing the numerical value of the speed display that is always displayed, displaying / erasing the guidance arrow figure based on the navigation information, changing the shape and display position of the arrow, etc. And the like.
  • the HUD device 1 performs an adjustment / correction process for maintaining visibility, appropriateness of display contents, and the like in accordance with the traveling state of the vehicle 2.
  • the mirror adjustment unit 31 changes the angle of the concave mirror 37 via the mirror driving unit 13 and moves the display area 5 up and down. Is performed (step S26).
  • the HUD device 1 determines whether or not the video diagnosis is necessary (Step S121). For example, when performing video diagnosis periodically, it is determined that video diagnosis is necessary when a predetermined time or more has elapsed since the previous video diagnosis. If the video diagnosis is required in step S121 ("Yes"), the video diagnosis unit 25a executes the video diagnosis process as shown in FIG. 6 (step S122). At this time, when the image diagnostic unit 25a outputs an abnormality occurrence signal, the error processing unit 23 performs a process of changing the display content of the projection image so as not to hinder driving. This changed display content is maintained, for example, immediately before the next video diagnosis, and is released immediately before the next video diagnosis.
  • step S27 the CPU 16 determines whether or not a HUD-OFF signal has been received. In other words, if the power is turned off due to the stop of the vehicle 2 or the like during the series of normal operations described above, a HUD-OFF signal is output to the HUD device 1. The CPU 16 determines the presence or absence of the output. If the CPU 16 has not received the HUD-OFF signal, the process returns to step S21. If the CPU 16 has received the HUD-OFF signal, the normal operation ends.
  • FIG. 9 is a diagram illustrating an example of display contents on a windshield by the error processing unit in FIG. 3 when an abnormality occurs.
  • FIG. 9 schematically shows the display contents of the display area 5 that the driver 6 of the vehicle 2 in FIG. 2 visually recognizes from the driver's seat via the windshield 3.
  • the error processing unit 23 executes, for example, a process of shutting down the HUD device 1 itself.
  • the HUD device 1 is shut down, nothing is displayed in the display area 5 as shown in FIG. Thereby, the driver's 6 view can be secured, and safe driving can be maintained.
  • a unit that operates in cooperation with the HUD device 1, specifically, an ECU or the like included in an automatic driving system that supports automatic driving of the vehicle 2 cuts off power supplied to the HUD device 1. It is done by doing.
  • the error processing unit 23 outputs a control signal to an ECU or the like included in the unit described above.
  • the ECU Upon receiving the control signal from the error processing unit 23, the ECU performs a process of cutting off the power supplied to the HUD device 1.
  • the error processing unit 23 itself may perform a process of cutting off the power supplied to the HUD device 1.
  • the error processing unit 23 performs a shutdown process and outputs a flag indicating that the shutdown process has been performed.
  • the flag is stored, for example, in the nonvolatile memory 17 in FIG. If the flag is set when the HUD device 1 is activated, the CPU 16 performs a self-diagnosis and confirms that there are no abnormalities in various parameters, and then executes an initial operation.
  • the power supplied to the HUD device 1 is cut off, but the power supplied to the video display device 35 may be cut off instead.
  • the error processing unit 23 controls the light source adjustment unit 30 via the CPU 16 to adjust the light emission amount of the video display device 35. Processing may be performed. Specifically, when the video display device 35 is an LCD, the error processing unit 23 turns off the backlight which is a light source included in the LCD. As a result, the HUD device 1 performs an operation of displaying a projection image (virtual image), but can display nothing in the display area 5.
  • the advantage in this case is that the display of the virtual image in the display area 5 can be easily restored after the backlight is turned off.
  • the process of FIG. 8 (the process of step S23) is periodically executed. Therefore, when the faulty state is resolved, the error processing unit 23 controls the backlight to be turned on again, thereby returning to the normal state.
  • the video diagnosis processing that is, confirmation of whether or not restoration is possible
  • the video diagnosis processing is performed. Can be performed. Then, when there is no abnormality in the video diagnosis processing, it is possible to return to the normal state as it is.
  • FIG. 10 and FIG. 11 are diagrams illustrating an example of an installation location of a monitoring camera different from FIG.
  • the surveillance camera 56b shown in FIG. 10 is one of the exterior cameras 56 in FIG. 4, and is, for example, a drive recorder installed on the ceiling in the vehicle.
  • a drive recorder installed on the ceiling in the vehicle.
  • the HUD device 1 can capture a projection image with the surveillance camera 56 b by temporarily changing the angle of the concave mirror 37 using the mirror adjustment unit 31 in FIG. 3.
  • the display area 5 is moved to the position. This makes it possible to execute the image diagnosis processing as shown in FIG.
  • moving the display area 5 affects the visibility of the driver 6. For this reason, the image diagnosis processing is executed, for example, during the initial operation as shown in FIG. 7 or during a temporary stop, and thereafter, the display area 5 is returned to the original position by using the mirror adjustment unit 31. A return process is performed.
  • the surveillance camera 55a shown in FIG. 11 is one of the in-vehicle cameras 55 in FIG. 4, and is, for example, a DMS camera installed so as to capture the face of the driver 6.
  • a DMS camera installed so as to capture the face of the driver 6.
  • the surveillance camera 55a As shown in the captured video data (captured video) 65a, the presence or absence of abnormality in the projected video can be diagnosed from the HUD light that strikes the face. Specifically, by the processing in step S205 in FIG. 6, it is possible to detect an abnormality such that the entire display image on the image display device 35 is painted out. Further, by using the high-resolution surveillance camera 55a, the surveillance camera 55a can take an image of the inside of the pupil of the driver 6 as shown in the captured video data (captured video) 65b. In this case, it is possible to execute the image diagnosis processing of FIG. 6 on the image in the pupil.
  • Embodiment 1 Main effects of Embodiment 1 >> As described above, by using the head-up display device of the first embodiment, it is possible to detect an abnormality in the projected image projected on the display area 5, and based on this, an abnormal display that hinders driving is prevented or suppressed. It becomes possible to do. Further, in particular, in an AR-HUD device requiring a wide display area 5, it is possible to prevent or suppress abnormal display that causes poor visibility of the driver. Thereby, it is possible to contribute to safe driving.
  • FIG. 12 is a block diagram showing a configuration example of a main part of a head-up display device according to a second embodiment of the present invention.
  • the head-up display (HUD) device 1 shown in FIG. 12 includes a monitoring camera 70 in the HUD device 1 unlike the configuration example of FIG.
  • the monitoring camera 70 captures an image displayed by the image display device 35 before the scenery is superimposed.
  • the image diagnostic unit 25b in the CPU 16 of the control unit 10b diagnoses whether or not the projection image is abnormal based on the image captured by the monitoring camera 70.
  • Other configurations are the same as the configuration example of FIG.
  • FIG. 13 is a schematic diagram illustrating an example of the processing content of the video diagnostic unit in FIG.
  • the surveillance camera 70 is installed so as to directly capture a display image displayed on the image display device 35.
  • the captured video (captured video data) 71 by the monitoring camera 70 does not include the landscape and includes only the projection target 64.
  • the image diagnostic unit 25b performs the same first, second, and third diagnostic processing D1 to D3 as in the case of FIG. 5 on the imaged image (imaged image data) 71 including only the projection target object 64.
  • the video diagnostic unit 25b determines, as the first diagnostic process D1, the identity between the projection target 64 in the captured video 71 and the projection target 63 in the output scheduled video 62 represented by the display video data. Verify. In addition, the video diagnostic unit 25b detects the ratio of the projection target 64 in the captured video 71 as the second diagnostic process D2, and detects the percentage of the solid area in the captured video 71 as the third diagnostic process D3. I do. The image diagnostic unit 25b diagnoses whether there is an abnormality in the projected image based on the verification result and the detection result. In the example of FIG. 13, both the diagnosis results of the first and second diagnosis processes D1 and D2 are abnormal. Further, when the projection target object 64 is painted out, the diagnosis result of the third diagnosis processing D3 is also abnormal.
  • FIG. 14 is a flowchart showing an example of the processing content of the video diagnostic unit in FIG.
  • the flow shown in FIG. 14 is the same as the flow in FIG. 6 except that the process in step S201 is deleted from the flow in FIG. That is, the processes in steps S300 and S301 to S306 shown in FIG. 14 are the same as the processes in steps S200 and S202 to S207 in FIG. 6, respectively.
  • the processing in step S201 is unnecessary.
  • FIG. 15 is a diagram showing different examples of various installation locations of the monitoring camera in FIG.
  • FIG. 16 is a diagram illustrating an example of an installation location of a monitoring camera with respect to a video display unit different from FIG.
  • FIG. 15 shows a video display unit 12a similar to that of FIG.
  • FIG. 16 shows an image display unit 12b in which the reflecting mirror 36 is not provided unlike the image display unit 12a of FIG.
  • the surveillance camera 70a is installed so as to directly capture the image displayed on the image display device 35, as in the case of FIG.
  • the monitoring camera 70b is installed so as to capture an image of the surface of the reflecting mirror 36.
  • the surveillance camera 70d is installed so as to capture an image of the display area 5 of the windshield 3 from a substantially normal direction of the windshield 3. By taking an image from such an angle, the surveillance camera 70d can take an image displayed by the image display device 35 (specifically, a display image reflected by the reflector 37) before the scenery is superimposed.
  • the surveillance camera 70c is installed so as to capture an image displayed on the image display device 35 from the back surface of the concave mirror 37 through the concave mirror 37.
  • the concave mirror 37 is, for example, a cold mirror that reflects visible light and transmits infrared light.
  • the surveillance camera 70c is a camera that can capture infrared light, and captures an image transmitted through a cold mirror.
  • the monitoring camera 70c captures the display video reflected by the reflecting mirror 36 through the concave mirror 37, and captures the display video of the video display device 35 through the concave mirror 37 in FIG. .
  • the video diagnostic unit 25b When performing the first diagnostic process D1 (identity verification) illustrated in FIG. 13, the video diagnostic unit 25b performs the reverse process of the captured video according to the installation location of the monitoring camera. For example, the direction of the captured image is reversed between the captured image of the monitoring camera 70a and the captured image of the monitoring camera 70b via the reflecting mirror 36. That is, when the number of reflections is even and odd, the direction of the captured image may be reversed. Therefore, the video diagnostic unit 25b performs a reverse process of the captured video as necessary in order to verify the identity of the projection target in the same direction.
  • the surveillance camera 70a needs to be installed so as not to enter the optical path of the video display device 35. For this reason, a sufficient installation location may not be able to be secured.
  • the degree of freedom associated with the installation is high.
  • the surveillance camera 70c has a high degree of freedom associated with the installation, and can be installed in the video display unit or installed close to the video display unit. Therefore, high space efficiency can be obtained.
  • a cold mirror or the like is required.
  • the surveillance camera 70d has a particularly high degree of freedom associated with its installation, and is applicable irrespective of the configuration of the video display unit. However, the space efficiency needs to be slightly reduced because it needs to be installed at a position distant from the video display unit. Note that when the monitoring camera 70d is used, the distortion of the captured image may be greater than when the other monitoring cameras 70a to 70c are used, but there is no particular problem by performing the distortion correction on the captured image. .
  • the surveillance camera 70 in FIG. 12 can be installed at any of the locations shown in FIGS. 15 and 16. However, considering the degree of freedom associated with the installation and application independent of the structure of the optical system, the surveillance camera 70 is particularly suitable. The installation location of 70c or the surveillance camera 70d is useful.
  • the invention made by the inventor has been specifically described based on the embodiment, the invention is not limited to the embodiment and can be variously modified without departing from the gist of the invention.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described above.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of one embodiment can be added to the configuration of another embodiment. .

Abstract

運転を妨げるような異常な表示を防止または抑止することが可能なヘッドアップディスプレイ装置を提供する。そこで、ヘッドアップディスプレイ装置1は、ウィンドシールドの表示領域へ投影映像を投影することで、投影映像が重畳された風景を車両の運転者に視認させるものであり、映像データ生成部28と、映像表示装置35と、監視カメラ70と、映像診断部25bとを有する。映像データ生成部28は、投影映像の表示内容を定める表示映像データを生成する。映像表示装置35は、表示映像データに基づいて表示映像を表示する。監視カメラ70は、表示映像を風景が重畳される前に撮像する。映像診断部25bは、監視カメラ70で撮像された撮像映像に基づいて投影映像の異常の有無を診断する。

Description

ヘッドアップディスプレイ装置
 本発明は、ヘッドアップディスプレイ装置に関し、特に、AR(Augmented Reality:拡張現実)を利用したヘッドアップディスプレイ装置に適用して有効な技術に関する。
 特許文献1には、液晶プロジェクタ等の画像投射装置の投射領域を撮影するネットワークカメラと、ネットワークカメラで取得した投射領域の情報に基づいて、画像投射装置の異常を検出するコンピュータとを有する管理システムが示される。
特開2015-114532号公報
 例えば、自動車を代表とする車両には、ヘッドアップディスプレイ(Head Up Display、以下では「HUD」と記載する場合がある)が搭載される場合がある。HUDは、車速やエンジン回転数などの走行情報やナビゲーション情報などの各種情報をウィンドシールド(フロントガラス)などに投射して表示する。HUDを用いると、運転者は、ダッシュボードに組み込まれる計器盤、いわゆるインパネなどに視線を移動することなく必要な情報を得ることができる。このため、安全運転に寄与することが可能になる。
 一方、HUDでは、例えば、表示輝度の増加、表示情報の更新不可、不要な情報の大量表示などといった異常な表示が生じ得る。この場合、運転者の注意が実在する標識や障害物等ではなくHUDの表示に注がれたり、運転者の視界不良が生じることなどによって、安全運転が阻害される恐れがある。また、HUDでは、近年、実在する風景上の対象物に各種情報を付加して表示するようなARの利用が望まれる。ARを利用したHUD(AR-HUD)では、広い表示領域が必要とされるため、特に運転者の視界不良を招くような異常な表示を防止または抑止することが重要となる。
 本発明は、このようなことに鑑みてなされたものであり、その目的の一つは、運転を妨げるような異常な表示を防止または抑止することが可能なヘッドアップディスプレイ装置を提供することにある。
 本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。
 本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。
 代表的なヘッドアップディスプレイ装置は、ウィンドシールドの表示領域へ投影映像を投影することで、投影映像が重畳された風景を車両の運転者に視認させるものであり、映像データ生成部と、映像表示装置と、監視カメラと、映像診断部とを有する。映像データ生成部は、投影映像の表示内容を定める表示映像データを生成する。映像表示装置は、表示映像データに基づいて表示映像を表示する。監視カメラは、表示映像を風景が重畳される前に撮像する。映像診断部は、監視カメラで撮像された撮像映像に基づいて投影映像の異常の有無を診断する。
 本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば、ヘッドアップディスプレイ装置において、運転を妨げるような異常な表示を防止または抑止することが可能になる。
本発明の実施の形態1によるヘッドアップディスプレイ装置を搭載した車両の構成例を示す概略図である。 図1における映像表示ユニット周りの構成例を示す概略図である。 本発明の実施の形態1によるヘッドアップディスプレイ装置の主要部の構成例を示すブロック図である。 図3において、車両情報の取得に関わる箇所の構成例を示すブロック図である。 図3における映像診断部の処理内容の一例を説明する模式図である。 図3における映像診断部の処理内容の一例を示すフロー図である。 図3のヘッドアップディスプレイ装置における初期動作の一例を示すフロー図である。 図7におけるHUD装置の通常動作の一例を示すフロー図である。 異常発生時における図3のエラー処理部によるウィンドシールドへの表示内容の一例を示す図である。 図5とは異なる監視カメラの設置箇所の一例を示す図である。 図5とは異なる監視カメラの設置箇所の一例を示す図である。 本発明の実施の形態2によるヘッドアップディスプレイ装置の主要部の構成例を示すブロック図である。 図12における映像診断部の処理内容の一例を説明する模式図である。 図12における映像診断部の処理内容の一例を示すフロー図である。 図12における監視カメラの各種設置箇所のそれぞれ異なる一例を示す図である。 図15とは異なる映像表示ユニットに対する監視カメラの設置箇所の一例を示す図である。 (a)および(b)は、本発明の前提として検討した異常表示画面の一例を示す図である。 本発明の前提として検討した異常表示画面の他の一例を示す図である。
 以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。
 (実施の形態1)
 《HUD装置の概要》
 図1は、本発明の実施の形態1によるヘッドアップディスプレイ装置を搭載した車両の構成例を示す概略図である。図1のヘッドアップディスプレイ(HUD)装置1は、車両2に搭載される。車両2は、代表的には、自動車であるが、必ずしもこれに限定されず、場合によっては鉄道車両等であってもよい。HUD装置1は、車両2の各部に設置された各種センサなどから車両情報4を取得する。各種センサは、例えば、車両2で生じた各種イベントを検知したり、走行状況に係る各種パラメータの値を定期的に検知したりする。
 車両情報4には、例えば、車両2の速度情報やギア情報、ハンドル操舵角情報、ランプ点灯情報、外光情報、距離情報、赤外線情報、エンジンON/OFF情報、車内外のカメラ映像情報、加速度ジャイロ情報、GPS(Global Positioning System)情報、ナビゲーション情報、車車間通信情報、および路車間通信情報などが含まれる。HUD装置1は、このような車両情報4に基づいて、映像表示ユニット12を用いてウィンドシールド3の表示領域5へ投影映像を投影する。これによって、HUD装置1は、投影映像が重畳された風景を車両2の運転者に視認させる。
 図2は、図1における映像表示ユニット周りの構成例を示す概略図である。図2に示す映像表示ユニット12は、映像表示装置35と、反射鏡36と、凹面鏡(拡大鏡)37とを有する。映像表示装置35は、例えば、プロジェクタやLCD(Liquid Crystal Display)などであり、制御部から指示された表示映像データに基づいて表示映像を表示する。反射鏡36や凹面鏡37は、例えば、自由曲面ミラーや光軸非対称の形状を有するミラーである。反射鏡36は、映像表示装置35で表示された表示映像を表面で反射する。凹面鏡37は、反射鏡36で反射された表示映像を表面で反射および拡大し、開口部7を介して表示領域5へ投影する。
 これにより、運転者6は、表示領域5に投射された投影映像を、透明のウィンドシールド3の先の虚像として、車外の風景(道路や建物、人など)に重畳される形で視認する。投影映像(虚像)の中には、例えば、道路標識や、自車の現速度や、風景上の対象物に付加される各種情報(AR情報)など、様々なものが含まれる。なお、図2では、例えば、凹面鏡37の角度を調整することで、ウィンドシールド3上の表示領域5の位置を調整可能となっており、運転者6が視認する虚像の位置を上下方向に調整可能となっている。また、例えば、凹面鏡37をより大面積化することなどにより、表示領域5の面積を拡大でき、より多くの情報を表示領域5へ投影することが可能になる。これにより、風景上の対象物に各種情報を付加して表示するようなAR機能が実現できる。
 《前提となる問題点》
 図17(a)および図17(b)は、本発明の前提として検討した異常表示画面の一例を示す図である。図18は、本発明の前提として検討した異常表示画面の他の一例を示す図である。図17(a)では、ナビゲーション情報に基づき表示領域5に表示される案内表示に異常が生じている。具体的には、図17(a)の上方に示されるように、車両76が交差点の左折ポイントP1を過ぎたにもかかわらず、左折案内の表示や左折ポイントP1までの距離が残存している状態となっている。この状態は、例えば、映像表示装置35やナビゲーションシステムがフリーズした場合などで生じ得る。
 図17(b)では、表示領域5の全体、あるいは大部分が塗りつぶされたような異常が生じている。この状態は、例えば、映像表示装置35が故障した場合などで生じ得る。図18では、表示領域5の全体に、不必要かつ無関係な多数の投影対象物が表示されるような異常が生じている。この状態は、例えば、ナビゲーションシステムに基づく表示映像データ自体に異常が有る場合などで生じ得る。
 このような異常な表示が生じた場合、運転者は、実在する標識や障害物等ではなく異常な表示部分に気をとられてしまうため、安全運転が阻害される恐れがある。特に、図17(b)や図18に示されるような状態では、運転者の視界不良も生じるため、安全運転がより阻害される恐れがある。この視界不良の問題は、広い表示領域5が必要とされるARを利用したHUD装置(AR-HUD装置と呼ぶ)において、より顕著となる。そこで、後述する実施の形態の方式を用いることが有益となる。
 《HUD装置の構成》
 図3は、本発明の実施の形態1によるヘッドアップディスプレイ装置の主要部の構成例を示すブロック図である。図4は、図3において、車両情報の取得に関わる箇所の構成例を示すブロック図である。図3に示すヘッドアップディスプレイ(HUD)装置1は、制御部(ECU:Electronic Control Unit)10aと、スピーカ11と、映像表示ユニット12と、ミラー駆動部13とを備える。映像表示ユニット12は、図2に示したように、映像表示装置35や凹面鏡37を含む。
 制御部10aは、主に、HUD装置1における投影映像(虚像)の表示の制御や、音声出力の制御などを行う。制御部10aは、例えば、配線基板などによって構成され、配線基板上に実装される車両情報取得部15、CPU16、不揮発性メモリ17、揮発性メモリ18、音声用ドライバ19、表示用ドライバ20、自己障害判定部21、ユニット障害判定部22およびエラー処理部23などを備える。車両情報取得部15は、例えば、CAN(Controller Area Network)インタフェースやLIN(Local Interconnect Network)インタフェースなどであり、CANやLINなどの通信プロトコルに基づいて車両情報4を取得する。
 車両情報4は、図4に示されるように、車両情報取得部15に接続される各種センサなどの情報取得デバイスによって生成される。図4には、各種情報取得デバイスの一例が示される。例えば、車速センサ41は、図1の車両2の速度を検出し、検出結果となる速度情報を生成する。シフトポジションセンサ42は、現在のギアを検出し、検出結果となるギア情報を生成する。ハンドル操舵角センサ43は、現在のハンドル操舵角を検出し、検出結果となるハンドル操舵角情報を生成する。
 ヘッドライトセンサ44は、ヘッドライトのON/OFFを検出し、検出結果となるランプ点灯情報を生成する。照度センサ45および色度センサ46は、外光を検出し、検出結果となる外光情報を生成する。測距センサ47は、車両2と外部の物体との間の距離を検出し、検出結果となる距離情報を生成する。赤外線センサ48は、車両2の近距離における物体の有無や距離などを検出し、検出結果となる赤外線情報を生成する。エンジン始動センサ49は、エンジンのON/OFFを検出し、検出結果となるON/OFF情報を生成する。
 加速度センサ50およびジャイロセンサ51は、車両2の加速度および角速度をそれぞれ検出し、検出結果として、車両2の姿勢や挙動を表す加速度ジャイロ情報を生成する。温度センサ52は、車内外の温度を検出し、検出結果となる温度情報を生成する。路車間通信用無線送受信機53は、車両2と、道路、標識、信号等との間の路車間通信によって路車間通信情報を生成する。車車間通信用無線送受信機54は、車両2と周辺の他の車両との間の車車間通信によって車車間通信情報を生成する。
 車内用カメラ55および車外用カメラ56は、それぞれ、車内および車外を撮影することで車内のカメラ映像情報および車外のカメラ映像情報を生成する。具体的には、車内用カメラ55は、例えば、図2の運転者6の姿勢や、眼の位置、動きなどを撮影するDMS(Driver Monitoring System)用のカメラなどである。この場合、撮像された映像を解析することで、運転者6の疲労状況や視線の位置などが把握できる。
 一方、車外用カメラ56は、例えば、車両2の前方や後方などの周囲の状況を撮影する。この場合、撮像された映像を解析することで、周辺に存在する他の車両や人などの障害物の有無、建物や地形、雨や積雪、凍結、凹凸などといった路面状況、および道路標識などを把握することが可能になる。また、車外用カメラ56には、例えば、走行中の状況を映像で記録するドライブレコーダなども含まれる。
 GPS受信機57は、GPS信号を受信することで得られるGPS情報を生成する。VICS(Vehicle Information and Communication System、登録商標)受信機58は、VICS信号を受信することで得られるVICS情報を生成する。GPS受信機57やVICS受信機58は、ナビゲーションシステムの一部として設けられてもよい。なお、図4の各種情報取得デバイスに関しては、適宜、削除することや、他の種類のデバイスを追加することや、他の種類のデバイスに置き換えることが可能である。
 図3において、CPU(Central Processing Unit)16は、このような車両情報4を車両情報取得部15を介して受信し、当該車両情報4などに基づいて、スピーカ11に向けた音声データや、映像表示装置35に向けた表示映像データなどを生成する。具体的には、CPU16は、音声データ生成部27と、映像データ生成部28と、歪み補正部29と、光源調整部30と、ミラー調整部31と、映像診断部25aとを備える。これらの各部は、不揮発性メモリ17または揮発性メモリ18に格納されるプログラムによって実装される。
 音声データ生成部27は、必要に応じて、車両情報4などに基づく音声データを生成する。音声データは、例えば、ナビゲーションシステムの音声案内を行う場合や、AR機能によって運転者6に警告を発行する場合などで生成される。音声用ドライバ19は、当該音声データに基づいてスピーカ11を駆動し、スピーカ11に音声を出力させる。
 映像データ生成部28は、車両情報4などに基づいて、図2等の表示領域5に投影される投影映像の表示内容を定める表示映像データを生成する。歪み補正部29は、映像データ生成部28からの表示映像データに対して歪み補正を加えた補正後の表示映像データを生成する。具体的には、歪み補正部29は、図2に示したように、映像表示装置35の表示映像を表示領域5に投影した場合に、ウィンドシールド3の曲率によって生じる表示映像の歪みを補正する。
 表示用ドライバ20は、歪み補正部29からの補正後の表示映像データに基づいて映像表示装置35内の各表示素子を駆動する。これによって、映像表示装置35は、補正後の表示映像データに基づく表示映像を表示する。光源調整部30は、映像表示装置35の発光量を調整する。ミラー調整部31は、ウィンドシールド3における表示領域5の位置を調整する必要がある場合に、ミラー駆動部13を介して映像表示ユニット12内の凹面鏡37の角度を変更する。
 ここで、車両情報4には、監視カメラで撮像された撮像映像が含まれる。監視カメラは、図4に示した車外用カメラ56(場合によっては車内用カメラ55)に該当し、表示領域5における投影映像が重畳された風景を撮像する。映像診断部25aは、詳細は後述するが、当該監視カメラで撮像された撮像映像に基づいて、表示領域5における投影映像の異常の有無を診断する。
 自己障害判定部21は、HUD装置1におけるハードウェアなどの異常、すなわち装置異常の有無を判定する。自己障害判定部21は、HUD装置1の装置異常が発生していると判定した場合、異常発生信号を生成してエラー処理部23へ出力する。ユニット障害判定部22は、HUD装置1以外の車両2に搭載されるユニットに障害が発生しているか否かを判定する。ユニット障害判定部22は、他のユニットに異常が発生していると判定すると、異常発生信号を生成してエラー処理部23へ出力する。
 エラー処理部23は、自己障害判定部21またはユニット障害判定部22から出力される異常発生信号を受けた場合や、映像診断部25aによって異常有りと診断された場合に表示されている投影映像(虚像)が運転の妨げとならないように投影映像の表示内容を変更する。不揮発性メモリ17は、主に、CPU16で実行するプログラムや、CPU16内の各部の処理で使用する設定パラメータなどを予め記憶する。揮発性メモリ18は、主に、取得した車両情報4や、CPU16内の各部の処理で使用されるデータなどを適宜保持する。例えば、監視カメラの撮像映像に基づく撮像映像データや、映像データ生成部28や歪み補正部29によって生成される表示映像データは、揮発性メモリ18に保持される。
 このように、自己障害判定部21やユニット障害判定部22は、HUD装置の障害または障害の予兆を検知する。一方、映像診断部25aは、監視カメラによる実際の撮像画像から異常を検知する。自己障害判定部21やユニット障害判定部22を用いると、実際に表示領域5に異常が発生する前に予防措置を講じることが可能であるが、表示領域5の異常を招く全ての障害を検知できるとは限らないため、検知漏れが生じ得る。映像診断部25aを併用すると、この検知漏れを防止することが可能になる。ただし、映像診断部25aは、勿論、単独で適用することが可能であり、必ずしも、自己障害判定部21やユニット障害判定部22と併用する必要はない。
 なお、図3の制御部(ECU)10a内の車両情報取得部15、CPU16、不揮発性メモリ17、揮発性メモリ18、音声用ドライバ19および表示用ドライバ20の一部または全ては、適宜、マイクロコンピュータやFPGA(Field Programmable Gate Array)などに実装されてもよい。また、自己障害判定部21、ユニット障害判定部22およびエラー処理部23は、この例では、CPU16も含めて障害判定対象とし、CPU16の障害時にもエラー処理を行う観点から、例えば、CPU16の外部に設けたFPGAや、別途設けたプロセッサ等に実装される。ただし、自己障害判定部21、ユニット障害判定部22およびエラー処理部23の一部または全ては、場合によってはCPU16内に実装されてもよい。
 《映像診断部の詳細》
 図5は、図3における映像診断部の処理内容の一例を説明する模式図である。図5に示す監視カメラ56aは、図4に示した車外用カメラ56の一つである。当該監視カメラ56aは、例えば、ヘッドレストのアイポイント付近に設置され、ウィンドシールドの表示領域5を運転者6の目線方向から撮像する。これによって、風景に投影映像が重畳された撮像映像(撮像映像データ)60が得られる。ここでは、監視カメラは、ヘッドレストに設置されるが、これに限らず、例えば、運転者6が装着したメガネ(ゴーグル)などに設置されてもよい。
 ここで、映像診断部25aは、まず、撮像映像60内で風景と投影対象物(虚像)64とを区別する区別処理E0を行う。区別処理E0は、例えば、撮像映像60に対して各時刻のフレーム差分を検出することで行われる。具体的に説明すると、通常、投影対象物(虚像)64は、変化しない時間が長いのに対して、風景は、刻一刻と変化する。この変化速度の違いを利用し、映像診断部25aは、撮像映像(撮像映像データ)60に対し、例えば、短時間で変化する領域のデータを空白データに変更することなどで、投影対象物64のみが残存した加工済み撮像映像(撮像映像データ)61を生成する。
 続いて、映像診断部25aは、第1の診断処理D1として、加工済み撮像映像61(ひいては撮像映像60)内の投影対象物64と、表示映像データが表す出力予定映像62内の投影対象物63との同一性を検証することで投影映像の異常の有無を診断する。具体的には、映像診断部25aは、例えば、投影対象物63のサイズ、形状および配置箇所と、投影対象物64のサイズ、形状および配置箇所とが同等か否かを判定する。この際に、例えば、投影対象物63のサイズ、形状および配置箇所と、投影対象物64のサイズ、形状および配置箇所との違いが、それぞれ数%以内あれば、両者は同等と判定される。
 図5の例では、出力予定映像(表示映像データ)62内の投影対象物63は1個の小さい左折案内図形であるのに対して、加工済み撮像映像61(撮像映像60)内の投影対象物64は2個の大きい左折案内図形である。この場合、映像診断部25aは、投影対象物63と投影対象物64は同等でないと判定し、異常有りと診断する。なお、出力予定映像(表示映像データ)62は、図3の映像データ生成部28(または歪み補正部29)によって生成される。
 一方、加工済み撮像映像61に示されるような異常は、出力予定映像(表示映像データ)62の異常によって、出力予定映像62自体に投影対象物64のような2個の大きい左折表示図形が含まれているような場合にも生じ得る。そこで、映像診断部25aは、第2の診断処理D2として、加工済み撮像映像61(撮像映像60)に占める投影対象物64の割合を検出し、その割合が予め定めた閾値を超えるか否かを判定することで投影映像の異常の有無を診断する。加工済み撮像映像61のような状況では、投影対象物64の割合は閾値を超えるため、異常有りと診断される。
 また、例えば、加工済み撮像映像61および出力予定映像62が共に投影対象物を含まないような状況で、図17(b)に示したように、表示領域5全体が塗りつぶされるような異常が生じる可能性がある。そこで、映像診断部25aは、第3の診断処理D3として、撮像映像60に占める塗りつぶし領域の割合を検出し、その割合が予め定めた閾値を超えるか否かを判定することで投影映像の異常の有無を診断する。塗りつぶし領域とは、例えば、風景を遮断するレベルの輝度を有する領域である。
 第3の診断処理D3を用いると、映像診断部25aは、塗りつぶし領域の割合が閾値を超える図17(b)に示したような状況に加えて、例えば、図5において、投影対象物64が塗りつぶされているような場合も、異常有りと診断することができる。ここで、区別処理E0では、例えば、撮像映像60内の投影対象物64を、内部の塗りつぶし状態を含めて抽出し難い場合がある。そこで、第2の診断処理D2は、投影対象物64の内部状態に関わらず、投影対象物64の輪郭で囲まれる領域の割合を検出することで行われる。一方、第3の診断処理D3は、投影対象物の有無に関わらず、風景を遮断するレベルの輝度を有する領域の割合を検出することで行われる。
 図6は、図3における映像診断部の処理内容の一例を示すフロー図である。図6において、映像診断部25aは、まず、監視カメラによる撮像映像(撮像映像データ)と映像表示装置35への出力予定映像(表示映像データ)とを取得する(ステップS200)。続いて、映像診断部25aは、図5の区別処理E0で述べたように、撮像映像内で風景と投影対象物とを区別する(ステップS201)。次いで、映像診断部25aは、図5の第1の診断処理D1で述べたように、撮像映像内の投影対象物と出力予定映像内の投影対象物とが同等か否かを判定する(ステップS202)。
 両者の投影対象物が同等でない場合(ステップS202の“No”時)、映像診断部25aは、エラー処理部23へ異常発生信号を出力する(ステップS207)。これを受けて、エラー処理部23は、投影映像(虚像)が運転の妨げとならないように投影映像の表示内容を変更する。具体的には、エラー処理部23は、例えば、投影映像を実質的に消すような制御を行う。一方、両者の投影対象物が同等である場合(ステップS202の“Yes”時)、映像診断部25aは、ステップS203へ移行する。
 ステップS203において、映像診断部25aは、図5の第2の診断処理D2で述べたように、撮像映像に占める投影対象物の割合を検出し、ステップS204において、その割合と予め定めた閾値とを比較する。映像診断部25aは、投影対象物の割合が閾値を超える場合(ステップS204の“No”時)、ステップS207に移行して異常発生信号を出力し、閾値を超えない場合(ステップS204の“Yes”時)、ステップS205へ移行する。
 ステップS205において、映像診断部25aは、図5の第3の診断処理D3で述べたように、撮像映像に占める塗りつぶし領域の割合を検出し、ステップS206において、その割合と予め定めた閾値とを比較する。映像診断部25aは、塗りつぶし領域の割合が閾値を超える場合(ステップS206の“No”時)、ステップS207に移行して異常発生信号を出力し、閾値を超えない場合(ステップS206の“Yes”時)、映像診断処理を終了する。
 このような映像診断処理を用いると、例えば、映像表示装置35のフリーズによって生じた図17(a)のような異常を、ステップS202の処理(第1の診断処理D1)によって検出できる。また、図17(b)のような異常を、ステップS206の処理(第3の診断処理D3)によって検出できる。さらに、図18のような異常を、ステップS204の処理(第2の診断処理D2)によって検出できる。なお、ここでは、3種類の診断処理を用い、各診断結果のオア演算を行ったが、3種類の診断処理のいずれか1つ又は2以上を用いることや、適宜、各診断結果のアンド演算を行うことも可能である。
 《HUD装置の動作》
 図7は、図3のヘッドアップディスプレイ装置における初期動作の一例を示すフロー図である。停止中の車両2においてイグニッションスイッチがONされることでHUD装置1の電源がONされると(ステップS01)、HUD装置1は、車両情報取得部15を用いて車両情報4を取得する(ステップS02)。続いて、CPU16は、車両情報4のうち、照度センサ45や色度センサ46などにより取得した外光情報に基づいて好適な明るさレベルを算出し(ステップS03)、算出した明るさレベルとなるように映像表示装置35の発光量を光源調整部30を用いて設定する(ステップS04)。明るさレベルは、外光が明るい場合には高く設定され、暗い場合には低く設定される。
 次いで、映像データ生成部28は、投影映像の表示内容を定める表示映像データを生成する(ステップS05)。この表示内容は、例えば、予め定めた初期映像などである。続いて、歪み補正部29は、映像データ生成部28からの表示映像データに対して歪み補正を行い(ステップS06)、表示用ドライバ20は、当該補正後の表示映像データに基づいて映像表示装置35の表示素子を駆動する(ステップS07)。これにより、映像表示装置35は、補正後の表示映像データに基づく表示映像を表示し、当該表示映像は、映像表示ユニット12内の鏡を介してウィンドシールド3の表示領域5へ投影される。
 その後、映像診断部25aは、図6に示したような映像診断処理を実行する(ステップS101)。その結果、異常発生信号が出力された場合(ステップS102の“Yes”時)、エラー処理部23は、所定のエラー処理を行う(ステップS103)。このエラー処理の中には、投影映像の表示内容を変更する処理の他に、起動時障害であるためHUD装置1の通常動作を禁止するような処理が含まれてもよい。
 一方、ステップS102で障害発生信号が出力されない場合(“No”時)、HUD装置1における一連の初期動作を含む各部の起動・始動が完了し、HUD-ON信号が出力される。CPU16は、このHUD-ON信号を受けたか否かを判定する(ステップS08)。CPU16は、HUD-ON信号を受けていなければ、HUD-ON信号を受けるまで、HUD-ON信号を一定時間待ち受ける(ステップS09)。一方、CPU16は、HUD-ON信号を受けた場合、後述するHUD装置1の通常動作を開始し(ステップS10)、一連の初期動作を終了する。
 図8は、図3におけるHUD装置の通常動作の一例を示すフロー図である。通常動作においても、基本的な処理の流れは上述の図7に示した初期動作と概ね同様である。まず、HUD装置1は、車両情報取得部15を用いて車両情報4を取得する(ステップS21)。続いて、CPU16は、後述するステップS23の処理を実行するか否かを判定する(ステップS22)。このステップS22の処理は、予め設定された時間を経過する毎に行われるものであり、前回の処理から設定時間を経過している場合にステップS23の処理を実行すると判定される。
 CPU16は、前回の処理から設定時間を経過している場合(ステップS22の“Yes”時)、障害発生状況の確認および表示内容変更処理を実行する(ステップS23)。障害発生状況の確認および表示内容変更処理は、自己障害判定部21およびユニット障害判定部22を用いてHUD装置1の障害発生状況を確認し、エラー処理部23を用いてHUD装置1が表示する内容を変更する処理である。一方、CPU16は、前回の処理から設定時間を経過していない場合(ステップS22の“No”時)、車両情報4のうち、照度センサ45や色度センサ46などにより取得した外光情報に基づいて明るさレベル調整処理を行う(ステップS24)。
 次いで、映像データ生成部28は、ステップS21の処理で取得した最新の車両情報4に基づいて、投影映像の更新内容を定め、当該更新内容に対応する表示映像データを生成する(ステップS25)。更新内容の定め方は、車両情報4の内容やそれらの組み合わせなどに応じて様々なものがあり得る。例えば、速度情報が変化したことにより、常時表示されている速度表示の数値を変更する方法や、ナビゲーション情報に基づいて案内の矢印図形を表示/消去したり、矢印の形状や表示位置などを変更する方法などが挙げられる。
 続いて、HUD装置1は、車両2の走行状況に応じて視認性や表示内容の適切性などを維持するための調整・補正処理を行う。この際に、表示領域5自体の位置を調整する必要がある場合、ミラー調整部31は、ミラー駆動部13を介して凹面鏡37の角度を変更し、表示領域5を上下に移動させるミラー調整処理を行う(ステップS26)。
 その後、HUD装置1は、映像診断が必要か否かを判定する(ステップS121)。例えば、定期的に映像診断を行う場合、前回の映像診断から所定の時間以上が経過した場合に、映像診断が必要と判定される。ステップS121で映像診断が必要な場合(“Yes”時)、映像診断部25aは、図6に示したような映像診断処理を実行する(ステップS122)。この際に、映像診断部25aによって異常発生信号が出力された場合、エラー処理部23は、投影映像の表示内容を、運転の妨げとならないように変更する処理を行う。この変更された表示内容は、例えば、次回の映像診断の直前まで維持され、次回の映像診断の直前に解除される。
 一方、ステップS121で映像診断が不要な場合(“No”時)、CPU16は、HUD-OFF信号を受けたか否かを判定する(ステップS27)。すなわち、上述した一連の通常動作を実行している際に、車両2の停止などに伴って電源OFFなどがなされると、HUD装置1に対してHUD-OFF信号が出力される。CPU16は、その出力有無を判定する。CPU16は、HUD-OFF信号を受けていなければ、ステップS21の処理に戻り、HUD-OFF信号を受けた場合は、通常動作を終了する。
 《エラー処理部による表示例》
 図9は、異常発生時における図3のエラー処理部によるウィンドシールドへの表示内容の一例を示す図である。図9は、図2の車両2の運転者6が運転席からウィンドシールド3を介して視認している表示領域5の表示内容を模式的に示したものである。エラー処理部23は、自己障害判定部21、ユニット障害判定部22または映像診断部25aからの異常発生信号を受け取ると、例えば、HUD装置1自体をシャットダウンする処理を実行する。HUD装置1がシャットダウンすることにより、図9に示すように、表示領域5には、何も表示されない。これにより、運転者6の視野を確保することができ、安全運転を維持することができる。
 HUD装置1のシャットダウンは、例えばHUD装置1と連携して動作するユニット、具体的には、車両2の自動運転を支援する自動運転システムが有するECUなどがHUD装置1に供給される電力を遮断することで行われる。その場合、エラー処理部23は、制御信号を上述したユニットが有するECUなどに出力する。ECUは、エラー処理部23からの制御信号を受け取ると、HUD装置1に供給される電力を遮断する処理を行う。
 あるいは、エラー処理部23自身がHUD装置1に供給される電力を遮断する処理を行うようにしてもよい。この場合、エラー処理部23は、シャットダウン処理を行うと共に、シャットダウン処理を行ったことを示すフラグを出力する。当該フラグは、例えば図3の不揮発性メモリ17などに格納される。そして、HUD装置1の起動の際にフラグが立っていた場合には、CPU16は、自己診断を実施して各種パラメータに異常がないことを確認した後、初期動作を実行する。なお、ここでは、HUD装置1に供給される電力を遮断したが、その代わりに、映像表示装置35に供給される電力を遮断してもよい。
 また、表示領域5に虚像を表示させないようにする他の方式として、例えば、エラー処理部23は、CPU16を介して光源調整部30を制御することで、映像表示装置35の発光量を調整する処理を行ってもよい。具体的には、映像表示装置35がLCDの場合、エラー処理部23は、該LCDが備える光源であるバックライトをオフする。これにより、HUD装置1は、投影映像(虚像)を表示する動作を行っているが、表示領域5には何も表示されていない状態にすることができる。
 この場合の利点は、該バックライトをオフした後、表示領域5への虚像の表示を容易に復帰させることができる点である。例えば、自己障害判定部21が障害有りと判定した場合(例えば、CPU16の温度が閾値を超えた場合など)でも、図8の処理(ステップS23の処理)は定期的に実行される。このため、障害有りの状態が解消されると、エラー処理部23が再びバックライトをオンに制御することで、正常状態に復帰することができる。また、例えば、バックライトをオフにしている状態でも、図8の映像診断処理(ステップS122)の直前でバックライトをオンに制御することで、当該映像診断処理(すなわち、復帰の可否確認)を実行することができる。そして、映像診断処理で異常無しの場合、そのまま正常状態に復帰することができる。
 《監視カメラの設置箇所(変形例)》
 図10および図11は、図5とは異なる監視カメラの設置箇所の一例を示す図である。図10に示す監視カメラ56bは、図4の車外用カメラ56の一つであり、例えば、車内の天井に設置されるドライブレコーダである。監視カメラ56bとして、このようなドライブレコーダを利用することで、監視カメラ56bを別途搭載する必要がないためコストの低減などが図れる。ただし、ドライブレコーダの設置箇所・撮像範囲では、投影映像を撮像できない可能性がある。
 このような場合、HUD装置1は、図10に示されるように、図3のミラー調整部31を用いて凹面鏡37の角度を一時的に変更することで、監視カメラ56bで投影映像を撮像できる位置に表示領域5を移動させる。これによって、図6に示したような映像診断処理を実行することが可能になる。一方、表示領域5を移動させると、運転者6の視認に影響が生じる。このため、映像診断処理は、例えば、図7に示したような初期動作時や、または、一時停車中などで実行され、その後に、ミラー調整部31を用いて表示領域5を元の位置に戻す処理が行われる。
 図11に示す監視カメラ55aは、図4の車内用カメラ55の一つであり、例えば、運転者6の顔を撮像するように設置されるDMS用のカメラである。監視カメラ55aとして、このようなDMS用のカメラを利用することで、監視カメラ55aを別途搭載する必要がないためコストの低減などが図れる。また、図10の場合のような表示領域5の調整処理も不要となる。
 監視カメラ55aを用いると、撮像映像データ(撮像映像)65aに示されるように、顔に当たるHUD光から、投影映像の異常の有無を診断できる。具体的には、図6のステップS205の処理によって、映像表示装置35の表示映像全体が塗りつぶされているような異常を検出できる。さらに、高解像度な監視カメラ55aを用いることで、監視カメラ55aは、撮像映像データ(撮像映像)65bに示されるように、運転者6の瞳の中を撮像することができる。この場合、この瞳の中の映像を対象に、図6の画像診断処理を実行することが可能である。
 《実施の形態1の主要な効果》
 以上、実施の形態1のヘッドアップディスプレイ装置を用いることで、表示領域5に投影される投影映像の異常を検出可能になるため、それに基づいて、運転を妨げるような異常な表示を防止または抑止することが可能になる。また、特に、広い表示領域5が必要とされるAR-HUD装置において、運転者の視界不良を招くような異常な表示を防止または抑止することが可能になる。これにより、安全運転に寄与することが可能になる。
 (実施の形態2)
 《HUD装置の構成》
 図12は、本発明の実施の形態2によるヘッドアップディスプレイ装置の主要部の構成例を示すブロック図である。図12に示すヘッドアップディスプレイ(HUD)装置1は、図3の構成例と異なり、HUD装置1内に監視カメラ70を備える。当該監視カメラ70は、映像表示装置35による表示映像を風景が重畳される前に撮像する。これに伴い、制御部10bにおけるCPU16内の映像診断部25bは、当該監視カメラ70で撮像された撮像映像に基づいて投影映像の異常の有無を診断する。その他の構成に関しては、図3の構成例と同様である。
 《映像診断部の詳細》
 図13は、図12における映像診断部の処理内容の一例を説明する模式図である。図13の例では、監視カメラ70は、映像表示装置35で表示された表示映像を直接撮像するように設置される。その結果、当該監視カメラ70による撮像映像(撮像映像データ)71は、図5の撮像映像(撮像映像データ)60と異なり、風景を含まず、投影対象物64のみを含む。映像診断部25bは、当該投影対象物64のみを含む撮像映像(撮像映像データ)71を対象に、図5の場合と同様の第1、第2および第3の診断処理D1~D3を行う。
 具体的には、映像診断部25bは、第1の診断処理D1として、撮像映像71内の投影対象物64と、表示映像データが表す出力予定映像62内の投影対象物63との同一性を検証する。また、映像診断部25bは、第2の診断処理D2として、撮像映像71に占める投影対象物64の割合を検出し、第3の診断処理D3として、撮像映像71に占める塗りつぶし領域の割合を検出する。映像診断部25bは、これらの検証結果、検出結果に基づいて投影映像の異常の有無を診断する。図13の例では、第1および第2の診断処理D1,D2の診断結果は共に異常有りとなる。また、投影対象物64が塗りつぶされている場合には、第3の診断処理D3の診断結果も異常有りとなる。
 図14は、図12における映像診断部の処理内容の一例を示すフロー図である。図14に示すフローは、図6のフローと比較して、ステップS201の処理が削除されていることを除いて図6のフローと同様である。すなわち、図14に示すステップS300,S301~S306の処理は、それぞれ、図6のステップS200,S202~S207の処理と同様である。前述したように、撮像映像71は風景を含まないため、ステップS201の処理は不要である。
 《監視カメラの設置箇所》
 図15は、図12における監視カメラの各種設置箇所のそれぞれ異なる一例を示す図である。図16は、図15とは異なる映像表示ユニットに対する監視カメラの設置箇所の一例を示す図である。図15には、図2と同様の映像表示ユニット12aが示される。図16には、図15の映像表示ユニット12aと異なり、反射鏡36が設けられない映像表示ユニット12bが示される。
 図15において、監視カメラ70aは、図13の場合と同様に、映像表示装置35の表示映像を直接撮像するように設置される。監視カメラ70bは、反射鏡36の表面を撮像するように設置される。監視カメラ70dは、ウィンドシールド3の表示領域5をウィンドシールド3の略法線方向から撮像するように設置される。監視カメラ70dは、このような角度から撮像を行うことで、映像表示装置35による表示映像(詳細には、反射鏡37で反射された表示映像)を風景が重畳される前に撮像できる。
 監視カメラ70cは、凹面鏡37の裏面から凹面鏡37越しに映像表示装置35の表示映像を撮像するように設置される。この場合、凹面鏡37は、例えば、可視光を反射し、赤外線を透過するコールドミラーである。監視カメラ70cは、赤外線を撮像できるカメラであり、コールドミラーで透過された映像を撮像する。監視カメラ70cは、図15の場合には、凹面鏡37越しに反射鏡36で反射された表示映像を撮像し、図16の場合には、凹面鏡37越しに映像表示装置35の表示映像を撮像する。
 映像診断部25bは、図13に示した第1の診断処理D1(同一性検証)を行う場合、監視カメラの設置箇所に応じて、撮像映像の反転処理を行う。例えば、監視カメラ70aの撮像映像と、反射鏡36を介した監視カメラ70bの撮像映像とでは、撮像映像の向きが逆転する。すなわち、反射回数が偶数回目と奇数回目とでは撮像映像の向きが逆になり得る。そこで、映像診断部25bは、同じ向きで投影対象物の同一性検証を行えるようにするため、必要に応じて撮像映像の反転処理を行う。
 ここで、監視カメラの各設置箇所を比較する。監視カメラ70aは、映像表示装置35の光路に入り込まないように設置される必要がある。このため、十分な設置箇所が確保できない場合がある。監視カメラ70bに関しては、設置に伴う自由度が高い。ただし、図16のように反射鏡36が設けられない映像表示ユニット12bに対しては適用困難となる。監視カメラ70cに関しては、設置に伴う自由度が高く、また、映像表示ユニット内の設置または映像表示ユニットと近接した設置が可能である。このため、高いスペース効率が得られる。ただし、コールドミラーなどが必要とされる。
 監視カメラ70dに関しては、設置に伴う自由度が特に高く、また、映像表示ユニットの構成に依らず適用可能である。ただし、映像表示ユニットから離れた位置に設置する必要があるため、スペース効率が若干低下する。なお、監視カメラ70dを用いる場合、他の監視カメラ70a~70cを用いる場合と比較して、撮像映像の歪みが大きくなり得るが、撮像映像に対して歪み補正を行うことで特に問題は生じない。図12の監視カメラ70は、図15および図16に示した箇所のいずれにも設置可能であるが、設置に伴う自由度や光学系の構造に依らない適用などを考慮すると、特に、監視カメラ70cまたは監視カメラ70dの設置箇所が有益となる。
 《実施の形態2の主要な効果》
 以上、実施の形態2のヘッドアップディスプレイ装置を用いることでも、実施の形態1で述べた各種効果と同様の効果が得られる。また、実施の形態1の場合と異なり、撮像映像内で風景と投影対象物とを区別する必要がなく、予め投影対象物のみを含んでいる撮像映像を対象として映像診断を行える。実際上、映像診断部は、風景と投影対象物とを十分に区別し難い場合があり、結果として、診断精度が低下する恐れがある。実施の形態2の方式を用いると、この区別が不要となるため、実施の形態1の方式と比較して診断精度の向上が図れる。さらに、監視カメラ70の設置に伴う選択肢も、実施の形態1の場合と比較して多くなる。
 以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能である。例えば、前述した実施の形態は、本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 1 HUD装置
 2,76 車両
 3 ウィンドシールド
 4 車両情報
 5 表示領域
 6 運転者
 7 開口部
 10a,10b 制御部(ECU)
 11 スピーカ
 12,12a,12b 映像表示ユニット
 13 ミラー駆動部
 15 車両情報取得部
 16 CPU
 17 不揮発性メモリ
 18 揮発性メモリ
 19 音声用ドライバ
 20 表示用ドライバ
 21 自己障害判定部
 22 ユニット障害判定部
 23 エラー処理部
 25a,25b 映像診断部
 27 音声データ生成部
 28 映像データ生成部
 29 歪み補正部
 30 光源調整部
 31 ミラー調整部
 35 映像表示装置
 36 反射鏡
 37 凹面鏡
 41 車速センサ
 42 シフトポジションセンサ
 43 ハンドル操舵角センサ
 44 ヘッドライトセンサ
 45 照度センサ
 46 色度センサ
 47 測距センサ
 48 赤外線センサ
 49 エンジン始動センサ
 50 加速度センサ
 51 ジャイロセンサ
 52 温度センサ
 53 路車間通信用無線送受信機
 54 車車間通信用無線送受信機
 55 車内用カメラ
 55a,56a,56b,70,70a~70d 監視カメラ
 56 車外用カメラ
 57 GPS受信機
 58 VICS受信機
 60,65a,65b,71 撮像映像(撮像映像データ)
 61 加工済み撮像映像
 62 出力予定映像(表示映像データ)
 63,64 投影対象物
 D1~D3 診断処理
 E0 区別処理

Claims (15)

  1.  ウィンドシールドの表示領域へ投影映像を投影することで、前記投影映像が重畳された風景を車両の運転者に視認させるヘッドアップディスプレイ装置であって、
     前記投影映像の表示内容を定める表示映像データを生成する映像データ生成部と、
     前記表示映像データに基づいて表示映像を表示する映像表示装置と、
     前記表示映像を前記風景が重畳される前に撮像する監視カメラと、
     前記監視カメラで撮像された撮像映像に基づいて前記投影映像の異常の有無を診断する映像診断部と、
    を有するヘッドアップディスプレイ装置。
  2.  請求項1記載のヘッドアップディスプレイ装置において、
     前記映像診断部は、前記撮像映像内の投影対象物と、前記表示映像データが表す出力予定映像内の投影対象物との同一性を検証することで前記投影映像の異常の有無を診断する、
    ヘッドアップディスプレイ装置。
  3.  請求項1または2記載のヘッドアップディスプレイ装置において、
     前記映像診断部は、前記撮像映像に占める投影対象物の割合を検出することで前記投影映像の異常の有無を診断する、
    ヘッドアップディスプレイ装置。
  4.  請求項1または2記載のヘッドアップディスプレイ装置において、
     前記映像診断部は、前記撮像映像に占める塗りつぶし領域の割合を検出することで前記投影映像の異常の有無を診断する、
    ヘッドアップディスプレイ装置。
  5.  請求項1記載のヘッドアップディスプレイ装置において、
     前記監視カメラは、前記ウィンドシールドの前記表示領域を前記ウィンドシールドの略法線方向から撮像するように設置される、
    ヘッドアップディスプレイ装置。
  6.  請求項1記載のヘッドアップディスプレイ装置において、
     さらに、コールドミラーであり、前記映像表示装置で表示された前記表示映像を表面で反射して前記表示領域へ投影する凹面鏡を有し、
     前記監視カメラは、前記凹面鏡の裏面から前記凹面鏡越しに前記表示映像を撮像するように設置される、
    ヘッドアップディスプレイ装置。
  7.  請求項1記載のヘッドアップディスプレイ装置において、
     前記映像表示装置で表示された前記表示映像を直接撮像するように設置される、
    ヘッドアップディスプレイ装置。
  8.  請求項1記載のヘッドアップディスプレイ装置において、
     さらに、前記映像表示装置で表示された前記表示映像を表面で反射する反射鏡を有し、
     前記監視カメラは、前記反射鏡の表面を撮像するように設置される、
    ヘッドアップディスプレイ装置。
  9.  請求項1記載のヘッドアップディスプレイ装置において、
     さらに、前記映像診断部によって異常有りと診断された場合に前記投影映像の表示内容を変更するエラー処理部を有する、
    ヘッドアップディスプレイ装置。
  10.  ウィンドシールドの表示領域へ投影映像を投影することで、前記投影映像が重畳された風景を車両の運転者に視認させるヘッドアップディスプレイ装置であって、
     前記投影映像の表示内容を定める表示映像データを生成する映像データ生成部と、
     前記表示映像データに基づいて表示映像を表示する映像表示装置と、
     前記投影映像が重畳された前記風景を撮像する監視カメラと、
     前記監視カメラで撮像された撮像映像に基づいて前記投影映像の異常の有無を診断する映像診断部と、
    を有するヘッドアップディスプレイ装置。
  11.  請求項10記載のヘッドアップディスプレイ装置において、
     前記映像診断部は、前記撮像映像内で前記風景と投影対象物とを区別し、前記撮像映像内の投影対象物と、前記表示映像データが表す出力予定映像内の投影対象物との同一性を検証することで前記投影映像の異常の有無を診断する、
    ヘッドアップディスプレイ装置。
  12.  請求項10または11記載のヘッドアップディスプレイ装置において、
     前記映像診断部は、前記撮像映像内で前記風景と投影対象物とを区別し、前記撮像映像に占める投影対象物の割合を検出することで前記投影映像の異常の有無を診断する、
    ヘッドアップディスプレイ装置。
  13.  請求項10または11記載のヘッドアップディスプレイ装置において、
     前記映像診断部は、前記撮像映像に占める塗りつぶし領域の割合を検出することで前記投影映像の異常の有無を診断する、
    ヘッドアップディスプレイ装置。
  14.  請求項10記載のヘッドアップディスプレイ装置において、
     前記監視カメラは、前記ウィンドシールドの前記表示領域を前記運転者の目線方向から撮像するように設置される、
    ヘッドアップディスプレイ装置。
  15.  請求項10記載のヘッドアップディスプレイ装置において、
     さらに、前記映像診断部によって異常有りと診断された場合に前記投影映像の表示内容を変更するエラー処理部を有する、
    ヘッドアップディスプレイ装置。
PCT/JP2019/028351 2018-09-07 2019-07-18 ヘッドアップディスプレイ装置 WO2020049881A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020541050A JP7053857B2 (ja) 2018-09-07 2019-07-18 ヘッドアップディスプレイ装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018168124 2018-09-07
JP2018-168124 2018-09-07

Publications (1)

Publication Number Publication Date
WO2020049881A1 true WO2020049881A1 (ja) 2020-03-12

Family

ID=69722898

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/028351 WO2020049881A1 (ja) 2018-09-07 2019-07-18 ヘッドアップディスプレイ装置

Country Status (2)

Country Link
JP (1) JP7053857B2 (ja)
WO (1) WO2020049881A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114019686A (zh) * 2021-11-23 2022-02-08 芜湖汽车前瞻技术研究院有限公司 抬头显示器的虚像显示方法、装置、设备和介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209457A (ja) * 2010-03-29 2011-10-20 Denso Corp ヘッドアップディスプレイ装置の製造方法および同製造方法に用いるのに適した虚像調整装置
JP2015022013A (ja) * 2013-07-16 2015-02-02 株式会社デンソー 検査装置
WO2016143412A1 (ja) * 2015-03-12 2016-09-15 富士フイルム株式会社 投写型表示装置及び運転支援方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011209457A (ja) * 2010-03-29 2011-10-20 Denso Corp ヘッドアップディスプレイ装置の製造方法および同製造方法に用いるのに適した虚像調整装置
JP2015022013A (ja) * 2013-07-16 2015-02-02 株式会社デンソー 検査装置
WO2016143412A1 (ja) * 2015-03-12 2016-09-15 富士フイルム株式会社 投写型表示装置及び運転支援方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114019686A (zh) * 2021-11-23 2022-02-08 芜湖汽车前瞻技术研究院有限公司 抬头显示器的虚像显示方法、装置、设备和介质

Also Published As

Publication number Publication date
JPWO2020049881A1 (ja) 2021-08-12
JP7053857B2 (ja) 2022-04-12

Similar Documents

Publication Publication Date Title
JP6953539B2 (ja) ヘッドアップディスプレイ装置
JP6629889B2 (ja) ヘッドアップディスプレイ装置
JP4984974B2 (ja) 運転支援システム及び車載装置
US20140132852A1 (en) Display Device Having A Liquid Crystal Display And Method For Protecting A Liquid Crystal Display
JP6655732B2 (ja) ヘッドアップディスプレイシステム
US11507196B2 (en) Method and device for controlling display content on an output means of a vehicle
JP2018118580A (ja) 車両用表示装置
JP2019113809A (ja) ヘッドアップディスプレイ装置
US11367417B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
JP7053857B2 (ja) ヘッドアップディスプレイ装置
JP7182411B2 (ja) ヘッドアップディスプレイ装置
JP7099837B2 (ja) 車両用表示投影装置
US20220146840A1 (en) Display control device, and display control method
JP6658483B2 (ja) 車両用表示制御装置及び車両用表示システム
WO2021131529A1 (ja) ヘッドアップディスプレイ装置
US11345364B2 (en) Attention calling device and attention calling method
CN111477025B (zh) 信号灯盲区辅助系统及其控制单元和控制方法
JP6828736B2 (ja) 車両用表示装置
WO2020049873A1 (ja) ヘッドアップディスプレイ装置
WO2024042762A1 (ja) ヘッドアップディスプレイ装置および映像データの処理方法
JP2024029820A (ja) ヘッドアップディスプレイ装置および映像データの処理方法
JP7116670B2 (ja) 走行制御装置、制御方法およびプログラム
WO2023243213A1 (ja) ヘッドアップディスプレイ装置
KR20160109912A (ko) 헤드업 디스플레이 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19856779

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020541050

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19856779

Country of ref document: EP

Kind code of ref document: A1