WO2019053928A1 - 車両用投影制御装置、および、ヘッドアップディスプレイ装置 - Google Patents

車両用投影制御装置、および、ヘッドアップディスプレイ装置 Download PDF

Info

Publication number
WO2019053928A1
WO2019053928A1 PCT/JP2018/011306 JP2018011306W WO2019053928A1 WO 2019053928 A1 WO2019053928 A1 WO 2019053928A1 JP 2018011306 W JP2018011306 W JP 2018011306W WO 2019053928 A1 WO2019053928 A1 WO 2019053928A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
virtual
image
host vehicle
visibility
Prior art date
Application number
PCT/JP2018/011306
Other languages
English (en)
French (fr)
Inventor
正樹 松本
栗原 誠
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to CN201880042675.9A priority Critical patent/CN110832564B/zh
Publication of WO2019053928A1 publication Critical patent/WO2019053928A1/ja
Priority to US16/787,076 priority patent/US10946744B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/365Guidance using head up displays or projectors, e.g. virtual vehicles or arrows projected on the windscreen or on the road itself
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/23
    • B60K35/28
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • B60K2360/165
    • B60K2360/166
    • B60K2360/167
    • B60K2360/176
    • B60K2360/177
    • B60K2360/21
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0183Adaptation to parameters characterising the motion of the vehicle
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Definitions

  • the present invention relates to a projection control device for a vehicle and a head-up display device.
  • a head-up display device which projects information provided to the driver, such as route guidance information or speed information, as a virtual image in front of the driver's line of sight.
  • An image of a leading virtual vehicle that travels a predetermined distance ahead of the host vehicle on the guide route is displayed on the windshield at a position that would be visible from the driver's point of view.
  • a technique to derive the see, for example, Patent Document 1.
  • a technique for displaying a virtual vehicle that teaches an action to be taken by a vehicle at a predetermined distance ahead of the vehicle (see, for example, Patent Document 2).
  • JP 2000-275057 A Japanese Patent Application Publication No. 2003-254764
  • the present invention has been made in view of the above, and it is an object of the present invention to make driving easier when visibility is low.
  • a projection control apparatus for a vehicle includes a vehicle information acquisition unit for acquiring vehicle information including the vehicle speed of the host vehicle, and a road on which the host vehicle travels.
  • a virtual moving body image of a virtual moving body that moves in front of the host vehicle in the same direction as the host vehicle and is projected by a visibility information acquisition unit that acquires visibility information and a projection unit of a head-up display device
  • the virtual moving body image generation unit and the projection unit of the head-up display device to visually recognize the virtual image of the virtual moving body image generated by the virtual moving body image generation unit in front of the host vehicle
  • a projection control unit configured to control projection of a virtual moving body image, wherein the projection control unit is configured to, based on the visibility information acquired by the visibility information acquiring unit, Projection of the virtual moving body image so that the virtual image of the virtual moving body image generated by the virtual moving body image generation unit is visually recognized in front of the host vehicle when it is determined that the visibility of To control.
  • a head-up display device includes the above-described projection control device for a vehicle and the projection unit.
  • ADVANTAGE OF THE INVENTION when visibility is low, it is effective in the ability to assist making it easy to drive.
  • FIG. 1 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to the first embodiment.
  • FIG. 2 is a view showing an example of a projection unit of the head-up display device according to the first embodiment.
  • FIG. 3 is a diagram showing an example when the vehicle is traveling in a bright city area.
  • FIG. 4 is a view showing an example when the vehicle is traveling in a dark mountain area.
  • FIG. 5 is a view showing an example of a vehicle and a virtual image of a virtual vehicle image when the vehicle is traveling in a dark mountain area.
  • FIG. 6 is a view showing an example of a virtual image of a virtual vehicle image visually recognized by the driver when the vehicle is traveling in a dark mountain area.
  • FIG. 1 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to the first embodiment.
  • FIG. 2 is a view showing an example of a projection unit of the head-up display device according to the first embodiment.
  • FIG. 3 is
  • FIG. 7 is a flowchart showing the flow of processing in the projection control apparatus for a vehicle according to the first embodiment.
  • FIG. 8 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to a second embodiment.
  • FIG. 9 is a flow chart showing the flow of processing in the projection control system for a vehicle according to the second embodiment.
  • FIG. 10 is a diagram for explaining processing in the projection control apparatus for a vehicle according to the third embodiment, and shows an example when the visibility around the vehicle is lowered.
  • HUD device head-up display device
  • FIG. 1 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to the first embodiment.
  • the HUD device 10 controls the projection control device 30 so as to project the virtual moving object image so that the virtual image 200 of the virtual moving object image is visually recognized according to the situation around the host vehicle V.
  • the HUD device 10 controls the projection control device 30 for a vehicle to project a virtual vehicle image so that the virtual image 200 of the virtual vehicle image is viewed. Do.
  • the camera unit 100 has a camera for photographing the surroundings of the host vehicle V. A plurality of cameras may be arranged. In the present embodiment, the camera unit 100 has a front camera (not shown).
  • the front camera is a front video camera.
  • the front camera is disposed in front of the host vehicle V and captures an area around the front of the host vehicle V.
  • the forward video data is a moving image composed of, for example, 30 frames per second.
  • the front camera outputs the photographed front video data to the video data acquisition unit 31 of the vehicle projection control device 30.
  • the HUD device 10 virtualizes a virtual vehicle image of a virtual vehicle, which is a virtual leading vehicle, as a virtual mobile object image of a virtual mobile object in front of the driver's line of sight. The driver visually recognizes it as 200 (see FIG. 5).
  • the HUD device 10 has a projection unit 20 and a projection control device 30 for a vehicle.
  • FIG. 2 is a view showing an example of a projection unit of the head-up display device according to the first embodiment.
  • the projection unit 20 has a projection unit 21 and a combiner 22.
  • the projection unit 20 reflects the display image projected on the projection unit 21 by the combiner 22 to make the driver visually recognize it as a virtual image.
  • the projection unit 21 is a display that includes, for example, a liquid crystal display (LCD) or an organic electro-luminescence (EL) display. In the present embodiment, the projection unit 21 is disposed below the dashboard D. The projection unit 21 displays a display image on the display surface based on the image signal from the projection control unit 39 of the vehicle projection control device 30. Video display light of a display video displayed on the display surface of the projection unit 21 is projected on the combiner 22.
  • LCD liquid crystal display
  • EL organic electro-luminescence
  • the combiner 22 reflects the video display light projected from the projection unit 21 and causes the driver to recognize it as a virtual image.
  • the combiner 22 is a plate-like member which is disposed to be curved in a convex shape forward in the traveling direction. In the present embodiment, the combiner 22 is disposed on the upper side of the dashboard D.
  • the combiner 22 has a front surface facing the windshield S of the host vehicle V and a rear surface facing the driver.
  • the vehicle projection control device 30 controls the projection unit 21 of the projection unit 20 to project a display image according to the situation around the host vehicle V.
  • the vehicle projection control device 30 is, for example, an arithmetic processing device configured by a CPU (Central Processing Unit) or the like.
  • the vehicle projection control device 30 loads a program stored in a storage unit (not shown) into a memory and executes an instruction included in the program.
  • the vehicle projection control device 30 includes an image data acquisition unit 31, a vehicle information acquisition unit 32, a preceding vehicle information acquisition unit 33, a visibility information acquisition unit 34, and a virtual vehicle image generation unit (virtual moving object image generation unit ) And a projection control unit 39.
  • the vehicle projection control device 30 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the vehicle projection control device 30 and the like.
  • the video data acquisition unit 31 acquires peripheral video data obtained by photographing the periphery of the host vehicle V. More specifically, the video data acquisition unit 31 acquires video data output by the camera unit 100. The video data acquisition unit 31 outputs the acquired video data to the preceding vehicle information acquisition unit 33 and the visibility information acquisition unit 34.
  • the vehicle information acquisition unit 32 acquires vehicle information indicating the status of the host vehicle V from CAN or various sensors that sense the status of the host vehicle V.
  • the vehicle information acquisition unit 32 acquires, for example, vehicle speed information.
  • the vehicle information acquisition unit 32 outputs the acquired vehicle information to the virtual vehicle video generation unit 38.
  • the vehicle information acquisition unit 32 stores the acquired vehicle speed information in the internal memory.
  • the preceding vehicle information acquisition unit 33 acquires preceding vehicle information indicating the presence or absence of a preceding vehicle traveling in the forward direction where the host vehicle V travels.
  • the leading vehicle information acquisition unit 33 performs image processing on the video data acquired by the video data acquisition unit 31, and determines whether or not the preceding vehicle exists in the range of the first distance or less. The result is acquired as preceding vehicle information.
  • the first distance is preferably in the range of several tens of meters or more and 200 m or less.
  • the first distance may be set in accordance with the vehicle speed of the host vehicle V.
  • the first distance may be a safe inter-vehicle distance set according to the vehicle speed of the host vehicle V.
  • the first distance may be longer than the safe inter-vehicle distance set according to the vehicle speed of the host vehicle V.
  • the first distance may be 80 km, and when the vehicle speed is 100 km / h, the first distance may be 100 m.
  • the first distance may be 100 m, and when the vehicle speed is 100 km / h, the first distance may be 200 m.
  • the preceding vehicle information acquisition unit 33 may determine whether a preceding vehicle exists in a range equal to or less than the first distance by a sensor unit (not shown), and may acquire the determination result as preceding vehicle information.
  • the sensor unit can detect a preceding vehicle which is an obstacle ahead of the host vehicle V.
  • the sensor unit includes a plurality of sensors installed around the host vehicle V. Each sensor is disposed in front of the host vehicle V, and detects a vehicle in front of the host vehicle V.
  • the sensor is, for example, an infrared sensor or an ultrasonic sensor, a millimeter wave radar, or the like, and may be configured by a combination thereof.
  • the visibility information acquisition unit 34 acquires visibility information of the road on which the host vehicle V travels.
  • the visibility information acquisition unit 34 outputs the acquired visibility information to the virtual vehicle video generation unit 38 and the projection control unit 39.
  • the visibility information is information indicating the visibility in front as the surroundings of the host vehicle V.
  • the visibility information is, for example, illuminance information indicating the illuminance in front of the host vehicle V, illumination information indicating the distance between the lighting devices installed on the road on which the host vehicle V is traveling, Indicating visibility information, weather information including fog, haze, haze, rain and snow.
  • the visibility information is illuminance information.
  • the visibility information acquisition unit 34 performs image processing on the video data acquired by the video data acquisition unit 31 to acquire the brightness of the video as illuminance information.
  • the visibility information acquisition unit 34 is installed in the host vehicle V and acquires a detection result output from an illumination sensor (not shown) that detects illumination in front of the host vehicle V by a detection result acquisition unit (not shown), based on the detection result
  • the obtained illuminance may be acquired as the visibility information.
  • the visibility information acquisition unit 34 may perform image processing on the video data acquired by the video data acquisition unit 31 to acquire, as illumination information, an interval between lighting devices installed on a road on which the host vehicle V travels. Or the visibility information acquisition part 34 may measure the space
  • the visibility information acquisition unit 34 refers to visibility information indicating visibility which is a distance that can be seen in front of the host vehicle V, or a database storing weather information including fog, haze, haze, rain and snow, or the like Information may be received to obtain visibility information.
  • the virtual vehicle image generation unit 38 generates a virtual vehicle image of a virtual vehicle projected by the projection unit 20 of the HUD device 10 and moving in front of the host vehicle V in the same direction as the host vehicle V. When the visibility around the host vehicle V decreases, the virtual vehicle image generation unit 38 generates a virtual vehicle image.
  • the virtual vehicle image is an image of a virtual vehicle moving ahead of the host vehicle V by a first distance.
  • the virtual vehicle image is an image obtained by visually recognizing the host vehicle V from the rear.
  • the virtual vehicle image is generated by changing the viewpoint according to the shape of the road ahead of the host vehicle V by a first distance. For example, when the road ahead of the first distance of the host vehicle V is curved in the right direction, the virtual vehicle image is an image obtained by visually recognizing the host vehicle V from the rear right. For example, when the road ahead of the first distance of the host vehicle V is curved in the left direction, the virtual vehicle image is an image obtained by visually recognizing the host vehicle V from the left rear.
  • the virtual vehicle image is an image of a virtual vehicle moving at a first vehicle speed, which is the vehicle speed immediately before it is determined that the visibility around the host vehicle V has decreased.
  • the virtual vehicle image is generated by changing the size in accordance with the change in the vehicle speed of the host vehicle V.
  • the virtual vehicle image is an image of a certain size when the host vehicle V is traveling while maintaining the first vehicle speed.
  • the virtual vehicle image is an image in which the size of the virtual vehicle is enlarged as if the inter-vehicle distance becomes short.
  • the virtual vehicle image is an image in which the size of the virtual vehicle is reduced as if the inter-vehicle distance is increased.
  • the projection control unit 39 projects the virtual vehicle image so that the virtual image 200 of the virtual vehicle image generated by the virtual vehicle image generating unit 38 is viewed by the projection unit 20 of the HUD device 10 in front of the host vehicle V. Control. More specifically, the projection control unit 39 causes the projection unit 20 of the HUD device 10 to reduce the visibility of the vehicle V when the visibility around the vehicle V decreases based on the visibility information acquired by the visibility information acquisition unit 34. A video signal for projecting a virtual vehicle image is output to the projection unit 20 so that the virtual image 200 of the virtual vehicle image generated by the virtual vehicle image generation unit 38 is viewed in the forward direction.
  • the threshold time or more when the threshold time or more has elapsed in a state where the illuminance is equal to or lower than the threshold illuminance, It is determined that the visibility around the host vehicle V has decreased.
  • the illuminance is not lower than the threshold illuminance, or when the threshold time or more does not elapse even if the illuminance is lower than the threshold illuminance, and when the threshold distance is not traveled, visual recognition of the surroundings of the host vehicle V It determines that the sex has not declined. By doing this, it is suppressed that the virtual image 200 of the virtual vehicle image is carelessly displayed due to a slight change in visibility during traveling.
  • the threshold illuminance may be set in advance by acquiring an average value of the brightness of the video data when the driver recognizes that the surroundings are dark.
  • the threshold time is about 2 seconds.
  • the threshold distance is about 50 m.
  • the visibility around the host vehicle V decreases. It may be determined that the Alternatively, when it is determined that the visibility in front of the host vehicle V is shorter than the threshold when acquiring visibility information as the visibility information, it may be determined that the visibility around the host vehicle V is lowered. Alternatively, when it is determined that the weather around the host vehicle V is fog, haze, haze, rain, and snow when acquiring weather information as visibility information, the visibility around the host vehicle V is reduced. It may be determined.
  • FIG. 3 is a diagram showing an example when the vehicle is traveling in a bright city area.
  • FIG. 4 is a view showing an example when the vehicle is traveling in a dark mountain area.
  • FIG. 5 is a view showing an example of a vehicle and a virtual image of a virtual vehicle image when the vehicle is traveling in a dark mountain area.
  • FIG. 6 is a view showing an example of a virtual image of a virtual vehicle image visually recognized by the driver when the vehicle is traveling in a dark mountain area.
  • the virtual image 200 of the virtual vehicle image is not displayed when the surroundings are bright and the visibility is good as when the host vehicle V is traveling in a bright urban area.
  • the virtual vehicle image is displayed so that the driver visually recognizes that the virtual vehicle is traveling ahead by the first distance. Project In other words, the virtual image 200 of the virtual vehicle image is projected to overlap the scene ahead of the first distance.
  • FIG. 7 is a flowchart showing the flow of processing in the projection control apparatus for a vehicle according to the first embodiment.
  • the vehicle projection control device 30 acquires visibility information (step S11). More specifically, the vehicle projection control device 30 performs image processing on the video data acquired by the video data acquisition unit 31 by the visibility information acquisition unit 34 to acquire visibility information. The vehicle projection control device 30 proceeds to step S12.
  • the vehicle projection control device 30 determines whether the surroundings of the host vehicle V are dark (step S12). In the state where the illuminance around the host vehicle V is equal to or lower than the threshold illuminance, the projection control device 30 for vehicle uses the projection control unit 39 based on the visibility information acquired by the visibility information acquisition unit 34, If it has elapsed, it is determined that the surroundings of the host vehicle V are dark (Yes in step S12). Alternatively, the projection control device 30 for a vehicle may set the illuminance around the host vehicle V equal to or less than the threshold illuminance based on the visibility information acquired by the visibility information acquiring unit 34 by the projection control unit 39. Is determined to be dark around the host vehicle V (Yes in step S12).
  • step S13 When the illuminance around the host vehicle V is not equal to or less than the threshold threshold illuminance based on the visibility information acquired by the visibility information acquisition unit 34 by the projection control unit 39, the vehicle projection control device 30 around the host vehicle V Is not dark (No in step S12). Then, the vehicle projection control device 30 proceeds to step S18.
  • the vehicle projection control device 30 acquires preceding vehicle information (step S13). More specifically, the vehicle projection control device 30 performs image processing on the video data acquired by the video data acquisition unit 31 by the preceding vehicle information acquisition unit 33 to obtain an object to be photographed at a distance less than or equal to the threshold value from the vehicle V. The preceding vehicle located is detected, and the detection result is acquired as preceding vehicle information. The vehicle projection control device 30 proceeds to step S14.
  • the vehicle projection control device 30 determines whether a preceding vehicle exists at a distance equal to or less than the threshold (step S14). When the vehicle projection control device 30 does not detect the leading vehicle located at a distance equal to or less than the threshold from the host vehicle V based on the leading vehicle information acquired by the leading vehicle information acquisition unit 33, the leading vehicle is at a distance equal to or less than the threshold. It determines with not existing (it is Yes at step S14). Then, the vehicle projection control device 30 proceeds to step S15. When the vehicle projection control device 30 detects a leading vehicle located at a distance equal to or less than the threshold from the host vehicle V based on the leading vehicle information acquired by the leading vehicle information acquisition unit 33, the leading vehicle is at a distance equal to or less than the threshold. It determines that it exists (No in step S14). Then, the vehicle projection control device 30 proceeds to step S18.
  • the vehicle projection control device 30 acquires the vehicle speed of the immediately preceding vehicle V as the first vehicle speed (step S15). . More specifically, the projection control unit 30 for a vehicle immediately before the projection control unit 39 determines that the surroundings of the host vehicle V are dark based on the vehicle information acquired by the vehicle information acquisition unit 32 and stored in the internal memory. Acquire the first vehicle speed. In other words, the first vehicle speed is a vehicle speed immediately before the surroundings of the host vehicle V become dark.
  • the vehicle projection control device 30 generates a virtual vehicle image (step S16). More specifically, the vehicle projection control device 30 runs the first distance ahead of the host vehicle V at the first speed of the host vehicle V based on the first vehicle speed of the host vehicle V in the virtual vehicle image generation unit 38. To generate a virtual vehicle image. The vehicle projection control device 30 proceeds to step S17.
  • the vehicle projection control device 30 outputs a control signal for projecting a virtual vehicle image (step S17). More specifically, the vehicle projection control device 30 causes the projection control unit 39 to output, to the projection unit 20, a control signal for projecting the virtual vehicle image generated by the virtual vehicle image generating unit 38. The vehicle projection control device 30 proceeds to step S19.
  • the vehicle projection control device 30 outputs a control signal for stopping the projection of the virtual vehicle image (step S18). More specifically, when the virtual vehicle image is being projected by the projection control unit 39, the vehicle projection control device 30 outputs, to the projection unit 20, a control signal for stopping the projection of the virtual vehicle image. When the virtual vehicle image is not projected by the projection control unit 39, the vehicle projection control device 30 continues the state in which the virtual vehicle image is not projected. The vehicle projection control device 30 proceeds to step S19.
  • the vehicle projection control device 30 determines whether or not there is an end trigger (step S19).
  • the end trigger is, for example, a case where a button for ending the display of the virtual vehicle image is pressed or the vehicle stops.
  • the vehicle projection control device 30 determines to end the projection of the virtual vehicle image (Yes in step S19), and ends the process.
  • the vehicle projection control device 30 determines that the projection of the virtual vehicle image is not ended (No in step S19), and executes the process of step S11 again.
  • the vehicle projection control device 30 projects the virtual vehicle image so that the virtual image 200 of the virtual vehicle image is viewed only when the visibility around the host vehicle V decreases.
  • the vehicle projection control device 30 does not project the virtual vehicle image.
  • the present embodiment projects the virtual vehicle image so that the virtual image 200 of the virtual vehicle image can be viewed only when the visibility around the host vehicle V is reduced.
  • the virtual vehicle image is not projected.
  • the shape of the road ahead can be recognized by the virtual image 200 of the virtual vehicle image.
  • the present embodiment even if the visibility around the host vehicle V is low, it is possible to assist the driver to drive easily.
  • the driver since the vehicle is viewed in the same manner as when the preceding vehicle is ahead, even if the visibility around the host vehicle V is low, the driver is less likely to feel uneasy about traveling it can.
  • the virtual vehicle image is projected so that the virtual image 200 of the virtual vehicle image can be viewed. According to the present embodiment, even when there is no preceding vehicle ahead of the host vehicle V, it is possible to travel so as to follow the virtual vehicle in the same manner as when there is a preceding vehicle.
  • the present embodiment projects a virtual vehicle image traveling at a first vehicle speed immediately before the visibility around the host vehicle V decreases.
  • the driver can travel following the virtual vehicle traveling at the first vehicle speed by visually recognizing the virtual image 200 of the virtual vehicle image.
  • the present embodiment when the visibility around the host vehicle V decreases, it is possible to support the driver to keep the vehicle speed of the host vehicle V at the first vehicle speed and travel.
  • the present embodiment even when the visibility around the host vehicle V decreases, it is possible to suppress the host vehicle V from decelerating without intention.
  • the present embodiment projects a virtual vehicle image when no preceding vehicle exists at a distance equal to or less than the threshold. Further, in the present embodiment, when a virtual vehicle image is being projected, the projection of the virtual vehicle image is stopped when the preceding vehicle is present at a distance equal to or less than the threshold. Thus, the present embodiment can project a virtual vehicle image only when there is no preceding vehicle. According to the present embodiment, it is possible to avoid that the leading vehicle and the virtual image 200 of the virtual vehicle image overlap and the visibility is reduced.
  • FIG. 8 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to a second embodiment.
  • FIG. 9 is a flow chart showing the flow of processing in the projection control system for a vehicle according to the second embodiment.
  • the basic configuration of the HUD device 10A is the same as that of the HUD device 10 of the first embodiment.
  • symbol is attached
  • the vehicle projection control device 30A confirms that the brake operation is performed when the visibility around the host vehicle V is lowered and the host vehicle V needs to operate the brake.
  • the virtual vehicle image is projected so that the virtual image 200 of the virtual vehicle image in the possible display modes can be viewed.
  • the display mode capable of confirming that the brake operation is performed is the display mode of the virtual vehicle image in which the brake lamp is lit.
  • the vehicle projection control device 30A has a road information acquisition unit 35A.
  • the host vehicle V When the host vehicle V needs to operate the brake, the host vehicle V needs to decelerate.
  • the road ahead of the host vehicle V is a downhill or the front of the host vehicle V is a sharp curve.
  • the vehicle speed of the host vehicle V is faster than the first vehicle speed by a threshold speed or more.
  • the road information acquisition unit 35A acquires road information indicating the shape of the road ahead of the host vehicle V based on the vehicle information acquired by the vehicle information acquisition unit 32 and the navigation information acquired from the navigation system. More specifically, the road information acquisition unit 35A acquires road information indicating the shape of the road ahead of the host vehicle V based on the current position information of the host vehicle V and the navigation information.
  • the virtual vehicle video generation unit 38A is navigation information acquired from the navigation system including the visibility information acquired by the visibility information acquisition unit 34, the vehicle information acquired by the vehicle information acquisition unit 32, and the information of the road on which the host vehicle V travels. On the basis of at least one of the above, when the visibility around the host vehicle V is lowered and the host vehicle V needs to operate the brake, that the brake operation is being performed A virtual vehicle image in which the brake lamp is lit is generated as a display mode that can be confirmed.
  • the projection control unit 39A combines the visibility information acquired by the visibility information acquisition unit 34, the vehicle information acquired by the vehicle information acquisition unit 32, and the navigation information acquired from the navigation system including the information of the road on which the vehicle V travels. Based on at least one of the above, it is possible to confirm that the brake operation is being performed when the visibility around the host vehicle V is lowered and the host vehicle V needs to operate the brake.
  • a video signal for projecting the virtual vehicle image generated by the virtual vehicle image generation unit 38A is output to the projection unit 20 so that the virtual image 200 of the virtual vehicle image in which the brake lamp is lit is visually recognized as a display mode.
  • steps S21 to S24, step S26, and steps S30 to S33 of the flowchart shown in FIG. 9 is the same as the processing of steps S11 to S14, step S15, and steps S16 to S19 of the flowchart shown in FIG. I do.
  • the vehicle projection control device 30A acquires the shape of the road (step S25). More specifically, the vehicle projection control device 30A acquires the shape of the road ahead of the host vehicle V based on the road information acquired by the road information acquisition unit 35A. The vehicle projection control device 30A proceeds to step S26.
  • the vehicle projection control device 30A determines whether a brake operation is necessary (step S27). Based on the vehicle information acquired by the vehicle information acquisition unit 32 and the road information acquired by the road information acquisition unit 35A, the vehicle projection control device 30A causes the road ahead of the host vehicle V to be a downhill or a steep curve. When it is determined that the brake operation is necessary (Yes in step S27). Alternatively, based on the vehicle information, when the vehicle speed of the host vehicle V is faster than the first vehicle speed by the threshold speed or more, the vehicle projection control device 30A determines that the brake operation is necessary (Yes in step S27). Then, the vehicle projection control device 30A proceeds to step S28.
  • the vehicle projection control device 30A determines that the brake operation is not necessary when the road ahead of the host vehicle V is not a downhill and not a sharp curve and the vehicle speed of the host vehicle V is not faster than the first vehicle speed by a threshold or more. (No in step S27). Then, the vehicle projection control device 30A proceeds to step S30.
  • the vehicle projection control device 30A generates a virtual vehicle image in which the brake lamp is lit (step S28). More specifically, the vehicle projection control device 30A controls the first distance ahead of the host vehicle V at a lower speed than the host vehicle V at the first vehicle speed of the host vehicle V based on the first vehicle speed of the host vehicle V. Drive and generate a virtual vehicle image with the brake lamp turned on.
  • the vehicle projection control device 30A outputs a control signal for projecting a virtual vehicle image in which the brake lamp is lit (step S29). More specifically, the vehicle projection control device 30A causes the projection control unit 39A to output, to the projection unit 20, a control signal for projecting a virtual vehicle image on which the brake lamp generated by the virtual vehicle image generation unit 38A is lit. The vehicle projection control device 30A proceeds to step S33.
  • the virtual vehicle image with the brake lamp lit is projected.
  • the driver can naturally perform the brake operation of the host vehicle V by lighting the brake lamp of the virtual vehicle image.
  • FIG. 10 is a diagram for explaining the process in the projection control apparatus for a vehicle according to the third embodiment, and shows an example when the visibility around the host vehicle V is lowered.
  • the basic configuration of the HUD device 10 is the same as that of the HUD device 10 of the first embodiment.
  • the virtual vehicle image generation unit 38 generates a virtual vehicle image that is separated and separated from the host vehicle V from the vicinity of the host vehicle V to the front of the first distance.
  • the virtual vehicle image generation unit 38 generates a virtual vehicle image visually recognized by the driver so as to be separated from the host vehicle V and jump forward.
  • the projection control unit 39 is a virtual vehicle that is viewed as being separated and separated from the host vehicle V from the vicinity of the host vehicle V to the first distance ahead when the visibility around the host vehicle V decreases.
  • the virtual vehicle image generated by the image generator 38 is projected.
  • the projection control unit 39 is a virtual image in which the virtual image 200 of the virtual vehicle image is viewed so as to separate from the host vehicle V and jump forward when the visibility around the host vehicle V decreases. Project the vehicle image.
  • a virtual image 200 of a virtual vehicle image to be projected when the visibility around the host vehicle V is lowered will be described using FIG.
  • the virtual image 200 of the virtual vehicle image is viewed as if traveling near the host vehicle V immediately after it is determined that the visibility around the host vehicle V is lowered.
  • the virtual image 200 of the virtual vehicle image is viewed so as to be away from the host vehicle V.
  • the virtual image 200 of the virtual vehicle image is visually recognized as traveling ahead by the first distance.
  • the virtual vehicle when the visibility around the host vehicle V decreases, the virtual vehicle separates from the host vehicle V and is separated from the vicinity of the host vehicle V to the first distance ahead.
  • the virtual vehicle image is projected so that the virtual image 200 of the image can be viewed. According to this embodiment, the driver can more easily recognize that the virtual image 200 of the virtual vehicle image is projected.
  • the present embodiment by displaying the virtual image 200 of the virtual vehicle image so as to be separated from the host vehicle V, it is possible to cause the vehicle to travel following the virtual vehicle.
  • the HUD device 10 according to the present invention has been described above, but may be implemented in various different forms other than the above-described embodiment.
  • Each component of the illustrated HUD device 10 is functionally conceptual and may not necessarily be physically configured as illustrated. That is, the specific form of each device is not limited to the illustrated one, and all or a part thereof is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and use condition of each device, etc. May be
  • the configuration of the HUD device 10 is realized, for example, as software, a program loaded in a memory, or the like.
  • the above embodiment has been described as a functional block realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the vehicle projection control device 30 may include a current position information acquisition unit that acquires current position information of the host vehicle V acquired by a GPS (Global Positioning System) receiver mounted on the vehicle.
  • GPS Global Positioning System
  • the video generated by the virtual mobile body video generation unit may be a virtual mobile body moving in front of the host vehicle V at a first vehicle speed.
  • the virtual moving body may be an icon such as an arrow shape or a round shape moving in the movement direction of the host vehicle V.
  • the projection unit 20 may reflect the display image projected on the projection unit 21 by the windshield S and cause the driver to recognize the display image as the virtual image 200 without using the combiner.
  • the virtual image 200 of the virtual vehicle image in which the brake lamp is lit is visually recognized, but the present invention is not limited thereto.
  • the virtual vehicle image may be an image obtained by changing the body of the virtual vehicle to red.
  • the virtual vehicle video may generate a virtual vehicle video of a display mode in which the change in the speed of the host vehicle V can be confirmed when it is determined that the amount of change in the speed of the host vehicle V relative to the first vehicle speed is equal to or greater than the threshold .
  • the virtual vehicle image may be an image in which the vehicle body of the virtual vehicle blinks or the color of the vehicle body is reduced.
  • the present invention can also be implemented as a projection control method for a vehicle. More specifically, the projection control method for a vehicle according to the present invention includes a vehicle information acquisition step of acquiring vehicle information including the speed of the host vehicle, and a preceding vehicle information acquisition step of acquiring preceding vehicle information indicating presence or absence of a preceding vehicle.
  • the virtual moving body image generated in the virtual moving body image generating step in front of the host vehicle by the virtual moving body image generating step of generating the virtual moving body image of the moving body and the projection unit of the head-up display device A projection control step of controlling projection of the virtual moving body image so that a virtual image is viewed.
  • the virtual mobile object image generation step is generated in front of the host vehicle
  • the projection of the virtual moving body image is controlled such that the virtual image of the virtual moving body image is viewed.
  • the invention can also be implemented as a program. More specifically, the program according to the present invention includes a vehicle information acquisition step of acquiring vehicle information including the vehicle speed of the host vehicle, a preceding vehicle information acquisition step of acquiring leading vehicle information indicating presence or absence of a leading vehicle, and the host vehicle Step of acquiring visibility information of a road on which the vehicle travels, and a virtual mobile object projected by the projection unit of the head-up display device and moving in front of the vehicle in the same direction as the vehicle
  • a virtual image of the virtual moving body image generated in the virtual moving body image generating step is visually recognized in front of the host vehicle by the virtual moving body image generating step of generating a moving body image and the projection unit of the head-up display device
  • a projection control step of controlling projection of the virtual moving body image, and the projection control step When it is determined based on the visibility information acquired in the sexuality information acquisition step that the visibility around the host vehicle is lowered, the virtual moving image generated in the virtual mobile object image generation step in front of the host vehicle The control of the projection of the
  • HUD device 20 projection unit 21 projection unit 22 combiner 30 projection control device for vehicle 31 image data acquisition unit 32 vehicle information acquisition unit 33 preceding vehicle information acquisition unit 34 visibility information acquisition unit 38 virtual vehicle image generation unit (virtual moving object image Generation unit) 39 Projection control unit 100 Camera unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

車速を含む車両情報を取得する車両情報取得部(32)と、走行する道路の視認性情報を取得する視認性情報取得部(34)と、自車両の前方を自車両と同じ方向に移動する仮想車両の仮想車両映像を生成する仮想車両映像生成部(38)と、投影ユニット(20)によって、自車両の前方に、仮想車両映像生成部(38)が生成した仮想車両映像の虚像が視認されるように、仮想車両映像の投影を制御する投影制御部(39)と、を備え、投影制御部(39)は、視認性情報取得部(34)によって取得した視認性情報に基づいて、自車両の周囲の視認性が低下したと判定されると、自車両の前方に、仮想車両映像の虚像が視認されるように、仮想車両映像の投影を制御する。

Description

車両用投影制御装置、および、ヘッドアップディスプレイ装置
 本発明は、車両用投影制御装置、および、ヘッドアップディスプレイ装置に関する。
 運転者の視線の前方に、例えば、経路案内情報または速度情報のような運転者に提供する情報を虚像として投影するヘッドアップディスプレイ装置が知られている。案内経路上にて自車両より所定距離だけ先行して走行する先導用バーチャル車両の像を、フロントガラス上であって、運転者の視点からすればそこに見えるであろう位置に表示して車両を誘導する技術が知られている(例えば、特許文献1参照)。車両から所定距離前方の位置に、車両が取るべき動作を教示した仮想車両を表示する技術が知られている(例えば、特許文献2参照)。
特開2000-275057号公報 特開2003-254764号公報
 例えば、照度が低かったり、天候によって視界が悪かったりして、視認性が低いとき、先行車両がいないと、車線やガードレールを認識しにくく、運転しにくいことがある。また、視認性が低いことによって、運転者が運転に不安を感じることがある。
 本発明は、上記に鑑みてなされたものであって、視認性が低いときに、運転しやすくすることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る車両用投影制御装置は、自車両の車速を含む車両情報を取得する車両情報取得部と、前記自車両が走行する道路の視認性情報を取得する視認性情報取得部と、ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成部と、ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御部と、を備え、前記投影制御部は、前記視認性情報取得部によって取得した視認性情報に基づいて、前記自車両の周囲の視認性が低下したと判定されると、前記自車両の前方に、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御することを特徴とする。
 本発明に係るヘッドアップディスプレイ装置は、上記の車両用投影制御装置と、前記投影ユニットとを備えることを特徴とする。
 本発明によれば、視認性が低いときに、運転しやすくすることを支援することができるという効果を奏する。
図1は、第一実施形態に係る車両用投影制御装置の構成例を示すブロック図である。 図2は、第一実施形態に係るヘッドアップディスプレイ装置の投影ユニットの一例を示す図である。 図3は、明るい市街地を車両が走行しているときの一例を示す図である。 図4は、暗い山間部を車両が走行しているときの一例を示す図である。 図5は、暗い山間部を車両が走行しているとき、車両と仮想車両映像の虚像との一例を示す図である。 図6は、暗い山間部を車両が走行しているとき、運転者が視認する仮想車両映像の虚像の一例を示す図である。 図7は、第一実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。 図8は、第二実施形態に係る車両用投影制御装置の構成例を示すブロック図である。 図9は、第二実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。 図10は、第三実施形態に係る車両用投影制御装置における処理を説明するための図であり、車両の周囲の視認性が低下したときの一例を示す。
 以下に添付図面を参照して、本発明に係る車両用投影制御装置、および、ヘッドアップディスプレイ装置(以下、「HUD装置」という。)の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
 図1は、第一実施形態に係る車両用投影制御装置の構成例を示すブロック図である。HUD装置10は、自車両Vの周囲の状況に応じて、車両用投影制御装置30によって仮想移動体映像の虚像200が視認されるように仮想移動体映像を投影するように制御する。本実施形態では、HUD装置10は、自車両Vの周囲の視認性が低下すると、車両用投影制御装置30によって仮想車両映像の虚像200が視認されるように仮想車両映像を投影するように制御する。
 カメラユニット100は、自車両Vの周囲を撮影するカメラを有する。カメラは、複数配置されていてもよい。本実施形態では、カメラユニット100は、図示しない前方カメラを有する。
 前方カメラは、前方映像用カメラである。前方カメラは、自車両Vの前方に配置され、自車両Vの前方を中心とした周辺を撮影する。前方映像データは、例えば毎秒30フレームの画像から構成される動画像である。前方カメラは、撮影した前方映像データを車両用投影制御装置30の映像データ取得部31へ出力する。
 HUD装置10は、自車両Vの周囲の視認性が低下したとき、運転者の視線の前方に、仮想移動体の仮想移動体映像として、仮想の先行車両である仮想車両の仮想車両映像を虚像200(図5参照)として運転者に視認させる。HUD装置10は、投影ユニット20と、車両用投影制御装置30とを有する。
 図2を参照して、投影ユニット20について説明する。図2は、第一実施形態に係るヘッドアップディスプレイ装置の投影ユニットの一例を示す図である。投影ユニット20は、投影部21と、コンバイナ22とを有する。投影ユニット20は、投影部21に投影された表示映像を、コンバイナ22で反射させ運転者に虚像として視認させる。
 投影部21は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro‐Luminescence)ディスプレイなどを含むディスプレイである。本実施形態では、投影部21は、ダッシュボードDの下側に配置されている。投影部21は、車両用投影制御装置30の投影制御部39からの映像信号に基づいて表示面に表示映像を表示する。投影部21の表示面に表示された表示映像の映像表示光は、コンバイナ22に投影される。
 コンバイナ22は、投影部21から投影された映像表示光を反射させ運転者に虚像として認識させる。コンバイナ22は、進行方向前方に凸状に湾曲して配置される板状材である。本実施形態では、コンバイナ22は、ダッシュボードDの上側に配置されている。コンバイナ22は、自車両VのウィンドシールドSに面した前面と、運転者に面した後面とを有する。
 車両用投影制御装置30は、自車両Vの周囲の状況に応じて、投影ユニット20の投影部21が表示映像を投影するように制御する。車両用投影制御装置30は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。車両用投影制御装置30は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。車両用投影制御装置30は、映像データ取得部31と、車両情報取得部32と、先行車両情報取得部33と、視認性情報取得部34と、仮想車両映像生成部(仮想移動体映像生成部)38と、投影制御部39とを有する。車両用投影制御装置30には図示しない内部メモリが含まれ、内部メモリは車両用投影制御装置30におけるデータの一時記憶などに用いられる。
 映像データ取得部31は、自車両Vの周辺を撮影した周辺映像データを取得する。より詳しくは、映像データ取得部31は、カメラユニット100が出力した映像データを取得する。映像データ取得部31は、取得した映像データを先行車両情報取得部33と視認性情報取得部34とに出力する。
 車両情報取得部32は、自車両Vの状況を示す車両情報を、CANや自車両Vの状態をセンシングする各種センサなどから取得する。車両情報取得部32は、例えば、車速情報を取得する。車両情報取得部32は、取得した車両情報を仮想車両映像生成部38に出力する。車両情報取得部32は、取得した車速情報を内部メモリに記憶させる。
 先行車両情報取得部33は、自車両Vが走行する前方を走行する先行車両の有無を示す先行車両情報を取得する。本実施形態では、先行車両情報取得部33は、映像データ取得部31で取得した映像データに画像処理を行って、第一距離以下の範囲に先行車両が存在するか否かを判定し、判定結果を先行車両情報として取得する。
 第一距離は、数10m以上、200m以下程度の範囲とすることが好ましい。第一距離は、自車両Vの車速に応じて設定されてもよい。例えば、第一距離は、自車両Vの車速に応じて設定された安全な車間距離としてもよい。または、例えば、第一距離は、自車両Vの車速に応じて設定された安全な車間距離よりも長い距離としてもよい。例えば、高速道路において、自車両Vの車速が80km/hのとき、第一距離を80mとし、車速が100km/hのとき、第一距離を100mとしてもよい。例えば、高速道路において、自車両Vの車速が80km/hのとき、第一距離を100mとし、車速が100km/hのとき、第一距離を200mとしてもよい。
 または、先行車両情報取得部33は、図示しないセンサユニットによって、第一距離以下の範囲に先行車両が存在するか否かを判定し、判定結果を先行車両情報として取得してもよい。センサユニットは、自車両Vの前方の障害物である先行車両を検出可能である。センサユニットは、自車両Vの周囲に設置された複数のセンサを含む。各センサは、自車両Vの前方に配置され、自車両Vの前方における車両を検出する。センサは、例えば、赤外線センサまたは超音波センサ、ミリ波レーダなどであり、これらの組合せで構成されてもよい。
 視認性情報取得部34は、自車両Vが走行する道路の視認性情報を取得する。視認性情報取得部34は、取得した視認性情報を仮想車両映像生成部38と投影制御部39に出力する。
 視認性情報とは、自車両Vの周囲として、前方の視認性を示す情報である。視認性情報は、例えば、自車両Vの前方の照度を示す照度情報、自車両Vが走行する道路に設置された照明装置の間隔を示す照明情報、自車両Vの前方を見通せる距離である視程を示す視程情報、霧、靄、霞、雨および雪を含む気象情報などである。本実施形態では、視認性情報は、照度情報である。
 本実施形態では、視認性情報取得部34は、映像データ取得部31で取得した映像データに画像処理を行って、映像の明るさを照度情報として取得する。
 視認性情報取得部34は、自車両Vに設置され、自車両Vの前方の照度を検出する図示しない照度センサから出力された検出結果を図示しない検出結果取得部によって取得し、検出結果に基づいて取得した照度を視認性情報として取得してもよい。
 視認性情報取得部34は、映像データ取得部31で取得した映像データに画像処理を行って、自車両Vが走行する道路に設置された照明装置の間隔を照明情報として取得してもよい。または、視認性情報取得部34は、測距センサによって、照明装置の間隔を測定し照明情報として取得してもよい。
 視認性情報取得部34は、自車両Vの前方を見通せる距離である視程を示す視程情報、または、霧、靄、霞、雨および雪を含む気象情報を記憶したデータベースを参照したり、これらの情報を受信したりして、視認性情報を取得してもよい。
 仮想車両映像生成部38は、HUD装置10の投影ユニット20によって投影される、自車両Vの前方を自車両Vと同じ方向に移動する仮想車両の仮想車両映像を生成する。仮想車両映像生成部38は、自車両Vの周囲の視認性が低下すると、仮想車両映像を生成する。
 本実施形態では、仮想車両映像は、自車両Vの第一距離前方を移動する仮想車両の映像である。本実施形態では、仮想車両映像は、自車両Vを後方から視認した映像である。仮想車両映像は、自車両Vの第一距離前方の道路の形状に合わせて視点を変化させて生成される。例えば、仮想車両映像は、自車両Vの第一距離前方の道路が右方向にカーブしているとき、自車両Vを右後方から視認した映像とする。例えば、仮想車両映像は、自車両Vの第一距離前方の道路が左方向にカーブしているとき、自車両Vを左後方から視認した映像とする。
 本実施形態では、仮想車両映像は、自車両Vの周囲の視認性が低下したと判定される直前の車速である第一車速で移動する仮想車両の映像である。仮想車両映像は、自車両Vの車速の変化に合わせて大きさを変化させて生成される。例えば、仮想車両映像は、自車両Vが第一車速を保って走行しているとき、一定の大きさの映像である。例えば、仮想車両映像は、自車両Vが第一車速より速い車速であるとき、車間距離が短くなったように、仮想車両の大きさを拡大した映像である。例えば、仮想車両映像は、自車両Vが第一車速より遅い車速であるとき、車間距離が長くなったように、仮想車両の大きさを縮小した映像である。
 投影制御部39は、HUD装置10の投影ユニット20によって、自車両Vの前方に、仮想車両映像生成部38が生成した仮想車両映像の虚像200が視認されるように、仮想車両映像の投影を制御する。より詳しくは、投影制御部39は、視認性情報取得部34によって取得した視認性情報に基づいて、自車両Vの周囲の視認性が低下すると、HUD装置10の投影ユニット20によって自車両Vの前方に、仮想車両映像生成部38が生成した仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する映像信号を投影ユニット20に出力する。
 本実施形態では、仮想車両映像生成部38と投影制御部39において、取得した視認性情報に基づいて、照度が閾値照度以下である状態で、閾値時間以上が経過した場合、または、閾値距離以上を走行した場合、自車両Vの周囲の視認性が低下したと判定する。照度が閾値照度以下ではない場合、または、照度が閾値照度以下であっても、閾値時間以上が経過しなかった場合、かつ、閾値距離以上を走行していない場合、自車両Vの周囲の視認性が低下していないと判定する。このようにすることにより、走行にわずかな視認性の変化によって、仮想車両映像の虚像200が不用意に表示されることを抑制する。
 例えば、閾値照度は、あらかじめ、運転者が周囲を暗いと認識するときの、映像データの明るさの平均値を取得し設定してもよい。例えば、閾値時間は、2秒程度とする。例えば、閾値距離は、50m程度とする。
 または、照明情報を視認性情報として取得するとき、仮想車両映像生成部38と投影制御部39において、照明装置の間隔が閾値より広いと判定される場合、自車両Vの周囲の視認性が低下したと判定すればよい。または、視程情報を視認性情報として取得するとき、自車両Vの前方の視程が閾値より短いと判定される場合、自車両Vの周囲の視認性が低下したと判定すればよい。または、気象情報を視認性情報として取得するとき、自車両Vの周囲の天候が霧、靄、霞、雨および雪であると判定される場合、自車両Vの周囲の視認性が低下したと判定すればよい。
 図3ないし図6を用いて、自車両Vの周囲の視認性が低下したときに、投影される仮想車両映像の虚像200について説明する。図3は、明るい市街地を車両が走行しているときの一例を示す図である。図4は、暗い山間部を車両が走行しているときの一例を示す図である。図5は、暗い山間部を車両が走行しているとき、車両と仮想車両映像の虚像との一例を示す図である。図6は、暗い山間部を車両が走行しているとき、運転者が視認する仮想車両映像の虚像の一例を示す図である。
 図3に示すように、自車両Vが明るい市街地を走行しているときのように、周囲が明るく視認性がよいとき、仮想車両映像の虚像200は表示されていない。
 図4に示すように、自車両Vが暗い山間部を走行しているときのように、周囲が暗く視認性が低下すると、前方が暗く、車線やガードレールを視認しにくい。また、視認性が低いことによって、運転者が運転に不安を感じることがある。
 そこで、図5、図6に示すように、自車両Vの周囲の視認性が低下したとき、仮想車両が第一距離前方を走行していると運転者が視認するように、仮想車両映像を投影する。言い換えると、仮想車両映像の虚像200は、第一距離前方の景色に重なるように投影される。
 次に、図7を用いて、車両用投影制御装置30における処理の流れについて説明する。図7は、第一実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。
 車両用投影制御装置30は、視認性情報を取得する(ステップS11)。より詳しくは、車両用投影制御装置30は、視認性情報取得部34によって、映像データ取得部31で取得した映像データに画像処理を行って、視認性情報を取得する。車両用投影制御装置30は、ステップS12に進む。
 車両用投影制御装置30は、自車両Vの周囲が暗いか否かを判定する(ステップS12)。車両用投影制御装置30は、投影制御部39によって、視認性情報取得部34で取得した視認性情報に基づいて、自車両Vの周囲の照度が閾値照度以下である状態で、閾値時間以上が経過した場合、自車両Vの周囲が暗いと判定する(ステップS12でYes)。または、車両用投影制御装置30は、投影制御部39によって、視認性情報取得部34で取得した視認性情報に基づいて、自車両Vの周囲の照度が閾値照度以下の状態で、閾値距離以上を走行した場合、自車両Vの周囲が暗いと判定する(ステップS12でYes)。そして、車両用投影制御装置30は、ステップS13に進む。車両用投影制御装置30は、投影制御部39によって、視認性情報取得部34で取得した視認性情報に基づいて、自車両Vの周囲の照度が閾値照度以下ではない場合、自車両Vの周囲が暗くないと判定する(ステップS12でNo)。そして、車両用投影制御装置30は、ステップS18に進む。
 自車両Vの周囲が暗いと判定された場合(ステップS12でYes)、車両用投影制御装置30は、先行車両情報を取得する(ステップS13)。より詳しくは、車両用投影制御装置30は、先行車両情報取得部33によって、映像データ取得部31で取得した映像データに画像処理を行って、被撮影物として自車両Vから閾値以下の距離に位置する先行車両を検出して、検出結果を先行車両情報として取得する。車両用投影制御装置30は、ステップS14に進む。
 車両用投影制御装置30は、閾値以下の距離に先行車両が存在していないか否かを判定する(ステップS14)。車両用投影制御装置30は、先行車両情報取得部33によって取得した先行車両情報に基づいて、自車両Vから閾値以下の距離に位置する先行車両を検出しない場合、閾値以下の距離に先行車両が存在していないと判定する(ステップS14でYes)。そして、車両用投影制御装置30は、ステップS15に進む。車両用投影制御装置30は、先行車両情報取得部33によって取得した先行車両情報に基づいて、自車両Vから閾値以下の距離に位置する先行車両を検出した場合、閾値以下の距離に先行車両が存在していると判定する(ステップS14でNo)。そして、車両用投影制御装置30は、ステップS18に進む。
 閾値以下の距離に先行車両が存在していないと判定された場合(ステップS14でYes)、車両用投影制御装置30は、直前の自車両Vの車速を第一車速として取得する(ステップS15)。より詳しくは、車両用投影制御装置30は、投影制御部39によって、車両情報取得部32で取得し内部メモリに記憶した車両情報に基づいて、自車両Vの周囲が暗いと判定される直前の第一車速を取得する。言い換えると、第一車速は、自車両Vの周囲が暗くなる直前の車速である。
 車両用投影制御装置30は、仮想車両映像を生成する(ステップS16)。より詳しくは、車両用投影制御装置30は、仮想車両映像生成部38で、自車両Vの第一車速に基づいて、自車両Vの第一距離前方を、自車両Vの第一車速で走行する仮想車両映像を生成する。車両用投影制御装置30は、ステップS17に進む。
 車両用投影制御装置30は、仮想車両映像を投影する制御信号を出力する(ステップS17)。より詳しくは、車両用投影制御装置30は、投影制御部39で、仮想車両映像生成部38が生成した仮想車両映像を投影する制御信号を投影ユニット20に出力する。車両用投影制御装置30は、ステップS19に進む。
 車両用投影制御装置30は、仮想車両映像の投影を停止する制御信号を出力する(ステップS18)。より詳しくは、車両用投影制御装置30は、投影制御部39によって仮想車両映像が投影されているとき、仮想車両映像の投影を停止する制御信号を投影ユニット20に出力する。車両用投影制御装置30は、投影制御部39によって仮想車両映像が投影されていないとき、仮想車両映像を投影しない状態を継続する。車両用投影制御装置30は、ステップS19に進む。
 車両用投影制御装置30は、終了トリガがあるか否かを判定する(ステップS19)。終了トリガとは、例えば、仮想車両映像の表示を終了するボタンが押下されたり、車両が停車した場合である。車両用投影制御装置30は、終了トリガがある場合、仮想車両映像の投影を終了すると判定し(ステップS19でYes)、処理を終了する。車両用投影制御装置30は、終了トリガがない場合、仮想車両映像の投影を終了しないと判定し(ステップS19でNo)、ステップS11の処理を再度実行する。
 このようにして、車両用投影制御装置30は、自車両Vの周囲の視認性が低下したときにだけ、仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する。車両用投影制御装置30は、自車両Vの周囲の視認性が低下していないとき、仮想車両映像を投影しない。
 上述したように、本実施形態は、自車両Vの周囲の視認性が低下したときにだけ、仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する。本実施形態は、自車両Vの周囲の視認性が低下していないとき、仮想車両映像を投影しない。本実施形態によれば、自車両Vの周囲の視認性が低くても、仮想車両映像の虚像200によって前方の道路の形状を認識することができる。このように、本実施形態によれば、自車両Vの周囲の視認性が低くても、運転者が運転しやすくなるように支援することができる。本実施形態によれば、前方に先行車両がいるときと同じように視認されるため、自車両Vの周囲の視認性が低くても、運転者が走行に不安を感じることを低減することができる。
 本実施形態は、仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する。本実施形態によれば、自車両Vの前方に先行車両が存在しない場合でも、先行車両が存在するときと同様に仮想車両に追従するように走行することができる。
 本実施形態は、自車両Vの周囲の視認性が低下する直前の第一車速で走行する仮想車両映像を投影する。運転者は、仮想車両映像の虚像200を視認することによって、第一車速で走行する仮想車両に追従して走行することができる。本実施形態によれば、自車両Vの周囲の視認性が低下したとき、運転者が自車両Vの車速を第一車速に保って走行することを支援することができる。このように、本実施形態によれば、自車両Vの周囲の視認性が低下したとしても、意図せずに自車両Vが減速することを抑制することができる。
 本実施形態は、閾値以下の距離に先行車両が存在していないときに、仮想車両映像を投影する。また、本実施形態は、仮想車両映像を投影しているとき、閾値以下の距離に先行車両が存在するようになると、仮想車両映像の投影を停止する。これにより、本実施形態は、先行車両が存在しないときに限って、仮想車両映像を投影することができる。本実施形態によれば、先行車両と仮想車両映像の虚像200とが重なって視認性が低下することを回避することができる。
[第二実施形態]
 図8、図9を参照しながら、本実施形態に係るHUD装置10Aについて説明する。図8は、第二実施形態に係る車両用投影制御装置の構成例を示すブロック図である。図9は、第二実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。HUD装置10Aは、基本的な構成は第一実施形態のHUD装置10と同様である。以下の説明においては、HUD装置10と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。
 車両用投影制御装置30Aは、自車両Vの周囲の視認性が低下しているときであって、さらに、自車両Vがブレーキを操作する必要があるとき、ブレーキ操作を行っていることを確認可能な表示態様の仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する。本実施形態では、ブレーキ操作を行っていることを確認可能な表示態様とは、ブレーキランプを点灯した仮想車両映像の表示態様である。車両用投影制御装置30Aは、道路情報取得部35Aを有する。
 自車両Vがブレーキを操作する必要があるときとは、自車両Vが減速する必要があるときである。例えば、自車両Vの前方の道路が下り坂、または、自車両Vの前方が急カーブであるときである。例えば、自車両Vの車速が第一車速より閾値速度以上速くなったときである。
 道路情報取得部35Aは、車両情報取得部32で取得した車両情報とナビゲーションシステムから取得したナビゲーション情報とに基づいて、自車両Vの前方の道路の形状を示す道路情報を取得する。より詳しくは、道路情報取得部35Aは、自車両Vの現在位置情報とナビゲーション情報とに基づいて、自車両Vの前方の道路の形状を示す道路情報を取得する。
 仮想車両映像生成部38Aは、視認性情報取得部34によって取得した視認性情報と車両情報取得部32が取得した車両情報と自車両Vが走行する道路の情報を含むナビゲーションシステムから取得したナビゲーション情報との少なくともいずれかに基づいて、自車両Vの周囲の視認性が低下しているときであって、さらに、自車両Vがブレーキを操作する必要があるとき、ブレーキ操作を行っていることを確認可能な表示態様としてブレーキランプを点灯した仮想車両映像を生成する。
 投影制御部39Aは、視認性情報取得部34によって取得した視認性情報と車両情報取得部32が取得した車両情報と自車両Vが走行する道路の情報を含むナビゲーションシステムから取得したナビゲーション情報との少なくともいずれかに基づいて、自車両Vの周囲の視認性が低下しているときであって、さらに、自車両Vがブレーキを操作する必要があるとき、ブレーキ操作を行っていることを確認可能な表示態様としてブレーキランプを点灯した仮想車両映像の虚像200が視認されるように、仮想車両映像生成部38Aによって生成した仮想車両映像を投影する映像信号を投影ユニット20に出力する。
 次に、図9を用いて、車両用投影制御装置30Aにおける処理の流れについて説明する。図9に示すフローチャートのステップS21ないしステップS24、ステップS26、ステップS30ないしステップS33の処理は、図7に示すフローチャートのステップS11ないしステップS14、ステップS15、ステップS16ないしステップS19の処理と同様の処理を行う。
 閾値以下の距離に先行車両が存在していないと判定された場合(ステップS24でYes)、車両用投影制御装置30Aは、道路の形状を取得する(ステップS25)。より詳しくは、車両用投影制御装置30Aは、道路情報取得部35Aで取得した道路情報に基づいて、自車両Vの前方の道路の形状を取得する。車両用投影制御装置30Aは、ステップS26に進む。
 車両用投影制御装置30Aは、ブレーキ操作が必要か否かを判定する(ステップS27)。車両用投影制御装置30Aは、車両情報取得部32で取得した車両情報と道路情報取得部35Aで取得した道路情報とに基づいて、自車両Vの前方の道路が下り坂、または、急カーブであるとき、ブレーキ操作が必要と判定する(ステップS27でYes)。または、車両用投影制御装置30Aは、車両情報に基づいて、自車両Vの車速が第一車速より閾値速度以上速くなったとき、ブレーキ操が必要と判定する(ステップS27でYes)。そして、車両用投影制御装置30Aは、ステップS28に進む。車両用投影制御装置30Aは、自車両Vの前方の道路が下り坂ではなく、急カーブではなく、自車両Vの車速が第一車速より閾値以上速くないとき、ブレーキ操作が必要ではないと判定する(ステップS27でNo)。そして、車両用投影制御装置30Aは、ステップS30に進む。
 車両用投影制御装置30Aは、ブレーキランプを点灯した仮想車両映像を生成する(ステップS28)。より詳しくは、車両用投影制御装置30Aは、仮想車両映像生成部38Aで、自車両Vの第一車速に基づいて、自車両Vの第一距離前方を、自車両Vの第一車速より低速で走行し、ブレーキランプを点灯した仮想車両映像を生成する。
 車両用投影制御装置30Aは、ブレーキランプを点灯した仮想車両映像を投影する制御信号を出力する(ステップS29)。より詳しくは、車両用投影制御装置30Aは、投影制御部39Aで、仮想車両映像生成部38Aが生成したブレーキランプを点灯した仮想車両映像を投影する制御信号を投影ユニット20に出力する。車両用投影制御装置30Aは、ステップS33に進む。
 上述したように、本実施形態は、ブレーキ操作が必要なとき、ブレーキランプを点灯した仮想車両映像を投影する。本実施形態によれば、仮想車両映像のブレーキランプが点灯することで、運転者は自車両Vのブレーキ操作を自然に行うことができる。本実施形態によれば、運転者が適切なブレーキ操作を行うことを支援し、自車両Vが適切な車速で走行することを支援することができる。
[第三実施形態]
 図10を参照しながら、本実施形態に係るHUD装置10について説明する。図10は、第三実施形態に係る車両用投影制御装置における処理を説明するための図であり、自車両Vの周囲の視認性が低下したときの一例を示す。HUD装置10は、基本的な構成は第一実施形態のHUD装置10と同様である。
 仮想車両映像生成部38は、自車両Vの近傍から第一距離前方まで、自車両Vから分離して離間していくような仮想車両映像を生成する。本実施形態では、仮想車両映像生成部38は、自車両Vから分離して前方に飛び出していくように運転者に視認される仮想車両映像を生成する。
 投影制御部39は、自車両Vの周囲の視認性が低下したとき、自車両Vの近傍から第一距離前方まで、自車両Vから分離して離間していくように視認される、仮想車両映像生成部38で生成された仮想車両映像を投影する。本実施形態では、投影制御部39は、自車両Vの周囲の視認性が低下するとき、仮想車両映像の虚像200が、自車両Vから分離して前方に飛び出していくように視認される仮想車両映像を投影する。
 図10を用いて、自車両Vの周囲の視認性が低下したときに、投影される仮想車両映像の虚像200について説明する。仮想車両映像の虚像200は、自車両Vの周囲の視認性が低下したと判定された直後は自車両Vの近くを走行しているように視認される。時間の経過とともに、言い換えると、自車両Vが進むにつれて、仮想車両映像の虚像200は、自車両Vから遠ざかるように視認される。仮想車両映像の投影から所定時間経過すると、仮想車両映像の虚像200は第一距離前方を走行しているように視認される。
 上述したように、本実施形態は、自車両Vの周囲の視認性が低下したとき、自車両Vの近傍から第一距離前方まで、自車両Vから分離して離間していくような仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する。本実施形態によれば、仮想車両映像の虚像200が投影されたことを、より運転者が認識しやすくすることができる。
 本実施形態によれば、仮想車両映像の虚像200が自車両Vから分離していくように表示することで、仮想車両に追従して走行するようにさせることができる。
 さて、これまで本発明に係るHUD装置10について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。
 図示したHUD装置10の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
 HUD装置10の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
 上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
 車両用投影制御装置30は、自車両Vの現在位置情報をナビゲーションシステムから取得するものとして説明したが、これに限定されない。車両用投影制御装置30は、車両に搭載されたGPS(Global Positioning System)受信機によって取得した自車両Vの現在位置情報を取得する現在位置情報取得部を備えていてもよい。
 仮想移動体映像生成部を仮想車両映像生成部38として説明したが、これに限定されない。仮想移動体映像生成部が生成した映像は、自車両Vの前方を第一車速で移動する仮想移動体であればよい。例えば、仮想移動体は、自車両Vの移動方向に移動する矢印形状または丸形状などのアイコンでもよい。
 投影ユニット20は、コンバイナを用いずに、投影部21に投影された表示映像を、ウィンドシールドSで反射させ運転者に虚像200として認識させるものでもよい。
 第二実施形態において、自車両Vがブレーキを操作する必要があるとき、ブレーキランプを点灯した仮想車両映像の虚像200が視認されるものとしたが、これに限定されない。例えば、仮想車両映像は、仮想車両の車体を赤色に変えた映像としてもよい。
 仮想車両映像は、第一車速に対する自車両Vの速度の変化量が閾値以上であると判定したとき、自車両Vの速度の変化を確認可能な表示態様の仮想車両映像を生成してもよい。例えば、仮想車両映像は、自車両Vが第一車速より遅い車速であるとき、例えば、仮想車両の車体を点滅させたり、車体の色を薄くした映像としてもよい。これにより、自車両Vの車速をより適切に保てるように支援することができる。
 本発明は、車両用投影制御方法としても実装可能である。より詳しくは、本発明に係る車両用投影制御方法は、自車両の車速を含む車両情報を取得する車両情報取得ステップと、先行車両の有無を示す先行車両情報を取得する先行車両情報取得ステップと、前記自車両が走行する道路の視認性情報を取得する視認性情報取得ステップと、ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成ステップと、ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成ステップで生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御ステップと、を含み、前記投影制御ステップは、前記視認性情報取得ステップによって取得した視認性情報に基づいて、前記自車両の周囲の視認性が低下したと判定されると、前記自車両の前方に、前記仮想移動体映像生成ステップで生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する。
 本発明は、プログラムとしても実装可能である。より詳しくは、本発明に係るプログラムは、自車両の車速を含む車両情報を取得する車両情報取得ステップと、先行車両の有無を示す先行車両情報を取得する先行車両情報取得ステップと、前記自車両が走行する道路の視認性情報を取得する視認性情報取得ステップと、ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成ステップと、ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成ステップで生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御ステップと、を含み、前記投影制御ステップは、前記視認性情報取得ステップによって取得した視認性情報に基づいて、前記自車両の周囲の視認性が低下したと判定されると、前記自車両の前方に、前記仮想移動体映像生成ステップで生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、ことを車両用投影制御装置として動作するコンピュータに実行させる。
 10   HUD装置
 20   投影ユニット
 21   投影部
 22   コンバイナ
 30   車両用投影制御装置
 31   映像データ取得部
 32   車両情報取得部
 33   先行車両情報取得部
 34   視認性情報取得部
 38   仮想車両映像生成部(仮想移動体映像生成部)
 39   投影制御部
 100  カメラユニット

Claims (10)

  1.  自車両の車速を含む車両情報を取得する車両情報取得部と、
     前記自車両が走行する道路の視認性情報を取得する視認性情報取得部と、
     ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成部と、
     ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御部と、
     を備え、
     前記投影制御部は、前記視認性情報取得部によって取得した視認性情報に基づいて、前記仮想移動体映像の投影を制御する、
     ことを特徴とする車両用投影制御装置。
  2.  前記仮想移動体の速度は、前記自車両の周囲の視認性が低下したと判定される直前の前記自車両の速度とする、
     請求項1に記載の車両用投影制御装置。
  3.  前記自車両の前方を撮影する撮影部から映像データを取得する映像データ取得部、
     を備え、
     前記視認性情報取得部は、前記映像データ取得部で取得した映像データに基づいて、視認性情報を取得し、
     前記投影制御部は、前記視認性情報取得部によって取得した視認性情報に基づいて、前記自車両の周囲の視認性が低下したと判定されると、前記自車両の前方に、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、
     請求項1または2に記載の車両用投影制御装置。
  4.  前記視認性情報取得部は、前記映像データ取得部で取得した映像データに基づいて、自車両の周囲の照度を示す照度情報を視認性情報として取得し、
     前記投影制御部は、前記視認性情報取得部によって取得した視認性情報に基づいて、前記自車両の周囲の照度が低下したと判定されると、前記自車両の前方に、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、
     請求項3に記載の車両用投影制御装置。
  5.  前記視認性情報取得部は、前記映像データ取得部で取得した映像データに基づいて、自車両の周囲の照明装置の間隔を示す照明情報を視認性情報として取得し、
     前記投影制御部は、前記視認性情報取得部によって取得した視認性情報に基づいて、前記自車両の周囲の照明装置の間隔が閾値より広いと判定されると、前記自車両の前方に、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、
     請求項3に記載の車両用投影制御装置。
  6.  前記自車両の周囲の照度を検出する照度センサから検出結果を取得する検出結果取得部、
     を備え、
     前記視認性情報取得部は、前記検出結果取得部で取得した検出結果に基づいて、自車両の周囲の照度を示す照度情報を視認性情報として取得し、
     前記投影制御部は、前記視認性情報取得部によって取得した視認性情報に基づいて、前記自車両の周囲の照度が低下したと判定されると、前記自車両の前方に、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、
     請求項1または2に記載の車両用投影制御装置。
  7.  前記仮想移動体映像生成部は、前記視認性情報取得部によって取得した視認性情報と前記車両情報取得部が取得した車両情報と前記自車両が走行する道路の情報を含むナビゲーションシステムから取得したナビゲーション情報との少なくともいずれかに基づいて、前記自車両の周囲の視認性が低下しているときであって、ブレーキ操作が必要なとき、仮想車両がブレーキ操作を行っていることを確認可能な表示態様の仮想車両映像を生成し、
     前記投影制御部は、前記視認性情報取得部によって取得した視認性情報と前記車両情報取得部が取得した車両情報と前記自車両が走行する道路の情報を含むナビゲーションシステムから取得したナビゲーション情報との少なくともいずれかに基づいて、前記自車両の周囲の照度が低下し、かつ、ブレーキ操作が必要なとき、前記自車両の前方に、ブレーキ操作を行っていることを確認可能な表示態様の、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、
     請求項1から6のいずれか一項に記載の車両用投影制御装置。
  8.  前記仮想移動体映像生成部は、前記自車両の近傍から所定距離前方まで、前記自車両から分離して離間していく前記仮想移動体の前記仮想移動体映像を生成し、
     前記投影制御部は、前記視認性情報取得部によって取得した視認性情報に基づいて、前記自車両の周囲の視認性が低下したと判定されると、前記仮想移動体映像生成部が生成した仮想移動体映像の虚像が、前記自車両の近傍から所定距離前方まで、前記自車両から分離して離間していくように視認されるように、前記仮想移動体映像生成部が生成した前記仮想移動体映像の投影を制御する、
     請求項1から7のいずれか一項に記載の車両用投影制御装置。
  9.  前記仮想移動体映像生成部は、前記車両情報取得部が取得した車両情報に基づいて、前記自車両の周囲の視認性が低下したと判定される直前の前記自車両の速度に対する前記自車両の速度の変化量が閾値以上であると判定したとき、前記自車両の速度の変化を確認可能な表示態様の仮想車両映像を生成し、
     前記投影制御部は、前記車両情報取得部が取得した車両情報に基づいて、前前記自車両の周囲の視認性が低下したと判定される直前の前記自車両の速度に対する前記自車両の速度の変化量が閾値以上であると判定したとき、前記自車両の前方に、前記自車両の速度の変化を確認可能な表示態様の、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、
     請求項1から8のいずれか一項に記載の車両用投影制御装置。
  10.  請求項1から9のいずれか一項に記載の車両用投影制御装置と、
     前記投影ユニットと、
     を備えることを特徴とするヘッドアップディスプレイ装置。
PCT/JP2018/011306 2017-09-14 2018-03-22 車両用投影制御装置、および、ヘッドアップディスプレイ装置 WO2019053928A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880042675.9A CN110832564B (zh) 2017-09-14 2018-03-22 车辆用投影控制装置以及平视显示装置
US16/787,076 US10946744B2 (en) 2017-09-14 2020-02-11 Vehicular projection control device and head-up display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-176845 2017-09-14
JP2017176845A JP6809421B2 (ja) 2017-09-14 2017-09-14 車両用投影制御装置、および、ヘッドアップディスプレイ装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/787,076 Continuation US10946744B2 (en) 2017-09-14 2020-02-11 Vehicular projection control device and head-up display device

Publications (1)

Publication Number Publication Date
WO2019053928A1 true WO2019053928A1 (ja) 2019-03-21

Family

ID=65723548

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/011306 WO2019053928A1 (ja) 2017-09-14 2018-03-22 車両用投影制御装置、および、ヘッドアップディスプレイ装置

Country Status (4)

Country Link
US (1) US10946744B2 (ja)
JP (1) JP6809421B2 (ja)
CN (1) CN110832564B (ja)
WO (1) WO2019053928A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220306151A1 (en) * 2019-08-01 2022-09-29 Mitsubishi Electric Corporation Driving assistance apparatus, driving assistance system, and driving assistance method
US11713047B2 (en) * 2020-02-21 2023-08-01 Calamp Corp. Technologies for driver behavior assessment
CN117851980A (zh) * 2022-09-30 2024-04-09 比亚迪股份有限公司 车载应用激活方法及装置、车载设备、车辆、存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005106663A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置、車両用情報提供方法及び車両用情報提供プログラム
JP2005107916A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置、車両用情報提供方法及び車両用情報提供プログラム
JP2005127996A (ja) * 2003-09-30 2005-05-19 Mazda Motor Corp 経路誘導装置、経路誘導方法及び経路誘導プログラム
JP2005214730A (ja) * 2004-01-28 2005-08-11 Mazda Motor Corp 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム
JP2007071539A (ja) * 2005-09-02 2007-03-22 Denso Corp 車載ナビゲーション装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879309B2 (ja) 1999-03-24 2007-02-14 株式会社デンソー 車両誘導装置
JP3675330B2 (ja) * 2000-11-07 2005-07-27 日産自動車株式会社 車両用表示装置及び表示装置を有する自動車
JP2003254764A (ja) 2002-03-01 2003-09-10 Matsushita Electric Ind Co Ltd 走行位置表示装置
EP1521059A1 (en) * 2003-09-30 2005-04-06 Mazda Motor Corporation Route guidance apparatus, method and program
JP5966783B2 (ja) * 2012-09-07 2016-08-10 株式会社デンソー 車両用前照灯の制御装置及びその制御方法
DE102013213375A1 (de) * 2013-07-09 2015-01-15 Ford Global Technologies, Llc Verfahren zur Steuerung der Lichtverteilung von Kraftfahrzeug-Frontscheinwerfern
JP6201064B2 (ja) * 2014-12-24 2017-09-27 富士フイルム株式会社 投写型表示装置、安全運転支援方法、及び安全運転支援プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005106663A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置、車両用情報提供方法及び車両用情報提供プログラム
JP2005107916A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置、車両用情報提供方法及び車両用情報提供プログラム
JP2005127996A (ja) * 2003-09-30 2005-05-19 Mazda Motor Corp 経路誘導装置、経路誘導方法及び経路誘導プログラム
JP2005214730A (ja) * 2004-01-28 2005-08-11 Mazda Motor Corp 車両用画像表示装置、車両用画像表示方法及び車両用画像表示プログラム
JP2007071539A (ja) * 2005-09-02 2007-03-22 Denso Corp 車載ナビゲーション装置

Also Published As

Publication number Publication date
JP6809421B2 (ja) 2021-01-06
CN110832564B (zh) 2022-06-17
US10946744B2 (en) 2021-03-16
US20200171951A1 (en) 2020-06-04
JP2019053489A (ja) 2019-04-04
CN110832564A (zh) 2020-02-21

Similar Documents

Publication Publication Date Title
US11701994B2 (en) Vehicle
JP6346614B2 (ja) 情報表示システム
US20210146954A1 (en) Vehicle control system, vehicle control method, and program
JP6652090B2 (ja) 運転モード切替制御装置、システム、方法、およびプログラム
CN103171439A (zh) 自动驾驶系统的行为预测
US10946744B2 (en) Vehicular projection control device and head-up display device
JP6075248B2 (ja) 情報表示装置
US20200207272A1 (en) Vehicle projection control device, head-up display device, vehicle projection control method, and program
JP2019160081A (ja) 輸送機器およびその走行制御方法
JP6448714B2 (ja) 情報表示システム
WO2019053927A1 (ja) 車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラム
JP2020006743A (ja) 車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラム
JP2006182041A (ja) 車両用暗視装置
JP2017190006A (ja) 運転支援装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18856472

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18856472

Country of ref document: EP

Kind code of ref document: A1