WO2019058610A1 - 車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラム - Google Patents

車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラム Download PDF

Info

Publication number
WO2019058610A1
WO2019058610A1 PCT/JP2018/011908 JP2018011908W WO2019058610A1 WO 2019058610 A1 WO2019058610 A1 WO 2019058610A1 JP 2018011908 W JP2018011908 W JP 2018011908W WO 2019058610 A1 WO2019058610 A1 WO 2019058610A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
virtual
moving body
tunnel
projection
Prior art date
Application number
PCT/JP2018/011908
Other languages
English (en)
French (fr)
Inventor
賢一 松尾
栗原 誠
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Priority to CN201880045325.8A priority Critical patent/CN110869234B/zh
Publication of WO2019058610A1 publication Critical patent/WO2019058610A1/ja
Priority to US16/810,898 priority patent/US11981261B2/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene

Definitions

  • the present invention relates to a projection control device for a vehicle, a head-up display device, a projection control method for a vehicle, and a program.
  • a head-up display device which projects information provided to the driver, such as route guidance information or speed information, as a virtual image in front of the driver's line of sight.
  • An image of a leading virtual vehicle that travels a predetermined distance ahead of the host vehicle on the guide route is displayed on the windshield at a position that would be visible from the driver's point of view.
  • a technique to derive the see, for example, Patent Document 1.
  • a technique for displaying a virtual vehicle that teaches an action to be taken by a vehicle at a predetermined distance ahead of the vehicle (see, for example, Patent Document 2).
  • JP 2000-275057 A Japanese Patent Application Publication No. 2003-254764
  • the present invention has been made in view of the above, and it is an object of the present invention to make driving easier when traveling in a tunnel.
  • a projection control apparatus for a vehicle includes a vehicle information acquisition unit that acquires vehicle information including the vehicle speed of the host vehicle, and a tunnel through which the host vehicle travels.
  • An identification information acquisition unit for acquiring identification information to be identified, and a virtual moving object image of a virtual moving object projected in the same direction as the own vehicle and projected by the projection unit of the head-up display device.
  • the virtual moving body image generation unit and the projection unit of the head-up display device to visually recognize the virtual image of the virtual moving body image generated by the virtual moving body image generation unit in front of the host vehicle
  • a projection control unit configured to control projection of a virtual moving body image, wherein the projection control unit is configured to perform the virtual movement based on the identification information acquired by the identification information acquisition unit. And controlling the projection of images.
  • a head-up display device includes the above-described projection control device for a vehicle and the projection unit.
  • the projection control method for a vehicle comprises a vehicle information acquisition step of acquiring vehicle information including a vehicle speed of the host vehicle, an identification information acquisition step of acquiring identification information for identifying a tunnel traveled by the host vehicle, and a head.
  • the projection control step is based on the identification information acquired in the identification information acquisition step. To control the projection of the image.
  • the program according to the present invention comprises a vehicle information acquisition step of acquiring vehicle information including the vehicle speed of the host vehicle, an identification information acquisition step of acquiring identification information for identifying a tunnel traveled by the host vehicle, and a head-up display device.
  • FIG. 1 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to the first embodiment.
  • FIG. 2 is a view showing an example of a projection unit of the head-up display device according to the first embodiment.
  • FIG. 3 is a view showing an example of the entrance of the tunnel.
  • FIG. 4 is a view showing an example when a vehicle is traveling in a tunnel.
  • FIG. 5 is a view showing an example of a vehicle and a virtual image of a virtual vehicle image when the vehicle is traveling in a tunnel.
  • FIG. 6 is a view showing an example of a virtual image of a virtual vehicle image visually recognized by the driver when the vehicle travels in the tunnel.
  • FIG. 1 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to the first embodiment.
  • FIG. 2 is a view showing an example of a projection unit of the head-up display device according to the first embodiment.
  • FIG. 3 is a view showing an example of the entrance of the tunnel
  • FIG. 7 is a flowchart showing the flow of processing in the projection control apparatus for a vehicle according to the first embodiment.
  • FIG. 8 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to a second embodiment.
  • FIG. 9 is a flow chart showing the flow of processing in the projection control system for a vehicle according to the second embodiment.
  • FIG. 10 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to the third embodiment.
  • FIG. 11 is a flowchart showing the flow of processing in the projection control system for a vehicle according to the third embodiment.
  • FIG. 12 is a diagram for explaining the processing in the projection control apparatus for a vehicle according to the fourth embodiment, and shows an example when a tunnel exists in front of the host vehicle.
  • HUD device head-up display device
  • a projection control method for a vehicle a projection control method for a vehicle
  • a program according to the present invention will be described in detail below. Note that the present invention is not limited by the following embodiments.
  • FIG. 1 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to the first embodiment.
  • the HUD device 10 projects the virtual moving body image so that the virtual image 200 (see FIG. 5) of the virtual moving body image is visually recognized by the projection control device 30 for the vehicle according to the situation around the host vehicle V. Control.
  • the HUD device 10 projects the virtual vehicle image so that the virtual image 200 of the virtual vehicle image is visually recognized by the vehicle projection control device 30. Control.
  • the camera unit 100 has a camera for photographing the surroundings of the host vehicle V. A plurality of cameras may be arranged. In the present embodiment, the camera unit 100 has a front camera (not shown).
  • the front camera is a front video camera.
  • the front camera is disposed in front of the host vehicle V and captures an area around the front of the host vehicle V.
  • the forward video data is a moving image composed of, for example, 30 frames per second.
  • the front camera outputs the photographed front video data to the video data acquisition unit 31 of the vehicle projection control device 30.
  • the HUD device 10 virtualizes a virtual vehicle image of a virtual vehicle which is a virtual leading vehicle as a virtual mobile object image of a virtual mobile object in front of the driver's line of sight. Make it visible as 200.
  • the HUD device 10 has a projection unit 20 and a projection control device 30 for a vehicle.
  • FIG. 2 is a view showing an example of a projection unit of the head-up display device according to the first embodiment.
  • the projection unit 20 has a projection unit 21 and a combiner 22.
  • the projection unit 20 reflects the display image projected on the projection unit 21 by the combiner 22 to make the driver visually recognize it as a virtual image.
  • the projection unit 21 is a display that includes, for example, a liquid crystal display (LCD) or an organic electro-luminescence (EL) display. In the present embodiment, the projection unit 21 is disposed below the dashboard D. The projection unit 21 displays a display image on the display surface based on the image signal from the projection control unit 39 of the vehicle projection control device 30. Video display light of a display video displayed on the display surface of the projection unit 21 is projected on the combiner 22.
  • LCD liquid crystal display
  • EL organic electro-luminescence
  • the combiner 22 reflects the video display light projected from the projection unit 21 and causes the driver to recognize it as a virtual image.
  • the combiner 22 is a plate-like member which is disposed to be curved in a convex shape forward in the traveling direction. In the present embodiment, the combiner 22 is disposed on the upper side of the dashboard D.
  • the combiner 22 has a front surface facing the windshield S of the host vehicle V and a rear surface facing the driver.
  • the vehicle projection control device 30 controls the projection unit 21 of the projection unit 20 to project a display image according to the situation around the host vehicle V.
  • the vehicle projection control device 30 is, for example, an arithmetic processing device configured by a CPU (Central Processing Unit) or the like.
  • the vehicle projection control device 30 loads a program stored in a storage unit (not shown) into a memory and executes an instruction included in the program.
  • the vehicle projection control device 30 includes an image data acquisition unit 31, a vehicle information acquisition unit 32, a preceding vehicle information acquisition unit 33, an identification information acquisition unit 34, and a virtual vehicle image generation unit (virtual moving object image generation unit). And a projection control unit 39.
  • the vehicle projection control device 30 includes an internal memory (not shown), and the internal memory is used for temporary storage of data in the vehicle projection control device 30 and the like.
  • the video data acquisition unit 31 acquires peripheral video data obtained by photographing the periphery of the host vehicle V. More specifically, the video data acquisition unit 31 acquires video data output by the camera unit 100. The video data acquisition unit 31 outputs the acquired video data to the preceding vehicle information acquisition unit 33 and the identification information acquisition unit 34.
  • the vehicle information acquisition unit 32 acquires vehicle information indicating the status of the host vehicle V from CAN or various sensors that sense the status of the host vehicle V.
  • the vehicle information acquisition unit 32 acquires, for example, vehicle speed information.
  • the vehicle information acquisition unit 32 outputs the acquired vehicle information to the virtual vehicle video generation unit 38.
  • the vehicle information acquisition unit 32 stores the acquired vehicle speed information in the internal memory.
  • the preceding vehicle information acquisition unit 33 acquires preceding vehicle information indicating the presence or absence of a preceding vehicle traveling in the forward direction where the host vehicle V travels.
  • the leading vehicle information acquisition unit 33 performs image processing on the video data acquired by the video data acquisition unit 31, and determines whether or not the preceding vehicle exists in the range of the first distance or less. The result is acquired as preceding vehicle information.
  • the first distance is preferably in the range of several tens of meters or more and 200 m or less.
  • the first distance may be set in accordance with the vehicle speed of the host vehicle V.
  • the first distance may be a safe inter-vehicle distance set according to the vehicle speed of the host vehicle V.
  • the first distance may be longer than the safe inter-vehicle distance set according to the vehicle speed of the host vehicle V.
  • the first distance may be 80 km, and when the vehicle speed is 100 km / h, the first distance may be 100 m.
  • the first distance may be 100 m, and when the vehicle speed is 100 km / h, the first distance may be 200 m.
  • the preceding vehicle information acquisition unit 33 may determine whether a preceding vehicle exists in a range equal to or less than the first distance by a sensor unit (not shown), and may acquire the determination result as preceding vehicle information.
  • the sensor unit can detect a preceding vehicle which is an obstacle ahead of the host vehicle V.
  • the sensor unit includes a plurality of sensors installed around the host vehicle V. Each sensor is disposed in front of the host vehicle V, and detects a vehicle in front of the host vehicle V.
  • the sensor is, for example, an infrared sensor or an ultrasonic sensor, a millimeter wave radar, or the like, and may be configured by a combination thereof.
  • the identification information acquisition unit 34 acquires identification information that identifies the tunnel T located in front of the host vehicle V when the host vehicle V travels.
  • the identification information of the tunnel T includes, for example, a name identifying the tunnel T, an identification code identifying the tunnel T, or position information.
  • the identification information acquisition unit 34 is a character recognition unit, and recognizes characters included as an object to be photographed in the forward video data photographed by the camera unit 100.
  • the identification information acquisition unit 34 selects tunnel names such as “ ⁇ ⁇ tunnel”, “ ⁇ ⁇ tonnel”, “ ⁇ ⁇ Tunnel”, and “ ⁇ ⁇ ⁇ ” from among the character strings formed by the recognized characters. Character string is acquired as identification information.
  • FIG. 3 is a view showing an example of the entrance of the tunnel.
  • a marking plate P indicating a tunnel name is displayed in the forward video data obtained by photographing the entrance of the tunnel T.
  • the identification information acquisition unit 34 acquires a character string M “ ⁇ ⁇ tunnel” as identification information from the forward video data.
  • the identification information acquisition unit 34 outputs the recognized identification information to the virtual vehicle video generation unit 38.
  • the virtual vehicle image generation unit 38 generates a virtual vehicle image of a virtual vehicle projected by the projection unit 20 of the HUD device 10 and moving in front of the host vehicle V in the same direction as the host vehicle V.
  • the virtual vehicle image generation unit 38 generates a virtual vehicle image.
  • the virtual vehicle image is an image obtained by visually recognizing the host vehicle V from the rear.
  • the virtual vehicle video generation unit 38 when the host vehicle V enters the tunnel T, in other words, when the host vehicle V travels the tunnel T, the virtual vehicle video generation unit 38 generates a virtual vehicle video.
  • the identification information acquisition unit 34 acquires the identification information
  • the distance from the host vehicle V to the entrance of the tunnel T is calculated. Then, based on the vehicle speed of the host vehicle V, it may be determined whether or not the host vehicle V has entered the tunnel T.
  • the virtual vehicle image is an image of a virtual vehicle moving ahead of the host vehicle V by a first distance.
  • the virtual vehicle image is an image obtained by visually recognizing the host vehicle V from the rear.
  • the virtual vehicle image is generated by changing the viewpoint according to the shape of the road ahead of the host vehicle V by a first distance. For example, when the road ahead of the first distance of the host vehicle V is curved in the right direction, the virtual vehicle image is an image obtained by visually recognizing the host vehicle V from the rear right. For example, when the road ahead of the first distance of the host vehicle V is curved in the left direction, the virtual vehicle image is an image obtained by visually recognizing the host vehicle V from the left rear.
  • the virtual vehicle image is an image of a virtual vehicle moving at a first vehicle speed which is the vehicle speed immediately before the host vehicle V enters the tunnel T.
  • the virtual vehicle image is generated by changing the size in accordance with the change in the vehicle speed of the host vehicle V while traveling on the tunnel T.
  • the virtual vehicle image is an image of a certain size when the host vehicle V is traveling while maintaining the first vehicle speed.
  • the virtual vehicle image is an image in which the size of the virtual vehicle is enlarged as if the inter-vehicle distance becomes short.
  • the virtual vehicle image is an image in which the size of the virtual vehicle is reduced as if the inter-vehicle distance is increased.
  • the projection control unit 39 projects the virtual vehicle image so that the virtual image 200 of the virtual vehicle image generated by the virtual vehicle image generating unit 38 is viewed by the projection unit 20 of the HUD device 10 in front of the host vehicle V. Control. More specifically, if a tunnel T exists in front of the host vehicle V based on the identification information acquired by the identification information acquisition unit 34, the projection control unit 39 visually recognizes the virtual image 200 of the virtual vehicle image in front of the host vehicle V. As a result, an image signal for projecting a virtual vehicle image is output to the projection unit 20.
  • the projection control unit 39 when the host vehicle V enters the tunnel T, in other words, when the host vehicle V travels the tunnel T, the projection control unit 39 outputs, to the projection unit 20, an image signal for projecting a virtual vehicle image. .
  • FIG. 4 is a view showing an example when a vehicle is traveling in a tunnel.
  • FIG. 5 is a view showing an example of a vehicle and a virtual image of a virtual vehicle image when the vehicle is traveling in a tunnel.
  • FIG. 6 is a view showing an example of a virtual image of a virtual vehicle image visually recognized by the driver when the vehicle travels in the tunnel.
  • the virtual image 200 of the virtual vehicle image is not displayed, so the front is dark and it is difficult to visually recognize the lane and the tunnel sidewall.
  • FIG. 7 is a flowchart showing the flow of processing in the projection control apparatus for a vehicle according to the first embodiment.
  • the vehicle projection control device 30 determines whether the host vehicle V is in a tunnel (step S11). More specifically, when it is determined Yes in step S13 described later, the vehicle projection control device 30 turns on the in-tunnel flag.
  • the in-tunnel flag has an initial value of OFF.
  • the vehicle projection control device 30 determines that the host vehicle V is in the tunnel (Yes in step S11), and proceeds to step S14.
  • the in-tunnel flag is OFF, the vehicle projection control device 30 determines that the host vehicle V is not in the tunnel (No in step S11), and proceeds to step S12.
  • the vehicle projection control device 30 acquires identification information (step S12). More specifically, the vehicle projection control device 30 causes the identification information acquisition unit 34 to perform image processing on the video data acquired by the video data acquisition unit 31 to acquire identification information. The vehicle projection control device 30 proceeds to step S13.
  • the vehicle projection control device 30 determines whether a tunnel T exists in front of the host vehicle V (step S13).
  • the projection control unit 39 acquires the identification information from the identification information acquisition unit 34
  • the vehicle projection control device 30 determines that the tunnel T exists in front of the host vehicle V (Yes in step S13). Then, the vehicle projection control device 30 proceeds to step S14.
  • the vehicle projection control device 30 turns on the in-tunnel flag.
  • the projection control unit 30 for a vehicle determines that the tunnel T does not exist in front of the host vehicle V (No in step S13). Then, the vehicle projection control device 30 proceeds to step S19.
  • the vehicle projection control device 30 Acquires preceding vehicle information (step S14). More specifically, the vehicle projection control device 30 performs image processing on the video data acquired by the video data acquisition unit 31 by the preceding vehicle information acquisition unit 33 to obtain an object to be photographed at a distance less than or equal to the threshold value from the vehicle V. The preceding vehicle located is detected, and the detection result is acquired as preceding vehicle information. The vehicle projection control device 30 proceeds to step S15.
  • the vehicle projection control device 30 determines whether a preceding vehicle exists at a distance equal to or less than the threshold (step S15). When the vehicle projection control device 30 does not detect the leading vehicle located at a distance equal to or less than the threshold from the host vehicle V based on the leading vehicle information acquired by the leading vehicle information acquisition unit 33, the leading vehicle is at a distance equal to or less than the threshold. It determines with not existing (it is Yes at step S15). Then, the vehicle projection control device 30 proceeds to step S16. When the vehicle projection control device 30 detects a leading vehicle located at a distance equal to or less than the threshold from the host vehicle V based on the leading vehicle information acquired by the leading vehicle information acquisition unit 33, the leading vehicle is at a distance equal to or less than the threshold. It determines that it exists (No in step S15). Then, the vehicle projection control device 30 proceeds to step S19.
  • the vehicle projection control device 30 acquires the vehicle speed of the immediately preceding vehicle V as the first vehicle speed (step S16). . More specifically, the vehicle projection control device 30 controls the vehicle speed immediately before the vehicle V enters the tunnel T based on the vehicle information acquired by the vehicle information acquisition unit 32 and stored in the internal memory by the projection control unit 39. Acquire as one vehicle speed.
  • the vehicle projection control device 30 generates a virtual vehicle image (step S17). More specifically, the vehicle projection control device 30 runs the first distance ahead of the host vehicle V at the first speed of the host vehicle V based on the first vehicle speed of the host vehicle V in the virtual vehicle image generation unit 38. To generate a virtual vehicle image. The vehicle projection control device 30 proceeds to step S18.
  • the vehicle projection control device 30 outputs a control signal for projecting a virtual vehicle image (step S18). More specifically, the vehicle projection control device 30 causes the projection control unit 39 to output, to the projection unit 20, a control signal for projecting the virtual vehicle image generated by the virtual vehicle image generating unit 38. The vehicle projection control device 30 proceeds to step S20.
  • the vehicle projection control device 30 outputs a control signal for stopping the projection of the virtual vehicle image (step S19). More specifically, when the virtual vehicle image is being projected by the projection control unit 39, the vehicle projection control device 30 outputs, to the projection unit 20, a control signal for stopping the projection of the virtual vehicle image. When the virtual vehicle image is not projected by the projection control unit 39, the vehicle projection control device 30 continues the state in which the virtual vehicle image is not projected. The vehicle projection control device 30 proceeds to step S20.
  • the vehicle projection control device 30 determines whether or not there is an end trigger (step S20).
  • the termination trigger is, for example, a case where the vehicle V travels a distance equal to or longer than the entire length of the tunnel T after entering the tunnel T.
  • the end trigger is, for example, the case where a button for ending the display of the virtual vehicle image is pressed or the vehicle stops.
  • the vehicle projection control device 30 determines to end the projection of the virtual vehicle image (Yes in step S20), and ends the process.
  • the vehicle projection control device 30 determines that the projection of the virtual vehicle image is not ended (No in step S20), and executes the process of step S11 again.
  • the vehicle projection control device 30 projects the virtual vehicle image so that the virtual image 200 of the virtual vehicle image is viewed only when the host vehicle V travels in the tunnel T.
  • the vehicle projection control device 30 does not project a virtual vehicle image.
  • the virtual vehicle image is projected such that the virtual image 200 of the virtual vehicle image is viewed only when the host vehicle V travels in the tunnel T.
  • the virtual vehicle image is not projected.
  • the shape of the road ahead can be recognized by the virtual image 200 of the virtual vehicle image in the tunnel T.
  • the virtual vehicle image is projected so that the virtual image 200 of the virtual vehicle image can be viewed. According to the present embodiment, even when there is no preceding vehicle ahead of the host vehicle V, it is possible to travel so as to follow the virtual vehicle in the same manner as when there is a preceding vehicle.
  • the present embodiment projects a virtual image 200 of a virtual vehicle image traveling at a first vehicle speed immediately before the host vehicle V enters the tunnel T.
  • the driver can travel following the virtual vehicle traveling at the first vehicle speed by visually recognizing the virtual image 200 of the virtual vehicle image.
  • the host vehicle V travels in the tunnel T, it can be assisted that the driver travels while maintaining the vehicle speed of the host vehicle V at the first vehicle speed.
  • the host vehicle V travels in the tunnel T, it is possible to suppress the host vehicle V from decelerating unintentionally.
  • the present embodiment projects a virtual vehicle image when no preceding vehicle exists at a distance equal to or less than the threshold. Further, in the present embodiment, when a virtual vehicle image is being projected, the projection of the virtual vehicle image is stopped when the preceding vehicle is present at a distance equal to or less than the threshold. Thus, the present embodiment can project a virtual vehicle image only when there is no preceding vehicle. According to the present embodiment, it is possible to avoid that the leading vehicle and the virtual image 200 of the virtual vehicle image overlap and the visibility is reduced.
  • FIG. 8 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to a second embodiment.
  • FIG. 9 is a flow chart showing the flow of processing in the projection control system for a vehicle according to the second embodiment.
  • the basic configuration of the HUD device 10A is the same as that of the HUD device 10 of the first embodiment.
  • symbol is attached
  • the tunnel information database 110A stores tunnel information including the type of lighting device of the tunnel T.
  • the tunnel information database 110A stores, for each tunnel T, a tunnel name, position information of the tunnel T, a total length of the tunnel T, and a type of lighting device.
  • the type of lighting device is the type of light source of the lighting device.
  • the light source type is, for example, a sodium lamp, a white LED (Light Emitting Diode), or the like.
  • the sodium lamp emits orange light.
  • White LEDs have uniform brightness compared to sodium lamps.
  • the tunnel information reference unit 35A refers to tunnel information from the tunnel information database 110A.
  • the tunnel information reference unit 35A outputs the referred tunnel information to the virtual vehicle image generation unit 38A.
  • the virtual vehicle image generation unit 38A selects luminance and color according to the type of lighting device of the tunnel T. Generate a virtual vehicle image with at least one changed. For example, when the light source type is a sodium lamp, the virtual vehicle image generation unit 38A changes the luminance of the display image projected by the projection unit 20 so that the visibility of the virtual image 200 does not decrease even under orange illumination light. Control to do so. For example, when the light source type is a white LED, the virtual vehicle image generation unit 38A changes the luminance of the display image projected by the projection unit 20 so that the visibility of the virtual image 200 does not decrease even under the illumination light of the white LED Control to do so.
  • the light source type is a sodium lamp
  • the virtual vehicle image generation unit 38A changes the luminance of the display image projected by the projection unit 20 so that the visibility of the virtual image 200 does not decrease even under orange illumination light. Control to do so.
  • the projection control unit 39A selects at least one of luminance and color according to the type of lighting device of the tunnel T.
  • An image signal for projecting the virtual vehicle image whose parameter has been changed is output to the projection unit 20.
  • step S21 to step S26, step S30, and step S31 of the flowchart shown in FIG. 9 are the same as the processes of step S11 to step S16, step S19, and step S20 of the flowchart shown in FIG.
  • the vehicle projection control device 30A acquires the type of lighting device (step S27). More specifically, the vehicle projection control device 30A acquires the type of lighting device of the tunnel T in front of the host vehicle V based on the tunnel information acquired by the tunnel information reference unit 35A. The vehicle projection control device 30A proceeds to step S28.
  • the vehicle projection control device 30A generates a virtual vehicle image according to the type of lighting device (step S28). More specifically, the vehicle projection control device 30A generates a virtual vehicle image in which at least one of the luminance and the color is changed according to the type of the lighting device by the virtual vehicle image generation unit 38A. The vehicle projection control device 30A proceeds to step S29.
  • the vehicle projection control device 30A outputs a control signal for projecting a virtual vehicle image matched to the type of lighting device (step S29). More specifically, the vehicle projection control device 30A outputs, to the projection unit 20, a control signal for projecting a virtual vehicle image in which at least one of the luminance and the color is changed according to the type of lighting device by the projection control unit 39A. Do. The vehicle projection control device 30A proceeds to step S31.
  • this embodiment generates a virtual vehicle image in which at least one of the luminance and the color is changed in accordance with the type of lighting device of the tunnel T. According to the present embodiment, regardless of the type of lighting device of the tunnel T, it is possible to project a virtual vehicle image that is easy to view.
  • FIG. 10 is a block diagram showing a configuration example of a projection control apparatus for a vehicle according to the third embodiment.
  • FIG. 11 is a flowchart showing the flow of processing in the projection control system for a vehicle according to the third embodiment.
  • the basic configuration of the HUD device 10B is the same as that of the HUD device 10 of the first embodiment.
  • the vehicle projection control device 30B is a virtual vehicle image of a display mode in which it can be confirmed that the host vehicle V is performing the brake operation.
  • the virtual vehicle image is projected so that the virtual image 200 can be viewed.
  • the display mode capable of confirming that the brake operation is performed is the display mode of the virtual vehicle image in which the brake lamp is lit.
  • the vehicle projection control device 30B has a road information acquisition unit 36B.
  • the host vehicle V When the host vehicle V needs to operate the brake, the host vehicle V needs to decelerate. For example, when the road ahead of the host vehicle V is a downhill or a sharp curve. For example, when the vehicle speed of the host vehicle V is faster than the first vehicle speed by a threshold speed or more.
  • the road information acquisition unit 36B acquires road information indicating the shape of the road ahead of the host vehicle V based on the vehicle information acquired by the vehicle information acquisition unit 32 and the navigation information acquired from the navigation system. More specifically, the road information acquisition unit 36B acquires road information indicating the shape of the road ahead of the host vehicle V based on the current position information of the host vehicle V and the navigation information.
  • the virtual vehicle image generation unit 38B is configured to receive the vehicle V based on at least one of the identification information acquired by the identification information acquisition unit 34, the vehicle information acquired by the vehicle information acquisition unit 32, and the navigation information acquired from the navigation system.
  • a virtual vehicle image is generated in which the brake lamp is turned on as a display mode capable of confirming that the brake operation is being performed.
  • the projection control unit 39B is configured such that the vehicle V is a tunnel T based on at least one of the identification information acquired by the identification information acquisition unit 34, the vehicle information acquired by the vehicle information acquisition unit 32, and the navigation information acquired from the navigation system.
  • the virtual image 200 of the virtual vehicle image in which the brake lamp is lit can be viewed as a display mode capable of confirming that the brake operation is being performed.
  • a video signal for projecting the virtual vehicle video generated by the virtual vehicle video generation unit 38B is output to the projection unit 20.
  • steps S41 to S45, S47, and S51 to S54 in the flowchart illustrated in FIG. 11 are the same as the processes in steps S11 to S15, S16, and S17 to S20 in the flowchart illustrated in FIG. I do.
  • the vehicle projection control device 30B acquires the shape of the road (step S46). More specifically, the vehicle projection control device 30B acquires the shape of the road ahead of the host vehicle V based on the road information acquired by the road information acquisition unit 36B. The vehicle projection control device 30B proceeds to step S47.
  • the vehicle projection control device 30B determines whether a brake operation is necessary (step S48). Based on the vehicle information acquired by the vehicle information acquisition unit 32 and the road information acquired by the road information acquisition unit 36B, the vehicle projection control device 30B causes the road ahead of the host vehicle V to be a downhill or a steep curve. When it is determined that the brake operation is necessary (Yes in step S48). Alternatively, based on the vehicle information, when the vehicle speed of the host vehicle V is faster than the first vehicle speed by the threshold value or more, the vehicle projection control device 30B determines that the brake operation is necessary (Yes in step S48). Then, the vehicle projection control device 30B proceeds to step S49.
  • the vehicle projection control device 30B determines that the brake operation is not necessary when the road ahead of the host vehicle V is not a downhill and not a sharp curve, and the vehicle speed of the host vehicle V is not faster than the first vehicle speed by a threshold or more. (No in step S48). Then, the vehicle projection control device 30B proceeds to step S51.
  • the vehicle projection control device 30B generates a virtual vehicle image in which the brake lamp is turned on (step S49). More specifically, the vehicle projection control device 30B controls the first distance ahead of the own vehicle V to be lower than the first vehicle speed of the own vehicle V based on the first vehicle speed of the own vehicle V in the virtual vehicle image generation unit 38B. Drive and generate a virtual vehicle image with the brake lamp turned on.
  • the vehicle projection control device 30B outputs a control signal for projecting a virtual vehicle image in which the brake lamp is lit (step S50). More specifically, the vehicle projection control device 30B causes the projection control unit 39B to output, to the projection unit 20, a control signal for projecting a virtual vehicle image on which the brake lamp generated by the virtual vehicle image generation unit 38B is lit. The vehicle projection control device 30B proceeds to step S54.
  • the virtual vehicle image with the brake lamp lit is projected.
  • the driver can naturally perform the brake operation of the host vehicle V by lighting the brake lamp of the virtual vehicle image.
  • FIG. 12 is a diagram for explaining the processing in the projection control apparatus for a vehicle according to the fourth embodiment, and shows an example when a tunnel exists in front of the host vehicle.
  • the basic configuration of the HUD device 10 is the same as that of the HUD device 10 of the first embodiment.
  • the virtual vehicle image generation unit 38 generates a virtual vehicle image that is separated and separated from the host vehicle V from the vicinity of the host vehicle V to the front of the first distance.
  • the virtual vehicle image generation unit 38 generates a virtual vehicle image visually recognized by the driver so as to be separated from the host vehicle V and jump forward.
  • the projection control unit 39 separates from the host vehicle V from the vicinity of the host vehicle V to the first distance ahead when the tunnel T exists in front of the host vehicle V based on the identification information acquired by the identification information acquisition unit 34 And the virtual vehicle image generated by the virtual vehicle image generation unit 38, which is visually recognized as being separated.
  • the projection control unit 39 is a virtual image in which the virtual image 200 of the virtual vehicle image is visually perceived to separate from the host vehicle V and fly forward. Project the vehicle image.
  • a virtual image 200 of a virtual vehicle image to be projected when the tunnel T exists in front of the host vehicle V will be described using FIG. 12.
  • the virtual image 200 of the virtual vehicle image is viewed as if it is traveling near the host vehicle V.
  • the virtual image 200 of the virtual vehicle image is viewed so as to be away from the host vehicle V.
  • the virtual image 200 of the virtual vehicle image is visually recognized as traveling ahead by the first distance.
  • the virtual vehicle when the tunnel T is present in front of the host vehicle V, the virtual vehicle is separated and separated from the host vehicle V from the vicinity of the host vehicle V to the first distance ahead. Project a virtual image 200 of the image. According to this embodiment, the driver can more easily recognize that the virtual image 200 of the virtual vehicle image is projected.
  • the HUD device 10 according to the present invention has been described above, but may be implemented in various different forms other than the above-described embodiment.
  • Each component of the illustrated HUD device 10 is functionally conceptual and may not necessarily be physically configured as illustrated. That is, the specific form of each device is not limited to the illustrated one, and all or a part thereof is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and use condition of each device, etc. May be
  • the configuration of the HUD device 10 is realized, for example, as software, a program loaded in a memory, or the like.
  • the above embodiment has been described as a functional block realized by cooperation of these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
  • the vehicle projection control device 30 may include a current position information acquisition unit that acquires current position information of the host vehicle V acquired by a GPS (Global Positioning System) receiver mounted on the vehicle.
  • GPS Global Positioning System
  • the video generated by the virtual mobile body video generation unit may be a virtual mobile body moving in front of the host vehicle V at a first vehicle speed.
  • the virtual moving body may be a circle or an icon such as an arrow shape or a circle shape indicating a movement direction.
  • the identification information acquisition unit 34 uses, for example, a tunnel T with a two-dimensional code, a symbol, information provided from the road side near the entrance of the tunnel T, etc. What is necessary is just to acquire the information to identify.
  • the projection unit 20 may be configured to cause the windshield S to reflect the display image projected on the projection unit 21 without using the combiner, and to allow the driver to recognize it as a virtual image.
  • the virtual vehicle video may generate a virtual vehicle video of a display mode in which the change in the speed of the host vehicle V can be confirmed when it is determined that the amount of change in the speed of the host vehicle V relative to the first vehicle speed is equal to or greater than the threshold .
  • the virtual vehicle image may be, for example, an image in which the vehicle body of the virtual vehicle is changed to red.
  • the virtual vehicle image may be, for example, an image in which the vehicle body of the virtual vehicle blinks or the color of the vehicle body is reduced when the host vehicle V has a vehicle speed slower than the first vehicle speed.
  • the virtual vehicle image generation unit 38A may generate a virtual vehicle image in which at least one of the luminance and the color is changed according to the illumination pattern of the tunnel T.
  • the illumination pattern in the tunnel T will be described.
  • lighting devices are arranged at intervals.
  • the illumination at the entrance of the tunnel T is higher than the illumination at the middle of the tunnel T.
  • the entrance of the tunnel T is brighter than the middle part of the tunnel T. This is to make it easy to adapt to changes in the brightness outside and inside the tunnel T.
  • the illuminance on the lower side of the lighting device is high, and the illuminance decreases as it gets off the lower side of the lighting device.
  • high and low places of the illumination alternate with each other according to the installation interval of the lighting device.
  • a virtual vehicle image in which at least one of the luminance and the color is changed may be generated according to the illumination pattern in the tunnel T.
  • HUD device 20 projection unit 21 projection unit 22 combiner 30 projection control device for vehicle 31 image data acquisition unit 32 vehicle information acquisition unit 33 preceding vehicle information acquisition unit 34 identification information acquisition unit 38 virtual vehicle image generation unit (virtual moving object image generation unit Department) 39 Projection control unit 100 Camera unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Optics & Photonics (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Navigation (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

車速を含む車両情報を取得する車両情報取得部32と、走行するトンネルを識別する識別情報を取得する識別情報取得部34と、自車両の前方を自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想車両映像生成部38と、投影ユニット20によって、自車両の前方に、仮想車両映像生成部38が生成した仮想移動体映像の虚像が視認されるように、仮想移動体映像の投影を制御する投影制御部39と、を備え、投影制御部39は、識別情報取得部34が取得した識別情報に基づいて、自車両がトンネルを走行するとき、自車両の前方に、仮想移動体映像の虚像が視認されるように、仮想移動体映像の投影を制御する。

Description

車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラム
 本発明は、車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラムに関する。
 運転者の視線の前方に、例えば、経路案内情報または速度情報のような運転者に提供する情報を虚像として投影するヘッドアップディスプレイ装置が知られている。案内経路上にて自車両より所定距離だけ先行して走行する先導用バーチャル車両の像を、フロントガラス上であって、運転者の視点からすればそこに見えるであろう位置に表示して車両を誘導する技術が知られている(例えば、特許文献1参照)。車両から所定距離前方の位置に、車両が取るべき動作を教示した仮想車両を表示する技術が知られている(例えば、特許文献2参照)。
特開2000-275057号公報 特開2003-254764号公報
 例えば、トンネル内では視認性が悪く、先行車両がいないと、車線やトンネル側壁を認識しにくく、運転しにくいことがある。また、トンネル内では視認性が悪いことによって、運転者がトンネル側壁によって圧迫感を感じることがある。
 本発明は、上記に鑑みてなされたものであって、トンネルを走行するとき、運転しやすくすることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明に係る車両用投影制御装置は、自車両の車速を含む車両情報を取得する車両情報取得部と、前記自車両が走行するトンネルを識別する識別情報を取得する識別情報取得部と、ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成部と、ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御部と、を備え、前記投影制御部は、前記識別情報取得部が取得した前記識別情報に基づいて、前記仮想移動体映像の投影を制御することを特徴とする。
 本発明に係るヘッドアップディスプレイ装置は、上記の車両用投影制御装置と、前記投影ユニットとを備えることを特徴とする。
 本発明に係る車両用投影制御方法は、自車両の車速を含む車両情報を取得する車両情報取得ステップと、前記自車両が走行するトンネルを識別する識別情報を取得する識別情報取得ステップと、ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成ステップと、ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成ステップで生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御ステップと、を含み、前記投影制御ステップは、前記識別情報取得ステップで取得した前記識別情報に基づいて、前記仮想移動体映像の投影を制御する。
 本発明に係るプログラムは、自車両の車速を含む車両情報を取得する車両情報取得ステップと、前記自車両が走行するトンネルを識別する識別情報を取得する識別情報取得ステップと、ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成ステップと、ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成ステップで生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御ステップと、を含み、前記投影制御ステップは、前記識別情報取得ステップで取得した前記識別情報に基づいて、前記仮想移動体映像の投影を制御する、ことを車両用投影制御装置として動作するコンピュータに実行させる。
 本発明によれば、トンネルを走行するとき、運転しやすくすることを支援することができるという効果を奏する。
図1は、第一実施形態に係る車両用投影制御装置の構成例を示すブロック図である。 図2は、第一実施形態に係るヘッドアップディスプレイ装置の投影ユニットの一例を示す図である。 図3は、トンネルの入口の一例を示す図である。 図4は、トンネルを車両が走行しているときの一例を示す図である。 図5は、トンネルを車両が走行しているとき、車両と仮想車両映像の虚像との一例を示す図である。 図6は、トンネルを車両が走行しているとき、運転者が視認する仮想車両映像の虚像の一例を示す図である。 図7は、第一実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。 図8は、第二実施形態に係る車両用投影制御装置の構成例を示すブロック図である。 図9は、第二実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。 図10は、第三実施形態に係る車両用投影制御装置の構成例を示すブロック図である。 図11は、第三実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。 図12は、第四実施形態に係る車両用投影制御装置における処理を説明するための図であり、自車両の前方にトンネルが存在したときの一例を示す。
 以下に添付図面を参照して、本発明に係る車両用投影制御装置、ヘッドアップディスプレイ装置(以下、「HUD装置」という。)、車両用投影制御方法およびプログラムの実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
 図1は、第一実施形態に係る車両用投影制御装置の構成例を示すブロック図である。HUD装置10は、自車両Vの周囲の状況に応じて、車両用投影制御装置30によって仮想移動体映像の虚像200(図5参照)が視認されるように仮想移動体映像を投影するように制御する。本実施形態では、HUD装置10は、自車両Vの前方にトンネルTが存在するとき、車両用投影制御装置30によって仮想車両映像の虚像200が視認されるように仮想車両映像を投影するように制御する。
 カメラユニット100は、自車両Vの周囲を撮影するカメラを有する。カメラは、複数配置されていてもよい。本実施形態では、カメラユニット100は、図示しない前方カメラを有する。
 前方カメラは、前方映像用カメラである。前方カメラは、自車両Vの前方に配置され、自車両Vの前方を中心とした周辺を撮影する。前方映像データは、例えば毎秒30フレームの画像から構成される動画像である。前方カメラは、撮影した前方映像データを車両用投影制御装置30の映像データ取得部31へ出力する。
 HUD装置10は、自車両Vの前方にトンネルTが存在するとき、運転者の視線の前方に、仮想移動体の仮想移動体映像として、仮想の先行車両である仮想車両の仮想車両映像を虚像200として視認させる。HUD装置10は、投影ユニット20と、車両用投影制御装置30とを有する。
 図2を参照して、投影ユニット20について説明する。図2は、第一実施形態に係るヘッドアップディスプレイ装置の投影ユニットの一例を示す図である。投影ユニット20は、投影部21と、コンバイナ22とを有する。投影ユニット20は、投影部21に投影された表示映像を、コンバイナ22で反射させ運転者に虚像として視認させる。
 投影部21は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro‐Luminescence)ディスプレイなどを含むディスプレイである。本実施形態では、投影部21は、ダッシュボードDの下側に配置されている。投影部21は、車両用投影制御装置30の投影制御部39からの映像信号に基づいて表示面に表示映像を表示する。投影部21の表示面に表示された表示映像の映像表示光は、コンバイナ22に投影される。
 コンバイナ22は、投影部21から投影された映像表示光を反射させ運転者に虚像として認識させる。コンバイナ22は、進行方向前方に凸状に湾曲して配置される板状材である。本実施形態では、コンバイナ22は、ダッシュボードDの上側に配置されている。コンバイナ22は、自車両VのウィンドシールドSに面した前面と、運転者に面した後面とを有する。
 車両用投影制御装置30は、自車両Vの周囲の状況に応じて、投影ユニット20の投影部21が表示映像を投影するように制御する。車両用投影制御装置30は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置である。車両用投影制御装置30は、図示しない記憶部に記憶されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。車両用投影制御装置30は、映像データ取得部31と、車両情報取得部32と、先行車両情報取得部33と、識別情報取得部34と、仮想車両映像生成部(仮想移動体映像生成部)38と、投影制御部39とを有する。車両用投影制御装置30には図示しない内部メモリが含まれ、内部メモリは車両用投影制御装置30におけるデータの一時記憶などに用いられる。
 映像データ取得部31は、自車両Vの周辺を撮影した周辺映像データを取得する。より詳しくは、映像データ取得部31は、カメラユニット100が出力した映像データを取得する。映像データ取得部31は、取得した映像データを先行車両情報取得部33と識別情報取得部34とに出力する。
 車両情報取得部32は、自車両Vの状況を示す車両情報を、CANや自車両Vの状態をセンシングする各種センサなどから取得する。車両情報取得部32は、例えば、車速情報を取得する。車両情報取得部32は、取得した車両情報を仮想車両映像生成部38に出力する。車両情報取得部32は、取得した車速情報を内部メモリに記憶させる。
 先行車両情報取得部33は、自車両Vが走行する前方を走行する先行車両の有無を示す先行車両情報を取得する。本実施形態では、先行車両情報取得部33は、映像データ取得部31で取得した映像データに画像処理を行って、第一距離以下の範囲に先行車両が存在するか否かを判定し、判定結果を先行車両情報として取得する。
 第一距離は、数10m以上、200m以下程度の範囲とすることが好ましい。第一距離は、自車両Vの車速に応じて設定されてもよい。例えば、第一距離は、自車両Vの車速に応じて設定された安全な車間距離としてもよい。または、例えば、第一距離は、自車両Vの車速に応じて設定された安全な車間距離よりも長い距離としてもよい。例えば、高速道路において、自車両Vの車速が80km/hのとき、第一距離を80mとし、車速が100km/hのとき、第一距離を100mとしてもよい。例えば、高速道路において、自車両Vの車速が80km/hのとき、第一距離を100mとし、車速が100km/hのとき、第一距離を200mとしてもよい。
 または、先行車両情報取得部33は、図示しないセンサユニットによって、第一距離以下の範囲に先行車両が存在するか否かを判定し、判定結果を先行車両情報として取得してもよい。センサユニットは、自車両Vの前方の障害物である先行車両を検出可能である。センサユニットは、自車両Vの周囲に設置された複数のセンサを含む。各センサは、自車両Vの前方に配置され、自車両Vの前方における車両を検出する。センサは、例えば、赤外線センサまたは超音波センサ、ミリ波レーダなどであり、これらの組合せで構成されてもよい。
 識別情報取得部34は、自車両Vが走行する、言い換えると、自車両Vの前方に位置するトンネルTを識別する識別情報を取得する。トンネルTの識別情報とは、例えば、トンネルTを識別する名称、トンネルTを識別する識別コード、または、位置情報を含む。
 本実施形態では、識別情報取得部34は、文字認識部であり、カメラユニット100が撮影した前方映像データに被撮影物として含まれる文字を認識する。識別情報取得部34は、認識した文字が構成する文字列の中からトンネル名称、例えば、「○×トンネル」、「○×とんねる」、「○×Tunnel」、「○×隧道」のような文字列を識別情報として取得する。
 図3を参照して、トンネル名称の取得について説明する。図3は、トンネルの入口の一例を示す図である。トンネルTの入口を撮影した前方映像データには、トンネル名称を示す標示板Pが表示されている。識別情報取得部34は、前方映像データから「○×トンネル」という文字列Mを識別情報として取得する。識別情報取得部34は、認識した識別情報を仮想車両映像生成部38に出力する。
 仮想車両映像生成部38は、HUD装置10の投影ユニット20によって投影される、自車両Vの前方を自車両Vと同じ方向に移動する仮想車両の仮想車両映像を生成する。仮想車両映像生成部38は、自車両Vの前方にトンネルTが存在すると、仮想車両映像を生成する。例えば、仮想車両映像は、自車両Vを後方から視認した映像である。
 本実施形態では、仮想車両映像生成部38は、自車両VがトンネルTに入ると、言い換えると、自車両VがトンネルTを走行するとき、仮想車両映像を生成する。この場合、識別情報取得部34によって識別情報を取得したときに、自車両VからトンネルTの入口までの距離を算出しておく。そして、自車両Vの車速に基づいて、自車両VがトンネルTに入ったか否かを判定すればよい。
 本実施形態では、仮想車両映像は、自車両Vの第一距離前方を移動する仮想車両の映像である。本実施形態では、仮想車両映像は、自車両Vを後方から視認した映像である。仮想車両映像は、自車両Vの第一距離前方の道路の形状に合わせて視点を変化させて生成される。例えば、仮想車両映像は、自車両Vの第一距離前方の道路が右方向にカーブしているとき、自車両Vを右後方から視認した映像とする。例えば、仮想車両映像は、自車両Vの第一距離前方の道路が左方向にカーブしているとき、自車両Vを左後方から視認した映像とする。
 本実施形態では、仮想車両映像は、自車両VがトンネルTに入る直前の車速である第一車速で移動する仮想車両の映像である。仮想車両映像は、トンネルTを走行しているときの自車両Vの車速の変化に合わせて大きさを変化させて生成される。例えば、仮想車両映像は、自車両Vが第一車速を保って走行しているとき、一定の大きさの映像である。例えば、仮想車両映像は、自車両Vが第一車速より速い車速であるとき、車間距離が短くなったように、仮想車両の大きさを拡大した映像である。例えば、仮想車両映像は、自車両Vが第一車速より遅い車速であるとき、車間距離が長くなったように、仮想車両の大きさを縮小した映像である。
 投影制御部39は、HUD装置10の投影ユニット20によって、自車両Vの前方に、仮想車両映像生成部38が生成した仮想車両映像の虚像200が視認されるように、仮想車両映像の投影を制御する。より詳しくは、投影制御部39は、識別情報取得部34によって取得した識別情報に基づいて、自車両Vの前方にトンネルTが存在すると、自車両Vの前方に仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する映像信号を投影ユニット20に出力する。
 本実施形態では、投影制御部39は、自車両VがトンネルTに入ると、言い換えると、自車両VがトンネルTを走行するとき、仮想車両映像を投影する映像信号を投影ユニット20に出力する。
 図4ないし図6を用いて、自車両Vの前方にトンネルTが存在したときに、投影される仮想車両映像の虚像200について説明する。図4は、トンネルを車両が走行しているときの一例を示す図である。図5は、トンネルを車両が走行しているとき、車両と仮想車両映像の虚像との一例を示す図である。図6は、トンネルを車両が走行しているとき、運転者が視認する仮想車両映像の虚像の一例を示す図である。
 図4に示すように、自車両VがトンネルTに入る前は、仮想車両映像の虚像200は表示されていないので、前方が暗く、車線やトンネル側壁を視認しにくい。
 そこで、図5、図6に示すように、自車両Vの前方にトンネルTが存在したとき、自車両VがトンネルTに入ると、仮想車両が第一距離前方を走行していると運転者が視認するように、仮想車両映像を投影する。言い換えると、仮想車両映像の虚像200は、第一距離前方の景色に重なるように投影される。
 次に、図7を用いて、車両用投影制御装置30における処理の流れについて説明する。図7は、第一実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。
 車両用投影制御装置30は、自車両Vがトンネル内であるか否かを判定する(ステップS11)。より詳しくは、車両用投影制御装置30は、後述するステップS13においてYesと判定された場合、トンネル内フラグをONにする。トンネル内フラグは、初期値がOFFである。車両用投影制御装置30は、トンネル内フラグがONである場合、自車両Vがトンネル内であると判定し(ステップS11でYes)、ステップS14に進む。車両用投影制御装置30は、トンネル内フラグがOFFである場合、自車両Vがトンネル内ではないと判定し(ステップS11でNo)、ステップS12に進む。
 自車両Vがトンネル内ではないと判定された場合(ステップS11でNo)、車両用投影制御装置30は、識別情報を取得する(ステップS12)。より詳しくは、車両用投影制御装置30は、識別情報取得部34によって、映像データ取得部31で取得した映像データに画像処理を行って、識別情報を取得する。車両用投影制御装置30は、ステップS13に進む。
 車両用投影制御装置30は、自車両Vの前方にトンネルTが存在するか否かを判定する(ステップS13)。車両用投影制御装置30は、投影制御部39によって、識別情報取得部34で識別情報が取得された場合、自車両Vの前方にトンネルTが存在すると判定する(ステップS13でYes)。そして、車両用投影制御装置30は、ステップS14に進む。また、車両用投影制御装置30は、ステップS13においてYesと判定された場合、トンネル内フラグをONにする。車両用投影制御装置30は、投影制御部39によって、識別情報取得部34で識別情報が取得されていない場合、自車両Vの前方にトンネルTが存在しないと判定する(ステップS13でNo)。そして、車両用投影制御装置30は、ステップS19に進む。
 自車両Vがトンネル内であると判定された場合(ステップS11でYes)、または、自車両Vの前方にトンネルTが存在すると判定された場合(ステップS13でYes)、車両用投影制御装置30は、先行車両情報を取得する(ステップS14)。より詳しくは、車両用投影制御装置30は、先行車両情報取得部33によって、映像データ取得部31で取得した映像データに画像処理を行って、被撮影物として自車両Vから閾値以下の距離に位置する先行車両を検出して、検出結果を先行車両情報として取得する。車両用投影制御装置30は、ステップS15に進む。
 車両用投影制御装置30は、閾値以下の距離に先行車両が存在していないか否かを判定する(ステップS15)。車両用投影制御装置30は、先行車両情報取得部33によって取得した先行車両情報に基づいて、自車両Vから閾値以下の距離に位置する先行車両を検出しない場合、閾値以下の距離に先行車両が存在していないと判定する(ステップS15でYes)。そして、車両用投影制御装置30は、ステップS16に進む。車両用投影制御装置30は、先行車両情報取得部33によって取得した先行車両情報に基づいて、自車両Vから閾値以下の距離に位置する先行車両を検出した場合、閾値以下の距離に先行車両が存在していると判定する(ステップS15でNo)。そして、車両用投影制御装置30は、ステップS19に進む。
 閾値以下の距離に先行車両が存在していないと判定された場合(ステップS15でYes)、車両用投影制御装置30は、直前の自車両Vの車速を第一車速として取得する(ステップS16)。より詳しくは、車両用投影制御装置30は、投影制御部39によって、車両情報取得部32で取得し内部メモリに記憶した車両情報に基づいて、自車両VがトンネルTに入る直前の車速を第一車速として取得する。
 車両用投影制御装置30は、仮想車両映像を生成する(ステップS17)。より詳しくは、車両用投影制御装置30は、仮想車両映像生成部38で、自車両Vの第一車速に基づいて、自車両Vの第一距離前方を、自車両Vの第一車速で走行する仮想車両映像を生成する。車両用投影制御装置30は、ステップS18に進む。
 車両用投影制御装置30は、仮想車両映像を投影する制御信号を出力する(ステップS18)。より詳しくは、車両用投影制御装置30は、投影制御部39で、仮想車両映像生成部38が生成した仮想車両映像を投影する制御信号を投影ユニット20に出力する。車両用投影制御装置30は、ステップS20に進む。
 車両用投影制御装置30は、仮想車両映像の投影を停止する制御信号を出力する(ステップS19)。より詳しくは、車両用投影制御装置30は、投影制御部39によって仮想車両映像が投影されているとき、仮想車両映像の投影を停止する制御信号を投影ユニット20に出力する。車両用投影制御装置30は、投影制御部39によって仮想車両映像が投影されていないとき、仮想車両映像を投影しない状態を継続する。車両用投影制御装置30は、ステップS20に進む。
 車両用投影制御装置30は、終了トリガがあるか否かを判定する(ステップS20)。終了トリガとは、例えば、自車両VがトンネルTに入ってから、トンネルTの全長以上の距離を走行した場合である。または、終了トリガとは、例えば、仮想車両映像の表示を終了するボタンが押下されたり、車両が停車した場合である。車両用投影制御装置30は、終了トリガがある場合、仮想車両映像の投影を終了すると判定し(ステップS20でYes)、処理を終了する。車両用投影制御装置30は、終了トリガがない場合、仮想車両映像の投影を終了しないと判定し(ステップS20でNo)、ステップS11の処理を再度実行する。
 このようにして、車両用投影制御装置30は、自車両VがトンネルTを走行するときにだけ、仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する。車両用投影制御装置30は、自車両VがトンネルTを走行していないとき、仮想車両映像を投影しない。
 上述したように、本実施形態は、自車両VがトンネルTを走行するときにだけ、仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する。本実施形態は、自車両VがトンネルTを走行していないとき、仮想車両映像を投影しない。このように、本実施形態によれば、トンネルT内において、仮想車両映像の虚像200によって前方の道路の形状を認識することができる。このように、本実施形態によれば、トンネルT内において、運転者が運転しやすくするように支援することができる。本実施形態によれば、前方に先行車両がいるときと同じように視認されるため、トンネルT内においても、運転者がトンネル側壁によって圧迫感を感じることを低減することができる。
 本実施形態は、仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する。本実施形態によれば、自車両Vの前方に先行車両が存在しない場合でも、先行車両が存在するときと同様に仮想車両に追従するように走行することができる。
 これに対して、トンネルTの走行時に、先行車両が存在せず、仮想車両映像が投影されていない場合、車線やトンネル側壁の位置を認識することが難しい。このため、トンネルTの走行時には、運転により多くの注意を払うことが要求され、疲労度が増大する。
 本実施形態は、車線やトンネル側壁の位置を認識することが難しくても、仮想車両に追従するように走行することによって、車線からはみ出したり、トンネル側壁に近づきすぎてしまったりすることを容易に回避することができる。このように、本実施形態によれば、トンネルTを走行する際の疲労度を軽減することができる。
 本実施形態は、自車両VがトンネルTに入る直前の第一車速で走行する仮想車両映像の虚像200を投影する。運転者は、仮想車両映像の虚像200を視認することによって、第一車速で走行する仮想車両に追従して走行することができる。本実施形態によれば、自車両VがトンネルTを走行するとき、運転者が自車両Vの車速を第一車速に保って走行することを支援することができる。このように、本実施形態によれば、自車両VがトンネルTを走行するとき、意図せずに自車両Vが減速することを抑制することができる。
 本実施形態は、閾値以下の距離に先行車両が存在していないときに、仮想車両映像を投影する。また、本実施形態は、仮想車両映像を投影しているとき、閾値以下の距離に先行車両が存在するようになると、仮想車両映像の投影を停止する。これにより、本実施形態は、先行車両が存在しないときに限って、仮想車両映像を投影することができる。本実施形態によれば、先行車両と仮想車両映像の虚像200とが重なって視認性が低下することを回避することができる。
[第二実施形態]
 図8、図9を参照しながら、本実施形態に係るHUD装置10Aについて説明する。図8は、第二実施形態に係る車両用投影制御装置の構成例を示すブロック図である。図9は、第二実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。HUD装置10Aは、基本的な構成は第一実施形態のHUD装置10と同様である。以下の説明においては、HUD装置10と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。
 トンネル情報データベース110Aは、トンネルTの照明装置の種類を含むトンネル情報を記憶する。本実施形態では、トンネル情報データベース110Aは、トンネルTごとに、トンネル名称と、トンネルTの位置情報と、トンネルTの全長と、照明装置の種類とを記憶する。
 照明装置の種類とは、照明装置の光源種類である。光源種類は、例えば、ナトリウムランプ、白色LED(Light Emitting Diode)などである。ナトリウムランプは、オレンジ色に発光する。白色LEDは、ナトリウムランプに比べて明るさが均一になる。
 トンネル情報参照部35Aは、トンネル情報データベース110Aからトンネル情報を参照する。トンネル情報参照部35Aは、参照したトンネル情報を仮想車両映像生成部38Aに出力する。
 仮想車両映像生成部38Aは、トンネル情報参照部35Aで参照したトンネル情報に基づいて、自車両Vの前方にトンネルTが存在するとき、トンネルTの照明装置の種類に応じて、輝度および色の少なくともどちらかを変更した仮想車両映像を生成する。仮想車両映像生成部38Aは、例えば、光源種類がナトリウムランプである場合、オレンジ色の照明光の下でも虚像200の視認性が低減しないように、投影ユニット20が投影する表示映像の輝度が変化するように制御する。仮想車両映像生成部38Aは、例えば、光源種類が白色LEDである場合、白色LEDの照明光の下でも虚像200の視認性が低減しないように、投影ユニット20が投影する表示映像の輝度が変化するように制御する。
 投影制御部39Aは、トンネル情報参照部35Aで参照したトンネル情報に基づいて、自車両Vの前方にトンネルTが存在するとき、トンネルTの照明装置の種類に応じて、輝度および色の少なくともどちらかを変更した仮想車両映像を投影する映像信号を投影ユニット20に出力する。
 次に、図9を用いて、車両用投影制御装置30Aにおける処理の流れについて説明する。図9に示すフローチャートのステップS21ないしステップS26、ステップS30、ステップS31の処理は、図7に示すフローチャートのステップS11ないしステップS16、ステップS19、ステップS20の処理と同様の処理を行う。
 車両用投影制御装置30Aは、照明装置の種類を取得する(ステップS27)。より詳しくは、車両用投影制御装置30Aは、トンネル情報参照部35Aで取得したトンネル情報に基づいて、自車両Vの前方のトンネルTの照明装置の種類を取得する。車両用投影制御装置30Aは、ステップS28に進む。
 車両用投影制御装置30Aは、照明装置の種類に合わせた仮想車両映像を生成する(ステップS28)。より詳しくは、車両用投影制御装置30Aは、仮想車両映像生成部38Aで、照明装置の種類に応じて、輝度および色の少なくともどちらかを変更した仮想車両映像を生成する。車両用投影制御装置30Aは、ステップS29に進む。
 車両用投影制御装置30Aは、照明装置の種類に合わせた仮想車両映像を投影する制御信号を出力する(ステップS29)。より詳しくは、車両用投影制御装置30Aは、投影制御部39Aで、照明装置の種類に応じて、輝度および色の少なくともどちらかを変更した仮想車両映像を投影する制御信号を投影ユニット20に出力する。車両用投影制御装置30Aは、ステップS31に進む。
 上述したように、本実施形態は、トンネルTの照明装置の種類に合わせて、輝度および色の少なくともどちらかを変更した仮想車両映像を生成する。本実施形態によれば、トンネルTの照明装置の種類によらず、視認しやすい仮想車両映像を投影することができる。
[第三実施形態]
 図10、図11を参照しながら、本実施形態に係るHUD装置10Bについて説明する。図10は、第三実施形態に係る車両用投影制御装置の構成例を示すブロック図である。図11は、第三実施形態に係る車両用投影制御装置における処理の流れを示すフローチャートである。HUD装置10Bは、基本的な構成は第一実施形態のHUD装置10と同様である。
 車両用投影制御装置30Bは、自車両VがトンネルTを走行中で、自車両Vがブレーキを操作する必要があるとき、ブレーキ操作を行っていることを確認可能な表示態様の仮想車両映像の虚像200が視認されるように、仮想車両映像を投影する。本実施形態では、ブレーキ操作を行っていることを確認可能な表示態様とは、ブレーキランプを点灯した仮想車両映像の表示態様である。車両用投影制御装置30Bは、道路情報取得部36Bを有する。
 自車両Vがブレーキを操作する必要があるときとは、自車両Vが減速する必要があるときである。例えば、自車両Vの前方の道路が下り坂、または、急カーブであるときである。例えば、自車両Vの車速が第一車速より閾値速度以上速くなったときである。
 道路情報取得部36Bは、車両情報取得部32で取得した車両情報とナビゲーションシステムから取得したナビゲーション情報とに基づいて、自車両Vの前方の道路の形状を示す道路情報を取得する。より詳しくは、道路情報取得部36Bは、自車両Vの現在位置情報とナビゲーション情報とに基づいて、自車両Vの前方の道路の形状を示す道路情報を取得する。
 仮想車両映像生成部38Bは、識別情報取得部34によって取得した識別情報と車両情報取得部32で取得した車両情報とナビゲーションシステムから取得したナビゲーション情報との少なくともいずれかに基づいて、自車両VがトンネルTを走行中で、自車両Vがブレーキを操作する必要があるとき、ブレーキ操作を行っていることを確認可能な表示態様としてブレーキランプを点灯した仮想車両映像を生成する。
 投影制御部39Bは、識別情報取得部34によって取得した識別情報と車両情報取得部32で取得した車両情報とナビゲーションシステムから取得したナビゲーション情報との少なくともいずれかに基づいて、自車両VがトンネルTを走行中で、自車両Vがブレーキを操作する必要があるとき、ブレーキ操作を行っていることを確認可能な表示態様としてブレーキランプを点灯した仮想車両映像の虚像200が視認されるように、仮想車両映像生成部38Bによって生成した仮想車両映像を投影する映像信号を投影ユニット20に出力する。
 次に、図11を用いて、車両用投影制御装置30Bにおける処理の流れについて説明する。図11に示すフローチャートのステップS41ないしステップS45、ステップS47、ステップS51ないしステップS54の処理は、図7に示すフローチャートのステップS11ないしステップS15、ステップS16、ステップS17ないしステップS20の処理と同様の処理を行う。
 閾値以下の距離に先行車両が存在していないと判定された場合(ステップS45でYes)、車両用投影制御装置30Bは、道路の形状を取得する(ステップS46)。より詳しくは、車両用投影制御装置30Bは、道路情報取得部36Bで取得した道路情報に基づいて、自車両Vの前方の道路の形状を取得する。車両用投影制御装置30Bは、ステップS47に進む。
 車両用投影制御装置30Bは、ブレーキ操作が必要か否かを判定する(ステップS48)。車両用投影制御装置30Bは、車両情報取得部32で取得した車両情報と道路情報取得部36Bで取得した道路情報とに基づいて、自車両Vの前方の道路が下り坂、または、急カーブであるとき、ブレーキ操作が必要と判定する(ステップS48でYes)。または、車両用投影制御装置30Bは、車両情報に基づいて、自車両Vの車速が第一車速より閾値以上速くなったとき、ブレーキ操作が必要と判定する(ステップS48でYes)。そして、車両用投影制御装置30Bは、ステップS49に進む。車両用投影制御装置30Bは、自車両Vの前方の道路が下り坂ではなく、急カーブではなく、自車両Vの車速が第一車速より閾値以上速くないとき、ブレーキ操作が必要ではないと判定する(ステップS48でNo)。そして、車両用投影制御装置30Bは、ステップS51に進む。
 車両用投影制御装置30Bは、ブレーキランプを点灯した仮想車両映像を生成する(ステップS49)。より詳しくは、車両用投影制御装置30Bは、仮想車両映像生成部38Bで、自車両Vの第一車速に基づいて、自車両Vの第一距離前方を、自車両Vの第一車速より低速で走行し、ブレーキランプを点灯した仮想車両映像を生成する。
 車両用投影制御装置30Bは、ブレーキランプを点灯した仮想車両映像を投影する制御信号を出力する(ステップS50)。より詳しくは、車両用投影制御装置30Bは、投影制御部39Bで、仮想車両映像生成部38Bが生成したブレーキランプを点灯した仮想車両映像を投影する制御信号を投影ユニット20に出力する。車両用投影制御装置30Bは、ステップS54に進む。
 上述したように、本実施形態は、ブレーキ操作が必要なとき、ブレーキランプを点灯した仮想車両映像を投影する。本実施形態によれば、仮想車両映像のブレーキランプが点灯することで、運転者は自車両Vのブレーキ操作を自然に行うことができる。本実施形態によれば、運転者が適切なブレーキ操作を行うことを支援し、自車両Vが適切な車速で走行することを支援することができる。
[第四実施形態]
 図12を参照しながら、本実施形態に係るHUD装置10について説明する。図12は、第四実施形態に係る車両用投影制御装置における処理を説明するための図であり、自車両の前方にトンネルが存在したときの一例を示す。HUD装置10は、基本的な構成は第一実施形態のHUD装置10と同様である。
 仮想車両映像生成部38は、自車両Vの近傍から第一距離前方まで、自車両Vから分離して離間していくような仮想車両映像を生成する。本実施形態では、仮想車両映像生成部38は、自車両Vから分離して前方に飛び出していくように運転者に視認される仮想車両映像を生成する。
 投影制御部39は、識別情報取得部34によって取得した識別情報に基づいて、自車両Vの前方にトンネルTが存在したとき、自車両Vの近傍から第一距離前方まで、自車両Vから分離して離間していくように視認される、仮想車両映像生成部38で生成された仮想車両映像を投影する。本実施形態では、投影制御部39は、自車両Vの前方にトンネルTが存在するとき、仮想車両映像の虚像200が、自車両Vから分離して前方に飛び出していくように視認される仮想車両映像を投影する。
 図12を用いて、自車両Vの前方にトンネルTが存在したときに、投影される仮想車両映像の虚像200について説明する。仮想車両映像の虚像200は、自車両VがトンネルTに入った直後は自車両Vの近くを走行しているように視認される。時間の経過とともに、言い換えると、自車両Vが進むにつれて、仮想車両映像の虚像200は、自車両Vから遠ざかるように視認される。仮想車両映像の投影から所定時間経過すると、仮想車両映像の虚像200は第一距離前方を走行しているように視認される。
 上述したように、本実施形態は、自車両Vの前方にトンネルTが存在したとき、自車両Vの近傍から第一距離前方まで、自車両Vから分離して離間していくような仮想車両映像の虚像200を投影する。本実施形態によれば、仮想車両映像の虚像200が投影されたことを、より運転者が認識しやすくすることができる。
 さて、これまで本発明に係るHUD装置10について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。
 図示したHUD装置10の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況などに応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
 HUD装置10の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラムなどによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
 上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
 車両用投影制御装置30は、自車両Vの現在位置情報をナビゲーションシステムから取得するものとして説明したが、これに限定されない。車両用投影制御装置30は、車両に搭載されたGPS(Global Positioning System)受信機によって取得した自車両Vの現在位置情報を取得する現在位置情報取得部を備えていてもよい。
 仮想移動体映像生成部を仮想車両映像生成部38として説明したが、これに限定されない。仮想移動体映像生成部が生成した映像は、自車両Vの前方を第一車速で移動する仮想移動体であればよい。例えば、仮想移動体は、丸印または移動方向を示す矢印形状または丸形状などのアイコンでもよい。
 識別情報取得部34が文字認識部であるものとして説明したが、識別情報取得部34は、例えば、二次元コード、図柄、トンネルTの入り口付近で道路側から提供される情報などでトンネルTを識別する情報を取得するものであればよい。
 投影ユニット20は、コンバイナを用いずに、投影部21に投影された表示映像を、ウィンドシールドSで反射させ運転者に虚像として認識させるものでもよい。
 仮想車両映像は、第一車速に対する自車両Vの速度の変化量が閾値以上であると判定したとき、自車両Vの速度の変化を確認可能な表示態様の仮想車両映像を生成してもよい。例えば、仮想車両映像は、自車両Vが第一車速より速い車速であるとき、例えば、仮想車両の車体を赤色に変えた映像としてもよい。仮想車両映像は、自車両Vが第一車速より遅い車速であるとき、例えば、仮想車両の車体を点滅させたり、車体の色を薄くした映像としてもよい。
 仮想車両映像生成部38Aは、自車両Vの前方にトンネルTが存在するとき、トンネルTの照度パターンに応じて、輝度および色の少なくともどちらかを変更した仮想車両映像を生成してもよい。トンネルT内の照度パターンについて説明する。トンネルTには、間隔を空けて照明装置が配置されている。トンネルTの出入口の照度はトンネルTの中間部の照度より高い。言い換えると、トンネルTの出入口は、トンネルTの中間部より明るい。これは、トンネルTの外部の明るさと内部の明るさの変化に順応しやすくするためである。トンネルTの中間部では照明装置の下側の照度が高く、照明装置の下側から外れるにつれて照度が低くなる。トンネルTの中間部では、照度が高いところと低いところが照明装置の設置間隔に対応して交互に存在する。このようなトンネルT内の照度パターンに応じて、輝度および色の少なくともどちらかを変更した仮想車両映像を生成してもよい。
 10   HUD装置
 20   投影ユニット
 21   投影部
 22   コンバイナ
 30   車両用投影制御装置
 31   映像データ取得部
 32   車両情報取得部
 33   先行車両情報取得部
 34   識別情報取得部
 38   仮想車両映像生成部(仮想移動体映像生成部)
 39   投影制御部
 100  カメラユニット

Claims (10)

  1.  自車両の車速を含む車両情報を取得する車両情報取得部と、
     前記自車両が走行するトンネルを識別する識別情報を取得する識別情報取得部と、
     ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成部と、
     ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御部と、
     を備え、
     前記投影制御部は、前記識別情報取得部が取得した前記識別情報に基づいて、前記仮想移動体映像の投影を制御する、
     ことを特徴とする車両用投影制御装置。
  2.  前記投影制御部は、前記仮想移動体が前記自車両がトンネルに入る直前の前記自車両の速度で前記自車両の前方を移動しているように、前記仮想移動体映像の投影を制御する、
     請求項1に記載の車両用投影制御装置。
  3.  トンネルの照明装置の種類を含むトンネル情報を記憶したトンネル情報データベースを参照するトンネル情報参照部、
     を備え、
     前記仮想移動体映像生成部は、前記トンネル情報参照部で参照した前記トンネル情報に基づいて、前記自車両がトンネルを走行するとき、前記トンネルの前記照明装置の種類に応じて、輝度および色の少なくともどちらかを変更した前記仮想移動体映像を生成し、
     前記投影制御部は、前記トンネル情報参照部で参照した前記トンネル情報に基づいて、前記トンネルの前記照明装置の種類に応じて、前記仮想移動体映像生成部が輝度および色の少なくともどちらかを変更して生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、
     請求項1または2に記載の車両用投影制御装置。
  4.  前記識別情報取得部は、前記自車両の前方を撮影する前方カメラが撮影した前方映像データに被撮影物として含まれる文字を認識する文字認識部である、
     請求項1から3のいずれか一項に記載の車両用投影制御装置。
  5.  前記仮想移動体映像生成部は、前記識別情報取得部が取得した前記識別情報と前記車両情報取得部が取得した車両情報と前記自車両が走行する道路の情報を含むナビゲーションシステムから取得したナビゲーション情報との少なくともいずれかに基づいて、前記自車両がトンネルを走行し、かつ、ブレーキ操作が必要なとき、前記仮想移動体がブレーキ操作を行っていることを確認可能な表示態様の前記仮想移動体映像を生成し、
     前記投影制御部は、前記識別情報取得部が取得した前記識別情報と前記車両情報取得部が取得した車両情報と前記自車両が走行する道路の情報を含むナビゲーションシステムから取得したナビゲーション情報との少なくともいずれかに基づいて、前記自車両がトンネルを走行し、かつ、ブレーキ操作が必要なとき、前記自車両の前方に、ブレーキ操作を行っていることを確認可能な表示態様の、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、
     請求項1から4のいずれか一項に記載の車両用投影制御装置。
  6.  前記仮想移動体映像生成部は、前記自車両の近傍から所定距離前方まで、前記自車両から分離して離間していく前記仮想移動体の前記仮想移動体映像を生成し、
     前記投影制御部は、前記識別情報取得部によって取得した識別情報に基づいて、前記自車両がトンネルを走行すると判定されると、前記仮想移動体映像生成部が生成した仮想移動体映像の虚像が、前記自車両の近傍から所定距離前方まで、前記自車両から分離して離間していくように視認されるように、前記仮想移動体映像生成部が生成した前記仮想移動体映像の投影を制御する、
     請求項1から5のいずれか一項に記載の車両用投影制御装置。
  7.  前記仮想移動体映像生成部は、前記車両情報取得部が取得した車両情報に基づいて、前記自車両がトンネルに入る直前の前記自車両の速度に対する前記自車両の速度の変化量が閾値以上であると判定したとき、前記自車両の速度の変化を確認可能な表示態様の仮想車両映像を生成し、
     前記投影制御部は、前記車両情報取得部が取得した車両情報に基づいて、前記自車両がトンネルに入る直前の前記自車両の速度に対する前記自車両の速度の変化量が閾値以上であると判定したとき、前記自車両の前方に、前記自車両の速度の変化を確認可能な表示態様の、前記仮想移動体映像生成部が生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する、
     請求項1から6のいずれか一項に記載の車両用投影制御装置。
  8.  請求項1から7のいずれか一項に記載の車両用投影制御装置と、
     前記投影ユニットと、
     を備えることを特徴とするヘッドアップディスプレイ装置。
  9.  自車両の車速を含む車両情報を取得する車両情報取得ステップと、
     前記自車両が走行するトンネルを識別する識別情報を取得する識別情報取得ステップと、
     ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成ステップと、
     ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成ステップで生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御ステップと、
     を含み、
     前記投影制御ステップは、前記識別情報取得ステップで取得した前記識別情報に基づいて、前記仮想移動体映像の投影を制御する、
     車両用投影制御方法。
  10.  自車両の車速を含む車両情報を取得する車両情報取得ステップと、
     前記自車両が走行するトンネルを識別する識別情報を取得する識別情報取得ステップと、
     ヘッドアップディスプレイ装置の投影ユニットによって投影される、前記自車両の前方を前記自車両と同じ方向に移動する仮想移動体の仮想移動体映像を生成する仮想移動体映像生成ステップと、
     ヘッドアップディスプレイ装置の投影ユニットによって、前記自車両の前方に、前記仮想移動体映像生成ステップで生成した前記仮想移動体映像の虚像が視認されるように、前記仮想移動体映像の投影を制御する投影制御ステップと、
     を含み、
     前記投影制御ステップは、前記識別情報取得ステップで取得した前記識別情報に基づいて、前記仮想移動体映像の投影を制御する、
     ことを車両用投影制御装置として動作するコンピュータに実行させるためのプログラム。
PCT/JP2018/011908 2017-09-20 2018-03-23 車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラム WO2019058610A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880045325.8A CN110869234B (zh) 2017-09-20 2018-03-23 车辆用投影控制装置、平视显示装置、车辆用投影控制方法以及记录介质
US16/810,898 US11981261B2 (en) 2017-09-20 2020-03-06 Vehicle projection control device, head-up display device, vehicle projection control method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-180750 2017-09-20
JP2017180750A JP6777048B2 (ja) 2017-09-20 2017-09-20 車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/810,898 Continuation US11981261B2 (en) 2017-09-20 2020-03-06 Vehicle projection control device, head-up display device, vehicle projection control method, and program

Publications (1)

Publication Number Publication Date
WO2019058610A1 true WO2019058610A1 (ja) 2019-03-28

Family

ID=65809597

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/011908 WO2019058610A1 (ja) 2017-09-20 2018-03-23 車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラム

Country Status (4)

Country Link
US (1) US11981261B2 (ja)
JP (1) JP6777048B2 (ja)
CN (1) CN110869234B (ja)
WO (1) WO2019058610A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112397017A (zh) * 2020-11-27 2021-02-23 卡莱特(深圳)云科技有限公司 一种车载led显示屏的亮度调节方法及装置
JP2022139951A (ja) * 2021-03-12 2022-09-26 本田技研工業株式会社 注意喚起システム、及び注意喚起方法
CN116844359B (zh) * 2023-06-27 2024-03-19 宁波四维尔工业有限责任公司 一种路标投影方法、系统、存储介质及智能终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003254764A (ja) * 2002-03-01 2003-09-10 Matsushita Electric Ind Co Ltd 走行位置表示装置
JP2005107918A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置、車両用情報提供方法及び車両用情報提供プログラム
JP2006284195A (ja) * 2005-03-31 2006-10-19 Denso Corp 経路案内システム
JP2013200218A (ja) * 2012-03-26 2013-10-03 Zenrin Datacom Co Ltd ナビゲーション装置、自律航法支援方法および自律航法支援プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879309B2 (ja) 1999-03-24 2007-02-14 株式会社デンソー 車両誘導装置
JP4087140B2 (ja) * 2002-04-04 2008-05-21 アルパイン株式会社 車載用ナビゲーション装置
CN101109800A (zh) * 2006-07-20 2008-01-23 行毅科技股份有限公司 修正显示的车辆导航系统及其修正显示方法
CN101246007B (zh) * 2007-02-12 2010-12-15 上海地铁运营有限公司 一种隧道收敛监测方法
KR101851239B1 (ko) * 2011-11-08 2018-04-23 삼성전자 주식회사 휴대단말기의 이미지 표현장치 및 방법
JP6083019B2 (ja) * 2012-09-28 2017-02-22 株式会社ユピテル システム、プログラム、撮像装置、及び、ソフトウェア
US20140362195A1 (en) * 2013-03-15 2014-12-11 Honda Motor, Co., Ltd. Enhanced 3-dimensional (3-d) navigation
CN105324267B (zh) * 2013-07-05 2018-08-07 歌乐株式会社 驾驶支援装置
JP2015127170A (ja) * 2013-12-27 2015-07-09 パイオニア株式会社 ヘッドアップディスプレイ、制御方法、プログラム、及び記憶媒体
CN110450701A (zh) * 2015-01-13 2019-11-15 麦克赛尔株式会社 车辆
US9651390B1 (en) * 2016-02-25 2017-05-16 Here Global B.V. Mapping road illumination
GB201702309D0 (en) * 2017-02-13 2017-03-29 Jaguar Land Rover Ltd An apparatus and a method for controlling a head-up display of a vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003254764A (ja) * 2002-03-01 2003-09-10 Matsushita Electric Ind Co Ltd 走行位置表示装置
JP2005107918A (ja) * 2003-09-30 2005-04-21 Mazda Motor Corp 車両用情報提供装置、車両用情報提供方法及び車両用情報提供プログラム
JP2006284195A (ja) * 2005-03-31 2006-10-19 Denso Corp 経路案内システム
JP2013200218A (ja) * 2012-03-26 2013-10-03 Zenrin Datacom Co Ltd ナビゲーション装置、自律航法支援方法および自律航法支援プログラム

Also Published As

Publication number Publication date
CN110869234A (zh) 2020-03-06
US11981261B2 (en) 2024-05-14
JP2019055663A (ja) 2019-04-11
US20200207272A1 (en) 2020-07-02
JP6777048B2 (ja) 2020-10-28
CN110869234B (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
US11701994B2 (en) Vehicle
US10279741B2 (en) Display control apparatus, method, recording medium, and vehicle
US9650044B2 (en) Control system and method for host vehicle
US11981261B2 (en) Vehicle projection control device, head-up display device, vehicle projection control method, and program
CN103217169A (zh) 全挡风玻璃显示器上的最佳注视位置
CN109204305B (zh) 丰富视野方法、观察员车辆和对象中使用的设备和机动车
JP7470230B2 (ja) 車両用表示システム、車両システム及び車両
US10946744B2 (en) Vehicular projection control device and head-up display device
KR20180132668A (ko) 차량 전방의 지장 상황의 존재를 나타내는 픽토그램의 자동 디스플레이를 제어하는 방법
JP2005346177A (ja) 車両用情報提示装置
WO2016067545A1 (ja) 注視誘導装置
US10744956B2 (en) Vehicular display control device
US20210268961A1 (en) Display method, display device, and display system
WO2019053927A1 (ja) 車両用投影制御装置、ヘッドアップディスプレイ装置、車両用投影制御方法およびプログラム
CN113401055A (zh) 注意提醒装置和注意提醒方法
JP2019007990A (ja) 輝度制御装置、ヘッドアップディスプレイ装置、輝度制御方法およびプログラム
JP7279314B2 (ja) 車両用表示装置、車両用表示装置の制御方法、車両用表示装置の制御プログラム
JP2019087207A (ja) 映像表示制御装置、映像表示装置、映像表示制御方法および映像表示制御プログラム
JP2023074766A (ja) 車両用描画装置
CN113495707A (zh) 显示控制装置、车辆和显示控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18858931

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18858931

Country of ref document: EP

Kind code of ref document: A1