WO2016013167A1 - 車両用表示制御装置 - Google Patents

車両用表示制御装置 Download PDF

Info

Publication number
WO2016013167A1
WO2016013167A1 PCT/JP2015/003418 JP2015003418W WO2016013167A1 WO 2016013167 A1 WO2016013167 A1 WO 2016013167A1 JP 2015003418 W JP2015003418 W JP 2015003418W WO 2016013167 A1 WO2016013167 A1 WO 2016013167A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
image
host vehicle
virtual image
vehicle
Prior art date
Application number
PCT/JP2015/003418
Other languages
English (en)
French (fr)
Inventor
孝則 笹野
加藤 香平
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US15/323,753 priority Critical patent/US10040395B2/en
Priority to EP15824648.8A priority patent/EP3173278B1/en
Publication of WO2016013167A1 publication Critical patent/WO2016013167A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • B60K35/23
    • B60K35/28
    • B60K35/60
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/02Viewing or reading apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • B60K2360/178
    • B60K2360/179
    • B60K2360/334
    • B60K2360/785
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0141Head-up displays characterised by optical features characterised by the informative content of the display

Definitions

  • the present disclosure relates to a vehicle display control device.
  • a head-up display device that detects obstacles such as pedestrians and other vehicles from around the own vehicle and displays images relating to the own vehicle and the obstacles.
  • the head-up display device described in Patent Literature 1 displays the relative positional relationship between the host vehicle image and the obstacle image, so that the position of the obstacle around the actual host vehicle can be determined by the occupant. To recognize. Then, by displaying the host vehicle image representing the entire host vehicle, the occupant is made to recognize the front-rear and left-right directions of the host vehicle image. Furthermore, the relative positional relationship between the vehicle image and the obstacle image is displayed. Then, the occupant can recognize the relative position of the obstacle with respect to the actual own vehicle.
  • the head-up display device displays a host vehicle image representing the entire host vehicle in order to represent the relative positional relationship between the actual obstacles around the host vehicle and the host vehicle. For this reason, if an image of the entire host vehicle is displayed on a head-up display device in which a display area for displaying an image is limited, a large area of the display area is used. Therefore, it becomes difficult for the head-up display device to display an image related to other information in the display area, resulting in inconvenience.
  • One object of the present disclosure is to provide a vehicle display control that allows the occupant to recognize the relative position of an obstacle with respect to the actual host vehicle while reducing the use area of a display area for displaying an image. To provide an apparatus.
  • a vehicle display control device is a vehicle display control device that controls an image reflected by a windshield or a combiner to make a virtual image of a vehicle visible to an occupant of the host vehicle.
  • An obstacle direction acquisition unit comprising: an image generation unit that generates an obstacle image related to an obstacle around the host vehicle; and an obstacle direction acquisition unit that acquires a relative direction of the obstacle with respect to the host vehicle.
  • the line virtual image which is a virtual image of the line image
  • the direction acquisition unit acquires that an obstacle exists behind the host vehicle
  • the line virtual image is concave toward the second direction opposite to the first direction
  • the obstacle direction acquisition unit In the width direction of the host vehicle
  • the position of the obstacle virtual image is a virtual image of the obstacle image are different.
  • the occupant can recognize whether the obstacle exists before or after the actual own vehicle by recognizing the direction of the concave shape of the virtual image of the line image. And the passenger
  • FIG. 1 is a diagram illustrating a state in which the head-up display device is arranged in the first embodiment.
  • FIG. 2 is a diagram illustrating a configuration diagram of the vehicle display control device according to the first embodiment.
  • FIG. 3 is a first example showing a virtual image when an obstacle exists behind the host vehicle in the first embodiment.
  • FIG. 4 is a second example showing a virtual image when an obstacle exists behind the host vehicle in the first embodiment.
  • FIG. 5 is an example showing a virtual image when an obstacle exists in front of the host vehicle in the first embodiment.
  • FIG. 6 is a flowchart showing a series of processes performed by the vehicle display control device in the first embodiment.
  • FIG. 7 is a flowchart showing a series of forward warning processing performed by the vehicle display control device in the first embodiment.
  • FIG. 8 is a flowchart showing a series of rear warning processing performed by the vehicle display control device in the first embodiment.
  • FIG. 9 is a flowchart showing a series of rear warning processing performed by the vehicle display control device in the second embodiment.
  • FIG. 10 is a diagram illustrating a virtual image when a lane change is performed in the second embodiment.
  • FIG. 11 is a diagram illustrating a virtual image when an obstacle is present behind the host vehicle in another embodiment.
  • the head-up display device 2 (hereinafter referred to as “HUD2”) is provided in the host vehicle 80.
  • the HUD 2 is housed in the instrument panel.
  • the HUD 2 includes a projector 20, a reflecting mirror 21, and a concave mirror 22.
  • the projector 20 irradiates the reflecting mirror 21 with the image as light.
  • the reflecting mirror 21 reflects the light emitted from the projector 20 toward the concave mirror 22.
  • the concave mirror 22 reflects the light reflected from the reflecting mirror 21 toward the windshield 70.
  • the windshield 70 reflects the light reflected from the concave mirror 22 toward the occupant 90. Then, the occupant 90 visually recognizes the light reflected from the windshield 70 as a virtual image. That is, the HUD 2 can cause the occupant 90 to recognize the image as a virtual image.
  • the main ECU 1 that is the vehicle display control device of the present embodiment is connected to the information input unit 3 and the HUD 2.
  • the main ECU 1 controls the image projected by the HUD 2 based on the information acquired from the information input unit 3. Details of processing performed by the main ECU 1 will be described later.
  • the information input unit 3 includes a front millimeter wave radar 30, a rear millimeter wave radar 31, a front camera 32, a right camera 33, a left camera 34, and the like.
  • the front millimeter wave radar 30 is provided at the front of the host vehicle 80 and at the center in the width direction of the host vehicle 80. Then, the forward millimeter wave radar 30 transmits the millimeter wave in the horizontal plane while transmitting it forward from the own vehicle, and receives transmission / reception data obtained by receiving the reflected millimeter wave as a radar signal to the main ECU 1. Send.
  • the rear millimeter wave radar 31 is provided at the rear of the host vehicle 80 and at the center in the width direction of the host vehicle 80.
  • the rear millimeter wave radar 31 transmits the millimeter wave backward from the own vehicle while scanning the millimeter wave in a horizontal plane, and sends the transmission / reception data obtained by receiving the reflected millimeter wave to the main ECU 1 as a radar signal. Send.
  • the front camera 32 is provided in the upper part of the windshield 70 and near the center. And the front camera 32 image
  • the right camera 33 is provided on the right side mirror of the host vehicle 80, and the lens surface is directed to the rear of the host vehicle 80. Therefore, the right camera 33 can take a picture of the rear side of the host vehicle 80 from the center to the right side. Then, the captured image is transmitted to the main ECU 1 as an image signal.
  • the left camera 34 is provided on the left side mirror of the host vehicle 80, and the lens surface is directed rearward. Therefore, the left camera 34 can take a picture of the rear side of the vehicle 80 from the center to the left side. Then, the captured image is transmitted to the main ECU 1 as an image signal.
  • the HUD 2 acquires an image generated by the main ECU 1, and the projector 20 irradiates the image as light. As described above, the light projected by the projector 20 is reflected toward the occupant 90. The occupant 90 can recognize the image projected by the projector 20 as a virtual image.
  • the main ECU 1 includes a control unit 10 and a memory 11.
  • the memory 11 can store various information.
  • the control unit 10 includes a microcomputer or the like that includes a processor that performs various arithmetic processes, a RAM that functions as a work area for the arithmetic processes, and a flash memory that stores programs used for the arithmetic processes. Therefore, the control unit 10 performs arithmetic processing based on the stored program.
  • the control unit 10 in this embodiment plays a role of an obstacle direction acquisition unit 101, an obstacle distance acquisition unit 102, and an image generation unit 103.
  • the obstacle direction acquisition unit 101 acquires the direction of the obstacle around the host vehicle 80 based on the signal acquired from the information input unit 3.
  • the obstacle distance acquisition unit 102 acquires the distance between the obstacle around the host vehicle 80 and the host vehicle 80 based on the signal acquired from the information input unit 3.
  • the image generation unit 103 generates an image corresponding to the direction and distance of the obstacle with respect to the host vehicle 80. Details of the image generated by the image generation unit 103 will be described later.
  • the processing performed by the obstacle direction acquisition unit 101 and the obstacle distance acquisition unit 102 will be described by taking as an example a case where another vehicle exists on the right rear side of the host vehicle 80.
  • the rear millimeter wave radar 31 transmits a millimeter wave, and detects the relative direction of the object with respect to the host vehicle 80 and the distance to the object. Then, the main ECU 1 acquires these pieces of information from the rear millimeter wave radar 31. Then, the main ECU 1 can acquire that an obstacle exists on the right rear side of the host vehicle 80. Further, the main ECU 1 acquires speed information of the obstacle existing behind based on the information acquired from the rear millimeter wave radar 31.
  • the main ECU 1 performs image processing on the image acquired by the right camera 33. Then, the main ECU 1 can obtain information that the right rear obstacle is another vehicle.
  • the main ECU 1 can acquire the direction, distance, and type of the obstacle around the host vehicle 80 based on the signal acquired from the information input unit 3.
  • FIG. 3 shows a virtual image of the image generated by the image generation unit 103 when another vehicle is present on the right rear side of the host vehicle 80.
  • the occupant 90 visually recognizes a virtual image of the image projected by the HUD 2.
  • the virtual image is visually recognized through the windshield 70. Further, the virtual image is visually recognized at a position closer to the driver's seat from the center of the windshield 70.
  • the occupant 90 visually recognizes the virtual image in the display area 23. That is, the HUD 2 can express various information in the display area 23, and the display area 23 depends on the size of the display surface of the projector 20. Since the size of the display surface is limited, the usable area of the display area 23 is limited to some extent.
  • the image generation unit 103 generates a plurality of line images such as an upper line image, a middle line image, and a lower line image.
  • the image generation unit 103 generates another vehicle image.
  • the upper line virtual image 231 is a virtual image of the upper line image.
  • the middle side line virtual image 232 is a virtual image of the middle side line image.
  • the lower line virtual image 233 is a virtual image of the lower line image.
  • the other vehicle virtual image 234 is a virtual image of the other vehicle image.
  • the upper line virtual image 231, the middle line virtual image 232, and the lower line virtual image 233 are concave in the downward direction.
  • the other vehicle virtual image 234 is a broken line.
  • the upper line virtual image 231 is visually recognized closer to the upper side than the center of the display area 23. Further, the upper side line virtual image 231, the middle side line virtual image 232, and the lower side virtual line image 233 are arranged in the vertical direction and are visually recognized by the occupant 90.
  • the depth of the concave shape of the upper side virtual image 231 is deeper than the depth of the concave shape of the middle side virtual image 232.
  • the depth of the concave shape of the middle line virtual image 232 is deeper than the depth of the concave shape of the lower line virtual image 233.
  • the depth in each line virtual image is the distance in the vertical direction between the uppermost part and the lowermost part in each line virtual image.
  • the brightness of the upper line virtual image 231 is higher than the brightness of the middle line virtual image 232.
  • the brightness of the middle line virtual image 232 is higher than that of the lower line virtual image 233.
  • FIG. 4 shows a virtual image of an image generated by the image generation unit 103 when another vehicle further approaches the host vehicle 80 from the situation of FIG. Unlike the situation of FIG. 3, the other vehicle virtual image 234 is a solid line. Thus, the display mode of the other vehicle virtual image 234 differs depending on the actual distance between the host vehicle 80 and the obstacle.
  • the other vehicle virtual image 234 represents not the entire other vehicle but the front part of the other vehicle.
  • FIG. 5 shows a virtual image of an image generated by the image generation unit 103 when a pedestrian is present on the left front side of the host vehicle 80.
  • the occupant 90 visually recognizes the thick line virtual image 235 and the pedestrian virtual image 236.
  • the pedestrian virtual image 236 is visually recognized in the upward direction compared to the thick line virtual image 235. Further, the thick line virtual image 235 is visually recognized closer to the lower side than the center of the display area 23.
  • the thick line virtual image 235 has a concave shape in the upward direction.
  • the thick line virtual image 235 is thicker than the upper line virtual image 231, the middle line virtual image 232, and the lower line virtual image 233.
  • the number of line virtual images when an obstacle exists behind the host vehicle 80, and the line virtual image when an obstacle exists in front of the host vehicle 80 as shown in FIG. Is different from the number of Specifically, the number of line virtual images when an obstacle exists behind the host vehicle 80 is larger than the number of line virtual images when an obstacle exists in front of the host vehicle 80.
  • step S10 of FIG. 6 the main ECU 1 detects whether or not the ignition switch is on. If it is detected that the ignition switch is on, the process proceeds to step S11, and if not, this process ends.
  • step S11 the main ECU 1 controls the HUD 2 not to display an image indicating the relative positional relationship between the host vehicle 80 and the obstacle. Then, the process proceeds to step S12. At this time, the HUD 2 may display speed information or the like of the host vehicle 80 or may not display it.
  • step S12 the main ECU 1 detects whether an obstacle exists in front of the host vehicle 80 based on signals acquired from the front millimeter wave radar 30 and the front camera 32. If there is an obstacle ahead of the host vehicle 80, the process proceeds to step S13. Otherwise, the process proceeds to step S14.
  • step S13 the main ECU 1 performs a forward warning process. Then, it returns to step S10. Details of the forward warning process will be described later.
  • step S14 the main ECU 1 detects whether an obstacle exists behind the host vehicle 80 based on signals acquired from the rear millimeter wave radar 31, the right camera 33, and the left camera 34. If there is an obstacle behind the host vehicle 80, the process proceeds to step S15. Otherwise, the process returns to step S10.
  • step S15 the main ECU 1 performs a rear warning process. Then, it returns to step S10. Details of the backward warning process will be described later.
  • FIG. 7 shows the specific processing contents of the forward warning processing performed by the main ECU 1 in step S13.
  • step S130 the main ECU 1 detects whether the distance between the host vehicle 80 and the obstacle is within a predetermined range. If it is within the predetermined range, the process proceeds to step S131; otherwise, the process ends.
  • step S131 the main ECU 1 detects whether or not the host vehicle 80 may turn left or right. Specifically, the main ECU 1 performs image processing on the image acquired by the front camera 32 and detects the presence or absence of an intersection or the like. If there is a possibility that the host vehicle 80 may turn left or right, the process proceeds to step S132; otherwise, the process returns to step S130.
  • step S132 the image generation unit 103 of the main ECU 1 generates an image based on the direction and distance of the obstacle with respect to the host vehicle 80. Specifically, as described above, when there is an obstacle in front of the host vehicle 80, the image generation unit 103 generates a line image so that the occupant 90 visually recognizes a line virtual image that is concave upward. . The image generation unit 103 generates an obstacle image related to the obstacle. Thereafter, the process proceeds to step S133.
  • step S133 the main ECU 1 transmits the image generated by the image generation unit 103 to the HUD 2. And HUD2 projects the image acquired from main ECU1 toward the passenger
  • step S134 the main ECU 1 detects whether or not the host vehicle 80 actually makes a right / left turn. Specifically, the main ECU 1 detects whether or not the host vehicle 80 makes a right / left turn by detecting information on the direction indicator. If it is detected that the host vehicle 80 turns right or left, the process proceeds to step S135. Otherwise, the process returns to step S130.
  • step S135 the main ECU 1 performs a warning operation for the occupant 90. Specifically, the main ECU 1 performs control so as to apply vibration to the seat belt. Further, the main ECU 1 performs control so that the speaker generates a warning sound. Further, when it is detected that the timing until the right / left turn is actually performed is within a predetermined time, the main ECU 1 controls the host vehicle 80 to be stopped. Furthermore, as the distance between the host vehicle 80 and the obstacle is shorter, the vibration of the seat belt becomes stronger. In addition, the warning sound generated by the speaker increases as the distance between the host vehicle 80 and the obstacle is shorter.
  • step S150 of FIG. 8 the main ECU 1 detects whether the distance between the host vehicle 80 and the obstacle is within a predetermined range. If it is within the predetermined range, the process proceeds to step S151, and if not, this process ends.
  • step S151 the image generation unit 103 generates an image based on the distance and direction information of the obstacle with respect to the host vehicle 80. Specifically, when there is an obstacle behind the host vehicle 80, the image generation unit 103 generates a line image so that the occupant 90 visually recognizes a line virtual image that is concave downward. The image generation unit 103 generates an obstacle image related to the obstacle. Further, the main ECU 1 generates warning content based on information on the distance and direction of the obstacle with respect to the host vehicle 80. Thereafter, the process proceeds to step S152.
  • step S152 the main ECU 1 transmits an image signal of the generated image to the HUD 2.
  • HUD2 projects the image received from main ECU1 toward the passenger
  • the main ECU 1 provides the generated warning content to the occupant 90.
  • the main ECU 1 performs control so that the speaker emits a warning sound.
  • the main ECU 1 performs control so as to apply vibration to the seat belt.
  • the main ECU 1 includes an obstacle direction acquisition unit 101 and an image generation unit 103.
  • the main ECU 1 controls the HUD 2 that reflects the image on the windshield 70 and causes the occupant 90 of the host vehicle 80 to visually recognize the virtual image of the image.
  • the image generation unit 103 generates a line image and an obstacle image related to obstacles around the host vehicle.
  • the obstacle direction acquisition unit 101 acquires the relative direction of the obstacle with respect to the host vehicle 80.
  • the line virtual image that is a virtual image of the line image has a concave shape in the upward direction.
  • a line virtual image is concave shape toward the downward direction.
  • the position of the obstacle virtual image that is a virtual image of the obstacle image differs according to the relative direction of the obstacle with respect to the host vehicle in the width direction of the host vehicle 80 acquired by the obstacle direction acquisition unit 101.
  • the occupant 90 can recognize whether the obstacle exists before or after the actual own vehicle 80 by recognizing the concave direction of the line virtual image. Then, the occupant 90 can recognize in which direction of the actual vehicle 80 the obstacle is present based on the position of the obstacle virtual image. Furthermore, the usage area of the display area 23 when the line virtual image is displayed is smaller than the usage area of the display area 23 when the virtual image of the entire image of the host vehicle 80 is displayed. Therefore, the occupant 90 can recognize obstacles around the host vehicle 80 after reducing the area of use of the display area 23.
  • the line virtual image visually recognized by the occupant 90 when there is an obstacle in front of the host vehicle 80, the line virtual image visually recognized by the occupant 90 is a concave shape in the upward direction, simulating the front part of the host vehicle 80. is there.
  • the line virtual image visually recognized by the occupant 90 when there is an obstacle behind the host vehicle 80, the line virtual image visually recognized by the occupant 90 is a concave shape in the downward direction, simulating the rear part of the host vehicle 80.
  • the shape of the line virtual image in the present embodiment simulates the shape of the host vehicle 80, the occupant 90 can intuitively recognize the direction in which the obstacle exists.
  • the main ECU 1 further includes an obstacle distance acquisition unit 102 that acquires distance information between the obstacle and the host vehicle 80.
  • the positional relationship between the obstacle virtual image and the line virtual image is different according to the distance information acquired by the obstacle distance acquisition unit 102.
  • the occupant 90 can recognize the degree of approach between the actual vehicle 80 and the obstacle by recognizing the relative distance and direction between the obstacle virtual image and the line virtual image.
  • the display mode of the line virtual image closer to the upper direction is different from the display mode of the line virtual image closer to the lower direction.
  • the occupant 90 visually recognizes a plurality of line virtual images. Therefore, the occupant 90 can more intuitively recognize the degree of approach between the actual vehicle 80 and the obstacle by recognizing the relative distance and direction of the obstacle virtual image with respect to the plurality of line virtual images. Moreover, as described above, the display mode is different between the line virtual image near the first direction and the line virtual image near the second direction. Therefore, the occupant 90 can recognize the degree of approach between the actual vehicle 80 and the obstacle more intuitively by recognizing the display mode of the line virtual image.
  • the obstacle virtual image related to the obstacle ahead of the host vehicle 80 is compared with the obstacle virtual image related to the obstacle behind the host vehicle 80.
  • the image is controlled so that the occupant 90 is visually recognized.
  • the obstacle that the occupant 90 wants to recognize is the front side.
  • the occupant 90 recognizes an obstacle existing on the front side of the actual host vehicle 80 preferentially as compared with an obstacle existing on the rear side of the host vehicle 80. I can do it.
  • the number of line virtual images and the thickness of the line are different depending on whether the obstacle exists behind the host vehicle 80 or when the obstacle exists ahead of the host vehicle 80.
  • the occupant 90 recognizes the number of lines and the thickness of the line, so that the occupant 90 is an obstacle that exists in front of the actual host vehicle 80 or an obstacle that exists behind the actual host vehicle 80. You can intuitively recognize whether it is a thing.
  • the display mode of the obstacle virtual image differs depending on the positional relationship between the obstacle virtual image and the line virtual image.
  • the occupant 90 can intuitively recognize the degree of approach between the actual vehicle 80 and the obstacle by recognizing the display mode of the obstacle virtual image.
  • a virtual image of an image indicating a relative direction and distance to the host vehicle 80 is provided to the occupant 90.
  • the virtual image is not provided to the occupant 90 only by an obstacle approaching the host vehicle 80 from behind, and the virtual image may be passed to the occupant 90 when the host vehicle 80 may change lanes. Provided.
  • FIG. 9 is a flowchart showing the backward warning process in the second embodiment. Different parts from the first embodiment will be described.
  • step S150 if the distance between the host vehicle 80 and the obstacle is within the predetermined range, the process proceeds to step S251.
  • step S251 the main ECU 1 detects whether or not the host vehicle 80 may change lanes. Specifically, the main ECU 1 detects whether an obstacle exists within a predetermined range in front of the host vehicle 80. When there is an obstacle within a predetermined range in front of the host vehicle 80, the host vehicle 80 may change the lane. If the host vehicle 80 may change lanes, the process proceeds to step S151. Otherwise, the process returns to step S150.
  • FIG. 10 shows a virtual image when a lane change is performed.
  • the virtual image includes a front other vehicle virtual image 237 that is an image existing in front of the host vehicle 80.
  • the occupant 90 includes an upper line virtual image 231, a middle line virtual image 232, a lower line virtual image 233, and another vehicle virtual image 234 that is a virtual image related to an obstacle existing behind the host vehicle 80. That is, the occupant 90 visually recognizes both a virtual image related to the obstacle existing in front of the host vehicle 80 and a virtual image related to the obstacle present behind the host vehicle 80. For this reason, the occupant 90 recognizes the relative direction and distance of the front and rear obstacles of the actual host vehicle 80 relative to the host vehicle 80 by visually recognizing the front other vehicle virtual image 237 and the other vehicle virtual image 234. I can do it.
  • the first direction is the upward direction and the second direction is the downward direction, but may be reversed. That is, the first direction may be the downward direction and the second direction may be the upward direction.
  • luminance height were varied among the display modes of the upper side line virtual image 231, the middle side line virtual image 232, and the lower side line virtual image 233, it does not restrict to this. Absent. For example, the line thickness and color may be different.
  • the present invention is not limited to this. You may make it vary the kind of line like a broken line, a solid line, etc.
  • the display mode of the obstacle virtual image is switched between the solid line and the broken line according to the distance between the host vehicle 80 and the obstacle.
  • the present invention is not limited to this.
  • the color and size of the obstacle virtual image may be different depending on the distance between the host vehicle 80 and the obstacle.
  • the line virtual images such as the upper line virtual image 231 and the thick line virtual image 235 are solid lines, but may be broken lines or dotted lines. Further, although the line virtual image is a smooth curve, it may be a square line as shown in FIG.
  • a part near the display position of the other vehicle virtual image 234 may be a solid line and another part different from the part may be a broken line. That is, in the line virtual image, a part of the display mode close to the position of the obstacle virtual image may be different from a display mode of another part different from the part.
  • the occupant 90 can more intuitively recognize the relative direction of the obstacle with respect to the actual host vehicle 80 by recognizing the display mode of the line virtual image.
  • the obstacle direction acquisition part 101 and the obstacle distance acquisition part 102 acquired the information regarding an obstacle from the information input part 3 mounted in the own vehicle 80, it is restricted to this. It is not a thing.
  • the main ECU 1 may be provided with a communication function and acquired from another vehicle or infrastructure.
  • the HUD 2 reflects the image on the windshield 70.
  • a combiner may be separately provided and reflected on the combiner.
  • the main ECU 1 detects the possibility of turning left and right of the host vehicle 80 by performing image processing on the image acquired from the front camera 32.
  • the present invention is not limited to this, and the main ECU 1 may detect the possibility of a right or left turn by acquiring intersection information from the navigation device.
  • the main ECU 1 detects whether or not the host vehicle 80 makes a right / left turn based on information from the direction indicator.
  • the present invention is not limited to this, and the main ECU 1 may acquire route information through which the host vehicle 80 passes from the navigation device and detect whether to make a right / left turn.
  • an image as it is acquired from each camera may be used, or a pseudo image may be created.
  • an image related to the obstacles in front of the host vehicle 80 is preferentially displayed.
  • the image is not displayed.
  • the present invention is not limited to this, and when there are obstacles in both the front and rear of the host vehicle 80, an image related to the obstacles in front of the host vehicle 80 is displayed large, and an image related to the obstacles behind the host vehicle 80 May be displayed small.
  • the occupant 90 can recognize the obstacle in front of the host vehicle 80 with priority, and can also recognize the obstacle behind the host vehicle 80.
  • the main ECU 1 may be provided in the head-up display device 2.

Abstract

 ウィンドシールド(70)またはコンバイナに反射される画像を制御することで、画像の虚像を自車両(80)の乗員に視認させる車両用表示制御装置(1)を提供する。車両用表示制御装置は、線画像と障害物画像とを生成するとともに、自車両に対する障害物の相対的な方向を取得する。自車両に対する障害物の相対的な方向が自車両の前方である場合、線画像の虚像である線虚像(231、232、233、235)は、第1方向に向けて凹形状である。自車両に対する障害物の相対的な方向が自車両の後方に障害物である場合、線虚像は、第1方向とは反対側の第2方向に向けて凹形状である。自車両の幅方向における障害物の自車両に対する相対的な方向に応じて、障害物画像の虚像である障害物虚像(234、236)の位置は異なる。

Description

車両用表示制御装置 関連出願の相互参照
 本出願は、2014年7月22日に出願された日本国特許出願2014-149053号に基づくものであり、その開示をここに参照により援用する。
 本開示は、車両用表示制御装置に関する。
 従来、自車両の周辺から歩行者や他車両などの障害物を検知し、自車両及び障害物のそれぞれに関する画像を表示させるヘッドアップディスプレイ装置が提供されている。例えば、特許文献1に記載のヘッドアップディスプレイ装置は、自車両画像と障害物画像との相対的な位置関係を表示することで、実際の自車両周辺のどの位置に障害物があるかを乗員に認識させる。そして、自車両の全体を表現した自車両画像を表示することで、乗員に自車両画像の前後左右方向を認識させる。更に、自車両画像と障害物画像との相対的な位置関係を表示させる。すると、乗員は実際の自車両に対する障害物の相対的な位置を認識することが出来る。
特開2007-261534号公報
 しかしながら、上記ヘッドアップディスプレイ装置は、実際の自車両周辺の障害物と自車両との相対的な位置関係を表現するために、自車両全体を表現した自車両画像を表示している。そのため、画像を表示するための表示領域が限られているヘッドアップディスプレイ装置において自車両全体の画像を表示してしまうと、表示領域の多くの面積が使用されてしまう。従って、ヘッドアップディスプレイ装置が表示領域内に、他の情報に関する画像を表示することが困難となり、不都合が生じる。
 本開示の一つの目的は、画像を表示させるための表示領域の使用面積を減少した上で、実際の自車両に対する障害物の相対的な位置を乗員に認識させることが出来る、車両用表示制御装置を提供することにある。
 本開示の一例に係る車両用表示制御装置は、ウィンドシールドまたはコンバイナに反射される画像を制御することで、画像の虚像を自車両の乗員に視認させる車両用表示制御装置であって、線画像と、自車両周辺の障害物に関する障害物画像とを生成する画像生成部と、自車両に対する障害物の相対的な方向を取得する障害物方向取得部とを備える障害物方向取得部が自車両の前方に障害物が存在していることを取得した場合、線画像の虚像である線虚像は、上方向または下方向のいずれかの内、第1方向に向けて凹形状であり、障害物方向取得部が自車両の後方に障害物が存在していることを取得した場合、線虚像は、第1方向とは反対側の第2方向に向けて凹形状であり、障害物方向取得部によって取得される、自車両の幅方向における障害物の自車両に対する相対的な方向に応じて、障害物画像の虚像である障害物虚像の位置は異なる。
 この車両用表示制御装置によれば、線画像の虚像の凹形状の方向を認識することで、障害物が実際の自車両の前後のどちらに存在するかを、乗員は認識することが出来る。そして、障害物画像の虚像の表示位置により、実際の自車両の幅方向のどの方向に障害物が存在しているかを、乗員は認識することが出来る。更に、線画像が表示された場合における表示領域の使用面積は、自車両全体の画像が表示された場合における表示領域の使用面積に比べて少ない。従って、表示領域の使用面積を減少させた上で、乗員は自車両周辺の障害物の方向を認識することが出来る。
 本開示についての上記および他の目的、特徴や利点は、添付の図面を参照した下記の詳細な説明から、より明確になる。添付図面において、
図1は、第1実施形態における、ヘッドアップディスプレイ装置の配置される様子を示す図である。 図2は、第1実施形態における、車両用表示制御装置の構成図を示す図である。 図3は、第1実施形態において、自車両の後方に障害物が存在する際の虚像を示す1つ目の例である。 図4は、第1実施形態において、自車両の後方に障害物が存在する際の虚像を示す2つ目の例である。 図5は、第1実施形態において、自車両の前方に障害物が存在する際の虚像を示す例である。 図6は、第1実施形態において、車両用表示制御装置が行う処理の一連の流れを示すフローチャートである。 図7は、第1実施形態において、車両用表示制御装置が行う前方警告処理の一連の流れを示すフローチャートである。 図8は、第1実施形態において、車両用表示制御装置が行う後方警告処理の一連の流れを示すフローチャートである。 図9は、第2実施形態において、車両用表示制御装置が行う後方警告処理の一連の流れを示すフローチャートである。 図10は、第2実施形態において、車線変更が行われる際の虚像を示す図である。 図11は、その他の実施形態において、自車両の後方に障害物が存在する際の虚像を例示する図である。
 以下、実施形態にかかる車両用表示制御装置について、図面を参照しつつ説明する。以下、図面を参照しながら複数の実施形態を説明する。各実施形態において、先行する実施形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各実施形態において、構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の実施形態を参照し適用することができる。
 (第1実施形態)
 図1に示すように、ヘッドアップディスプレイ装置2(以下、HUD2)は、自車両80に設けられる。HUD2は、インストルメントパネル内に収納される。
 HUD2は、投射器20、反射鏡21、及び凹面鏡22を備えている。投射器20は、画像を光として、反射鏡21に照射する。反射鏡21は、投射器20から照射された光を凹面鏡22に向けて反射する。凹面鏡22は、反射鏡21から反射された光をウィンドシールド70に向けて反射する。ウィンドシールド70は、凹面鏡22から反射された光を乗員90に向けて反射する。そして、乗員90は、ウィンドシールド70から反射された光を虚像として視認する。すなわち、HUD2は画像を虚像として、乗員90に認識させることが出来る。
 図2に示すように、本実施形態の車両用表示制御装置であるメインECU1は、情報入力部3及びHUD2と接続されている。メインECU1は、情報入力部3から取得した情報に基づいて、HUD2が投射する画像を制御する。メインECU1が行う処理の詳細については、後述する。
 情報入力部3は、前方ミリ波レーダ30、後方ミリ波レーダ31、前方カメラ32、右方カメラ33、及び左方カメラ34等を備えている。
 前方ミリ波レーダ30は、自車両80の前部かつ、自車両80の幅方向において中央に設けられる。そして、前方ミリ波レーダ30は、ミリ波を水平面内でスキャンしながら自車両から前方に向けて送信し、反射してきたミリ波を受信することによって得られる送受信データを、レーダ信号としてメインECU1に送信する。
 後方ミリ波レーダ31は、自車両80の後部かつ自車両80の幅方向において中央に設けられる。そして、後方ミリ波レーダ31は、ミリ波を水平面内でスキャンしながら自車両から後方に向けて送信し、反射してきたミリ波を受信することによって得られる送受信データを、レーダ信号としてメインECU1に送信する。
 前方カメラ32は、ウィンドシールド70の上部、及び中央付近に設けられる。そして、前方カメラ32は、自車両80の前方の様子を画像として撮影する。そして、前方カメラ32は、画像信号をメインECU1に送信する。
 右方カメラ33は、自車両80の右サイドミラーに設けられており、レンズ面が自車両80の後方に向けられている。そのため、右方カメラ33は、自車両80の後方のうち、中央から右側の後方の様子を撮影することが出来る。そして、撮影した画像を画像信号として、メインECU1に送信する。
 左方カメラ34は、自車両80の左サイドミラーに設けられており、レンズ面が後方に向けられている。そのため、左方カメラ34は、自車両80の後方のうち、中央から左側の後方の様子を撮影することが出来る。そして、撮影した画像を画像信号として、メインECU1に送信する。
 HUD2は、メインECU1が生成した画像を取得し、その画像を投射器20が光として照射する。そして、上述したように投射器20によって投射された光は、乗員90に向けて反射される。そして、乗員90は、投射器20によって投射された画像を、虚像として認識することが出来る。
 メインECU1は、制御部10及びメモリ11を備えている。メモリ11は、各種情報を記憶することが出来る。
 制御部10は、各種演算処理を行うプロセッサ、演算処理の作業領域として機能するRAM、及び演算処理に用いられるプログラム等が格納されたフラッシュメモリ等を備えた、マイクロコンピュータ等により構成されている。そのため、制御部10は、記憶されたプログラムに基づいて、演算処理を行う。本実施形態における制御部10は、障害物方向取得部101、障害物距離取得部102及び画像生成部103の役割を担っている。
 障害物方向取得部101は、情報入力部3から取得した信号に基づいて、自車両80周辺の障害物の方向を取得する。そして、障害物距離取得部102は、情報入力部3から取得した信号に基づいて、自車両80周辺の障害物と自車両80との距離を取得する。そして、画像生成部103は、自車両80に対する障害物の方向及び距離に応じた画像を生成する。画像生成部103が生成する画像について、詳細は後述する。
 自車両80の右後方に、他車両が存在している場合を例に、障害物方向取得部101及び障害物距離取得部102が行う処理を説明する。
 まず、後方ミリ波レーダ31がミリ波を送信し、物体の自車両80に対する相対的な方向及び物体までの距離を検知する。そして、メインECU1は、これらの情報を、後方ミリ波レーダ31から取得する。すると、メインECU1は、自車両80の右後方に障害物が存在していることを取得することが出来る。また、メインECU1は、後方ミリ波レーダ31から取得した情報に基づいて、後方に存在する障害物の速度情報を取得する。
 次に、メインECU1は、右方カメラ33が取得した画像に対して、画像処理を行う。すると、メインECU1は、右後方の障害物が、他車両であるという情報を取得することが出来る。
 このように、メインECU1は、情報入力部3から取得した信号に基づいて、自車両80周辺の障害物の方向、距離及び種類を取得することが出来る。
 次に、画像生成部103が生成する画像について、図3~図5を用いて説明する。
 図3は、自車両80の右後方に他車両が存在している場合に、画像生成部103が生成した画像の虚像を示している。乗員90は、HUD2によって投射された画像の虚像を視認する。そして、虚像は、ウィンドシールド70越しに視認される。また、虚像は、ウィンドシールド70の中央から運転席寄りの位置にて、視認される。
 乗員90は虚像を表示領域23内にて視認する。すなわち、HUD2は表示領域23内に各種情報を表現することができ、この表示領域23は投射器20の表示面の大きさなどに依存する。表示面の大きさは限度があるため、表示領域23の使用可能な面積は、ある程度制限されることになる。
 画像生成部103は、上側線画像、中側線画像、及び下側線画像といった複数の線画像を生成する。また、画像生成部103は、他車両画像を生成する。上側線虚像231は上側線画像の虚像である。中側線虚像232は中側線画像の虚像である。下側線虚像233は、下側線画像の虚像である。他車両虚像234は、他車両画像の虚像である。上側線虚像231、中側線虚像232、及び下側線虚像233は、下方向に向けて凹形状である。また、他車両虚像234は、破線である。また、上側線虚像231は、表示領域23の中央より上側寄りにて視認される。また、上側線虚像231、中側線虚像232、下側線虚像233はそれぞれ、上下方向に並べて、乗員90に視認される。
 また、上側線虚像231の凹形状の深さは、中側線虚像232の凹形状の深さに比べて深い。そして、中側線虚像232の凹形状の深さは、下側線虚像233の凹形状の深さに比べて深い。なお、各線虚像における深さは、各線虚像において、最も上方向の一部と最も下方向の一部との上下方向の距離である。
 また、上側線虚像231の輝度は、中側線虚像232の輝度に比べて高い。そして、中側線虚像232の輝度は、下側線虚像233の輝度に比べて高い。
 図4は、図3の状況から、他車両が自車両80に更に接近した際に、画像生成部103が生成した画像の虚像を示している。図3の状況と異なり、他車両虚像234は実線である。このように、実際の自車両80と障害物との距離に応じて、他車両虚像234の表示態様は異なる。
 なお、他車両虚像234は、他車両全体ではなく、他車両の前部が表現されている。
 図5は、自車両80の左前方に歩行者が存在している場合に画像生成部103が生成した画像の虚像を示している。乗員90は、太線虚像235及び歩行者虚像236を視認する。歩行者虚像236は、太線虚像235に比べて上方向において視認される。また、太線虚像235は、表示領域23の中央より下側寄りにて、視認される。
 太線虚像235は、上側線虚像231、中側線虚像232及び下側線虚像233と異なり、上方向に凹形状である。そして、太線虚像235は、上側線虚像231、中側線虚像232及び下側線虚像233に比べて、線の太さが太い。
 また、図3、図4のように、自車両80の後方に障害物が存在する際の線虚像の数と、図5のように自車両80の前方に障害物が存在する際の線虚像の数とは異なる。具体的には、自車両80の後方に障害物が存在する際の線虚像の数は、自車両80の前方に障害物が存在する際の線虚像の数に比べて多い。
 次に図6~図8を用いて、乗員90が自車両80周辺の障害物を認識する一連の流れを説明する。
 図6のステップS10において、メインECU1は、イグニッションスイッチがオンかどうかを検知する。イグニッションスイッチがオンであると検知した場合ステップS11に進み、そうでなければこの処理を終了する。
 ステップS11において、メインECU1は、HUD2が自車両80と障害物との相対的な位置関係を示す画像の表示を行わないように制御する。そして、ステップS12に進む。この時、HUD2は自車両80の速度情報等を表示するようにしてもよいし、表示しないようにしてもよい。
 ステップS12において、メインECU1は、前方ミリ波レーダ30及び前方カメラ32から取得した信号に基づいて、自車両80の前方に障害物が存在しているかどうかを検知する。自車両80の前方に障害物が存在している場合、ステップS13に進み、そうでなければステップS14に進む。
 ステップS13において、メインECU1は、前方警告処理を行う。その後、ステップS10に戻る。前方警告処理の詳細は、後述する。
 ステップS14において、メインECU1は、後方ミリ波レーダ31、右方カメラ33及び左方カメラ34から取得した信号に基づいて、自車両80の後方に障害物が存在しているかどうかを検知する。自車両80の後方に障害物が存在している場合、ステップS15に進み、そうでなければステップS10に戻る。
 ステップS15において、メインECU1は、後方警告処理を行う。その後、ステップS10に戻る。後方警告処理の詳細は後述する。
 図7は、ステップS13においてメインECU1が行う前方警告処理の、具体的な処理内容を示している。
 ステップS130において、メインECU1は、自車両80と障害物との距離が所定範囲内かどうかを検知する。所定の範囲内である場合、ステップS131に進み、そうでなければこの処理を終了する。
 ステップS131において、メインECU1は、自車両80が右左折する可能性があるかどうかを検知する。具体的には、メインECU1は前方カメラ32が取得した画像に画像処理を行い、交差点の有無等を検知する。自車両80が右左折する可能性がある場合、ステップS132に進み、そうでなければステップS130に戻る。
 ステップS132において、メインECU1の画像生成部103は、自車両80に対する障害物の方向及び距離に基づいて、画像を生成する。具体的に画像生成部103は、上述したように、自車両80の前方に障害物が存在する場合、上方向に凹形状である線虚像を乗員90が視認するように、線画像を生成する。そして、画像生成部103は、障害物に関する障害物画像を生成する。その後、ステップS133に進む。
 ステップS133において、メインECU1は、画像生成部103が生成した画像を、HUD2に送信する。そして、HUD2は、メインECU1から取得した画像を、乗員90に向けて投射する。その後、ステップS134に進む。
 ステップS134において、メインECU1は、自車両80が実際に右左折を行うかどうかを検知する。具体的にメインECU1は、方向指示器の情報を検知することで、自車両80が右左折を行うかどうかを検知する。自車両80が右左折すると検知された場合ステップS135に進み、そうでなければステップS130に戻る。
 ステップS135において、メインECU1は、乗員90に対して警告動作を行う。具体的にメインECU1は、シートベルトに振動を与えるように制御する。また、メインECU1は、スピーカが警告音をならすように制御する。また、実際に右左折が行われるまでのタイミングが所定時間以内であると検知された場合、メインECU1は、自車両80が停止されるように制御する。更に言うと、自車両80と障害物との距離が近いほど、シートベルトの振動は強くなる。また、自車両80と障害物との距離が近いほど、スピーカが発生させる警告音は大きくなる。
 次に、図8を用いて、ステップS15においてメインECU1が行う後方警告処理の、具体的な処理内容を説明する。
 図8のステップS150においてメインECU1は、自車両80と障害物との距離が所定範囲内かどうかを検知する。所定範囲内である場合、ステップS151に進み、そうでなければこの処理を終了する。
 ステップS151において、画像生成部103は、自車両80に対する障害物の距離及び方向の情報に基づいて、画像を生成する。具体的に画像生成部103は、自車両80の後方に障害物が存在する場合、下方向に凹形状である線虚像を乗員90が視認するように、線画像を生成する。そして、画像生成部103は、障害物に関する障害物画像を生成する。また、メインECU1は、自車両80に対する障害物の距離及び方向の情報に基づいて、警告内容を生成する。その後ステップS152に進む。
 ステップS152において、メインECU1は、生成した画像の画像信号をHUD2に送信する。そして、HUD2は、メインECU1から受信した画像を乗員90に向けて投射する。また、メインECU1は、生成した警告内容を乗員90に提供する。具体的にメインECU1は、スピーカが警告音を鳴らすように制御する。また、メインECU1は、シートベルトに振動を与えるように制御を行う。
 以下、第1実施形態における、メインECU1の効果について説明をする。
 メインECU1は、障害物方向取得部101及び画像生成部103を備えている。ウィンドシールド70に画像を反射させ、画像の虚像を自車両80の乗員90に視認させるHUD2を、メインECU1は制御する。画像生成部103は、線画像と、自車両周辺の障害物に関する障害物画像とを生成する。障害物方向取得部101は、自車両80に対する障害物の相対的な方向を取得する。障害物方向取得部101が自車両80の前方に障害物が存在していることを取得した場合、線画像の虚像である線虚像は、上方向に向けて凹形状である。そして、障害物方向取得部101が自車両80の後方に障害物が存在していることを取得した場合、線虚像は、下方向に向けて凹形状である。障害物方向取得部101によって取得される、自車両80の幅方向における障害物の自車両に対する相対的な方向に応じて、障害物画像の虚像である障害物虚像の位置は異なる。
 このようにすると、線虚像の凹形状の方向を認識することで、障害物が実際の自車両80の前後のどちらに存在するかを、乗員90は認識することが出来る。そして、障害物虚像の位置により、実際の自車両80の幅方向のどの方向に障害物が存在しているかを、乗員90は認識することが出来る。更に、線虚像が表示された場合における表示領域23の使用面積は、自車両80全体の画像の虚像が表示された場合における表示領域23の使用面積に比べて少ない。従って、表示領域23の使用面積を減少させた上で、乗員90は自車両80周辺の障害物を認識することが出来る。
 更に言うと、本実施形態において、自車両80の前方に障害物が存在している場合、乗員90が視認する線虚像は、自車両80の前部を模擬して、上方向に凹形状である。一方、自車両80の後方に障害物が存在している場合、乗員90が視認する線虚像は、自車両80の後部を模擬して、下方向に凹形状である。このように、本実施形態における線虚像の形状は、自車両80の形状を模擬しているため、乗員90は、障害物の存在する方向を直感的に認識することが出来る。
 メインECU1は、障害物と自車両80との距離情報を取得する障害物距離取得部102を更に備えている。障害物距離取得部102が取得する距離情報に応じて、障害物虚像と線虚像との位置関係が異なる。
 このようにすると、乗員90は障害物虚像と線虚像との相対的な距離及び方向を認識することで、実際の自車両80と障害物との接近度合を認識することが出来る。
 線虚像は上下方向に複数本であり、複数の線虚像の内、上方向寄りの線虚像の表示態様と、下方向寄りの線虚像の表示態様とは、異なる。
 上述したように、乗員90は複数の線虚像を視認する。そのため、乗員90は複数の線虚像に対する障害物虚像の相対的な距離及び方向を認識することで、実際の自車両80と障害物との接近度合をより直感的に認識することが出来る。また、上述したように、第1方向寄りの線虚像と第2方向寄りの線虚像とは、表示態様が異なる。そのため、乗員90は、線虚像の表示態様を認識することで、実際の自車両80と障害物との接近度合をより直感的に認識することが出来る。
 自車両80の前方と後方との両方において障害物が存在している場合、自車両80の後方の障害物に関する障害物虚像に比べて、自車両80の前方の障害物に関する障害物虚像を、乗員90が優先的に視認されるように画像が制御される。
 自車両80の進行方向は前方であるため、乗員90が認識したい障害物はどちらかというと、前方側である。この点を鑑み、上記構成によれば、乗員90は実際の自車両80の前方側に存在する障害物を、自車両80の後方側に存在する障害物に比べて優先的に認識することが出来る。
 線虚像の数及び線の太さは、障害物が自車両80の後方に存在している場合と、障害物が自車両80の前方に存在している場合とで、異なる。
 このようにすると、乗員90は、線の数や線の太さを認識することで、実際の自車両80の前方に存在する障害物なのか、あるいは実際の自車両80の後方に存在する障害物なのかを直感的に認識することが出来る。
 障害物虚像の表示態様は、障害物虚像と線虚像との位置関係に応じて異なる。
 このようにすると、乗員90は、障害物虚像の表示態様を認識することで、実際の自車両80と障害物との接近度合を直感的に認識することが出来る。
 (第2実施形態)
 上記第1実施形態では、自車両80に対して後方から障害物が接近すると、自車両80に対する相対的な方向及び距離を示す画像の虚像が乗員90に提供されている。本実施形態では、自車両80に対して後方から障害物が接近しただけでは、虚像は乗員90に提供されず、自車両80が車線変更を行う可能性がある際に、虚像が乗員90に提供される。
 図9は第2実施形態における、後方警告処理を示すフローチャートである。第1実施形態と異なる部分について説明を行う。
 ステップS150において、自車両80と障害物との距離が所定範囲内である場合、ステップS251に進む。
 ステップS251において、メインECU1は、自車両80が車線変更を行う可能性があるかどうかを検知する。具体的にメインECU1は、自車両80の前方の所定範囲内に障害物が存在しているかどうかを検知する。自車両80の前方の所定範囲内に障害物が存在する場合、自車両80は車線変更を行う可能性がある。自車両80が車線変更をする可能性がある場合、ステップS151に進み、そうでなければステップS150に戻る。
 図10は、車線変更が行われる際の、虚像の様子を示している。虚像には、自車両80の前方に存在している画像である前方他車両虚像237が含まれている。そして、乗員90は、上側線虚像231、中側線虚像232、下側線虚像233、及び自車両80に対して後方に存在している障害物に関する虚像である他車両虚像234が含まれている。すなわち、自車両80の前方に存在する障害物に関する虚像と、自車両80の後方に存在する障害物に関する虚像との両方を、乗員90は視認する。このため、乗員90は、前方他車両虚像237と他車両虚像234とを視認することで、実際の自車両80の前方及び後方障害物の、自車両80に対する相対的な方向及び距離を認識することが出来る。
 (他の実施形態)
 以上、実施形態を例示したが、実施形態は上述した実施形態に何ら制限されることなく、以下に例示するように種々変形することが可能である。各実施形態で具体的に組合せが可能であることを明示している部分同士の組合せばかりではなく、特に組合せに支障が生じなければ、明示してなくとも実施形態同士を部分的に組み合せることも可能である。
 例えば、上記第1実施形態では、第1方向を上方向、第2方向を下方向としたが、逆にしてもよい。すなわち、第1方向を下方向、第2方向を上方向としてもよい。
 また、上記第1実施形態では、上側線虚像231と中側線虚像232と下側線虚像233との表示態様の内、凹形状の深さや輝度の高さを異ならせたが、これに限るものではない。例えば、線の太さや、色を異ならせるようにしてもよい。
 また、上記第1実施形態では、自車両80の前方に障害物が存在している際の線虚像の数と、自車両80の後方に障害物が存在している際の線虚像の数とを異ならせていたが、これに限るものではない。破線、実線などのように線の種類を異ならせるようにしてもよい。
 また、上記第1実施形態では、自車両80と障害物との距離に応じて、障害物虚像の表示態様が、実線と破線とで切り替わっていたが、これに限るものではない。例えば、自車両80と障害物との距離に応じて、障害物虚像の色や大きさが異なるようにしてもよい。
 また、上記第1実施形態では、上側線虚像231や太線虚像235などの線虚像を実線としたが、破線や点線でもよい。また、線虚像を滑らかな曲線としたが、図11のように角ばった線としてもよい。
 また、線虚像において、図11に示すように、他車両虚像234の表示位置寄りの一部を実線とし、一部とは異なる他部を破線にしてもよい。すなわち、線虚像において、障害物虚像の位置寄りの一部の表示態様と、一部とは異なる他部の表示態様とを異ならせるようにしてもよい。
 このようにすると、乗員90は、線虚像の表示態様を認識することで、実際の自車両80に対する障害物の相対的な方向をより直感的に認識することが出来る。
 また、上記第1実施形態において、障害物方向取得部101や障害物距離取得部102は、自車両80に搭載された情報入力部3から障害物に関する情報を取得していたが、これに限るものではない。例えばメインECU1に通信機能を備え、他車両やインフラストラクチャから取得するようにしてもよいし。
 また、上記第1実施形態において、HUD2は画像をウィンドシールド70に反射させていたが、コンバイナを別途設け、コンバイナに反射させるようにしてもよい。
 また、上記第1実施形態においてメインECU1は、前方カメラ32から取得した画像に対して画像処理を行うことで、自車両80の右左折の可能性を検知していた。しかしながら、これに限るものではなく、メインECU1は、ナビゲーション装置から交差点情報を取得することで、右左折の可能性を検知するようにしてもよい。
 また、上記第1実施形態において、自車両80が右左折を行うかどうかを、メインECU1は、方向指示器の情報に基づいて検知していた。これに限るものではなく、メインECU1は、ナビゲーション装置から自車両80が通るルート情報を取得して、右左折を行うかどうかを検知するようにしてもよい。
 なお、画像生成部103が生成する障害物画像は、各カメラから取得したそのままの画像を用いるようにしてもよいし、疑似的な画像を作成するようにしてもよい。
 なお、上記第1実施形態では、自車両80の前方と後方との両方に障害物が存在する場合、自車両80の前方の障害物に関する画像が優先的に表示され、自車両80の後方に関する画像は表示されない。これに限るものではなく、自車両80の前方と後方との両方に障害物が存在する場合、自車両80の前方の障害物に関する画像を大きく表示し、自車両80の後方の障害物に関する画像を小さく表示するようにしてもよい。
 このようにすると、乗員90は、自車両80の前方の障害物を優先的に認識することが出来ると共に、自車両80の後方の障害物も認識することが出来る。
 また、上記実施形態と異なり、ヘッドアップディスプレイ装置2内に、メインECU1を設けるようにしてもよい。

 

Claims (7)

  1.  ウィンドシールド(70)またはコンバイナに反射される画像を制御することで、前記画像の虚像を自車両(80)の乗員に視認させる車両用表示制御装置(1)であって、
     線画像と、前記自車両周辺の障害物に関する障害物画像とを生成する画像生成部(103)と、
     前記自車両に対する前記障害物の相対的な方向を取得する障害物方向取得部(101)とを備え、
     前記障害物方向取得部が前記自車両の前方に前記障害物が存在していることを取得した場合、前記線画像の前記虚像である線虚像(231、232、233、235)は、上方向または下方向のいずれかの内、第1方向に向けて凹形状であり、
     前記障害物方向取得部が前記自車両の後方に前記障害物が存在していることを取得した場合、前記線虚像は、前記第1方向とは反対側の第2方向に向けて凹形状であり、
     前記障害物方向取得部によって取得される、前記自車両の幅方向における前記障害物の前記自車両に対する相対的な方向に応じて、前記障害物画像の前記虚像である障害物虚像(234、236)の位置は異なる、車両用表示制御装置。
  2.  前記障害物と前記自車両との距離情報を取得する障害物距離取得部(102)をさらに備え、
     前記障害物虚像と前記線虚像との位置関係は、前記距離情報に応じて異なる、請求項1に記載の車両用表示制御装置。
  3.  前記線虚像は上下方向に複数本であり、
     複数の前記線虚像の内、前記第1方向寄りの前記線虚像の表示態様と、前記第2方向寄りの前記線虚像の表示態様とは、異なる、請求項2に記載の車両用表示制御装置。
  4.  前記障害物虚像の位置寄りの前記線虚像の一部の表示態様は、前記一部とは異なる他部の表示態様と比べて異なる、請求項1ないし3のいずれか1項に記載の車両用表示制御装置。
  5.  前記自車両の前方と後方との両方において前記障害物が存在している場合、前記自車両の後方の前記障害物に関する前記障害物虚像に比べて、前記自車両の前方の前記障害物に関する前記障害物虚像を優先的に前記乗員に視認させるように前記画像が制御される、請求項1ないし4のいずれか1項に記載の車両用表示制御装置。
  6.  前記線虚像の数または線の種類は、前記障害物が前記自車両の後方に存在している場合と、前記障害物が前記自車両の前方に存在している場合とで、異なる、請求項1ないし5のいずれか1項に記載の車両用表示制御装置。
  7.  前記障害物虚像の表示態様は、前記障害物虚像と前記線虚像との位置関係に応じて異なる、請求項2または3に記載の車両用表示制御装置。

     
PCT/JP2015/003418 2014-07-22 2015-07-07 車両用表示制御装置 WO2016013167A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/323,753 US10040395B2 (en) 2014-07-22 2015-07-07 Vehicular display control apparatus
EP15824648.8A EP3173278B1 (en) 2014-07-22 2015-07-07 Vehicle display control device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-149053 2014-07-22
JP2014149053A JP6327034B2 (ja) 2014-07-22 2014-07-22 車両用表示制御装置

Publications (1)

Publication Number Publication Date
WO2016013167A1 true WO2016013167A1 (ja) 2016-01-28

Family

ID=55162713

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/003418 WO2016013167A1 (ja) 2014-07-22 2015-07-07 車両用表示制御装置

Country Status (4)

Country Link
US (1) US10040395B2 (ja)
EP (1) EP3173278B1 (ja)
JP (1) JP6327034B2 (ja)
WO (1) WO2016013167A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3343270A1 (en) * 2016-12-28 2018-07-04 Ricoh Company Ltd. Head-up display, vehicle apparatus, display method, and carrier means

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6930971B2 (ja) * 2016-06-20 2021-09-01 京セラ株式会社 表示装置、表示システム、および移動体
CN109552319B (zh) * 2018-12-07 2023-07-25 南京航空航天大学 一种夜间智能辅助驾驶系统及方法
CN113496601B (zh) * 2020-03-20 2022-05-24 宇通客车股份有限公司 一种车辆辅助驾驶方法、装置和系统
JP2022119496A (ja) * 2021-02-04 2022-08-17 本田技研工業株式会社 車両用シートベルト装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200755A (ja) * 2001-12-28 2003-07-15 Yazaki Corp 車両用表示装置
JP2006163501A (ja) * 2004-12-02 2006-06-22 Denso Corp 適正車間距離表示制御装置
JP2008015758A (ja) * 2006-07-05 2008-01-24 Honda Motor Co Ltd 運転支援装置
JP2011070685A (ja) * 2005-11-09 2011-04-07 Nissan Motor Co Ltd 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
JP2013203103A (ja) * 2012-03-27 2013-10-07 Denso It Laboratory Inc 車両用表示装置、その制御方法及びプログラム
JP2015096946A (ja) * 2013-10-10 2015-05-21 パナソニックIpマネジメント株式会社 表示制御装置、表示制御プログラム、および表示制御方法
JP2015127160A (ja) * 2013-12-27 2015-07-09 トヨタ自動車株式会社 車両用情報表示装置及び車両用情報表示方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3521234A (en) * 1969-01-13 1970-07-21 John Joseph Davin Motor vehicle mirror tailgating observation and warning system
US3603929A (en) * 1969-09-17 1971-09-07 Thomas T Drysdale Distance measuring device
US6498620B2 (en) * 1993-02-26 2002-12-24 Donnelly Corporation Vision system for a vehicle including an image capture device and a display system having a long focal length
DE10131720B4 (de) 2001-06-30 2017-02-23 Robert Bosch Gmbh Head-Up Display System und Verfahren
US7561966B2 (en) * 2003-12-17 2009-07-14 Denso Corporation Vehicle information display system
JP4798493B2 (ja) 2006-03-29 2011-10-19 株式会社エクォス・リサーチ 車両及び車両の表示装置
JP5150106B2 (ja) * 2006-06-05 2013-02-20 本田技研工業株式会社 車両用視認補助装置
JP4843517B2 (ja) * 2007-02-06 2011-12-21 本田技研工業株式会社 車両用視認補助装置
JP2009040272A (ja) * 2007-08-09 2009-02-26 Alpine Electronics Inc 車両周辺監視装置
US20090225434A1 (en) * 2008-03-10 2009-09-10 Nicholas Clayton L Vehicle rear view apparatus utilizing heads up display and rear looking sensors
US20100020170A1 (en) * 2008-07-24 2010-01-28 Higgins-Luthman Michael J Vehicle Imaging System
US8482486B2 (en) * 2009-04-02 2013-07-09 GM Global Technology Operations LLC Rear view mirror on full-windshield head-up display
EP2459416B2 (en) * 2009-07-27 2019-12-25 Magna Electronics Inc. Parking assist system
EP3660813A1 (en) * 2009-10-07 2020-06-03 iOnRoad Technologies Ltd. Automatic content analysis method and system
US9165468B2 (en) * 2010-04-12 2015-10-20 Robert Bosch Gmbh Video based intelligent vehicle control system
US20110301813A1 (en) * 2010-06-07 2011-12-08 Denso International America, Inc. Customizable virtual lane mark display
JP5582008B2 (ja) * 2010-12-08 2014-09-03 トヨタ自動車株式会社 車両用情報伝達装置
US9139133B2 (en) * 2012-05-31 2015-09-22 GM Global Technology Operations LLC Vehicle collision warning system and method
US8810381B2 (en) * 2012-06-29 2014-08-19 Yazaki North America, Inc. Vehicular heads up display with integrated bi-modal high brightness collision warning system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003200755A (ja) * 2001-12-28 2003-07-15 Yazaki Corp 車両用表示装置
JP2006163501A (ja) * 2004-12-02 2006-06-22 Denso Corp 適正車間距離表示制御装置
JP2011070685A (ja) * 2005-11-09 2011-04-07 Nissan Motor Co Ltd 車両用運転操作補助装置および車両用運転操作補助装置を備えた車両
JP2008015758A (ja) * 2006-07-05 2008-01-24 Honda Motor Co Ltd 運転支援装置
JP2013203103A (ja) * 2012-03-27 2013-10-07 Denso It Laboratory Inc 車両用表示装置、その制御方法及びプログラム
JP2015096946A (ja) * 2013-10-10 2015-05-21 パナソニックIpマネジメント株式会社 表示制御装置、表示制御プログラム、および表示制御方法
JP2015127160A (ja) * 2013-12-27 2015-07-09 トヨタ自動車株式会社 車両用情報表示装置及び車両用情報表示方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3173278A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3343270A1 (en) * 2016-12-28 2018-07-04 Ricoh Company Ltd. Head-up display, vehicle apparatus, display method, and carrier means
US10845592B2 (en) 2016-12-28 2020-11-24 Ricoh Company, Ltd. Head-up display, vehicle apparatus, display method, and recording medium

Also Published As

Publication number Publication date
JP2016024673A (ja) 2016-02-08
EP3173278A1 (en) 2017-05-31
EP3173278A4 (en) 2017-08-23
US20170158132A1 (en) 2017-06-08
US10040395B2 (en) 2018-08-07
EP3173278B1 (en) 2018-11-28
JP6327034B2 (ja) 2018-05-23

Similar Documents

Publication Publication Date Title
US10940869B2 (en) Driving assistance apparatus
JP4807263B2 (ja) 車両用表示装置
KR101478135B1 (ko) 프로젝션 유닛을 이용한 증강현실 차선변경 보조 시스템
US9639990B2 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
WO2016147547A1 (ja) 画像生成装置
JP5999032B2 (ja) 車載表示装置およびプログラム
WO2016067574A1 (ja) 表示制御装置及び表示制御プログラム
WO2016013167A1 (ja) 車両用表示制御装置
JP4952421B2 (ja) 運転支援システム
JP6350596B2 (ja) 表示システム
US20140097968A1 (en) Display apparatus
US10499014B2 (en) Image generation apparatus
WO2015163205A1 (ja) 車両用表示システム
JP6075248B2 (ja) 情報表示装置
JP2015221651A (ja) 表示装置
JP7470230B2 (ja) 車両用表示システム、車両システム及び車両
JP2016112984A (ja) 車両用虚像表示システム、ヘッドアップディスプレイ
JP2018129668A (ja) 画像表示装置
JP6736268B2 (ja) 画像処理装置、画像表示システム及び画像処理方法
JP7295863B2 (ja) 車両用表示システム及び車両
JP6394940B2 (ja) 車両用表示システム
JP2018091908A (ja) ヘッドアップディスプレイ装置
US20230373309A1 (en) Display control device
WO2017026223A1 (ja) 表示システム
KR102425036B1 (ko) 차량 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15824648

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15323753

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015824648

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015824648

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE