WO2019021458A1 - 周囲状況の表示方法及び表示装置 - Google Patents

周囲状況の表示方法及び表示装置 Download PDF

Info

Publication number
WO2019021458A1
WO2019021458A1 PCT/JP2017/027444 JP2017027444W WO2019021458A1 WO 2019021458 A1 WO2019021458 A1 WO 2019021458A1 JP 2017027444 W JP2017027444 W JP 2017027444W WO 2019021458 A1 WO2019021458 A1 WO 2019021458A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
display
host vehicle
timing
variable display
Prior art date
Application number
PCT/JP2017/027444
Other languages
English (en)
French (fr)
Inventor
草柳 佳紀
渡辺 省吾
拓良 柳
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to KR1020207003394A priority Critical patent/KR102303362B1/ko
Priority to PCT/JP2017/027444 priority patent/WO2019021458A1/ja
Priority to EP17918881.8A priority patent/EP3660811B1/en
Priority to CA3071091A priority patent/CA3071091A1/en
Priority to BR112020001742-6A priority patent/BR112020001742A2/pt
Priority to CN201780093521.8A priority patent/CN111183466B/zh
Priority to US16/633,999 priority patent/US11338824B2/en
Priority to JP2019532321A priority patent/JP6819786B2/ja
Priority to RU2020108463A priority patent/RU2737645C1/ru
Publication of WO2019021458A1 publication Critical patent/WO2019021458A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/162Visual feedback on control action
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/175Autonomous driving
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/179Distances to obstacles or vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects

Definitions

  • the present invention relates to a display method and a display device for detecting a surrounding condition of a vehicle and displaying the detected condition.
  • Patent Document 1 As a technique for notifying a passenger of a mode change at the time of autonomous driving travel, for example, the one disclosed in Patent Document 1 is known.
  • patent document 1 the required time until traveling control by automatic driving switches is calculated, and the timing of switching is notified by numerical display on a screen.
  • the present invention has been made to solve such conventional problems, and the object of the present invention is to provide a method and a method of displaying an ambient condition which can appropriately notify the timing when an action is switched by automatic driving. To provide a display of the situation.
  • One mode of the present invention displays the timing to which the action of the self-vehicles changes by an automatic driving function with a change display bar which has a predetermined display frame and changes and displays a designated position in the display frame.
  • FIG. 1 is a block diagram showing the configuration of a display device according to an embodiment of the present invention.
  • FIG. 2A is a display example showing a first situation in which the host vehicle joins the traveling lane from the acceleration lane of the expressway and enters behind the other vehicle.
  • FIG. 2B is a display example showing a second situation in which the host vehicle joins the traveling lane from the acceleration lane of the expressway and enters behind the other vehicle.
  • FIG. 3A is a display example showing a first situation in which the host vehicle joins the traveling lane from the acceleration lane of the expressway and enters in front of the other vehicle.
  • FIG. 1 is a block diagram showing the configuration of a display device according to an embodiment of the present invention.
  • FIG. 2A is a display example showing a first situation in which the host vehicle joins the traveling lane from the acceleration lane of the expressway and enters behind the other vehicle.
  • FIG. 2B is a display example showing a second situation in which the host vehicle joins the
  • FIG. 3B is a display example showing a second situation in which the host vehicle joins the traveling lane from the acceleration lane of the expressway and enters in front of the other vehicle.
  • FIG. 4A is a first display example of a situation in which the host vehicle is waiting for the pedestrian of the pedestrian crossing.
  • FIG. 4B is a second display example of the situation in which the host vehicle is waiting for the pedestrian of the pedestrian crossing.
  • FIG. 5A is a first display example of a situation in which the host vehicle is waiting for the passage of two pedestrians on a pedestrian crossing.
  • FIG. 5B is a second display example of the situation where the host vehicle is waiting for the passage of two pedestrians on the pedestrian crossing.
  • FIG. 6A is a first display example of the situation waiting for the passage of another vehicle approaching from the right side when the host vehicle turns left at the intersection.
  • FIG. 6B is a second display example of the situation waiting for the passage of another vehicle approaching from the right side when the host vehicle turns left at the intersection.
  • FIG. 7A is a first display example of the situation waiting for the passage of another vehicle approaching from the right side and the left side when the host vehicle turns right at an intersection.
  • FIG. 7B is a second display example of the situation waiting for the passage of another vehicle approaching from the right side and the left side when the host vehicle turns right at the intersection.
  • FIG. 8A is a first display example of the situation waiting for the oncoming vehicle to pass when the host vehicle turns right at an intersection.
  • FIG. 8B is a second display example of the situation waiting for the oncoming vehicle to pass when the host vehicle turns right at an intersection.
  • FIG. 8C is a third display example of the situation waiting for the oncoming vehicle to pass when the host vehicle turns right at the intersection.
  • FIG. 9 is an explanatory view showing a segment display.
  • FIG. 10A is a first minute view of a flowchart showing the processing procedure of the display device according to the embodiment.
  • FIG. 10B is a second minute view of a flowchart showing the processing procedure of the display device according to the embodiment.
  • FIG. 10C is a third diagram of the flowchart showing the processing procedure of the display device according to the embodiment.
  • FIG. 1 is a block diagram showing the configuration of a display device according to an embodiment of the present invention.
  • This display device is mounted on a vehicle having an automatic driving function.
  • the automatic driving in the present embodiment refers to, for example, a state in which at least an accelerator among actuators such as a brake, an accelerator, and a steering is controlled without a driver's operation. Therefore, other actuators may be operated by the operation of the driver.
  • the display device includes a display controller 1, a display 2 for displaying an image, a map database 3, a GPS device 4 (Global Positioning System), LRF 5 (Laser Range Finder), and a camera 6.
  • the steering angle sensor 7 and the vehicle speed sensor 8 are provided.
  • the display controller 1 includes a scene specification circuit 11, an end point setting circuit 12, an obstacle position detection circuit 13, a variation display bar drawing circuit 14, an HMI display circuit 15, and an image synthesis circuit 16.
  • the GPS device 4 detects the current position of the vehicle, and outputs the detected position information to the scene identification circuit 11.
  • the map database 3 stores three-dimensional map data including the periphery of the vehicle. Map data is output to the scene identification circuit 11.
  • the LRF 5 irradiates an infrared laser toward the object and measures the distance to the object by the intensity of the reflected light.
  • the distance to the object can be acquired as point cloud information by the measurement of LRF 5, and the point cloud information is output to the scene identification circuit 11.
  • LRF5 it is also possible to detect an object using a clearance sonar, ultrasonic wave radar, camera, road-vehicle communication, inter-vehicle communication, etc. using an ultrasonic wave.
  • Output data of the LRF 5 is output to the obstacle position detection circuit 13.
  • the camera 6 includes a front camera 6a, a rear camera 6b, a light camera 6c, and a left camera 6d, and captures images in the front, rear, left, and right directions of the vehicle.
  • Each of the cameras 6 (6a to 6c) is a camera provided with an imaging device such as a CCD or a CMOS.
  • the captured image data is output to the obstacle position detection circuit 13.
  • the steering angle sensor 7 detects the steering angle of the vehicle, and outputs the detected steering angle to the scene identification circuit 11. Further, the vehicle speed sensor 8 detects the speed of the vehicle from the number of rotations of the wheels, and outputs the detected speed to the scene identification circuit 11.
  • the display 2 can use an image monitor such as a liquid crystal display. Furthermore, various display methods such as a segment display provided with a plurality of light emitting diodes 61 as shown in FIG. 9 or a head-up display can be adopted.
  • the scene identification circuit 11 identifies a situation in which the behavior of a vehicle traveling by automatic driving is switched.
  • the action is switched refers to actions such as start from stop, acceleration, deceleration, right turn, left turn, steering (high speed merging), and the like.
  • Specific situations in which the action is switched include, for example, a pattern such as an intrusion on an expressway, lane change, waiting for pedestrians on a pedestrian crossing, left turn at an intersection, right turn, departure for waiting for an oncoming vehicle.
  • the scene specifying circuit 11 specifies the switching of each action described above based on the three-dimensional map data, the current position data of the vehicle, the steering angle data, and the vehicle speed data.
  • the pattern of behavior change is output to the end point setting circuit 12.
  • the obstacle position detection circuit 13 detects the position of an obstacle such as another vehicle, pedestrian, or animal around the host vehicle based on the detection data of the LRF 5 and the images captured by the cameras 6 (6a to 6d). To detect For example, while the host vehicle is stopped at an intersection, another vehicle approaching from the left side or the right side is detected. It also detects oncoming vehicles coming from the front. Further, obstacles such as pedestrians and animals walking in the vicinity of the vehicle are detected. The detected position information of the obstacle is output to the end point setting circuit 12 and the variable display bar drawing circuit 14.
  • the end point setting circuit 12 displays the vehicle and its surrounding image ( ⁇ image, bird's eye image) in a situation where the behavior of the vehicle traveling by automatic driving is switched, the start point and end point of the fluctuation display bar displayed in the surrounding image Set two end points of.
  • the variable display bar drawing circuit 14 draws the variable display bar on the image based on the end point set by the end point setting circuit 12, the positional relationship between the vehicle and the obstacle, and the relative speed.
  • the variable display bar is, for example, a rectangular shape elongated in a fixed direction (horizontal direction in the figure) as shown by a symbol Q3 in FIG. 4A, etc., and is controlled by automatic operation by changing a designated point (designated position). Display the timing at which the vehicle's behavior changes. That is, the fluctuation display bar has a function of displaying the timing at which the behavior of the host vehicle changes in conjunction with the surrounding situation of the host vehicle.
  • the variable display bar drawing circuit 14 draws the variable display bar on the surrounding image based on the surrounding image, the current position of the vehicle, and the position of the obstacle.
  • the designated point is indicated by a colored area in the entire area of the display frame. For example, by changing the area displayed in red in the entire display frame, the timing at which the vehicle changes the action is displayed.
  • the HMI display circuit 15 generates various images indicating information on automatic driving when traveling by automatic driving, and outputs the generated images to the image combining circuit 16.
  • the image synthesis circuit 16 synthesizes the image related to the automatic operation set by the HMI display circuit 15 with the surrounding image on which the variable display bar is drawn, and displays the image on the display 2.
  • the display controller 1 described above can be realized using a microcomputer including a CPU (central processing unit), a memory, and an input / output unit.
  • a computer program (display program) for causing a microcomputer to function as the display controller 1 is installed in the microcomputer and executed.
  • the microcomputer functions as a plurality of information processing circuits (11 to 16) included in the display controller 1.
  • the display controller 1 may be used also as an electronic control unit (ECU) used for other control related to the vehicle.
  • the components other than the LRF 5, the camera 6, and the display 2 shown in FIG. 1 may not be mounted on the vehicle, and may be configured to acquire various data through communication with a base station.
  • the position at the back of the rear end of the own vehicle V1 is changed by a predetermined distance
  • the variation display bar Q1 is displayed with one end point q1 and the rear end position of the host vehicle V1 as the other end point q2.
  • the display position is a position that does not overlap with the traveling path on the image, and is in a direction parallel to the traveling direction of the host vehicle V1.
  • the distance to the end point q1 is set to an arbitrary distance from the host vehicle V1.
  • the variation display bar Q1 colors the area from the end point q2 to the indicated point q3 with the front end position of the other vehicle V2 as the indicated point q3 and the end point q2 as the starting point. At this time, the vicinity of the designated point q3 is displayed as a gradation display.
  • the colored area displayed on the fluctuation display bar Q1 indicates the relative distance between the host vehicle V1 and the other vehicle V2. As shown in FIG. 2B, when the other vehicle V2 approaches the host vehicle V1, the designated point q3 approaches the end point q2, and the coloring area decreases. The occupant of the host vehicle V1 can recognize the timing at which the other vehicle V2 passes the host vehicle V1 by the disappearance of the colored area of the variable display bar Q1 as shown in FIG.
  • the occupant can sense in a perceptual manner the timing at which the host vehicle V1 changes lanes to the travel lane L2 (timing at which the behavior of the host vehicle V1 switches), and the operation for the host vehicle V1 to enter the travel lane L2 from the acceleration lane L1 You can be prepared for what you do.
  • the end point q2 of the variable display bar Q1 moves on the screen in accordance with the travel of the host vehicle V1.
  • the display position of the variable display bar Q1 moves so that the rear end portion of the host vehicle V1 coincides with the end point q2.
  • FIGS. 3A and 3B when the vehicle V1 enters in front of the other vehicle V2, a fluctuation display bar Q2 having end points q1 and q2 is displayed on the surrounding image of the vehicle V1.
  • the designated point q5 indicates the front end position of the other vehicle V2, and colors an area from the end point q1 to the designated point q4.
  • the occupant can recognize that the coloring area starts in the end point q1 and thus merges in front of the other vehicle V2.
  • FIG. 3B as the inter-vehicle distance between the host vehicle V1 and the other vehicle V2 increases, the position of the designated point q5 approaches the end point q1, and the coloring area decreases. The occupant sees a decrease in the colored area, and can intuitively recognize the timing at which the host vehicle V1 changes lanes to the travel lane L2, and the driver V1 enters the travel lane L2 from the acceleration lane L1. You can be prepared.
  • the host vehicle V1 starts traveling.
  • the fluctuation display bar Q3 which makes the ends q11 and q12 the both ends of the pedestrian crossing 31 of the front image of the own vehicle V1 is displayed.
  • the variable display bar Q3 is displayed parallel to the pedestrian crossing 31.
  • a designated area q13 indicating the position of the pedestrian 21 is a colored area.
  • the indicated point q13 of the variable display bar Q3 moves from right to left, and when the end point q12 is reached, the vehicle V1 starts traveling Do. That is, the length from the end point q12 of the designated point q13 displayed on the variation display bar Q3 is set according to the position of the host vehicle V1 and the attention target.
  • the occupant can sensuously recognize the timing at which the host vehicle V1 starts traveling (the timing at which the behavior of the host vehicle V1 is switched) by the change in the colored area. For this reason, the occupant can be prepared for the host vehicle V1 switching from stop to start.
  • FIG. 5A and FIG. 5B are diagrams showing a situation in which two pedestrians 22 and 23 who travel in different directions are walking on the pedestrian crossing 31 in front.
  • the vehicle V1 starts traveling when both of the pedestrians 22 and 23 cross the pedestrian crossing 31.
  • the fluctuation display bar Q4 which makes the ends q21 and q22 the both ends of the pedestrian crossing 31 of the front image of the own vehicle V1 is displayed.
  • the variable display bar Q4 is displayed parallel to the pedestrian crossing 31.
  • a designated area q24 indicating the position of the pedestrian 22 is a colored area. Furthermore, with the end point q21 on the right side as a starting point, a designated area q23 indicating the position of the pedestrian 23 is a colored area.
  • the designated point q24 of the variable display bar Q4 moves from right to left, and the designated point q23 moves from left to right.
  • the designated point q24 reaches the end point q22 and the designated point q23 reaches the end point q21, the host vehicle V1 starts traveling.
  • the occupant can recognize the timing at which the host vehicle V1 starts traveling by the change in the colored area. For this reason, the occupant can be prepared for the host vehicle V1 switching from stop to start.
  • FIGS. 6A and 6B show a situation where the own vehicle V1 turns left at an intersection 51 as a situation where the behavior of the own vehicle V1 switches.
  • FIG. 6A the own vehicle V1 starts traveling when the other vehicle V11 approaching from the right of the intersection 51 passes the intersection 51.
  • a variation display bar Q5 is displayed, with the position of the vehicle V1 on the surrounding image as one end point q32 and the predetermined position in the right direction as the other end point q31.
  • the fluctuation display bar Q5 is displayed in parallel with the traveling direction of the other vehicle V11.
  • a region up to a designated point q33 indicating the position of the other vehicle V11 is a colored area.
  • the indicated point q33 of the variable display bar Q5 moves from the right to the left, and when the end point q31 is reached, the host vehicle V1 starts traveling.
  • the occupant can recognize the timing at which the host vehicle V1 starts traveling by the change of the coloring area, and can have an attitude for the host vehicle V1 to switch from stop to start.
  • the other vehicle V12 approaching from the left side shown in FIGS. 6A and 6B does not become an obstacle to the left turn of the host vehicle V1, and thus is not recognized as a target of caution.
  • FIG. 7A and FIG. 7B show that the vehicle V1 is an intersection 51
  • the other vehicle 51 is the other It is a figure which shows the condition which waits for passage of a vehicle and turns right.
  • the host vehicle V1 starts traveling (right turn).
  • a variable display bar Q6 is displayed with a predetermined position in the left direction on the surrounding image as one end point q42 and a predetermined position in the right direction as the other end point q41.
  • the fluctuation display bar Q6 is displayed in parallel with the traveling direction of the other vehicles V11 and V12.
  • a point q45 indicating the position of the vehicle V1 of the variable display bar Q6 is a starting point
  • a designated area q43 indicating the position of the other vehicle V11 is a colored area
  • a designated area q44 indicating the position of the other vehicle V12 is a colored area.
  • variable display bar Q7 is displayed with the front end position of the vehicle V1 on the surrounding image as one end point q52 and the predetermined position in front as the other end point q51.
  • the variable display bar Q7 is displayed in parallel with the traveling direction of the oncoming vehicle V21.
  • an end point q52 indicating the front end position of the vehicle V1 of the variable display bar Q7 is a starting point, and a designated area q53 indicating the position of the oncoming vehicle V21 is a colored area.
  • the indicated point q53 of the variable display bar Q7 moves downward from above.
  • FIG. 8C when the oncoming vehicle V21 passes the intersection 51, the host vehicle V1 starts traveling. The occupant can recognize the timing at which the host vehicle V1 starts traveling by the change of the coloring area, and can have an attitude for the host vehicle V1 to switch from stop to start.
  • 6A, 6B, 7A, 7B and 8A to 8C described above show an example where the vehicle is passing on the left side. In the case of right-handed traffic, the left and right are opposite.
  • step S11 it is determined whether or not the host vehicle V1 is traveling by automatic driving. If the automatic driving is in progress (YES in step S11), in step S12, it is determined whether the host vehicle V1 is decelerating or stopping.
  • step S13 the scene specifying circuit 11 specifies the scene of the host vehicle V1 based on the map data. Furthermore, in step S14, the obstacle position detection circuit 13 detects an obstacle such as another vehicle, a pedestrian, or an animal, which is present around the host vehicle V1. Among the detected obstacles, the obstacle that caused the vehicle to decelerate or stop is specified as a warning target.
  • step S15 the scene specification circuit 11 determines, based on the map data and the current position data of the vehicle, whether the current scene is a stop at an intersection or a merging / lane change.
  • step S16 the obstacle position detection circuit 13 detects an adjacent lane and other vehicles traveling in the adjacent lane. Specifically, as shown in FIG. 2A and FIG. 3A, the other vehicle V2 traveling on the traveling lane L2 is detected.
  • step S17 the end point setting circuit 12 and the variable display bar drawing circuit 14 set the variable display bar in the direction (vertical direction in the figure) from the other vehicle V2 to the host vehicle V1. Furthermore, in step S18, two end points of the variable display bar are set. Specifically, the variable display bar Q1 having the end points q1 and q2 shown in FIGS. 2A and 2B is set, and is displayed at a position not overlapping the lane on the image. At this time, the rear end of the vehicle V1 and the end point q1 of the variable display bar are set to coincide in the traveling direction of the vehicle.
  • the variation display bar Q2 is similarly displayed in the example shown in FIGS. 3A and 3B.
  • step S26 of FIG. 10C the current position of the attention object is specified. Specifically, as shown in FIG. 2A, another vehicle V2 traveling behind the host vehicle V1 on the traveling lane L2 is specified as a warning target.
  • step S27 the fluctuation display bar drawing circuit 14 fluctuates the coloring area by changing the designated point q3 of the fluctuation display bar Q1 according to the current position of the other vehicle V2 (attention object).
  • the occupant of the host vehicle sees a change in the colored area of the variable display bar Q1 or Q2 when the host vehicle V1 changes lanes and enters the front of the other vehicle V2 or enters the rear. Can recognize.
  • step S28 it is determined whether the other vehicle V2 has reached the end point of the variable display bar Q1. If the end point has been reached, display of the variable display bar is ended in step S29. In step S30, it is determined whether or not traveling by the automatic driving function is to be ended, and if it is ended, the present process is ended.
  • step S15 of FIG. 10A when it is determined in the process of step S15 of FIG. 10A that it is an “intersection”, the target of attention in step S19 of FIG. 10B is a pedestrian walking on a pedestrian crossing or an oncoming vehicle. It is judged.
  • the obstacle position detection circuit 13 detects the position of the pedestrian crossing and the position of the pedestrian. For example, as shown to FIG. 4A mentioned above, the pedestrian crossing 31 and the pedestrian 21 are detected on the front image of the own vehicle V1.
  • step S21 the end point setting circuit 12 and the variable display bar drawing circuit 14 set the direction of the variable display bar in a direction parallel to the pedestrian crossing 31, and further, in step S22, Set the end of the fluctuation indicator bar based on it.
  • the variable display bar Q3 is displayed.
  • the starting point of the colored area is set based on the walking direction of the pedestrian.
  • the end point q12 is set as the starting point.
  • step S26 of FIG. 10C the current position of the attention object is specified. Specifically, as shown in FIG. 4A, the pedestrian 21 who walks the pedestrian crossing 31 is specified as the target of attention.
  • step S27 the variation display bar drawing circuit 14 changes the display position of the variation display bar Q3 according to the current position of the pedestrian 21 (attention). Specifically, the display position of the designated point q13 is changed from FIG. 4A to FIG. 4B. Therefore, the occupant can recognize the timing at which the host vehicle V1 starts traveling by observing the change in the colored area of the fluctuation display bar Q3. In the example shown in FIGS. 5A and 5B as well, it is possible to recognize the timing at which the host vehicle V1 starts traveling by changing the display of the variable display bar Q4. Subsequently, the processes of steps S28 to S30 are performed as described above.
  • the obstacle position detection circuit 13 detects the position of the intersection and the position of the oncoming vehicle in step S23. For example, as shown in FIG. 8A described above, the oncoming vehicle V21 is detected in the oncoming lane on the image around the host vehicle V1.
  • step S24 the end point setting circuit 12 and the variable display bar drawing circuit 14 set the direction of the variable display bar in a direction parallel to the traveling direction of the oncoming vehicle V21, and further, in step S25, the start point and the end point Set and display the variable display bar Q7.
  • step S26 the current position of the attention object is specified. Specifically, as shown in FIG. 8A, the oncoming vehicle V21 is specified as a warning target.
  • step S27 the fluctuation display bar drawing circuit 14 fluctuates a designated point q53 displayed on the fluctuation display bar Q7 in accordance with the current position of the oncoming vehicle V21. Specifically, the designated point q53 is varied in the order of FIG. 8A, FIG. 8B, and FIG. 8C. As described above, the occupant of the host vehicle V1 can recognize the timing at which the host vehicle V1 starts traveling by observing the change in the colored area of the variable display bar Q7. Subsequently, the processes of steps S28 to S30 are performed as described above.
  • FIGS. 10A, 10B and 10C the lane change shown in FIGS. 2A, 2B, 3A and 3B, and the crosswalk shown in FIGS. 4A, 4B, 5A and 5B.
  • the process for waiting for pedestrians and waiting for oncoming vehicles shown in FIGS. 8A, 8B and 8C has been described.
  • FIGS. 6A and 6B when turning left at an intersection, FIGS. 7A and 7B.
  • the fluctuation display bar is displayed by the same processing as above, and the timing at which the behavior of the host vehicle V1 changes by changing the colored area according to the movement of the attention object It is possible to indicate
  • the automatic driving function of the own vehicle V1 displays the timing at which the behavior of the own vehicle V1 switches, for example, the timing of lane change and the timing of departure at an intersection in conjunction with the surrounding situation of the own vehicle V1.
  • the occupant can sensuously recognize the timing at which the action switches, and can suppress the discomfort that the occupant feels.
  • the timing at which the action of the host vehicle V1 is switched is displayed based on the relative distance between the host vehicle V1 and the caution target such as another vehicle, the case where the target of attention is a trigger for switching the action of the host vehicle V1
  • the timing at which the action is switched can be displayed in accordance with the relative positional relationship with the attention target, the occupant can more appropriately know the timing at which the action is switched.
  • the attention object serves as a trigger for switching the action of the own vehicle V1.
  • the timing at which the action is switched can be displayed in accordance with the relative positional relationship with the attention target, the occupant can more appropriately know the timing at which the action is switched.
  • the timing of switching is adjusted according to the movement direction of the attention object. Since the display can be performed, the occupant can more appropriately know the timing at which the action switches.
  • the attention object can be easily associated with the display of the fluctuation display bar, and the occupant can more appropriately know the timing at which the action is switched. Can.
  • the fluctuation display bar As a gradation display, the current position of the attention object can be displayed ambiguously within a certain range, and even if the movement of the attention object changes, the occupant takes action. It is possible to properly know when to switch.
  • the timing at which the action starts changes, the timing at which the vehicle starts, the timing at which the vehicle stops, the timing at which acceleration starts, the timing at which deceleration starts, the timing at which the steering angle changes, and the timing at which the angular velocity of the steering angle changes.
  • Timing to start turning right, timing to end turning left, timing to start changing lanes, timing to end changing lanes, etc. are included as long as the behavior of the vehicle changes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

自動運転機能を有する自車両(V1)の周囲状況を検出し、検出した周囲状況を表示する周囲状況の表示装置であり、自動運転機能により、自車両(V1)の行動が切り替わるタイミングを、所定の表示枠を有し該表示枠内での指示位置を変動して表示する変動表示バーで表示する表示器(2)を備える。車線変更のタイミングや交差点で発車するタイミングを、変動表示バーで表示するので、乗員は行動が切り替わるタイミングを感覚的に認識でき、乗員が感じる違和感を抑制することができる。

Description

周囲状況の表示方法及び表示装置
 本発明は、自車両の周囲の状況を検出し、検出した状況を表示する周囲状況の表示方法及び表示装置に関する。
 自動運転走行時におけるモード変更を乗員に知らせる技術として、例えば、特許文献1に開示されたものが知られている。特許文献1では、自動運転による走行制御が切り替わるまでの所要時間を計算し、画面に数値表示することにより切り替わりのタイミングを知らせる。
特開2016-130971号公報
 上記特許文献1では、自動運転による走行制御が切り替わるタイミングを数値で表示するので、乗員が数値表示を瞬目し、乗員自身の感覚でカウントダウンしてしまうと、画面に表示されているカウントダウン表示との間で乖離が生じてしまう。従って、乗員は車両の行動が切り替わるタイミングを適切に認識することができない可能性が有る。
 本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、自動運転により行動が切り替わるタイミングを適切に知らせることが可能な周囲状況の表示方法及び周囲状況の表示装置を提供することにある。
 本発明の一態様は、自動運転機能によって自車両の行動が切り替わるタイミングを、所定の表示枠を有し該表示枠内での指示位置を変動して表示する変動表示バーで表示する。
 本発明の一態様によれば、自動運転による行動が切り替わるタイミングを適切に知らせることが可能になる。
図1は、本発明の実施形態に係る表示装置の構成を示すブロック図である。 図2Aは、自車両が高速道路の加速車線から走行車線に合流して他車両の後方に進入する第1の状況を示す表示例である 図2Bは、自車両が高速道路の加速車線から走行車線に合流して他車両の後方に進入する第2の状況を示す表示例である 図3Aは、自車両が高速道路の加速車線から走行車線に合流して他車両の前方に進入する第1の状況を示す表示例である 図3Bは、自車両が高速道路の加速車線から走行車線に合流して他車両の前方に進入する第2の状況を示す表示例である 図4Aは、自車両が横断歩道の歩行者の通過を待っている状況の第1の表示例である。 図4Bは、自車両が横断歩道の歩行者の通過を待っている状況の第2の表示例である。 図5Aは、自車両が横断歩道の二人の歩行者の通過を待っている状況の第1の表示例である。 図5Bは、自車両が横断歩道の二人の歩行者の通過を待っている状況の第2の表示例である。 図6Aは、自車両が交差点で左折するとき、右側から接近する他車両の通過を待っている状況の第1の表示例である。 図6Bは、自車両が交差点で左折するとき、右側から接近する他車両の通過を待っている状況の第2の表示例である。 図7Aは、自車両が交差点で右折するとき、右側及び左側から接近する他車両の通過を待っている状況の第1の表示例である。 図7Bは、自車両が交差点で右折するとき、右側及び左側から接近する他車両の通過を待っている状況の第2の表示例である。 図8Aは、自車両が交差点で右折するとき、対向車両の通過を待っている状況の第1の表示例である。 図8Bは、自車両が交差点で右折するとき、対向車両の通過を待っている状況の第2の表示例である。 図8Cは、自車両が交差点で右折するとき、対向車両の通過を待っている状況の第3の表示例である。 図9は、セグメント表示器を示す説明図である。 図10Aは、実施形態に係る表示装置の処理手順を示すフローチャートの第1の分図である。 図10Bは、実施形態に係る表示装置の処理手順を示すフローチャートの第2の分図である。 図10Cは、実施形態に係る表示装置の処理手順を示すフローチャートの第3の分図である。
 以下、本発明の実施形態について図面を参照して説明する。
[実施形態の構成説明]
 図1は、本発明の実施形態に係る表示装置の構成を示すブロック図である。この表示装置は、自動運転機能を有する車両に搭載される。なお、本実施形態における自動運転とは、例えば、ブレーキ、アクセル、ステアリング等のアクチュエータのうち、少なくともアクセルをドライバの操作なしに制御している状態のことを指す。そのため、その他のアクチュエータがドライバの操作により作動していたとしても構わない。
 図1に示すように、表示装置は、表示コントローラ1と、画像を表示する表示器2、地図データベース3と、GPS装置4(Global Positioning System)と、LRF5(Laser Range Finder)と、カメラ6と、舵角センサ7、及び車速センサ8を備えている。
 表示コントローラ1は、シーン特定回路11と、端点設定回路12と、障害物位置検出回路13と、変動表示バー描画回路14と、HMI表示回路15と、画像合成回路16、を備えている。
 GPS装置4は、車両の現在位置を検出し、検出した位置情報をシーン特定回路11に出力する。地図データベース3は、車両の周辺を含む三次元地図データを記憶する。地図データは、シーン特定回路11に出力される。
 LRF5は、対象物に向けて赤外線レーザを照射し、その反射光の強度により対象物までの距離を測定する。LRF5の測定により、対象物までの距離をポイントクラウド情報として取得することができ、該ポイントクラウド情報をシーン特定回路11に出力する。また、LRF5以外に超音波を利用するクリアランスソナー、ミリ波レーダ、カメラ、路車間通信、車車間通信等を用いて対象物を検出することも可能である。LRF5の出力データは、障害物位置検出回路13に出力される。
 カメラ6は、フロントカメラ6a、リアカメラ6b、ライトカメラ6c、レフトカメラ6dを有しており、車両の前後、左右の各方向の画像を撮像する。各カメラ6(6a~6c)は、CCD、CMOS等の撮像素子を備えたカメラである。撮像した画像データを障害物位置検出回路13に出力する。
 舵角センサ7は、車両の舵角を検出し、検出した舵角をシーン特定回路11に出力する。また、車速センサ8は、車輪の回転数から車両の速度を検出し、検出した速度をシーン特定回路11に出力する。
 表示器2は、液晶ディスプレイ等の画像モニタを用いることができる。更には、図9に示すような複数の発光ダイオード61を設けたセグメント表示器や、ヘッドアップディスプレイ等の各種の表示方法を採用することができる。
 シーン特定回路11は、自動運転で走行する車両の行動が切り替わる状況を特定する。「行動が切り替わる」とは、停止から発進、加速、減速、右折、左折、ハンドルを切る(高速の合流)、等の行動を指す。行動が切り替わる具体的な状況として、例えば、高速道路への侵入、車線変更、横断歩道の歩行者待ち、交差点での左折、右折、対向車両を待っての発車等のパターンが挙げられる。シーン特定回路11は、三次元地図データ、車両の現在位置データ、舵角データ、車速データに基づいて、上記した各行動の切り替わりを特定する。行動変化のパターンを、端点設定回路12に出力する。
 障害物位置検出回路13は、LRF5の検出データ、及び各カメラ6(6a~6d)で撮像される画像に基づいて、自車両周囲に存在する他車両、歩行者、動物等の障害物の位置を検出する。例えば、交差点で自車両が停止中に、左側、或いは右側から接近する他車両を検出する。また、前方から向かってくる対向車両を検出する。更に、車両周辺を歩行中の歩行者、動物等の障害物を検出する。検出した障害物の位置情報を端点設定回路12、及び変動表示バー描画回路14に出力する。
 端点設定回路12は、自動運転で走行する車両の行動が切り替わる状況において、車両、及びその周囲画像(俯瞰画像、鳥瞰画像)を表示したとき、この周囲画像に表示する変動表示バーの始点、終点の2つの端点を設定する。
 変動表示バー描画回路14は、端点設定回路12で設定された端点、及び車両と障害物との位置関係、相対速度に基づいて画像上に変動表示バーを描画する。変動表示バーは、例えば、図4Aの符号Q3等に示すように一定の方向(図では、横方向)に長い長方形状であり、指示点(指示位置)を変動させて、自動運転で制御される車両の行動が切り替わるタイミングを表示する。即ち、変動表示バーは、自車両の行動が変化するタイミングを、自車両の周囲状況に連動して表示する機能を有する。
 変動表示バー描画回路14では、周囲画像と自車両の現在位置、障害物の位置に基づいて、変動表示バーを周囲画像上に描画する。本実施形態では、指示点を、表示枠全体の領域のうち着色する領域で示す。例えば、表示枠全体のうち、赤色で表示する領域を変動させることにより、自車両が行動を変更する際のタイミングを表示する。
 HMI表示回路15は、自動運転で走行しているときの、自動運転に関する情報を示す各種の画像を生成し、画像合成回路16に出力する。
 画像合成回路16は、変動表示バーが描画された周囲画像にHMI表示回路15で設定された自動運転に関わる画像を合成し、表示器2に表示する。
 なお、上述した表示コントローラ1は、CPU(中央処理装置)、メモリ、及び入出力部を備えるマイクロコンピュータを用いて実現可能である。マイクロコンピュータを表示コントローラ1として機能させるためのコンピュータプログラム(表示プログラム)を、マイクロコンピュータにインストールして実行する。これにより、マイクロコンピュータは、表示コントローラ1が備える複数の情報処理回路(11~16)として機能する。なお、ここでは、ソフトウェアによって表示コントローラ1を実現する例を示すが、もちろん、専用のハードウェアを用意して、表示コントローラ1を構成することも可能である。また、表示コントローラ1に含まれる複数の回路を個別のハードウェアにより構成してもよい。更に、表示コントローラ1は、車両にかかわる他の制御に用いる電子制御ユニット(ECU)と兼用してもよい。また、図1に示すLRF5、カメラ6、表示器2以外は、車両に搭載されていなくてもよく、基地局との通信により各種のデータを取得する構成としてもよい。
[変動表示バーの表示例]
 次に、周囲画像に表示する変動表示バーの具体的な表示例について説明する。
(1)高速道路の走行車線に合流する場合
 図2A、図2B、図3A、図3Bは、自車両V1の行動が切り替わる状況として、自車両V1が高速道路の加速車線L1から走行車線L2に合流する状況を示す図である。図2A、図3Aに示すように、走行車線L2の、自車両V1よりも後方に他車両V2が走行している。合流では、自車両V1が他車両V2の後方に進入する場合、及び前方に進入する場合の2通りが有る。図2A、図2Bは後方に進入する場合、図3A、図3Bは前方に進入する場合をそれぞれ示している。前方または後方に進入する判断は、自車両V1と他車両V2の相対速度によって決定する。
 図2A、図2Bに示すように、他車両V2の後方に進入する場合には、自車両V1の周囲の周囲画像に、自車両V1の後端から所定の距離だけ後方の位置を変動表示バーの一方の端点q1とし、自車両V1の後端位置を他方の端点q2とする変動表示バーQ1を表示する。この際、表示位置は画像上の走行路と重複しない位置で、且つ、自車両V1の進行方向と平行な方向とする。なお、端点q1までの距離は、自車両V1から任意の距離に設定する。
 変動表示バーQ1は、他車両V2の前端位置を指示点q3とし、端点q2を起点として指示点q3までの領域を着色する。この際、指示点q3付近はグラデュエーション表示とする。変動表示バーQ1に表示される着色領域は、自車両V1と他車両V2の相対距離を示す。図2Bに示すように、他車両V2が自車両V1に接近すると、指示点q3が端点q2に接近し、着色領域が減少する。自車両V1の乗員は、図2Bに示すように変動表示バーQ1が着色領域が消滅することにより、他車両V2が自車両V1を追い越すタイミングを認識できる。このため、乗員は自車両V1が走行車線L2に車線変更するタイミング(自車両V1の行動が切り替わるタイミング)を感覚的に認識でき、自車両V1が加速車線L1から走行車線L2に進入する動作を行うことについての心構えを持つことができる。
 なお、変動表示バーQ1の端点q2は、自車両V1の走行に応じて画面上を移動する。図2A、図2Bの例では、自車両V1の後端部が端点q2と一致するように、変動表示バーQ1の表示位置が移動する。
 一方、図3A、図3Bに示すように、自車両V1が他車両V2の前方に進入する場合には、自車両V1の周囲画像に、端点q1、q2を有する変動表示バーQ2を表示する。指示点q5は、他車両V2の前端位置を示しており、端点q1を起点として指示点q4までの領域を着色する。乗員は、着色領域の起点が端点q1であることにより、他車両V2の前方に合流することを認識できる。更に、図3Bに示すように自車両V1と他車両V2の車間距離が広がるにつれて、指示点q5の位置が端点q1に接近し、着色領域が減少する。乗員は、着色領域の減少を見て、自車両V1が走行車線L2に車線変更するタイミングを感覚的に認識でき、自車両V1が加速車線L1から走行車線L2に進入する動作を行うことについての心構えを持つことができる。
(2)交差点で横断歩道の歩行者の通過を待って走行を開始する場合
 図4A、図4Bは、自車両V1の行動が切り替わる状況として、自車両V1が交差点51の停止線で停止しており、前方の横断歩道31を歩行者21が、図中右から左に向かって歩行している状況を示す図である。
 この場合には、歩行者21が横断歩道31を渡り切った時点で自車両V1が走行を開始する。図4Aに示すように、自車両V1の前方画像の、横断歩道31の両端を端点q11、q12とする変動表示バーQ3を表示する。変動表示バーQ3は、横断歩道31に対して平行に表示される。
 そして、横断歩道31の左側の端点q12を起点とし、歩行者21の位置を示す指示点q13までを着色領域とする。図4Bに示すように、歩行者21が横断歩道31を歩行することにより、変動表示バーQ3の指示点q13が右から左に移動し、端点q12に達した時点で自車両V1は走行を開始する。即ち、変動表示バーQ3に表示する指示点q13の、端点q12からの長さが、自車両V1と注意対象の位置に応じて設定される。乗員は、着色領域の変化により、自車両V1が走行を開始するタイミング(自車両V1の行動が切り替わるタイミング)を感覚的に認識できる。このため乗員は、自車両V1が停止から発進に切り替わることについての心構えを持つことができる。
 図5A、図5Bは、前方の横断歩道31を、進行方向が異なる二人の歩行者22、23が歩行している状況を示す図である。
 この場合には、二人の歩行者22、23が共に横断歩道31を渡り切った時点で自車両V1が走行を開始する。図5Aに示すように、自車両V1の前方画像の、横断歩道31の両端を端点q21、q22とする変動表示バーQ4を表示する。変動表示バーQ4は、横断歩道31に対して平行に表示される。
 そして、横断歩道31の左側の端点q22を起点とし、歩行者22の位置を示す指示点q24までを着色領域とする。更に、右側の端点q21を起点とし、歩行者23の位置を示す指示点q23までを着色領域とする。
 図5Bに示すように、歩行者22、23が横断歩道31を歩行することにより、変動表示バーQ4の指示点q24が右から左に移動し、指示点q23が左から右に移動する。指示点q24が端点q22に達し、且つ指示点q23が端点q21に達した時点で自車両V1は走行を開始する。乗員は、着色領域の変化により、自車両V1が走行を開始するタイミングを認識できる。このため乗員は、自車両V1が停止から発進に切り替わることについての心構えを持つことができる。
(3)交差点で右方向からの通過車両の通過を待って左折を開始する場合
 図6A、図6Bは、自車両V1の行動が切り替わる状況として、自車両V1が交差点51で左折する状況を示す図である。
 この場合には、交差点51の右方向から接近する他車両V11が交差点51を通過した時点で自車両V1が走行を開始する。図6Aに示すように、周囲画像上の自車両V1の位置を一方の端点q32とし、右方向の所定位置を他方の端点q31とした変動表示バーQ5を表示する。変動表示バーQ5は、他車両V11の進行方向と平行に表示される。
 そして、変動表示バーQ5の端点q32を起点とし、他車両V11の位置を示す指示点q33までを着色領域とする。図6Bに示すように、他車両V11が交差点51に接近するにつれて、変動表示バーQ5の指示点q33が右から左に移動し、端点q31に達した時点で自車両V1は走行を開始する。乗員は、着色領域の変化により、自車両V1が走行を開始するタイミングを認識でき、自車両V1が停止から発進に切り替わることについての心構えを持つことができる。
 なお、図6A、6Bに示す左側から接近する他車両V12は、自車両V1の左折の障害にはならないので、注意対象として認識しない。
(4)交差点で左右方向からの通過車両の通過を待って右折、直進する場合
 図7A、図7Bは、自車両V1の行動が切り替わる状況として、自車両V1が交差点51で、左右方向の他車両の通過を待って右折する状況を示す図である。
 この場合には、交差点51の右方向から接近する他車両V11、及び左方向から接近する他車両V12が共に交差点51を通過した時点で、自車両V1が走行(右折)を開始する。図7Aに示すように、周囲画像上の左方向の所定位置を一方の端点q42とし、右方向の所定位置を他方の端点q41とした変動表示バーQ6を表示する。変動表示バーQ6は、他車両V11、V12の進行方向と平行に表示される。
 そして、変動表示バーQ6の自車両V1の位置を示す点q45を起点とし、他車両V11の位置を示す指示点q43までを着色領域とする。更に、他車両V12の位置を示す指示点q44までを着色領域とする。図7Bに示すように、他車両V11、V12が交差点51に接近するにつれて、変動表示バーQ6の指示点q43が右から左に移動し、且つ、指示点q44が左から右に移動し、点q45に達した時点で自車両V1は走行を開始する。乗員は、着色領域の変化により、自車両V1が走行を開始するタイミングを認識でき、自車両V1が停止から発進に切り替わることについての心構えを持つことができる。
(5)交差点で対向車両の通過を待って右折する場合
 図8A、図8B、図8Cは、自車両V1の行動が切り替わる状況として、自車両V1が交差点51で、対向車両の通過を待って右折する状況を示す図である。
 この場合には、交差点51の前方から接近する対向車両V21が交差点51を通過した時点で、自車両V1が走行(右折)を開始する。図8Aに示すように、周囲画像上の自車両V1の前端位置を一方の端点q52とし、前方の所定位置を他方の端点q51とした変動表示バーQ7を表示する。変動表示バーQ7は、対向車両V21の進行方向と平行に表示される。
 そして、変動表示バーQ7の自車両V1の前端位置を示す端点q52を起点とし、対向車両V21の位置を示す指示点q53までを着色領域とする。図8Bに示すように、対向車両V21が交差点51に接近するにつれて、変動表示バーQ7の指示点q53が上方から下方に向けて移動する。図8Cに示すように、対向車両V21が交差点51を通過した時点で自車両V1は走行を開始する。乗員は、着色領域の変化により、自車両V1が走行を開始するタイミングを認識でき、自車両V1が停止から発進に切り替わることについての心構えを持つことができる。
 なお、上述した図6A、図6B、図7A、図7B、図8A~図8Cでは、車両が左側通行である例を示している。右側通行の場合には左右が反対になる。
[本実施形態の作用の説明]
 次に、本実施形態の作用を図10A、図10B、図10Cに示すフローチャートを参照して説明する。この処理は、図1に示した表示コントローラ1により実行される。初めに、ステップS11において、自車両V1が自動運転で走行中であるか否かを判断する。自動運転走行中である場合には(ステップS11でYES)、ステップS12において、自車両V1は減速或いは停車しているか否かを判断する。
 減速または停車している場合には(ステップS12でYES)、ステップS13において、シーン特定回路11は、地図データに基づいて自車両V1のシーンを特定する。更に、ステップS14において、障害物位置検出回路13は、自車両V1の周囲に存在する、他車両、歩行者、動物等の障害物を検出する。検出した障害物のうち、車両が減速または停車した原因となった障害物を注意対象として特定する。
 ステップS15において、シーン特定回路11は、地図データ、及び車両の現在位置データに基づき、現在のシーンが交差点での停止か、或いは合流・車線変更であるかを判断する。
 合流・車線変更である場合には、ステップS16において、障害物位置検出回路13は、隣接車線、及び隣接車線を走行する他車両を検出する。具体的には、図2A、図3Aに示したように、走行車線L2を走行する他車両V2を検出する。
 ステップS17において、端点設定回路12及び変動表示バー描画回路14は、図2A、図2Bに示したように、他車両V2から自車両V1に向く方向(図中縦方向)の変動表示バーを設定し、更に、ステップS18において、変動表示バーの2つの端点を設定する。具体的には、図2A、図2Bに示す端点q1、q2を有する変動表示バーQ1を設定し、画像上の車線と重複しない位置に表示する。この際、自車両V1の後端と変動表示バーの端点q1が車両の進行方向で一致するように設定される。図3A、図3Bに示す例でも同様に変動表示バーQ2を表示する。
 その後、図10CのステップS26において、注意対象の現在位置を特定する。具体的には、図2Aに示したように、走行車線L2上で、自車両V1よりも後方を走行する他車両V2を注意対象として特定する。
 ステップS27において、変動表示バー描画回路14は、他車両V2(注意対象)の現在位置に応じて、変動表示バーQ1の指示点q3を変動させ、着色領域を変動させる。前述したように、自車両の乗員は、変動表示バーQ1或いはQ2の着色領域の変化を見て自車両V1が車線変更するタイミング、及び他車両V2の前方に進入するか、或いは後方に進入するかを認識できる。
 ステップS28において、他車両V2が変動表示バーQ1の終点に達したか否かを判断し、終点に達した場合には、ステップS29において、変動表示バーの表示を終了する。
 ステップS30において、自動運転機能による走行を終了するか否かが判断され、終了する場合には、本処理を終了する。
 一方、図10AのステップS15の処理で「交差点」であると判断された場合には、図10BのステップS19において、注意対象は、横断歩道を歩行中の歩行者であるか或いは対向車両であるかが判断される。
 歩行者であると判断された場合には、ステップS20において、障害物位置検出回路13は、横断歩道の位置、及び歩行者の位置を検出する。例えば、前述した図4Aに示したように、自車両V1の前方画像上の、横断歩道31、及び歩行者21を検出する。
 ステップS21において、端点設定回路12及び変動表示バー描画回路14は、横断歩道31に対して平行となる方向に変動表示バーの向きを設定し、更に、ステップS22において、横断歩道31の両端位置に基づいて変動表示バーの端部を設定する。図4Aに示す例では変動表示バーQ3を表示する。更に、歩行者の歩行方向に基づいて、着色領域の起点を設定する。図4Aでは、端点q12を起点に設定する。
 その後、図10CのステップS26において、注意対象の現在位置を特定する。具体的には、図4Aに示したように、横断歩道31を歩行する歩行者21を注意対象として特定する。
 ステップS27において、変動表示バー描画回路14は、歩行者21(注意対象)の現在位置に応じて、変動表示バーQ3の表示位置を変更する。具体的には、指示点q13の表示位置を図4Aから、図4Bに変更する。このため、乗員は、変動表示バーQ3の着色領域の変化を見て自車両V1が走行を開始するタイミングを認識できる。
 なお、図5A、図5Bに示す例においても同様に、変動表示バーQ4の表示を変動させることにより、自車両V1が走行を開始するタイミングを認識できる。以下、前述と同様に、ステップS28~S30の処理が実施される。
 一方、図10Bに示すステップS19の処理で「対向車両」であると判断された場合には、ステップS23において、障害物位置検出回路13は、交差点の位置、及び対向車両の位置を検出する。例えば、前述した図8Aに示したように、自車両V1周囲画像上の対向車線に、対向車両V21を検出する。
 ステップS24において、端点設定回路12及び変動表示バー描画回路14は、対向車両V21の走行方向に対して平行となる方向に変動表示バーの向きを設定し、更に、ステップS25において、始点、終点を設定して、変動表示バーQ7を表示する。
 その後、ステップS26において、注意対象の現在位置を特定する。具体的には、図8Aに示したように、対向車両V21を注意対象として特定する。
 ステップS27において、変動表示バー描画回路14は、対向車両V21の現在位置に応じて、変動表示バーQ7に表示する指示点q53を変動させる。具体的には、図8A、図8B、図8Cの順に、指示点q53を変動させる。前述したように、自車両V1の乗員は、変動表示バーQ7の着色領域の変化を見て自車両V1が走行を開始するタイミングを認識できる。以下、前述と同様に、ステップS28~S30の処理が実施される。
 なお、図10A、図10B、図10Cに示したフローチャートでは、図2A、図2B、図3A、図3Bに示した車線変更、図4A、図4B、図5A、図5Bに示した横断歩道の歩行者通過待ち、図8A、図8B、図8Cに示した対向車両待ちの場合の処理について説明したが、図6A、図6Bに示したように交差点を左折する場合、図7A、図7Bに示したように交差点を右折する場合についても、上記と同様の処理により、変動表示バーを表示し、注意対象の移動に応じて着色領域を変化させることにより、自車両V1の行動が変化するタイミングを示すことが可能である。
[効果の説明]
 上記のように構成された本実施形態では、以下に示す効果が得られる。
(1)自車両V1が有する自動運転機能により、自車両V1の行動が切り替わるタイミング、例えば、車線変更のタイミングや交差点で発車するタイミングを、自車両V1の周囲状況に連動して表示するので、乗員は行動が切り替わるタイミングを感覚的に認識でき、乗員が感じる違和感を抑制することができる。
(2)自車両V1の行動が切り替わるタイミングを、全体表示枠に対する指示点(指示位置)が周囲状況に連動して変化する変動表示バーで表示するので、自車両V1の行動が切り替わるタイミングまでの周囲状況の変化を知ることができ、行動の切り替わりのタイミングを適切に知ることができる。
(3)自車両V1と他車両等の注意対象との相対距離に基づいて、自車両V1の行動が切り替わるタイミングを表示するので、注意対象が自車両V1の行動を切り替えるトリガーとなっている場合に、注意対象との相対的な位置関係に合わせて行動が切り替わるタイミングを表示できるため、乗員は行動が切り替わるタイミングをより適切に知ることができる。
(4)変動表示バーに表示する指示点の、端部からの長さが、自車両V1と注意対象の位置に応じて設定されるので、注意対象が自車両V1の行動を切り替えるトリガーとなっている場合に、注意対象との相対的な位置関係に合わせて行動が切り替わるタイミングを表示できるため、乗員は行動が切り替わるタイミングをより適切に知ることができる。
(5)変動表示バーの動きと、注意対象の移動方向を対応させるので、注意対象が自車両V1の行動を切り替えるトリガーとなっている場合に、注意対象の移動方向に合わせて、切り替わるタイミングを表示できるため、乗員は行動が切り替わるタイミングをより適切に知ることができる。
(6)変動表示バーの動きの方向と、注意対象の移動方向を一致させるので、注意対象の移動方向に対して違和感なく変動表示バーの表示を見ることができ、乗員は行動が切り替わるタイミングをより適切に知ることができる。
(7)変動表示バーの端部位置と、注意対象の位置を一致させるので、注意対象と変動表示バーの表示とを容易に対応させることでき、乗員は行動が切り替わるタイミングをより適切に知ることができる。
(8)変動表示バーをグラデュエーション表示とすることにより、注意対象の現在位置を一定の範囲で曖昧に表示することができ、注意対象の移動に変動が生じた場合でも、乗員は行動が切り替わるタイミングを適切に知ることができる。
 なお、本実施形態における行動が切り替わるタイミングには、車両が発進するタイミング、車両が停車するタイミング、加速を始めるタイミング、減速を始めるタイミング、操舵角が変速するタイミング、操舵角の角速度が変化するタイミング、右左折を開始するタイミング、右左折を終了するタイミング、車線変更を開始するタイミング、車線変更が終了するタイミング、など、車両の行動、挙動が変化するタイミングであれば含まれる。
 以上、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
 1 表示コントローラ
 2 表示器
 3 地図データベース
 4 GPS装置
 5 LRF
 6 カメラ
 7 舵角センサ
 8 車速センサ
 11 シーン特定回路
 12 端点設定回路
 13 障害物位置検出回路
 14 変動表示バー描画回路
 15 表示回路
 16 画像合成回路

Claims (8)

  1.  自動運転機能を有する自車両の周囲状況を検出し、検出した前記周囲状況を表示する周囲状況の表示方法であって、
     前記自動運転機能によって自車両の行動が切り替わるタイミングを、所定の表示枠を有し該表示枠内での指示位置を変動して表示する変動表示バーで表示すること
     を特徴とする周囲状況の表示方法。
  2.  前記周囲状況として、前記自車両周囲の注意対象を検出し、
     前記自車両と前記注意対象との相対距離に応じて、前記表示枠内の指示位置を変動させること
     を特徴とする請求項1に記載の周囲状況の表示方法。
  3.  前記周囲状況として、自車両周囲の注意対象を検出し、
     前記変動表示バーの一方の端部から前記指示位置までの長さが、前記自車両と前記注意対象の位置に応じて設定されること
     を特徴とする請求項1に記載の周囲状況の表示方法。
  4.  前記周囲状況として、自車両周囲の注意対象を検出し、
     前記変動表示バーの動きと、前記注意対象の移動方向を対応させることを特徴とする請求項1~3のいずれか1項に記載の周囲状況の表示方法。
  5.  前記変動表示バーの動きの方向と、前記注意対象の移動方向を一致させることを特徴とする請求項4に記載の周囲状況の表示方法。
  6.  前記変動表示バーの端部位置と、前記注意対象の位置を一致させることを特徴とする請求項4または5に記載の周囲状況の表示方法。
  7.  前記変動表示バーの指示位置を、グラデュエーション表示することを特徴とする請求項1に記載の周囲状況の表示方法。
  8.  自動運転機能を有する自車両の周囲状況を検出し、検出した前記周囲状況を表示する周囲状況の表示装置であって、
     前記自動運転機能によって自車両の行動が切り替わるタイミングを、所定の表示枠を有し該表示枠内での指示位置を変動して表示する変動表示バーで表示する表示器
     を備えたことを特徴とする周囲状況の表示装置。
PCT/JP2017/027444 2017-07-28 2017-07-28 周囲状況の表示方法及び表示装置 WO2019021458A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
KR1020207003394A KR102303362B1 (ko) 2017-07-28 2017-07-28 주위 상황의 표시 방법 및 표시 장치
PCT/JP2017/027444 WO2019021458A1 (ja) 2017-07-28 2017-07-28 周囲状況の表示方法及び表示装置
EP17918881.8A EP3660811B1 (en) 2017-07-28 2017-07-28 Surrounding situation display method and surrounding situation display device
CA3071091A CA3071091A1 (en) 2017-07-28 2017-07-28 Surrounding situation display method and surrounding situation display device
BR112020001742-6A BR112020001742A2 (pt) 2017-07-28 2017-07-28 método de exibição de situação circundante e dispositivo de exibição de situação circundante
CN201780093521.8A CN111183466B (zh) 2017-07-28 2017-07-28 周围状况的显示方法以及显示装置
US16/633,999 US11338824B2 (en) 2017-07-28 2017-07-28 Surrounding situation display method and surrounding situation display device
JP2019532321A JP6819786B2 (ja) 2017-07-28 2017-07-28 周囲状況の表示方法及び表示装置
RU2020108463A RU2737645C1 (ru) 2017-07-28 2017-07-28 Способ отображения окружающей обстановки и устройство отображения окружающей обстановки

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/027444 WO2019021458A1 (ja) 2017-07-28 2017-07-28 周囲状況の表示方法及び表示装置

Publications (1)

Publication Number Publication Date
WO2019021458A1 true WO2019021458A1 (ja) 2019-01-31

Family

ID=65039547

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/027444 WO2019021458A1 (ja) 2017-07-28 2017-07-28 周囲状況の表示方法及び表示装置

Country Status (9)

Country Link
US (1) US11338824B2 (ja)
EP (1) EP3660811B1 (ja)
JP (1) JP6819786B2 (ja)
KR (1) KR102303362B1 (ja)
CN (1) CN111183466B (ja)
BR (1) BR112020001742A2 (ja)
CA (1) CA3071091A1 (ja)
RU (1) RU2737645C1 (ja)
WO (1) WO2019021458A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020203066A1 (ja) * 2019-04-01 2020-10-08 株式会社デンソー 表示制御装置及び表示制御プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018204500A1 (de) * 2018-03-23 2019-09-26 Continental Automotive Gmbh System zur Erzeugung von Konfidenzwerten im Backend

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01122000A (ja) * 1987-11-06 1989-05-15 Alpine Electron Inc 進行方向切替予告方法
JP2003157493A (ja) * 2001-11-19 2003-05-30 Mazda Motor Corp 車両用走行支援装置
JP2007024599A (ja) * 2005-07-13 2007-02-01 Denso Corp 車載ナビゲーション装置
JP2016130971A (ja) 2015-01-14 2016-07-21 日立オートモティブシステムズ株式会社 車載用制御装置、自車位置姿勢特定装置、車載用表示装置
WO2017064798A1 (ja) * 2015-10-15 2017-04-20 日産自動車株式会社 車線変更情報の提示制御方法および提示装置
JP2017074918A (ja) * 2015-10-16 2017-04-20 株式会社デンソー 報知管理装置及び報知管理方法
JP2017084112A (ja) * 2015-10-28 2017-05-18 株式会社デンソー 情報提示システム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4201155B2 (ja) * 2000-11-22 2008-12-24 道弘 観音寺 車間距離警報装置
JP2005049138A (ja) * 2003-07-30 2005-02-24 Pioneer Electronic Corp 交通状況報知装置、そのシステム、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
JP4956915B2 (ja) * 2005-05-20 2012-06-20 日産自動車株式会社 映像表示装置及び映像表示方法
JP4774849B2 (ja) * 2005-07-27 2011-09-14 日産自動車株式会社 車両の障害物表示装置
JP2007170864A (ja) * 2005-12-19 2007-07-05 Fujitsu Ten Ltd 車両走行支援装置,交通指示機の通行/停止指示状態予測方法および待ち時間予測方法ならびに車両走行支援システム
JP2007176244A (ja) * 2005-12-27 2007-07-12 Aisin Seiki Co Ltd 駐車支援装置
JP4760517B2 (ja) * 2006-05-09 2011-08-31 住友電気工業株式会社 車両減速判定システム、車載装置、路側装置、コンピュータプログラム及び車両減速判定方法
JPWO2010073378A1 (ja) * 2008-12-26 2012-05-31 トヨタ自動車株式会社 運転支援装置
JP2011103080A (ja) * 2009-11-11 2011-05-26 Fuji Heavy Ind Ltd 車両情報提示装置
CN202080195U (zh) * 2011-03-28 2011-12-21 刘熙来 汽车智能传感电子后视装置
US9092987B2 (en) * 2011-05-20 2015-07-28 Honda Motor Co., Ltd. Lane change assist information visualization system
WO2013030903A1 (ja) * 2011-08-26 2013-03-07 トヨタ自動車株式会社 運転支援装置及び運転支援方法
CN104221066B (zh) * 2012-03-30 2016-08-31 丰田自动车株式会社 驾驶辅助装置
JP6056682B2 (ja) * 2013-06-27 2017-01-11 株式会社デンソー 車両用情報提供装置
JP2015079299A (ja) * 2013-10-15 2015-04-23 株式会社デンソー 運転支援装置
JP2015154602A (ja) * 2014-02-14 2015-08-24 トヨタ自動車株式会社 運転支援装置及び運転支援方法
JP6390323B2 (ja) * 2014-02-24 2018-09-19 日本精機株式会社 車両用情報提供装置
JP6537780B2 (ja) * 2014-04-09 2019-07-03 日立オートモティブシステムズ株式会社 走行制御装置、車載用表示装置、及び走行制御システム
JP6278222B2 (ja) * 2014-07-01 2018-02-14 日産自動車株式会社 車両用表示装置及び車両用表示方法
JP6206378B2 (ja) * 2014-11-21 2017-10-04 トヨタ自動車株式会社 運転支援装置
JP6515519B2 (ja) * 2014-12-12 2019-05-22 株式会社デンソー 車両用表示制御装置及び車両用表示制御方法
CN104658293A (zh) * 2015-01-14 2015-05-27 张宏 车辆安全行驶预警系统
JP2016199204A (ja) * 2015-04-14 2016-12-01 トヨタ自動車株式会社 車両制御装置
KR101843773B1 (ko) * 2015-06-30 2018-05-14 엘지전자 주식회사 차량 운전 보조 장치, 차량용 디스플레이 장치 및 차량
CN105091896B (zh) * 2015-08-06 2017-12-05 平安科技(深圳)有限公司 驾驶行为提醒方法、车辆及电子设备
JP6394914B2 (ja) * 2015-11-11 2018-09-26 トヨタ自動車株式会社 運転支援装置
CN106379324A (zh) * 2016-09-12 2017-02-08 深圳市元征科技股份有限公司 车辆并道提示方法及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01122000A (ja) * 1987-11-06 1989-05-15 Alpine Electron Inc 進行方向切替予告方法
JP2003157493A (ja) * 2001-11-19 2003-05-30 Mazda Motor Corp 車両用走行支援装置
JP2007024599A (ja) * 2005-07-13 2007-02-01 Denso Corp 車載ナビゲーション装置
JP2016130971A (ja) 2015-01-14 2016-07-21 日立オートモティブシステムズ株式会社 車載用制御装置、自車位置姿勢特定装置、車載用表示装置
WO2017064798A1 (ja) * 2015-10-15 2017-04-20 日産自動車株式会社 車線変更情報の提示制御方法および提示装置
JP2017074918A (ja) * 2015-10-16 2017-04-20 株式会社デンソー 報知管理装置及び報知管理方法
JP2017084112A (ja) * 2015-10-28 2017-05-18 株式会社デンソー 情報提示システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3660811A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020203066A1 (ja) * 2019-04-01 2020-10-08 株式会社デンソー 表示制御装置及び表示制御プログラム
JP2020168892A (ja) * 2019-04-01 2020-10-15 株式会社デンソー 表示制御装置及び表示制御プログラム
JP7059975B2 (ja) 2019-04-01 2022-04-26 株式会社デンソー 表示制御装置及び表示制御プログラム

Also Published As

Publication number Publication date
US20200353948A1 (en) 2020-11-12
US11338824B2 (en) 2022-05-24
CA3071091A1 (en) 2019-01-31
JP6819786B2 (ja) 2021-01-27
RU2737645C1 (ru) 2020-12-01
BR112020001742A2 (pt) 2020-07-21
EP3660811B1 (en) 2023-07-19
JPWO2019021458A1 (ja) 2020-09-03
CN111183466B (zh) 2023-06-09
EP3660811A4 (en) 2020-08-05
KR102303362B1 (ko) 2021-09-23
CN111183466A (zh) 2020-05-19
EP3660811A1 (en) 2020-06-03
KR20200026287A (ko) 2020-03-10

Similar Documents

Publication Publication Date Title
JP6680136B2 (ja) 車外表示処理装置及び車外表示システム
US10773731B2 (en) Driving assistance apparatus
JP6591087B2 (ja) 表示制御装置、表示装置および表示制御方法
US20180354517A1 (en) Driving assistance apparatus
JP6398957B2 (ja) 車両制御装置
US11900812B2 (en) Vehicle control device
KR20210038633A (ko) 차량 혼합 현실의 조건부 가용성
JP6744064B2 (ja) 自動車用画像表示システム
US11996018B2 (en) Display control device and display control program product
JP6459205B2 (ja) 車両用表示システム
US20180101737A1 (en) Driving assistant apparatus using front monitoring apparatus and driving assistant method using front monitoring apparatus
JP2019001314A (ja) 走行支援装置及び制御プログラム
KR102303362B1 (ko) 주위 상황의 표시 방법 및 표시 장치
JP2016031603A (ja) 車両用表示システム
JP2021149319A (ja) 表示制御装置、表示制御方法およびプログラム
WO2017138343A1 (ja) 運転教示装置
CN116802709A (zh) 显示控制装置和显示控制方法
JP2020138609A (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
JP7172730B2 (ja) 車両用表示制御装置、車両用表示制御方法、車両用表示制御プログラム
US20230064724A1 (en) Danger notification method, danger notification device, and non-transitory storage medium
JP2021028587A (ja) 車載表示制御装置
CN117337253A (zh) 车辆用报告控制装置以及车辆用报告控制方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17918881

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019532321

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3071091

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112020001742

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 20207003394

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2017918881

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 112020001742

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20200127