WO2018096644A1 - 車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラム - Google Patents

車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラム Download PDF

Info

Publication number
WO2018096644A1
WO2018096644A1 PCT/JP2016/084921 JP2016084921W WO2018096644A1 WO 2018096644 A1 WO2018096644 A1 WO 2018096644A1 JP 2016084921 W JP2016084921 W JP 2016084921W WO 2018096644 A1 WO2018096644 A1 WO 2018096644A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
display control
surrounding
unit
display
Prior art date
Application number
PCT/JP2016/084921
Other languages
English (en)
French (fr)
Inventor
賢太郎 石坂
嘉崇 味村
Original Assignee
本田技研工業株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 本田技研工業株式会社 filed Critical 本田技研工業株式会社
Priority to US16/462,949 priority Critical patent/US20190279507A1/en
Priority to PCT/JP2016/084921 priority patent/WO2018096644A1/ja
Priority to CN201680090990.XA priority patent/CN109983305A/zh
Priority to JP2018552345A priority patent/JPWO2018096644A1/ja
Publication of WO2018096644A1 publication Critical patent/WO2018096644A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • B60K2360/166
    • B60K2360/171
    • B60K2360/178
    • B60K2360/179
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Definitions

  • the present invention relates to a display control device for a vehicle, a display control method for a vehicle, and a display control program for a vehicle.
  • Patent Document 1 a technique for predicting the behavior of a vehicle present in the vicinity of a host vehicle is known (see, for example, Patent Document 1).
  • the present invention has been made in consideration of such circumstances, and provides a display control device for a vehicle, a display control method for a vehicle, and a display control program for a vehicle that can give a sense of security to a vehicle occupant. As one of the goals.
  • the invention according to claim 1 predicts future behavior of a surrounding vehicle present in the vicinity of the host vehicle, and derives an index value that quantifies the possibility that the predicted future behavior will be taken;
  • a display control unit that causes a display unit to display an image in which an image element based on an index value that quantifies the possibility that the future behavior for each of the surrounding vehicles derived by the prediction deriving unit is taken And a display control device for a vehicle.
  • the prediction deriving unit predicts a plurality of future actions of the surrounding vehicle, and for each of the plurality of predicted future actions.
  • the display unit is configured to derive the index value, and the display control unit associates an image element based on the index value for each future behavior of the surrounding vehicle derived by the prediction deriving unit with the surrounding vehicle. It is displayed on the
  • the invention according to claim 3 is the display control device for a vehicle according to claim 2, wherein the display control unit determines that the degree of influence on the subject vehicle is a reference value among a plurality of future actions of the surrounding vehicle.
  • the expression aspect of the corresponding image element is changed between the action in the lower direction and the action in the direction in which the degree of influence on the host vehicle is higher than the reference value.
  • the invention according to claim 4 is the display control device for a vehicle according to claim 2, wherein, among the plurality of future actions of the surrounding vehicle, the display control unit determines that the degree of influence on the vehicle is higher than a reference value.
  • the display unit displays an image in which an image element based on the index value corresponding to an action in a high direction is associated with the surrounding vehicle.
  • the display control apparatus for a vehicle according to a fourth aspect of the present invention in the display control unit for a vehicle according to the fourth aspect, the degree of influence on the own vehicle among the plurality of future actions of the An image in which an image element based on the index value corresponding to an action lower than a reference value is associated with the surrounding vehicle is displayed on the display unit.
  • the surrounding vehicle performs the action of the direction in which the degree of influence on the host vehicle is higher than the reference value. It is an action that approaches relatively.
  • the invention according to claim 7 is the display control device for a vehicle according to claim 3, wherein the action of the direction in which the degree of influence on the host vehicle is higher than the reference value is that the surrounding vehicle is ahead of the host vehicle. It is an action to interrupt.
  • the invention according to claim 8 is the display control apparatus for a vehicle according to claim 1, wherein the display control unit changes the index value corresponding to the future behavior of each surrounding vehicle derived by the prediction deriving unit. To change the representation aspect of the image element step by step or continuously.
  • the invention according to claim 9 is the display control apparatus for a vehicle according to claim 1, wherein the prediction deriving unit predicts future behavior for a surrounding vehicle whose degree of influence on the host vehicle is larger than a reference value. It is a thing.
  • the invention according to claim 10 is the display control apparatus for a vehicle according to claim 9, wherein a surrounding vehicle whose degree of influence on the host vehicle is larger than a reference value travels in front of the host vehicle.
  • the vehicle In a lane adjacent to a lane in which the vehicle travels, the vehicle includes a vehicle traveling in front of the vehicle or at least one vehicle traveling in parallel with the vehicle.
  • the invention according to claim 11 is the display control device for a vehicle according to claim 1, wherein the prediction deriving unit determines a relative speed between the host vehicle and the surrounding vehicle, between the host vehicle and the surrounding vehicle.
  • the index value is derived based on the inter-vehicle distance or the acceleration / deceleration of the surrounding vehicle.
  • the invention according to claim 12 is the display control device for a vehicle according to claim 1, wherein the prediction deriving unit derives the index value based on the condition of the lane in which the surrounding vehicle travels.
  • an on-board computer mounted on a vehicle provided with a display unit predicts future behavior of a surrounding vehicle present around the vehicle, and the predicted future behavior may be taken.
  • the indicator unit is derived by deriving an index value by quantifying the image value in which an image element based on the index value quantifying the possibility that the future action for each of the surrounding vehicles is taken is associated with the Is a display control method for a vehicle displayed on the display.
  • a process of predicting the future behavior of a surrounding vehicle present around the vehicle and the predicted future behavior are taken.
  • the process which derives the index value which quantified possibility, the image which matched the image element based on the index value which quantified the possibility that the future action for each said peripheral vehicle which was derived was matched with said peripheral vehicle It is a display control program for vehicles which performs processing displayed on the above-mentioned indicator.
  • the future behavior of the surrounding vehicle present in the vicinity of the own vehicle is predicted, and the index value quantifying the possibility that the predicted future behavior is taken is derived and derived.
  • a vehicle occupant can be given a sense of security by displaying on the display unit an image in which an image element based on an index value quantifying the possibility that future behavior for each peripheral vehicle will be taken is associated with the peripheral vehicle. .
  • FIG. 3 It is a figure which shows a mode that the relative position and attitude
  • FIG. It is a figure which shows a mode that a target track
  • FIG. 1 is a configuration diagram of a vehicle system 1 including a display control device 100 for a vehicle in the first embodiment.
  • the vehicle on which the vehicle system 1 is mounted is, for example, a vehicle such as a two-wheeled vehicle, a three-wheeled vehicle, or a four-wheeled vehicle, and a driving source thereof is an internal combustion engine such as a diesel engine or a gasoline engine, an electric motor, or a combination thereof.
  • the electric motor operates using the power generated by a generator connected to the internal combustion engine or the discharge power of a secondary battery or a fuel cell.
  • the vehicle system 1 includes, for example, a camera 10, a radar device 12, a finder 14, an object recognition device 16, a communication device 20, an HMI (Human Machine Interface) 30, a vehicle sensor 40, and a display control device for a vehicle. And 100. These devices and devices are mutually connected by a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network or the like.
  • a multiplex communication line such as a CAN (Controller Area Network) communication line, a serial communication line, a wireless communication network or the like.
  • the configuration shown in FIG. 1 is merely an example, and a part of the configuration may be omitted, or another configuration may be added.
  • the camera 10 is, for example, a digital camera using a solid-state imaging device such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).
  • CMOS complementary metal oxide semiconductor
  • One or more cameras 10 are attached to any part of a vehicle (hereinafter referred to as a host vehicle M) on which the vehicle system 1 is mounted.
  • the camera 10 When imaging the front, the camera 10 is attached to the top of the front windshield, the rear surface of the rearview mirror, or the like.
  • the camera 10 periodically and repeatedly captures the periphery of the vehicle M.
  • the camera 10 may be a stereo camera.
  • the radar device 12 emits radio waves such as millimeter waves around the host vehicle M and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object.
  • radio waves such as millimeter waves around the host vehicle M and detects radio waves (reflected waves) reflected by the object to detect at least the position (distance and direction) of the object.
  • One or more of the radar devices 12 are attached to any part of the host vehicle M.
  • the radar device 12 may detect the position and the velocity of the object by a frequency modulated continuous wave (FM-CW) method.
  • FM-CW frequency modulated continuous wave
  • the finder 14 is LIDAR (Light Detection and Ranging, or Laser Imaging Detection and Ranging) which measures scattered light with respect to the irradiation light and detects the distance to the object.
  • LIDAR Light Detection and Ranging, or Laser Imaging Detection and Ranging
  • One or more finders 14 are attached to any part of the host vehicle M.
  • the object recognition device 16 performs sensor fusion processing on the detection result of a part or all of the camera 10, the radar device 12, and the finder 14 to recognize the position, type, speed, etc. of the object.
  • the object recognition device 16 outputs the recognition result to the vehicle display control device 100.
  • the communication device 20 uses, for example, a cellular network, a Wi-Fi network, Bluetooth (registered trademark), DSRC (Dedicated Short Range Communication), etc., and other vehicles exist around the host vehicle M (an example of a surrounding vehicle) It communicates with various server devices via the wireless base station.
  • the HMI 30 presents various information to the occupant of the host vehicle M, and accepts input operation by the occupant.
  • the HMI 30 includes, for example, a display device 30a.
  • the HMI 30 may also be equipped with a speaker, a buzzer, a touch panel, a switch, keys (all not shown), and the like.
  • the display device 30a is, for example, an LCD (Liquid Crystal Display), an organic EL (Electroluminescence) display device, or the like which is attached to each part of an instrument panel, an optional position facing a front passenger seat or a rear seat.
  • the display device 30a may be a HUD (Head Up Display) that projects an image on a windshield or other windows.
  • the display device 30 a is an example of a “display unit”.
  • the vehicle sensor 40 includes a vehicle speed sensor that detects the speed of the host vehicle M, an acceleration sensor that detects acceleration, a yaw rate sensor that detects an angular velocity around the vertical axis, and an azimuth sensor that detects the direction of the host vehicle M.
  • the vehicle sensor 40 outputs the detected information (speed, acceleration, angular velocity, azimuth, etc.) to the vehicle display control device 100.
  • the vehicle display control device 100 includes, for example, an external world recognition unit 101, a prediction derivation unit 102, and a display control unit 103.
  • a processor such as a central processing unit (CPU) executes a program (software) to realize some or all of these components.
  • some or all of these components may be realized by hardware such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), etc. It may be realized by cooperation of hardware.
  • FIG. 2 is a flowchart showing an example of the flow of a series of processes by the display control device 100 for a vehicle in the first embodiment.
  • the external world recognition unit 101 recognizes the "state" of the surveillance vehicle based on information input directly from the camera 10, the radar device 12, and the finder 14 or via the object recognition device 16 (step S100).
  • the surveillance vehicle is a peripheral vehicle having a large degree of influence on the host vehicle M and not more than a predetermined number (for example, three) among one or more peripheral vehicles. “The degree of influence on the host vehicle M is large” means, for example, that the amount of control of the host vehicle M's acceleration / deceleration or steering increases in accordance with acceleration / deceleration or steering by the monitoring vehicle.
  • the surveillance vehicle is, for example, a vehicle traveling in front of the vehicle M or a vehicle M traveling in front of the vehicle M in the adjacent lane adjacent to the lane where the vehicle M is traveling. And running vehicles.
  • the external world recognition unit 101 recognizes the position, speed, acceleration, jerk, etc. of the surveillance vehicle as the “state” of the surveillance vehicle. For example, the external world recognition unit 101 recognizes the relative position of the surveillance vehicle with respect to the road division line partitioning the lane in which the surveillance vehicle travels. The position of the surveillance vehicle may be represented by a representative point such as the center of gravity or a corner of the surveillance vehicle, or may be represented by an area represented by the contour of the surveillance vehicle. In addition, the external world recognition unit 101 may recognize, as the “state” of the surveillance vehicle, lighting or blinking of various lamps such as a head lamp mounted on the surveillance vehicle, a tail lamp, and a blinker (turn lamp).
  • various lamps such as a head lamp mounted on the surveillance vehicle, a tail lamp, and a blinker (turn lamp).
  • the prediction deriving unit 102 predicts the future behavior of the monitoring vehicle whose state has been recognized by the external world recognition unit 101 (step S102). For example, whether the forecast deriving unit 102 changes the lane from the current lane to the own lane (into the own lane) in the future according to lighting or blinking of various lamps of the surveillance vehicle traveling in the adjacent lane It predicts whether the surveillance vehicle will change lanes from the current lane to a lane other than the own lane.
  • the prediction / derivation unit 102 may determine whether the monitoring vehicle will decelerate in the future, based on, for example, the speed, acceleration / deceleration, or jerk of the monitoring vehicle at the time when the external world recognition unit 101 recognizes the state. Predict if you want to
  • the prediction deriving unit 102 may predict whether the monitoring vehicle will accelerate or decelerate or change lanes in the future based on the speed, the position, and the like of other surrounding vehicles excluding the monitoring vehicle.
  • the prediction deriving unit 102 derives a probability (hereinafter, referred to as an occurrence probability) in the case where the predicted behavior is taken by the surveillance vehicle (step S104). For example, the prediction deriving unit 102 derives the occurrence probability of the predicted action for each direction centered on the reference point (for example, the center of gravity or the like) of the monitoring vehicle.
  • the occurrence probability is an example of the “index value that quantifies the possibility that the future action will be taken”.
  • FIG. 3 is a diagram showing an example of an occurrence probability (occurrence probability for each azimuth angle) when the azimuth centering on the reference point of the surveillance vehicle is divided at predetermined angles.
  • the "upper” in the figure indicates the direction in which the relative distance between the surveillance vehicle and the vehicle M increases with respect to the traveling direction of the surveillance vehicle, and the “down” indicates the surveillance vehicle and the vehicle M with respect to the traveling direction of the surveillance vehicle. Indicates the direction in which the relative distance with Also, “right” indicates the right direction with respect to the traveling direction of the surveillance vehicle, and “left” indicates the left direction with respect to the traveling direction of the surveillance vehicle.
  • the display control unit 103 controls the display device 30a to display an image in which the image element expressing the occurrence probability derived by the prediction deriving unit 102 is arranged around the surveillance vehicle (step S106).
  • the display control unit 103 causes the display device 30a to display an image in which the distribution curve DL based on the occurrence probability as shown in FIG. 4 is arranged around the surveillance vehicle as an image element expressing the occurrence probability of each direction. .
  • FIG. 4 is a view showing an example of an image displayed on the display device 30a.
  • L1 represents the own lane
  • L2 represents the adjacent lane on the right in the traveling direction of the own vehicle M (hereinafter referred to as the right adjacent lane)
  • L3 represents the adjacent lane on the left in the traveling direction of the own vehicle M (hereinafter referred to as , Referred to as the left adjacent lane).
  • ma represents a forward vehicle
  • mb represents a surveillance vehicle traveling in the right adjacent lane
  • mc represents a surveillance vehicle traveling in the left adjacent lane.
  • the display control unit 103 controls the display device 30a to display an image in which the distribution curve DL indicating the distribution of the occurrence probability is disposed around the surveillance vehicle around the surveillance vehicles.
  • the distribution curve DL is such that the expression aspect is changed stepwise or continuously while the occurrence probability changes, and the direction (orientation) in which the monitoring vehicle moves when the predicted action occurs.
  • the magnitude of the occurrence probability of the action is represented by the shape of a curve.
  • the relative position of the front traveling vehicle ma with respect to the host vehicle M approaches the host vehicle M, so a distribution curve around the front traveling vehicle ma as illustrated.
  • the DL is displayed in a state in which the distance from the front vehicle ma to the rear vehicle of the front vehicle ma is increased.
  • the distribution curve DL around the monitoring vehicle mb is the left side of the monitoring vehicle mb It is displayed in a shape in which the distance from the surveillance vehicle mb is extended as the area of the surface.
  • FIG. 5 is a diagram for more specifically explaining the occurrence probability for each azimuth angle.
  • the prediction deriving unit 102 predicts the behavior of the surveillance vehicle in the lane width direction based on the relative position of the surveillance vehicle with respect to the road marking recognized by the external world recognition unit 101, and occurrence of the predicted behavior Derive the probability.
  • CL indicates a road division line that divides the own lane L1 and the right adjacent lane L2
  • G indicates the center of gravity of the surveillance vehicle mb.
  • the distance ⁇ W2 is shorter I understand.
  • the monitoring vehicle mb is more likely to change lanes to the own lane L1 in the situation shown in (b) than in the situation shown in (a). Therefore, regardless of the presence or absence of lighting of various lamps by the monitoring vehicle mb, the prediction deriving unit 102 has a higher probability that the monitoring vehicle mb has a higher probability than the condition shown in (a). Predict to change lanes.
  • the prediction deriving unit 102 has an occurrence probability of an action in the lane width direction (the direction in which the monitoring vehicle mb approaches the own lane L1). Derive higher. Note that the prediction deriving unit 102 may derive the occurrence probability even higher if lighting of various lamps by the surveillance vehicle or the like occurs. In the illustrated example, the occurrence probability in the direction in which the monitoring vehicle mb approaches the own lane L1 is derived as 0.40 in the situation of (a) and is derived as 0.70 in the situation of (b). These occurrence probabilities may be displayed together with the distribution curve DL as shown, or may be displayed alone.
  • the distance between the distribution curve DL in (b) and the surveillance vehicle mb in the lane width direction becomes wider, and it is predicted that the occupant of the host vehicle M will be closer to the host vehicle M. It can be made to warn the surrounding vehicles.
  • FIG. 6 is a diagram for more specifically explaining the occurrence probability for each azimuth angle.
  • the prediction deriving unit 102 predicts the behavior of the surveillance vehicle in the vehicle traveling direction based on the velocity of the surveillance vehicle recognized by the external world recognition unit 101 and the velocity of the host vehicle M detected by the vehicle sensor 40. , Derive the occurrence probability of the predicted action.
  • VM represents the magnitude of the speed of the host vehicle M
  • Vma1 and Vma2 represent the magnitude of the speed of the leading vehicle ma.
  • the relative velocity (Vma2-VM) is smaller. I understand that. In this case, it can be determined that the situation shown in (b) is more likely to reduce the inter-vehicle distance with the leading vehicle ma in the future, as compared to the situation shown in (a). Therefore, the prediction deriving unit 102 predicts that the monitoring vehicle mb will decelerate with high probability in the situation shown in (b) compared to the situation shown in (a).
  • the prediction deriving unit 102 compared with the situation shown in (a), the prediction deriving unit 102 generates an action in the vehicle traveling direction (the direction in which the leading vehicle ma approaches the host vehicle M) in the situation shown in (b) Deriving the probability higher.
  • the occurrence probability in the direction in which the leading vehicle ma approaches the host vehicle M is derived as 0.30 in the situation of (a) and is derived as 0.80 in the situation of (b).
  • the distance between the distribution curve DL in (b) and the preceding vehicle ma in the traveling direction of the vehicle becomes wider, so it is predicted that the occupant M of the vehicle M will be closer to the vehicle M. It is possible to encourage the surrounding vehicles to be alert.
  • the prediction / derivation unit 102 determines the vehicle based on the inter-vehicle distance between the monitoring vehicle and the host vehicle M, or the relative acceleration / deceleration.
  • the behavior of the surveillance vehicle in the traveling direction may be predicted, and the occurrence probability of the predicted behavior may be derived.
  • the prediction deriving unit 102 may predict the behavior of the surveillance vehicle in the vehicle traveling direction or the lane width direction based on the condition of the lane in which the surveillance vehicle travels, and derive the occurrence probability of the predicted behavior.
  • FIG. 7 is a view showing an example of an image displayed on the display device 30a in a scene of predicting the behavior of the surveillance vehicle based on the condition of the lane.
  • A represents a point where the lane is decreased in the right adjacent lane L2 and it is necessary to join another lane (hereinafter referred to as a joining point).
  • the external world recognition unit 101 may recognize the junction point A by referring to map information including information on the junction point A, or a road division line recognized from an image captured by the camera 10
  • the junction point A may be recognized from the pattern of
  • the external world recognition unit 101 performs wireless communication via the communication device 20.
  • the junction point A may be recognized by acquiring information transmitted by the device.
  • the external world recognition unit 101 or the prediction derivation unit 102 may recognize, for example, the lane in which the host vehicle M is traveling (traveling lane) and the relative position and posture of the host vehicle M with respect to the traveling lane.
  • the prediction deriving unit 102 predicts that the monitoring vehicle mb changes lanes to the own lane L1 with high probability when the external world recognition unit 101 recognizes that the junction point A exists in front of the lane on which the monitoring vehicle mb travels. . At this time, the prediction deriving unit 102 may predict that the monitoring vehicle mb accelerates or decelerates in accordance with the lane change. By this, for example, even if the monitoring vehicle mb does not turn on the blinkers etc., the behavior of the monitoring vehicle mb is read ahead, and the behavior that will be performed in the future is represented by the distribution curve DL of occurrence probability be able to.
  • the external world recognition unit 101 may recognize a junction point, an accident occurrence point, or a point such as a toll gate that hinders the progress of the monitoring vehicle.
  • the prediction deriving unit 102 may predict that the monitoring vehicle changes lanes or accelerates / decelerates before a point that hinders the progress of the monitoring vehicle.
  • the prediction deriving unit 102 determines whether the future action of the monitoring vehicle recognized by the external world recognition unit 101 is an action whose degree of influence on the host vehicle M is higher than a reference value or an action lower than the reference value. It may be determined whether there is any.
  • FIG. 8 is a view showing another example of the image displayed on the display device 30a.
  • the situation shown in the drawing represents a situation in which the vehicle ahead ma is trying to overtake the vehicle md ahead. For example, when the forerunner vehicle ma gets closer to one side of the lane in an attempt to overtake the vehicle md ahead, the vehicle md that has not been recognized by the forerunner vehicle ma on the image captured by the camera 10 Will be recognized at a certain timing. At this time, in order to overtake the vehicle md, the prediction deriving unit 102 predicts that the preceding vehicle ma should once change lanes to an adjacent lane.
  • the prediction deriving unit 102 predicts "change lane to adjacent lane” and "acceleration or deceleration” as the action of the leading vehicle ma.
  • the “deceleration” of the front traveling vehicle ma is an action in which the front traveling vehicle ma approaches relatively to the host vehicle M, and therefore the prediction / derivation unit 102 performs the action by the front traveling vehicle ma as the host vehicle M. It is determined that the degree of influence on is higher than the reference value.
  • the direction in which the front traveling vehicle ma relatively approaches the host vehicle M is an example of the “direction in which the degree of influence on the host vehicle is higher than the reference value”.
  • the prediction deriving unit 102 is an action in which the front traveling vehicle ma is relatively moved away from the host vehicle M. It determines that the said action by is an action whose influence degree with respect to the own vehicle M is lower than a reference value.
  • the direction in which the front traveling vehicle ma is relatively moved away from the host vehicle M is an example of the “direction in which the degree of influence on the host vehicle is lower than the reference value”.
  • the display control unit 103 changes the display mode according to the degree of the influence of the behavior of the monitoring vehicle on the host vehicle M.
  • the region Rb of the probability distribution to be displayed are distinguished by colors, patterns, and the like.
  • the display control unit 103 may project an image representing the distribution curve DL of the occurrence probability described above onto the windshield by the HUD.
  • FIG. 9 is a view showing an example of an image projected on the front windshield. As illustrated, for example, the distribution curve DL may be projected on the front windshield in accordance with a vehicle body shadow such as a front-running vehicle.
  • the display control unit 103 represents the distribution curve DL representing the occurrence probability of the future behavior of the surveillance vehicle as a distribution for each direction (orientation) in which the surveillance vehicle moves by the future behavior. Although it shall be displayed, it is not restricted to this.
  • the display control unit 103 may represent the occurrence probability of the future action of the surveillance vehicle by a specific symbol or figure.
  • FIG. 10 is a diagram showing another example of the image displayed on the display device 30a.
  • the display control unit 103 determines the height of the occurrence probability of the future action predicted by the prediction derivation unit 102 and the direction in which the monitoring vehicle moves by the action according to the direction and number of triangles D. expressing. For example, compared with the scene shown in (a), the monitoring vehicle mb traveling on the lane L2 adjacent to the right is closer to the junction point A in the scene shown in (b), and the probability of changing lanes is increased. Therefore, the display control unit 103 causes the occupant of the host vehicle M to recognize how easily the predicted behavior is likely to occur by, for example, increasing the number of triangles D.
  • the display control unit 103 may display a specific symbol or figure only in the direction (orientation) in which the predicted occurrence probability of the future action is the highest, or display while blinking the symbol or figure or the like. You may
  • the prediction deriving unit 102 is described as predicting the future behavior of the surveillance vehicle based on the recognition result by the external world recognition unit 101, but the present invention is not limited thereto.
  • the prediction deriving unit 102 receives information on a future action schedule from the monitoring vehicle by inter-vehicle communication, and monitors based on the received information. Future behavior of the vehicle may be predicted.
  • the prediction deriving unit 102 communicates with the server device via the communication device 20 to acquire information regarding the future action schedule May be
  • the image in which the image element based on the occurrence probability of the action is arranged is described as displaying the image arranged in the periphery of the surveillance vehicle, but the present invention is not limited thereto.
  • the display control unit 103 multiplies or adds not only the occurrence probability but also the displacement amount of the monitoring vehicle at that time to the probability as an assumed displacement amount at a certain point in the future, and the calculation result is It may be treated as "probability".
  • the assumed displacement amount at a certain point in time in the future may be estimated based on, for example, a model obtained from jerk or acceleration of the surveillance vehicle at a predicted point in time.
  • FIG. 11 is a diagram showing another example of the occurrence probability when the direction centering on the reference point of the surveillance vehicle is divided at predetermined angles.
  • the multiplication result of the occurrence probability and the assumed displacement at a certain point in the future is treated as the “probability” when displaying the distribution curve DL.
  • the “probability” that is the calculation result may exceed one.
  • the future action by the monitoring vehicle present around the host vehicle M is predicted, the occurrence probability that the predicted future action can be taken is derived, and the image based on the occurrence probability
  • the occupants of the host vehicle M can feel secure. For example, by displaying, as an image element based on the occurrence probability, a distribution curve DL representing the occurrence probability of the future behavior of the surveillance vehicle as a distribution for each direction (orientation) in which the surveillance vehicle moves by the future behavior.
  • the occupant of the host vehicle M can intuitively recognize the future behavior of the surrounding vehicles.
  • the display control device is simply installed in a vehicle.
  • an example applied to an autonomous driving vehicle will be described.
  • differences from the first embodiment will be mainly described, and descriptions of functions and the like common to the first embodiment will be omitted.
  • FIG. 12 is a block diagram of a vehicle system 1A in the second embodiment.
  • the vehicle system 1A in the second embodiment includes, for example, a navigation device in addition to the camera 10, the radar device 12, the finder 14, the object recognition device 16, the communication device 20, the HMI 30 including the display device 30a, and the vehicle sensor 40 described above. 50, an MPU (Micro-Processing Unit) 60, a drive operator 80, a traveling driving force output device 200, a brake device 210, a steering device 220, and an automatic driving control unit 300.
  • These devices and devices are mutually connected by a multiplex communication line such as a CAN communication line, a serial communication line, a wireless communication network or the like.
  • the configuration shown in FIG. 12 is merely an example, and a part of the configuration may be omitted, or another configuration may be added.
  • the navigation device 50 includes, for example, a GNSS (Global Navigation Satellite System) receiver 51, a navigation HMI 52, and a path determination unit 53, and stores the first map information 54 in a storage device such as an HDD (Hard Disk Drive) or a flash memory. Hold
  • the GNSS receiver 51 specifies the position of the host vehicle M based on the signal received from the GNSS satellite. The position of the host vehicle M may be identified or supplemented by an INS (Inertial Navigation System) using the output of the vehicle sensor 40.
  • the navigation HMI 52 includes a display device, a speaker, a touch panel, keys and the like. The navigation HMI 52 may be partially or entirely shared with the above-described HMI 30.
  • the route determination unit 53 uses, for example, the navigation HMI 52 to determine the route from the position of the host vehicle M (or any position input) specified by the GNSS receiver 51 to the destination input by the passenger The determination is made with reference to the first map information 54.
  • the first map information 54 is, for example, information in which a road shape is represented by a link indicating a road and a node connected by the link.
  • the first map information 54 may include road curvature, POI (Point Of Interest) information, and the like.
  • the path determined by the path determination unit 53 is output to the MPU 60.
  • the navigation device 50 may perform route guidance using the navigation HMI 52 based on the route determined by the route determination unit 53.
  • the navigation device 50 may be realized, for example, by the function of a terminal device such as a smartphone or a tablet terminal owned by the user.
  • the navigation device 50 may transmit the current position and the destination to the navigation server via the communication device 20, and acquire the route returned from the navigation server.
  • the MPU 60 functions as, for example, a recommended lane determination unit 61, and holds the second map information 62 in a storage device such as an HDD or a flash memory.
  • the recommended lane determination unit 61 divides the route provided from the navigation device 50 into a plurality of blocks (for example, in units of 100 [m] in the traveling direction of the vehicle), and refers to the second map information 62 for each block. Determine the recommended lanes. For example, when there are a plurality of lanes in the route provided from the navigation device 50, for example, the recommended lane determination unit 61 determines one recommended lane from the plurality of lanes.
  • the recommended lane determination unit 61 determines the recommended lane so that the host vehicle M can travel on a rational travel route for advancing to a branch destination when a branch point, a junction point, etc. exist in the provided route. Do.
  • the second map information 62 is map information that is more accurate than the first map information 54.
  • the second map information 62 includes, for example, information on the center of the lane or information on the boundary of the lane. Further, the second map information 62 may include road information, traffic regulation information, address information (address / zip code), facility information, telephone number information, and the like.
  • the road information includes information indicating the type of road such as expressways, toll roads, national roads, and prefectural roads, the number of lanes of the road, the width of each lane, the slope of the road, the position of the road (longitude, latitude, height 3) (including three-dimensional coordinates), curvature of a curve of a lane, positions of merging and branching points of lanes, and information such as signs provided on roads.
  • the second map information 62 may be updated as needed by accessing another device using the communication device 20.
  • the drive operator 80 includes, for example, an accelerator pedal, a brake pedal, a shift lever, a steering wheel, and the like.
  • a sensor for detecting the amount of operation or the presence or absence of an operation is attached to the driving operation element 80, and the detection result is the automatic driving control unit 300 or the traveling driving force output device 200, the brake device 210, and the steering device. It is output to one or both of 220.
  • the traveling driving force output device 200 outputs traveling driving force (torque) for the vehicle to travel to the driving wheels.
  • the traveling driving force output device 200 includes, for example, a combination of an internal combustion engine, an electric motor, a transmission, and the like, and an ECU that controls these.
  • the ECU controls the above-described configuration in accordance with the information input from the traveling control unit 341 or the information input from the drive operator 80.
  • the brake device 210 includes, for example, a brake caliper, a cylinder that transmits hydraulic pressure to the brake caliper, an electric motor that generates hydraulic pressure in the cylinder, and a brake ECU.
  • the brake ECU controls the electric motor in accordance with the information input from the travel control unit 341 or the information input from the drive operator 80 so that the brake torque corresponding to the braking operation is output to each wheel.
  • the brake device 210 may include, as a backup, a mechanism for transmitting the hydraulic pressure generated by the operation of the brake pedal included in the drive operator 80 to the cylinder via the master cylinder.
  • the brake device 210 is not limited to the configuration described above, and may be an electronically controlled hydraulic brake device that transmits the hydraulic pressure of the master cylinder to the cylinder by controlling an actuator according to the information input from the travel control unit 341 Good.
  • the steering device 220 includes, for example, a steering ECU and an electric motor.
  • the electric motor for example, applies a force to the rack and pinion mechanism to change the direction of the steered wheels.
  • the steering ECU drives the electric motor to change the direction of the steered wheels in accordance with the information input from the traveling control unit 341 or the information input from the drive operator 80.
  • the autonomous driving control unit 300 includes, for example, a first control unit 320, a second control unit 340, and a third control unit 350.
  • Each of the first control unit 320, the second control unit 340, and the third control unit 350 is realized by a processor such as a CPU executing a program (software).
  • a processor such as a CPU executing a program (software).
  • some or all of the components of the first control unit 320, the second control unit 340, and the third control unit 350 described below may be realized by hardware such as an LSI, an ASIC, or an FPGA. And may be realized by cooperation of software and hardware.
  • the first control unit 320 includes, for example, an external world recognition unit 321, a host vehicle position recognition unit 322, and an action plan generation unit 323.
  • the external world recognition unit 321 performs the same process as the external world recognition unit 101 in the first embodiment described above, and thus the description thereof is omitted here.
  • the host vehicle position recognition unit 322 recognizes, for example, the lane in which the host vehicle M is traveling (traveling lane) and the relative position and posture of the host vehicle M with respect to the traveling lane.
  • the own vehicle position recognition unit 322 for example, a pattern of road division lines obtained from the second map information 62 (for example, an array of solid lines and broken lines) and the surroundings of the own vehicle M recognized from the image captured by the camera 10.
  • the travel lane is recognized by comparing it with the pattern of road division lines. In this recognition, the position of the host vehicle M acquired from the navigation device 50 or the processing result by the INS may be added.
  • FIG. 13 is a diagram showing how the host vehicle position recognition unit 322 recognizes the relative position and posture of the host vehicle M with respect to the traveling lane L1.
  • the host vehicle position recognition unit 322 makes a line connecting a deviation OS of the reference point (for example, the center of gravity) of the host vehicle M from the center CL of the travel lane and a center CL of the travel lane in the traveling direction of the host vehicle M.
  • the angle ⁇ is recognized as the relative position and posture of the host vehicle M with respect to the driving lane L1.
  • the vehicle position recognition unit 140 recognizes the position of the reference point of the vehicle M relative to any one side end of the vehicle lane L1 as the relative position of the vehicle M relative to the traveling lane. It is also good.
  • the relative position of the vehicle M recognized by the vehicle position recognition unit 322 is provided to the recommended lane determination unit 61 and the action plan generation unit 323.
  • the action plan generation unit 323 determines events to be sequentially executed in automatic driving so as to travel the recommended lane determined by the recommended lane determination unit 61 and to cope with the surrounding situation of the host vehicle M.
  • the automatic driving means that the automatic driving control unit 300 controls at least one of acceleration / deceleration or steering of the host vehicle M.
  • Events include, for example, a constant-speed travel event that travels the same traffic lane at a constant speed, a follow-up travel event that follows a preceding vehicle, a lane change event, a merging event, a branch event, an emergency stop event, and automatic driving There are switching events (takeover events) for switching to manual operation.
  • an action for avoidance may be planned based on the peripheral situation of the host vehicle M (the presence of surrounding vehicles and pedestrians, lane constriction due to road construction, and the like).
  • the action plan generation unit 323 generates a target track on which the vehicle M travels in the future.
  • the target trajectory is expressed as a sequence of points (track points) to be reached by the vehicle M.
  • the track point is a point to be reached by the vehicle M for each predetermined travel distance, and separately from that, the target velocity and the target acceleration for each predetermined sampling time (for example, about 0 commas [sec]) Generated as part of Further, the track point may be a position to be reached by the vehicle M at the sampling time for each predetermined sampling time. In this case, information on the target velocity and the target acceleration is expressed by the distance between the track points.
  • FIG. 14 is a diagram showing how a target track is generated based on the recommended lane.
  • the recommended lanes are set to be convenient to travel along the route to the destination.
  • the action plan generation unit 323 reaches a predetermined distance before the switching point of the recommended lane (it may be determined according to the type of event), it activates a lane change event, a branch event, a merging event and the like.
  • a predetermined distance before the switching point of the recommended lane it activates a lane change event, a branch event, a merging event and the like.
  • an avoidance trajectory is generated as illustrated.
  • the action plan generation unit 323 generates, for example, a plurality of target trajectory candidates, and selects an optimal target trajectory at that time based on the viewpoint of safety and efficiency.
  • the second control unit 340 includes a traveling control unit 341.
  • the traveling control unit 341 sets the traveling driving force output device 200, the braking device 210, and the steering device 220 so that the host vehicle M passes the target trajectory generated by the action plan generating unit 323 as scheduled. Control one or both.
  • the third control unit 350 includes a prediction derivation unit 351 and a display control unit 352.
  • the prediction deriving unit 351 and the display control unit 352 perform the same processing as the prediction deriving unit 102 and the display control unit 103 in the first embodiment described above.
  • the prediction deriving unit 351 is information related to the predicted occurrence probability of the future behavior of the surveillance vehicle and the direction (orientation) in which the surveillance vehicle moves by the future behavior (for example, the information shown in FIG. 3 or 11 described above) ) Is output to the action plan generation unit 323.
  • the action plan generating unit 323 regenerates the target trajectory based on the occurrence probability of the future action of the monitoring vehicle predicted by the prediction deriving unit 351 and the direction in which the monitoring vehicle moves by the action. Do.
  • FIG. 15 is a diagram illustrating an example of how a target trajectory is generated based on the prediction result by the prediction deriving unit 351.
  • the action plan generating unit 323 arranges track points at constant intervals as a constant speed traveling event and generates a target track
  • the monitoring and deriving unit mb does not itself. It is assumed that it is predicted that it is going to change lanes to lane L1.
  • the action plan generating unit 323 regenerates a target trajectory in which the arrangement interval of the trajectory points is narrowed compared to the arrangement interval of the trajectory points in (a).
  • the own vehicle M can be decelerated in advance in preparation for the interruption of the surveillance vehicle mb.
  • the action plan generation unit 323 may regenerate a target trajectory in which the arrangement of the trajectory points is changed to the lane L3 next to the own lane L1. As a result, the vehicle M can escape to another lane before the surveillance vehicle mb gets in front.
  • the display device 30a displays an image in which image elements based on the occurrence probability are arranged around the surveillance vehicle, thereby causing the vehicle M to be displayed. Can give a sense of security to
  • the occupant of the host vehicle M in order to perform automatic driving based on the future behavior of the monitoring vehicle predicted by the automatic driving control unit 300 and to display an image based on the occurrence probability of the future behavior of the monitoring vehicle, the occupant of the host vehicle M can grasp the causal relationship between the behavior of the surrounding vehicle and the behavior of the host vehicle M during automatic driving. As a result, the occupant of the host vehicle M can be given a sense of security.

Abstract

車両用表示制御装置は、自車両の周辺に存在する周辺車両の将来の行動を予測し、前記予測した将来の行動がとられる可能性を定量化した指標値を導出する予測導出部と、前記予測導出部により導出された前記周辺車両ごとの将来の行動がとられる可能性を定量化した指標値に基づく画像要素を前記周辺車両に対応付けた画像を、表示部に表示させる表示制御部とを備える。

Description

車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラム
 本発明は、車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラムに関する。
 従来、自車両の周辺に存在する車両の行動を予測する技術が知られている(例えば、特許文献1参照)。
特開2015-230511号公報
 しかしながら、従来の技術では、予測された周辺の車両の行動を自車両の乗員が把握することなく、加減速などの自車両の制御が行われる場合があった。この結果、車両の乗員が不安を感じる場合があった。
 本発明は、このような事情を考慮してなされたものであり、車両乗員に安心感を与えることができる車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラムを提供することを目的の一つとする。
 請求項1記載の発明は、自車両の周辺に存在する周辺車両の将来の行動を予測し、前記予測した将来の行動がとられる可能性を定量化した指標値を導出する予測導出部と、前記予測導出部により導出された前記周辺車両ごとの将来の行動がとられる可能性を定量化した指標値に基づく画像要素を前記周辺車両に対応付けた画像を、表示部に表示させる表示制御部と、を備える車両用表示制御装置である。
 請求項2記載の発明は、請求項1に記載の車両用表示制御装置において、前記予測導出部が、前記周辺車両の複数の将来の行動を予測し、前記予測した複数の将来の行動ごとに前記指標値を導出し、前記表示制御部が、前記予測導出部により導出された前記周辺車両の将来の行動ごとの指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させるものである。
 請求項3記載の発明は、請求項2に記載の車両用表示制御装置において、前記表示制御部が、前記周辺車両の複数の将来の行動のうち、前記自車両に対する影響の度合が基準値よりも低い方向の行動と、前記自車両に対する影響の度合が前記基準値よりも高い方向の行動とで、対応する前記画像要素の表現態様を変更するものである。
 請求項4記載の発明は、請求項2に記載の車両用表示制御装置において、前記表示制御部が、前記周辺車両の複数の将来の行動のうち、前記自車両に対する影響の度合が基準値よりも高い方向の行動に対応した前記指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させるものである。
 請求項5記載の発明は、請求項4に記載の車両用表示制御装置において、前記表示制御部が、更に、前記周辺車両の複数の将来の行動のうち、前記自車両に対する影響の度合が前記基準値よりも低い方向の行動に対応した前記指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させるものである。
 請求項6記載の発明は、請求項3に記載の車両用表示制御装置において、前記自車両に対する影響の度合が前記基準値よりも高い方向の行動が、前記周辺車両が前記自車両に対して相対的に接近する行動であるものである。
 請求項7記載の発明は、請求項3に記載の車両用表示制御装置において、前記自車両に対する影響の度合が前記基準値よりも高い方向の行動が、前記周辺車両が前記自車両の前方に割り込む行動であるものである。
 請求項8記載の発明は、請求項1に記載の車両用表示制御装置において、前記表示制御部が、前記予測導出部により導出された周辺車両ごとの将来の行動に対応した前記指標値が変化するのに対して段階的または連続的に、前記画像要素の表現態様を変更するものである。
 請求項9記載の発明は、請求項1に記載の車両用表示制御装置において、前記予測導出部が、前記自車両に対する影響の度合いが基準値よりも大きい周辺車両について、将来の行動を予測するものである。
 請求項10記載の発明は、請求項9に記載の車両用表示制御装置において、前記自車両に対する影響の度合いが基準値よりも大きい周辺車両が、前記自車両の直前を走行する前走車両と、前記自車両が走行する車線に隣接する車線において、前記自車両の前方を走行する車両、または前記自車両と並走する車両とのうち少なくともいずれかの車両を含むものである。
 請求項11記載の発明は、請求項1に記載の車両用表示制御装置において、前記予測導出部が、前記自車両と前記周辺車両との相対速度、前記自車両と前記周辺車両との間の車間距離、または前記周辺車両の加減速度に基づいて、前記指標値を導出するものである。
 請求項12記載の発明は、請求項1に記載の車両用表示制御装置において、前記予測導出部が、前記周辺車両が走行する車線の状況に基づいて、前記指標値を導出するものである。
 請求項13記載の発明は、表示部を備えた車両に搭載された車載コンピュータが、自車両の周辺に存在する周辺車両の将来の行動を予測し、前記予測した将来の行動がとられる可能性を定量化した指標値を導出し、前記導出した前記周辺車両ごとの将来の行動がとられる可能性を定量化した指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させる車両用表示制御方法である。
 請求項14記載の発明は、表示部を備えた車両に搭載された車載コンピュータに、自車両の周辺に存在する周辺車両の将来の行動を予測する処理と、前記予測した将来の行動がとられる可能性を定量化した指標値を導出する処理と、前記導出した前記周辺車両ごとの将来の行動がとられる可能性を定量化した指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させる処理とを実行させる車両用表示制御プログラムである。
 各請求項に記載の発明によれば、自車両の周辺に存在する周辺車両の将来の行動を予測し、予測した将来の行動がとられる可能性を定量化した指標値を導出し、導出した周辺車両ごとの将来の行動がとられる可能性を定量化した指標値に基づく画像要素を周辺車両に対応付けた画像を、表示部に表示させることにより、車両乗員に安心感を与えることができる。
第1実施形態における車両用表示制御装置100を含む車両システム1の構成図である。 第1実施形態における車両用表示制御装置100による一連の処理の流れの一例を示すフローチャートである。 監視車両の基準点を中心とした方位を所定角度ごとに区画したときの生起確率の一例を示す図である。 表示装置30aに表示される画像の一例を示す図である。 方位角ごとの生起確率について、より具体的に説明するための図である。 方位角ごとの生起確率について、より具体的に説明するための図である。 車線の状況に基づいて監視車両の行動を予測する場面において、表示装置30aに表示される画像の一例を示す図である。 表示装置30aに表示される画像の他の例を示す図である。 フロントウインドシールドに投影される画像の一例を示す図である。 表示装置30aに表示される画像の他の例を示す図である。 監視車両の基準点を中心とした方位を所定角度ごとに区画したときの生起確率の他の例を示す図である。 第2実施形態における車両システム1Aの構成図である。 自車位置認識部322により走行車線L1に対する自車両Mの相対位置および姿勢が認識される様子を示す図である。 推奨車線に基づいて目標軌道が生成される様子を示す図である。 予測導出部351による予測結果に基づいて目標軌道を生成する様子の一例を示す図である。
 以下、図面を参照し、本発明の車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラムの実施形態について説明する。
 <第1実施形態>
 図1は、第1実施形態における車両用表示制御装置100を含む車両システム1の構成図である。車両システム1が搭載される車両は、例えば、二輪や三輪、四輪等の車両であり、その駆動源は、ディーゼルエンジンやガソリンエンジンなどの内燃機関、電動機、或いはこれらの組み合わせである。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
 車両システム1は、例えば、カメラ10と、レーダ装置12と、ファインダ14と、物体認識装置16と、通信装置20と、HMI(Human Machine Interface)30と、車両センサ40と、車両用表示制御装置100とを備える。これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図1に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
 カメラ10は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ10は、車両システム1が搭載される車両(以下、自車両Mと称する)の任意の箇所に一つまたは複数が取り付けられる。前方を撮像する場合、カメラ10は、フロントウインドシールド上部やルームミラー裏面等に取り付けられる。カメラ10は、例えば、周期的に繰り返し自車両Mの周辺を撮像する。カメラ10は、ステレオカメラであってもよい。
 レーダ装置12は、自車両Mの周辺にミリ波などの電波を放射すると共に、物体によって反射された電波(反射波)を検出して少なくとも物体の位置(距離および方位)を検出する。レーダ装置12は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。レーダ装置12は、FM-CW(Frequency Modulated Continuous Wave)方式によって物体の位置および速度を検出してもよい。
 ファインダ14は、照射光に対する散乱光を測定し、対象までの距離を検出するLIDAR(Light Detection and Ranging、或いはLaser Imaging Detection and Ranging)である。ファインダ14は、自車両Mの任意の箇所に一つまたは複数が取り付けられる。
 物体認識装置16は、カメラ10、レーダ装置12、およびファインダ14のうち一部または全部による検出結果に対してセンサフュージョン処理を行って、物体の位置、種類、速度などを認識する。物体認識装置16は、認識結果を車両用表示制御装置100に出力する。
 通信装置20は、例えば、セルラー網やWi-Fi網、Bluetooth(登録商標)、DSRC(Dedicated Short Range Communication)などを利用して、自車両Mの周辺に存在する他車両(周辺車両の一例)と通信し、或いは無線基地局を介して各種サーバ装置と通信する。
 HMI30は、自車両Mの乗員に対して各種情報を提示すると共に、乗員による入力操作を受け付ける。HMI30は、例えば、表示装置30aを備える。また、HMI30は、スピーカ、ブザー、タッチパネル、スイッチ、キー(いずれも不図示)などを備えていてもよい。
 表示装置30aは、例えば、インストルメントパネルの各部、助手席や後部座席に対向する任意の箇所などに取り付けられる、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)表示装置などである。また、表示装置30aは、フロントウインドシールドやその他のウインドウに画像を投影するHUD(Head Up Display)であってもよい。表示装置30aは、「表示部」の一例である。
 車両センサ40は、自車両Mの速度を検出する車速センサ、加速度を検出する加速度センサ、鉛直軸回りの角速度を検出するヨーレートセンサ、自車両Mの向きを検出する方位センサ等を含む。車両センサ40は、検出した情報(速度、加速度、角速度、方位等)を車両用表示制御装置100に出力する。
 車両用表示制御装置100は、例えば、外界認識部101と、予測導出部102と、表示制御部103とを備える。これらの構成要素の一部または全部は、例えば、CPU(Central Processing Unit)などのプロセッサがプログラム(ソフトウェア)を実行することで実現される。また、これらの構成要素の一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)などのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
 以下、フローチャートに即して、車両用表示制御装置100の各構成要素について説明する。図2は、第1実施形態における車両用表示制御装置100による一連の処理の流れの一例を示すフローチャートである。
 まず、外界認識部101は、カメラ10、レーダ装置12、およびファインダ14から直接的に、或いは物体認識装置16を介して入力される情報に基づいて、監視車両の「状態」を認識する(ステップS100)。監視車両とは、一又は複数の周辺車両のうち、自車両Mに対する影響の度合いが大きく、且つ所定数(例えば3台)以下の周辺車両である。「自車両Mに対する影響の度合いが大きい」とは、例えば、監視車両による加減速や操舵に応じて、自車両Mの加減速や操舵の制御量が大きくなることを意味する。監視車両は、例えば、自車両Mの直前を走行する前走車両と、自車両Mが走行する自車線に隣接する隣接車線において、自車両Mの前方を走行する車両、または自車両Mと並走する車両とを含む。
 例えば、外界認識部101は、監視車両の「状態」として、監視車両の位置、速度、加速度、ジャーク等を認識する。例えば、外界認識部101は、監視車両が走行する車線を区画する道路区画線に対する監視車両の相対的な位置を認識する。監視車両の位置は、その監視車両の重心やコーナー等の代表点で表されてもよいし、監視車両の輪郭で表現された領域で表されてもよい。また、外界認識部101は、監視車両の「状態」として、監視車両に搭載されたヘッドランプや、テールランプ、ウィンカー(ターンランプ)等の各種ランプの点灯或いは点滅を認識してもよい。
 次に、予測導出部102は、外界認識部101により状態が認識された監視車両の将来の行動を予測する(ステップS102)。例えば、予測導出部102は、隣接車線を走行する監視車両の各種ランプの点灯または点滅に応じて、将来、監視車両が現在の車線から自車線に車線変更する(自車線に割り込んでくる)のかどうかを予測したり、監視車両が現在の車線から自車線側でない車線に車線変更するのかどうかを予測したりする。
 また、予測導出部102は、監視車両の各種ランプの点灯等の有無に依らずに、監視車両と、当該監視車両が走行する車線との相対的な位置に基づいて、車線変更するのかどうかを予測してもよい。監視車両と車線との相対的な位置に基づく予測の詳細については後述する。
 また、予測導出部102は、例えば、外界認識部101により状態が認識された時点での監視車両の速度、加減速、またはジャーク等に基づいて、将来、監視車両が減速するのかどうか、または加速するのかどうかを予測する。
 また、予測導出部102は、監視車両を除く他の周辺車両の速度や位置等に基づいて、将来、監視車両が加減速するのか、または車線変更するのかどうかを予測してもよい。
 次に、予測導出部102は、監視車両によって予測した行動がとられる場合の確率(以下、生起確率と称する)を導出する(ステップS104)。例えば、予測導出部102は、監視車両の基準点(例えば、重心等)を中心とした方位ごとに、予測した行動の生起確率を導出する。生起確率は、「将来の行動がとられる可能性を定量化した指標値」の一例である。
 図3は、監視車両の基準点を中心とした方位を所定角度ごとに区画したときの生起確率(方位角ごとの生起確率)の一例を示す図である。図中の「上」は、監視車両の進行方向に関して、監視車両と自車両Mとの相対距離が増加する方位を示し、「下」は、監視車両の進行方向に関して、監視車両と自車両Mとの相対距離が減少する方位を示している。また、「右」は、監視車両の進行方向に関して右側の方位を示し、「左」は、監視車両の進行方向に関して左側の方位を示している。
 次に、表示制御部103は、表示装置30aを制御して、予測導出部102により導出された生起確率を表現した画像要素を監視車両の周囲に配置した画像を表示させる(ステップS106)。例えば、表示制御部103は、各方位の生起確率を表現した画像要素として、図4に示すような生起確率に基づく分布曲線DLを監視車両の周囲に配置した画像を、表示装置30aに表示させる。
 図4は、表示装置30aに表示される画像の一例を示す図である。図中L1は、自車線を表し、L2は、自車両Mの進行方向右側の隣接車線(以下、右隣車線と称す)を表し、L3は、自車両Mの進行方向左側の隣接車線(以下、左隣車線と称す)を表している。また、図中maは前走車両を表し、mbは右隣車線を走行する監視車両を表し、mcは左隣車線を走行する監視車両を表している。
 例えば、表示制御部103は、表示装置30aを制御して、各監視車両の周囲に、生起確率の分布を示す分布曲線DLを監視車両の周囲に配置した画像を表示させる。分布曲線DLと監視車両との間隔が狭いほど、その方位で予測された行動が生じにくく(生起確率が低く)、間隔が広いほど、その方位で予測された行動が生じやすい(生起確率が高い)ことを表している。すなわち、分布曲線DLは、生起確率が変化するのに対して段階的または連続的に表現態様が変更されるものであり、予測された行動を起こした場合に監視車両が移動する方向(方位)ごとに、その行動の生起確率の大きさを曲線の形状で表現したものである。
 例えば、前走車両maがブレーキを掛けるなどして減速した場合、自車両Mに対する前走車両maの相対位置が自車両Mに近づくため、図示のように、前走車両maの周囲の分布曲線DLは、前走車両maの後部側の領域ほど前走車両maとの間隔が広がった状態で表示される。また、例えば、右隣車線L2を走行する監視車両mbが自車線L1に車線変更することが予測された場合、図示のように、監視車両mbの周囲の分布曲線DLは、監視車両mbの左側面の領域ほど監視車両mbとの間隔が広がった形状で表示される。これによって、自車両Mの乗員に対して、直感的に周辺車両の将来の行動を認識させることができる。
 図5は、方位角ごとの生起確率について、より具体的に説明するための図である。例えば、予測導出部102は、外界認識部101により認識された、道路区画線に対する監視車両の相対的な位置に基づいて、車線幅方向における監視車両の行動を予測し、その予測した行動の生起確率を導出する。図中CLは、自車線L1と、右隣車線L2とを区画する道路区画線を表し、Gは、監視車両mbの重心を表している。
 例えば、図中(a)における道路区画線CLと重心Gとの距離ΔW1と、図中(b)における道路区画線CLと重心Gとの距離ΔW2とを比較すると、距離ΔW2の方が短いことがわかる。この場合、(a)に示す状況に比して(b)に示す状況の方が、監視車両mbがより自車線L1に車線変更する可能性が高いと判断することができる。従って、予測導出部102は、監視車両mbによる各種ランプの点灯等の有無に関わらずに、(a)に示す状況に比して(b)に示す状況の方が、高い確率で監視車両mbが車線変更すると予測する。言い換えれば、予測導出部102は、(a)に示す状況に比して(b)に示す状況の方が、車線幅方向(監視車両mbが自車線L1に接近する方向)における行動の生起確率をより高く導出する。なお、予測導出部102は、監視車両による各種ランプの点灯等があれば、さらに生起確率を高く導出してもよい。図示の例では、監視車両mbが自車線L1に接近する方向における生起確率は、(a)の状況では0.40として導出され、(b)の状況では0.70として導出されている。これらの生起確率は、図示のように分布曲線DLと共に表示されてもよいし、単独で表示されてもよい。これによって、(b)における分布曲線DLの方が、車線幅方向における監視車両mbとの間隔が広くなり、自車両Mの乗員に対して、より自車両Mに近づいてくることが予測される周辺車両ほど注意を促すように仕向けることができる。
 図6は、方位角ごとの生起確率について、より具体的に説明するための図である。例えば、予測導出部102は、外界認識部101により認識された監視車両の速度と、車両センサ40により検出された自車両Mの速度とに基づいて、車両進行方向における監視車両の行動を予測し、その予測した行動の生起確率を導出する。図中VMは、自車両Mの速度の大きさを表し、Vma1およびVma2は、前走車両maの速度の大きさを表している。
 例えば、図中(a)の状況における相対速度(Vma1-VM)と、図中(b)の状況における相対速度(Vma2-VM)とを比較すると、相対速度(Vma2-VM)の方が小さいことがわかる。この場合、(a)に示す状況に比して(b)に示す状況の方が、将来の時点で、前走車両maとの車間距離が狭くなる可能性が高いと判断することができる。従って、予測導出部102は、(a)に示す状況に比して(b)に示す状況の方が、高い確率で監視車両mbが減速すると予測する。言い換えれば、予測導出部102は、(a)に示す状況に比して(b)に示す状況の方が、車両進行方向(前走車両maが自車両Mに接近する方向)における行動の生起確率をより高く導出する。図示の例では、前走車両maが自車両Mに接近する方向における生起確率は、(a)の状況では0.30として導出され、(b)の状況では0.80として導出されている。これによって、(b)における分布曲線DLの方が、車両進行方向における前走車両maとの間隔が広くなるため、自車両Mの乗員に対して、より自車両Mに近づいてくることが予測される周辺車両ほど注意を促すように仕向けることができる。
 なお、予測導出部102は、監視車両と自車両Mとの相対速度に代えて、或いは加えて、監視車両と自車両Mとの間の車間距離、または相対的な加減速度に基づいて、車両進行方向における監視車両の行動を予測し、その予測した行動の生起確率を導出してもよい。
 また、予測導出部102は、監視車両が走行する車線の状況に基づいて、車両進行方向または車線幅方向における監視車両の行動を予測し、その予測した行動の生起確率を導出してもよい。
 図7は、車線の状況に基づいて監視車両の行動を予測する場面において、表示装置30aに表示される画像の一例を示す図である。図中Aは、右隣車線L2において車線が減少し、他車線に合流する必要のある地点(以下、合流地点と称する)を表している。例えば、外界認識部101は、合流地点Aの情報が含まれる地図情報を参照することで、当該合流地点Aを認識してもよいし、カメラ10により撮像された画像から認識される道路区画線のパターンから当該合流地点Aを認識してもよい。また、道路の交通状況を通知するための無線機器が道路の路側等に設けられており、通信装置20がこの無線機器と無線通信する場合、外界認識部101は、通信装置20を介して無線機器により送信される情報を取得することで、合流地点Aを認識してもよい。
 このとき、外界認識部101または予測導出部102は、例えば、自車両Mが走行している車線(走行車線)、並びに走行車線に対する自車両Mの相対位置および姿勢を認識してよい。
 予測導出部102は、外界認識部101により監視車両mbが走行する車線の前方に合流地点Aが存在することが認識された場合、高い確率で監視車両mbが自車線L1に車線変更すると予測する。この際、予測導出部102は、車線変更に合わせて監視車両mbが加速または減速すると予測してもよい。これによって、例えば、監視車両mbがウィンカーなどを点灯させていない状態であっても、監視車両mbの行動を先読みし、将来行われるであろう行動を生起確率の分布曲線DLの形状で表現することができる。
 なお、外界認識部101は、合流地点Aの代わりに、分岐地点や、事故発生地点、料金所のような監視車両の進行を妨げるような地点について認識してもよい。これを受けて、予測導出部102は、監視車両の進行を妨げるような地点の手前において、監視車両が車線変更したり加減速したりすると予測してよい。
 また、予測導出部102は、外界認識部101により認識された監視車両の将来の行動が、自車両Mに対する影響の度合いが基準値よりも高い行動であるのか、或いは基準値よりも低い行動であるのかを判定してもよい。
 図8は、表示装置30aに表示される画像の他の例を示す図である。図示の状況は、前走車両maが、前方の車両mdを追い抜こうとしている状況を表している。例えば、前走車両maが、前方の車両mdを追い抜こうとして車線のいずれか片側に寄った場合、カメラ10により撮像された画像上において前走車両maに隠れて認識されていなかった車両mdが、あるタイミングで認識されることになる。このとき、予測導出部102は、車両mdを追い抜くために、前走車両maが一旦隣接車線に車線変更すると予測する。すなわち、予測導出部102は、前走車両maの行動として「隣接車線への車線変更」および「加速または減速」を予測する。前走車両maの「減速」については、自車両Mに対して前走車両maが相対的に接近する行動であるため、予測導出部102は、前走車両maによる当該行動を、自車両Mに対する影響の度合いが基準値よりも高い行動であると判定する。前走車両maが自車両Mに対して相対的に近づく方向は、「自車両に対する影響の度合が基準値よりも高い方向」の一例である。
 また、前走車両maの「加速」や「隣接車線への車線変更」については、前走車両maが自車両Mから相対的に遠ざかる行動であるため、予測導出部102は、前走車両maによる当該行動を、自車両Mに対する影響の度合いが基準値よりも低い行動であると判定する。前走車両maが自車両Mから相対的に遠ざかる方向は、「自車両に対する影響の度合が基準値よりも低い方向」の一例である。
 また、前走車両maの速度が自車両Mと等速である場合、この前走車両maによる行動は、自車両Mに対する影響の度合いが基準値程度の行動であると判定される。
 これを受けて、表示制御部103は、監視車両による行動の自車両Mに対する影響の度合いに応じて、表示態様を変更する。図示の例では、「加速または減速」によって前走車両maが相対的に移動する方向に対応する確率分布の領域Raと、「車線変更」によって前走車両maが相対的に移動する方向に対応する確率分布の領域Rbとを、色や模様等で区別して表示している。この結果、自車両Mの乗員に対して、周辺車両の将来の行動によって自車両Mに及ぼされる影響の度合い(例えば安全であるのか危険であるのか等)を直感的に認識させることができる。
 また、表示制御部103は、上述した生起確率の分布曲線DLを表す画像を、HUDによりフロントウインドシールドに投影してもよい。図9は、フロントウインドシールドに投影される画像の一例を示す図である。図示のように、例えば、前走車両などの車体影に合わせて、フロントウインドシールドに分布曲線DLが投影されてよい。
 また、上述した種々の例では、表示制御部103は、監視車両の将来の行動の生起確率を、その将来の行動により監視車両が移動する方向(方位)ごとの分布として表した分布曲線DLを表示するものとしたがこれに限られない。例えば、表示制御部103は、監視車両の将来の行動の生起確率を、特定の記号や図形等で表してもよい。
 図10は、表示装置30aに表示される画像の他の例を示す図である。図示の例のように、表示制御部103は、予測導出部102により予測された将来の行動の生起確率の高さと、その行動により監視車両が移動する方向とを、三角形Dの向きおよび数によって表現している。例えば、(a)に示す場面に比べて(b)に示す場面の方が、右隣車線L2を走行する監視車両mbが合流地点Aに近くなり、より車線変更する確率が高まる。従って、表示制御部103は、三角形Dの数を増やすなどして、自車両Mの乗員に対して、予測された行動がどの程度生じやすいのかを認識させる。なお、表示制御部103は、予測された将来の行動の生起確率が最も高い方向(方位)についてのみ、特定の記号や図形等を表示させてもよいし、記号や図形等を点滅させながら表示させてもよい。
 また、上述した実施形態では、予測導出部102は、外界認識部101による認識結果に基づいて、監視車両の将来の行動を予測するものとして説明したがこれに限られない。例えば、通信装置20により監視車両との間で車車間通信が行われる場合、予測導出部102は、車車間通信により監視車両から将来の行動予定に関する情報を受信し、受信した情報に基づいて監視車両の将来の行動を予測してもよい。また、監視車両から各種サーバ装置に将来の行動予定に関する情報がアップロードされる場合、予測導出部102は、通信装置20を介して当該サーバ装置と通信を行い、将来の行動予定に関する情報を取得してもよい。
 また、上述した実施形態では、単に、行動の生起確率に基づく画像要素を配置した画像を、監視車両の周囲に配置した画像を表示するものとして説明したがこれに限られない。例えば、表示制御部103は、生起確率だけでなく、その時点での監視車両の変位量を、将来のある時点における想定変位量として確率に乗算或いは加算し、その演算結果を上記実施形態の「確率」として扱ってもよい。将来のある時点における想定変位量は、例えば、予測時点における監視車両のジャークや加速度等から求めたモデルに基づいて推定してよい。
 図11は、監視車両の基準点を中心とした方位を所定角度ごとに区画したときの生起確率の他の例を示す図である。図の例では、生起確率と将来のある時点における想定変位量との乗算結果を、分布曲線DLを表示する際の「確率」として扱っている。この場合、演算結果である「確率」は1を超えてもよい。
 以上、説明した第1実施形態によれば、自車両Mの周辺に存在する監視車両による将来の行動を予測し、予測した将来の行動がとられ得る生起確率を導出し、生起確率に基づく画像要素を監視車両の周囲に配置した画像を表示装置30aに表示させることにより、自車両Mの乗員に安心感を与えることができる。例えば、生起確率に基づく画像要素として、監視車両の将来の行動の生起確率を、その将来の行動により監視車両が移動する方向(方位)ごとの分布として表した分布曲線DLを表示することにより、自車両Mの乗員に対して、直感的に周辺車両の将来の行動を認識させることができる。
 <第2実施形態>
 以下、第2実施形態について説明する。第1実施形態では、単に車両に搭載された表示制御装置であるものとして説明したが、第2実施形態では、自動運転車両に適用された例について説明する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する機能等についての説明は省略する。
 図12は、第2実施形態における車両システム1Aの構成図である。第2実施形態における車両システム1Aは、例えば、上述したカメラ10、レーダ装置12、ファインダ14、物体認識装置16、通信装置20、表示装置30aを含むHMI30、および車両センサ40の他に、ナビゲーション装置50と、MPU(Micro-Processing Unit)60と、運転操作子80と、走行駆動力出力装置200と、ブレーキ装置210と、ステアリング装置220と、自動運転制御ユニット300とを備える。これらの装置や機器は、CAN通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続される。なお、図12に示す構成はあくまで一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
 ナビゲーション装置50は、例えば、GNSS(Global Navigation Satellite System)受信機51と、ナビHMI52と、経路決定部53とを備え、HDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に第1地図情報54を保持している。GNSS受信機51は、GNSS衛星から受信した信号に基づいて、自車両Mの位置を特定する。自車両Mの位置は、車両センサ40の出力を利用したINS(Inertial Navigation System)によって特定または補完されてもよい。ナビHMI52は、表示装置、スピーカ、タッチパネル、キーなどを含む。ナビHMI52は、前述したHMI30と一部または全部が共通化されてもよい。経路決定部53は、例えば、ナビHMI52を用いて、GNSS受信機51により特定された自車両Mの位置(或いは入力された任意の位置)から、乗員により入力された目的地までの経路を、第1地図情報54を参照して決定する。第1地図情報54は、例えば、道路を示すリンクと、リンクによって接続されたノードとによって道路形状が表現された情報である。第1地図情報54は、道路の曲率やPOI(Point Of Interest)情報などを含んでもよい。経路決定部53により決定された経路は、MPU60に出力される。また、ナビゲーション装置50は、経路決定部53により決定された経路に基づいて、ナビHMI52を用いた経路案内を行ってもよい。なお、ナビゲーション装置50は、例えば、ユーザの保有するスマートフォンやタブレット端末等の端末装置の機能によって実現されてもよい。また、ナビゲーション装置50は、通信装置20を介してナビゲーションサーバに現在位置と目的地を送信し、ナビゲーションサーバから返信された経路を取得してもよい。
 MPU60は、例えば、推奨車線決定部61として機能し、HDDやフラッシュメモリなどの記憶装置に第2地図情報62を保持している。推奨車線決定部61は、ナビゲーション装置50から提供された経路を複数のブロックに分割し(例えば、車両進行方向に関して100[m]毎に分割し)、第2地図情報62を参照してブロックごとに推奨車線を決定する。例えば、推奨車線決定部61は、ナビゲーション装置50から提供された経路において複数の車線が存在する場合、複数の車線の中から一つの推奨車線を決定する。推奨車線決定部61は、提供された経路において分岐箇所や合流箇所などが存在する場合、自車両Mが、分岐先に進行するための合理的な走行経路を走行できるように、推奨車線を決定する。
 第2地図情報62は、第1地図情報54よりも高精度な地図情報である。第2地図情報62は、例えば、車線の中央の情報あるいは車線の境界の情報等を含んでいる。また、第2地図情報62には、道路情報、交通規制情報、住所情報(住所・郵便番号)、施設情報、電話番号情報などが含まれてよい。道路情報には、高速道路、有料道路、国道、都道府県道といった道路の種別を表す情報や、道路の車線数、各車線の幅員、道路の勾配、道路の位置(経度、緯度、高さを含む3次元座標)、車線のカーブの曲率、車線の合流および分岐箇所の位置、道路に設けられた標識等の情報が含まれる。第2地図情報62は、通信装置20を用いて他装置にアクセスすることにより、随時、アップデートされてよい。
 運転操作子80は、例えば、アクセルペダルや、ブレーキペダル、シフトレバー、ステアリングホイール等を含む。運転操作子80には、操作量あるいは操作の有無を検出するセンサが取り付けられており、その検出結果は、自動運転制御ユニット300、もしくは、走行駆動力出力装置200、ブレーキ装置210、およびステアリング装置220のうち一方または双方に出力される。
 走行駆動力出力装置200は、車両が走行するための走行駆動力(トルク)を駆動輪に出力する。走行駆動力出力装置200は、例えば、内燃機関、電動機、および変速機などの組み合わせと、これらを制御するECUとを備える。ECUは、走行制御部341から入力される情報、或いは運転操作子80から入力される情報に従って、上記の構成を制御する。
 ブレーキ装置210は、例えば、ブレーキキャリパーと、ブレーキキャリパーに油圧を伝達するシリンダと、シリンダに油圧を発生させる電動モータと、ブレーキECUとを備える。ブレーキECUは、走行制御部341から入力される情報、或いは運転操作子80から入力される情報に従って電動モータを制御し、制動操作に応じたブレーキトルクが各車輪に出力されるようにする。ブレーキ装置210は、運転操作子80に含まれるブレーキペダルの操作によって発生させた油圧を、マスターシリンダを介してシリンダに伝達する機構をバックアップとして備えてよい。なお、ブレーキ装置210は、上記説明した構成に限らず、走行制御部341から入力される情報に従ってアクチュエータを制御して、マスターシリンダの油圧をシリンダに伝達する電子制御式油圧ブレーキ装置であってもよい。
 ステアリング装置220は、例えば、ステアリングECUと、電動モータとを備える。電動モータは、例えば、ラックアンドピニオン機構に力を作用させて転舵輪の向きを変更する。ステアリングECUは、走行制御部341から入力される情報、或いは運転操作子80から入力される情報に従って、電動モータを駆動し、転舵輪の向きを変更させる。
 自動運転制御ユニット300は、例えば、第1制御部320と、第2制御部340と、第3制御部350とを備える。第1制御部320、第2制御部340、および第3制御部350は、それぞれ、CPUなどのプロセッサがプログラム(ソフトウェア)を実行することで実現される。また、以下に説明する第1制御部320、第2制御部340、および第3制御部350の構成要素のうち一部または全部は、LSIやASIC、FPGAなどのハードウェアによって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
 第1制御部320は、例えば、外界認識部321と、自車位置認識部322と、行動計画生成部323とを備える。外界認識部321は、上述した第1実施形態における外界認識部101と同様の処理を行うため、ここでは説明を省略する。
 自車位置認識部322は、例えば、自車両Mが走行している車線(走行車線)、並びに走行車線に対する自車両Mの相対位置および姿勢を認識する。自車位置認識部322は、例えば、第2地図情報62から得られる道路区画線のパターン(例えば実線と破線の配列)と、カメラ10によって撮像された画像から認識される自車両Mの周辺の道路区画線のパターンとを比較することで、走行車線を認識する。この認識において、ナビゲーション装置50から取得される自車両Mの位置やINSによる処理結果が加味されてもよい。
 そして、自車位置認識部322は、例えば、走行車線に対する自車両Mの位置や姿勢を認識する。図13は、自車位置認識部322により走行車線L1に対する自車両Mの相対位置および姿勢が認識される様子を示す図である。自車位置認識部322は、例えば、自車両Mの基準点(例えば重心)の走行車線中央CLからの乖離OS、および自車両Mの進行方向の走行車線中央CLを連ねた線に対してなす角度θを、走行車線L1に対する自車両Mの相対位置および姿勢として認識する。なお、これに代えて、自車位置認識部140は、自車線L1のいずれかの側端部に対する自車両Mの基準点の位置などを、走行車線に対する自車両Mの相対位置として認識してもよい。自車位置認識部322により認識される自車両Mの相対位置は、推奨車線決定部61および行動計画生成部323に提供される。
 行動計画生成部323は、推奨車線決定部61により決定された推奨車線を走行するように、且つ、自車両Mの周辺状況に対応できるように、自動運転において順次実行されるイベントを決定する。自動運転とは、自車両Mの加減速または操舵の少なくとも一方を、自動運転制御ユニット300が制御することをいう。イベントには、例えば、一定速度で同じ走行車線を走行する定速走行イベント、前走車両に追従する追従走行イベント、車線変更イベント、合流イベント、分岐イベント、緊急停止イベント、自動運転を終了して手動運転に切り替えるための切替イベント(テイクオーバーイベント)などがある。また、これらのイベントの実行中に、自車両Mの周辺状況(周辺車両や歩行者の存在、道路工事による車線狭窄など)に基づいて、回避のための行動が計画される場合もある。
 行動計画生成部323は、自車両Mが将来走行する目標軌道を生成する。目標軌道は、自車両Mの到達すべき地点(軌道点)を順に並べたものとして表現される。軌道点は、所定の走行距離ごとの自車両Mの到達すべき地点であり、それとは別に、所定のサンプリング時間(例えば0コンマ数[sec]程度)ごとの目標速度および目標加速度が、目標軌道の一部として生成される。また、軌道点は、所定のサンプリング時間ごとの、そのサンプリング時刻における自車両Mの到達すべき位置であってもよい。この場合、目標速度や目標加速度の情報は軌道点の間隔で表現される。
 図14は、推奨車線に基づいて目標軌道が生成される様子を示す図である。図示するように、推奨車線は、目的地までの経路に沿って走行するのに都合が良いように設定される。行動計画生成部323は、推奨車線の切り替わり地点の所定距離手前(イベントの種類に応じて決定されてよい)に差し掛かると、車線変更イベント、分岐イベント、合流イベントなどを起動する。各イベントの実行中に、障害物を回避する必要が生じた場合には、図示するように回避軌道が生成される。
 行動計画生成部323は、例えば、目標軌道の候補を複数生成し、安全性と効率性の観点に基づいて、その時点での最適な目標軌道を選択する。
 第2制御部340は、走行制御部341を備える。走行制御部341は、行動計画生成部323によって生成された目標軌道を、予定の時刻通りに自車両Mが通過するように、走行駆動力出力装置200並びにブレーキ装置210と、ステアリング装置220との一方または双方を制御する。
 第3制御部350は、予測導出部351と、表示制御部352とを備える。予測導出部351および表示制御部352は、上述した第1実施形態の予測導出部102および表示制御部103と同様の処理を行う。予測導出部351は、予測した監視車両の将来の行動の生起確率と、その将来の行動により監視車両が移動する方向(方位)とに関する情報(例えば、上述した図3や図11に示す情報など)を行動計画生成部323に出力する。これを受けて、行動計画生成部323は、予測導出部351により予測された監視車両の将来の行動の生起確率と、その行動により監視車両が移動する方向とに基づいて、目標軌道を再生成する。
 図15は、予測導出部351による予測結果に基づいて目標軌道を生成する様子の一例を示す図である。例えば、図中(a)のように、行動計画生成部323が定速走行イベントとして一定の間隔で軌道点を配置して目標軌道を生成した場合に、予測導出部351によって監視車両mbが自車線L1に車線変更しようとしていることが予測されたとする。このとき、図中(b)のように、行動計画生成部323は、軌道点の配置間隔を、(a)のときの軌道点の配置間隔に比して狭めた目標軌道を再生成する。これによって、自車両Mは、監視車両mbの割り込みに備えて事前に減速しておくことができる。また、図中(c)のように、行動計画生成部323は、軌道点の配置を自車線L1の左隣の車線L3に変更した目標軌道を再生成してもよい。これによって、自車両Mは、監視車両mbが前方に割込んでくる前に他の車線へと逃げることができる。
 以上説明した第2実施形態によれば、上述した第1実施形態と同様に、表示装置30aに、生起確率に基づく画像要素を監視車両の周囲に配置した画像を表示させることにより、自車両Mの乗員に安心感を与えることができる。
 また、第2実施形態によれば、自動運転制御ユニット300が予測した監視車両の将来の行動に基づいて自動運転を行うと共に、監視車両の将来の行動の生起確率に基づく画像を表示するため、自車両Mの乗員は、周辺車両の行動と、自動運転時の自車両Mの行動との因果関係を把握することができる。この結果、自車両Mの乗員に更に安心感を与えることができる。
 以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1、1A‥車両システム、10…カメラ、12…レーダ装置、14…ファインダ、16…物体認識装置、20…通信装置、30…HMI、30a…表示装置、40…車両センサ、50…ナビゲーション装置、51…GNSS受信機、52…ナビHMI、53…経路決定部、54…第1地図情報、60…MPU、61…推奨車線決定部、62…第2地図情報、80…運転操作子、100…車両用表示制御装置、101…外界認識部、102、351…予測導出部、103、352…表示制御部、200…走行駆動力出力装置、210…ブレーキ装置、220…ステアリング装置、300…自動運転制御ユニット、320…第1制御部、321…外界認識部、322…自車位置認識部、323…行動計画生成部、340…第2制御部、341…走行制御部、350…第3制御部

Claims (14)

  1.  自車両の周辺に存在する周辺車両の将来の行動を予測し、前記予測した将来の行動がとられる可能性を定量化した指標値を導出する予測導出部と、
     前記予測導出部により導出された前記周辺車両ごとの将来の行動がとられる可能性を定量化した指標値に基づく画像要素を前記周辺車両に対応付けた画像を、表示部に表示させる表示制御部と、
     を備える車両用表示制御装置。
  2.  前記予測導出部は、前記周辺車両の複数の将来の行動を予測し、前記予測した複数の将来の行動ごとに前記指標値を導出し、
     前記表示制御部は、前記予測導出部により導出された前記周辺車両の将来の行動ごとの指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させる、
     請求項1記載の車両用表示制御装置。
  3.  前記表示制御部は、前記周辺車両の複数の将来の行動のうち、前記自車両に対する影響の度合が基準値よりも低い方向の行動と、前記自車両に対する影響の度合が前記基準値よりも高い方向の行動とで、対応する前記画像要素の表現態様を変更する、
     請求項2記載の車両用表示制御装置。
  4.  前記表示制御部は、前記周辺車両の複数の将来の行動のうち、前記自車両に対する影響の度合が基準値よりも高い方向の行動に対応した前記指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させる、
     請求項2記載の車両用表示制御装置。
  5.  前記表示制御部は、更に、前記周辺車両の複数の将来の行動のうち、前記自車両に対する影響の度合が前記基準値よりも低い方向の行動に対応した前記指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させる、
     請求項4記載の車両用表示制御装置。
  6.  前記自車両に対する影響の度合が前記基準値よりも高い方向の行動は、前記周辺車両が前記自車両に対して相対的に接近する行動である、
     請求項3記載の車両用表示制御装置。
  7.  前記自車両に対する影響の度合が前記基準値よりも高い方向の行動は、前記周辺車両が前記自車両の前方に割り込む行動である、
     請求項3記載の車両用表示制御装置。
  8.  前記表示制御部は、前記予測導出部により導出された周辺車両ごとの将来の行動に対応した前記指標値が変化するのに対して段階的または連続的に、前記画像要素の表現態様を変更する、
     請求項1記載の車両用表示制御装置。
  9.  前記予測導出部は、前記自車両に対する影響の度合いが基準値よりも大きい周辺車両について、将来の行動を予測する、
     請求項1記載の車両用表示制御装置。
  10.  前記自車両に対する影響の度合いが基準値よりも大きい周辺車両は、
      前記自車両の直前を走行する前走車両と、
      前記自車両が走行する車線に隣接する車線において、前記自車両の前方を走行する車両、または前記自車両と並走する車両と、
     のうち少なくともいずれかの車両を含む、
     請求項9に記載の車両用表示制御装置。
  11.  前記予測導出部は、前記自車両と前記周辺車両との相対速度、前記自車両と前記周辺車両との間の車間距離、または前記周辺車両の加減速度に基づいて、前記指標値を導出する、
     請求項1記載の車両用表示制御装置。
  12.  前記予測導出部は、前記周辺車両が走行する車線の状況に基づいて、前記指標値を導出する、
     請求項1記載の車両用表示制御装置。
  13.  表示部を備えた車両に搭載された車載コンピュータが、
     自車両の周辺に存在する周辺車両の将来の行動を予測し、
     前記予測した将来の行動がとられる可能性を定量化した指標値を導出し、
     前記導出した前記周辺車両ごとの将来の行動がとられる可能性を定量化した指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させる、
     車両用表示制御方法。
  14.  表示部を備えた車両に搭載された車載コンピュータに、
     自車両の周辺に存在する周辺車両の将来の行動を予測する処理と、
     前記予測した将来の行動がとられる可能性を定量化した指標値を導出する処理と、
     前記導出した前記周辺車両ごとの将来の行動がとられる可能性を定量化した指標値に基づく画像要素を前記周辺車両に対応付けた画像を、前記表示部に表示させる処理と、
     を実行させる車両用表示制御プログラム。
PCT/JP2016/084921 2016-11-25 2016-11-25 車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラム WO2018096644A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US16/462,949 US20190279507A1 (en) 2016-11-25 2016-11-25 Vehicle display control device, vehicle display control method, and vehicle display control program
PCT/JP2016/084921 WO2018096644A1 (ja) 2016-11-25 2016-11-25 車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラム
CN201680090990.XA CN109983305A (zh) 2016-11-25 2016-11-25 车辆用显示控制装置、车辆用显示控制方法及车辆用显示控制程序
JP2018552345A JPWO2018096644A1 (ja) 2016-11-25 2016-11-25 車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/084921 WO2018096644A1 (ja) 2016-11-25 2016-11-25 車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラム

Publications (1)

Publication Number Publication Date
WO2018096644A1 true WO2018096644A1 (ja) 2018-05-31

Family

ID=62194967

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/084921 WO2018096644A1 (ja) 2016-11-25 2016-11-25 車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラム

Country Status (4)

Country Link
US (1) US20190279507A1 (ja)
JP (1) JPWO2018096644A1 (ja)
CN (1) CN109983305A (ja)
WO (1) WO2018096644A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021130577A1 (ja) * 2019-12-26 2021-07-01
JP7175344B1 (ja) 2021-05-11 2022-11-18 三菱電機株式会社 車両制御装置、車両制御システム、車両制御方法及び車両制御プログラム

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6616275B2 (ja) * 2016-12-15 2019-12-04 株式会社Soken 運転支援装置
US10850732B2 (en) * 2017-09-05 2020-12-01 Aptiv Technologies Limited Automated speed control system
JP6933080B2 (ja) * 2017-10-05 2021-09-08 いすゞ自動車株式会社 車速制御装置
US11597403B2 (en) 2018-04-11 2023-03-07 Hyundai Motor Company Apparatus for displaying driving state of vehicle, system including the same and method thereof
US11173910B2 (en) 2018-04-11 2021-11-16 Hyundai Motor Company Lane change controller for vehicle system including the same, and method thereof
US11548509B2 (en) * 2018-04-11 2023-01-10 Hyundai Motor Company Apparatus and method for controlling lane change in vehicle
US10843710B2 (en) 2018-04-11 2020-11-24 Hyundai Motor Company Apparatus and method for providing notification of control authority transition in vehicle
US11084490B2 (en) 2018-04-11 2021-08-10 Hyundai Motor Company Apparatus and method for controlling drive of vehicle
EP3552902A1 (en) 2018-04-11 2019-10-16 Hyundai Motor Company Apparatus and method for providing a driving path to a vehicle
US11351989B2 (en) 2018-04-11 2022-06-07 Hyundai Motor Company Vehicle driving controller, system including the same, and method thereof
EP3552901A3 (en) 2018-04-11 2020-04-29 Hyundai Motor Company Apparatus and method for providing safety strategy in vehicle
US11077854B2 (en) 2018-04-11 2021-08-03 Hyundai Motor Company Apparatus for controlling lane change of vehicle, system having the same and method thereof
US11334067B2 (en) 2018-04-11 2022-05-17 Hyundai Motor Company Apparatus and method for providing safety strategy in vehicle
EP3569460B1 (en) 2018-04-11 2024-03-20 Hyundai Motor Company Apparatus and method for controlling driving in vehicle
US11084491B2 (en) 2018-04-11 2021-08-10 Hyundai Motor Company Apparatus and method for providing safety strategy in vehicle
ES2889930T3 (es) 2018-04-11 2022-01-14 Hyundai Motor Co Ltd Aparato y método para el control para habilitar un sistema autónomo en un vehículo
US11354406B2 (en) * 2018-06-28 2022-06-07 Intel Corporation Physics-based approach for attack detection and localization in closed-loop controls for autonomous vehicles
US11756418B2 (en) * 2019-10-18 2023-09-12 Honda Motor Co., Ltd. Device, method, and storage medium
CN110884490B (zh) * 2019-10-28 2021-12-07 广州小鹏汽车科技有限公司 一种车辆侵入判断及辅助行驶的方法、系统、车辆及存储介质
US20220048509A1 (en) * 2020-08-17 2022-02-17 Magna Electronics Inc. Vehicular control system with traffic jam assist
CN112396824A (zh) * 2020-11-10 2021-02-23 恒大新能源汽车投资控股集团有限公司 车辆监控方法、系统及车辆
CN113240916A (zh) * 2021-05-07 2021-08-10 宝能(广州)汽车研究院有限公司 行车安全测速系统、方法及车辆
CN117037524B (zh) * 2023-09-26 2023-12-22 苏州易百特信息科技有限公司 智慧停车场景下车道跟车优化方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117082A (ja) * 2006-11-01 2008-05-22 Toyota Motor Corp 走行制御計画評価装置
JP2009064088A (ja) * 2007-09-04 2009-03-26 Toyota Motor Corp 移動体進路取得方法、および、移動体進路取得装置
JP2010182207A (ja) * 2009-02-06 2010-08-19 Toyota Motor Corp 運転支援装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4604683B2 (ja) * 2004-11-25 2011-01-05 日産自動車株式会社 危険状況警報装置
JP4062353B1 (ja) * 2006-11-10 2008-03-19 トヨタ自動車株式会社 障害物進路予測方法、装置、およびプログラム
JP5071743B2 (ja) * 2010-01-19 2012-11-14 アイシン精機株式会社 車両周辺監視装置
US8655579B2 (en) * 2010-03-16 2014-02-18 Toyota Jidosha Kabushiki Kaisha Driving assistance device
JP5962706B2 (ja) * 2014-06-04 2016-08-03 トヨタ自動車株式会社 運転支援装置
US20170072850A1 (en) * 2015-09-14 2017-03-16 Pearl Automation Inc. Dynamic vehicle notification system and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008117082A (ja) * 2006-11-01 2008-05-22 Toyota Motor Corp 走行制御計画評価装置
JP2009064088A (ja) * 2007-09-04 2009-03-26 Toyota Motor Corp 移動体進路取得方法、および、移動体進路取得装置
JP2010182207A (ja) * 2009-02-06 2010-08-19 Toyota Motor Corp 運転支援装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021130577A1 (ja) * 2019-12-26 2021-07-01
JP7354292B2 (ja) 2019-12-26 2023-10-02 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 制御装置及び制御方法
JP7175344B1 (ja) 2021-05-11 2022-11-18 三菱電機株式会社 車両制御装置、車両制御システム、車両制御方法及び車両制御プログラム
JP2022176417A (ja) * 2021-05-11 2022-11-29 三菱電機株式会社 車両制御装置、車両制御システム、車両制御方法及び車両制御プログラム

Also Published As

Publication number Publication date
JPWO2018096644A1 (ja) 2019-10-17
US20190279507A1 (en) 2019-09-12
CN109983305A (zh) 2019-07-05

Similar Documents

Publication Publication Date Title
WO2018096644A1 (ja) 車両用表示制御装置、車両用表示制御方法、および車両用表示制御プログラム
JP6755390B2 (ja) 車両制御システムおよび車両制御方法
JP6972294B2 (ja) 車両制御システム、車両制御方法、およびプログラム
JP6646168B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6691032B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
US20190071075A1 (en) Vehicle control system, vehicle control method, and vehicle control program
JP6976280B2 (ja) 車両制御装置、車両制御方法、及びプログラム
WO2018087883A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JPWO2018123344A1 (ja) 車両制御装置、車両制御方法、及びプログラム
WO2018122973A1 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
JP6532170B2 (ja) 車両制御システム、車両制御方法、および車両制御プログラム
CN110949389A (zh) 车辆控制装置、车辆控制方法及存储介质
JP2019117507A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2019079363A (ja) 車両制御装置
JP2022103505A (ja) 車両制御装置、車両制御方法、およびプログラム
JP7280901B2 (ja) 車両制御装置
JP2018084989A (ja) 車両用情報出力装置、車両制御システム、情報出力方法、および情報出力プログラム
JP2023030111A (ja) 運転支援装置、運転支援方法、およびプログラム
JP2023030147A (ja) 車両制御装置、車両制御方法、およびプログラム
JP2020163901A (ja) 表示制御装置、表示制御方法、及びプログラム
JP7092955B1 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7220192B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP6858110B2 (ja) 車両制御装置、車両制御方法、およびプログラム
JP7256168B2 (ja) 車両制御装置、車両制御方法、及びプログラム
US11834048B2 (en) Vehicle control device, vehicle control method, and recording medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16922216

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018552345

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16922216

Country of ref document: EP

Kind code of ref document: A1