WO2016063385A1 - 走行経路演算装置 - Google Patents

走行経路演算装置 Download PDF

Info

Publication number
WO2016063385A1
WO2016063385A1 PCT/JP2014/078125 JP2014078125W WO2016063385A1 WO 2016063385 A1 WO2016063385 A1 WO 2016063385A1 JP 2014078125 W JP2014078125 W JP 2014078125W WO 2016063385 A1 WO2016063385 A1 WO 2016063385A1
Authority
WO
WIPO (PCT)
Prior art keywords
travel route
vehicle
feature
recognition
information
Prior art date
Application number
PCT/JP2014/078125
Other languages
English (en)
French (fr)
Inventor
藤田 晋
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to JP2016555009A priority Critical patent/JP6399100B2/ja
Priority to RU2017116737A priority patent/RU2661963C1/ru
Priority to US15/520,334 priority patent/US10359293B2/en
Priority to MX2017005116A priority patent/MX359042B/es
Priority to EP14904401.8A priority patent/EP3211374B1/en
Priority to CN201480082849.6A priority patent/CN107076564B/zh
Priority to BR112017008376-0A priority patent/BR112017008376B1/pt
Priority to PCT/JP2014/078125 priority patent/WO2016063385A1/ja
Publication of WO2016063385A1 publication Critical patent/WO2016063385A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3461Preferred or disfavoured areas, e.g. dangerous zones, toll or emission zones, intersections, manoeuvre types, segments such as motorways, toll roads, ferries
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096827Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed onboard

Definitions

  • the present invention relates to a travel route computing device that computes a travel route.
  • Patent Document 1 prepares a risk value matrix that gives a risk score at which an intersection becomes an isolated intersection for each factor feature such as a crossing existing in the exit direction of the intersection and a lane-decreasing portion of the road.
  • the route guidance device refers to the risk value matrix for each intersection on the route with respect to the route search result from the departure point to the destination, obtains a danger value score, and an intersection where the danger value score exceeds a predetermined threshold value Are extracted as isolated intersections.
  • the route guidance device searches for and guides a route that avoids an isolated intersection.
  • a driving assistance vehicle or an autonomous driving vehicle travels after recognizing a traffic light or the like, making an action decision for determining the action of the vehicle.
  • a vehicle that performs such action determination in order to travel appropriately, it is necessary to collect information necessary for action determination.
  • the problem to be solved by the present invention is to provide a travel route computing device capable of computing a travel route in which a feature is easily recognized for a vehicle traveling by action determination.
  • the present invention acquires information on an object that affects recognition of a feature by the own vehicle as the object information, and measures a necessary recognition distance from the own vehicle to the feature necessary for recognition of the feature. Based on the object information and the necessary recognition distance, the difficulty of recognizing the feature is determined, and the travel route is calculated after avoiding the point where it is determined that the feature is difficult to recognize. Solve the above problems.
  • the travel route in which the vehicle can easily recognize the feature can be calculated.
  • FIG. 1 is a block diagram of a travel route calculation apparatus according to this embodiment.
  • FIG. 2 is a flowchart showing a control flow of the travel route calculation apparatus.
  • FIG. 3A is a diagram illustrating an example of a road layout.
  • FIG. 3B is a diagram illustrating an example of a road layout.
  • FIG. 3C is a diagram illustrating an example of a road layout.
  • FIG. 4 is a block diagram of a travel route calculation apparatus according to another embodiment of the present invention.
  • FIG. 5 is a flowchart showing a control flow of the travel route calculation apparatus.
  • FIG. 6A is a diagram illustrating an example of a road layout.
  • FIG. 6B is a diagram illustrating an example of a road layout.
  • FIG. 6A is a diagram illustrating an example of a road layout.
  • FIG. 6C is a diagram illustrating an example of a road layout.
  • FIG. 7A is a diagram illustrating an example of a road layout.
  • FIG. 7B is a diagram illustrating an example of a road layout.
  • FIG. 8 is a flowchart showing a control flow of a travel route calculation apparatus according to another embodiment of the present invention.
  • FIG. 9A is a diagram illustrating an example of a road layout.
  • FIG. 9B is a diagram illustrating an example of a road layout.
  • FIG. 1 is a block diagram of a travel route calculation apparatus according to an embodiment of the present invention.
  • the travel route calculation device according to the present embodiment is a device that is mounted on a vehicle and calculates travel accounting when the vehicle is automatically driven.
  • the travel route computing device functions as a ROM (Read Only Memory) in which various programs are stored, a CPU (Central Processing Unit) as an operation circuit for executing the programs stored in the ROM, and an accessible storage device.
  • ROM Read Only Memory
  • CPU Central Processing Unit
  • RAM Random Access Memory
  • the travel route calculation device includes an operation control unit 10, a database 11, and a sensor 12.
  • the database 11 records map data, feature information, road information, and the like.
  • the map data includes link data and node data.
  • the feature information is, for example, traffic signal information, crossing information, traffic sign information, and the like.
  • the road shape information includes intersection information, road merging portion information, road diversion portion road shape information, and the like.
  • the sensor 12 is an imaging device for detecting the surroundings of the own vehicle. Note that the device for detecting the surroundings of the vehicle is not limited to the camera, and millimeter waves, radar, or the like may be used.
  • the driving control unit 10 controls the automatic driving of the host vehicle based on a captured image of a camera included in the sensor 12 and a detection value of a radar (not shown).
  • the driving control unit 10 uses the sensor 12 or the like to recognize a feature necessary for determining the behavior of the own vehicle. Action determination in automatic driving is performed by the vehicle recognizing features such as traffic signals, traffic signs, and railroad crossings.
  • the driving control unit 10 specifies a target point for performing the action of the own vehicle based on the feature. For example, when the vehicle makes a right turn as an action decision, the location of the intersection that makes a right turn becomes the target point. Then, the operation control unit 10 performs the determined action at the target point. Thereby, the own vehicle travels in an automatic operation.
  • the feature is a traffic signal provided at the intersection, and the behavior of the vehicle according to the display of the traffic signal is defined as the behavior of the vehicle.
  • the behavior of the host vehicle is to stop the vehicle at the stop line at the intersection.
  • the traffic light is blue
  • the behavior of the own vehicle is an operation of passing through the intersection at a predetermined speed. That is, traffic lights and intersections are features that cause the behavior of the vehicle to change.
  • the driving control unit 10 sets a target point at which an action is determined as an intersection.
  • the driving control unit 10 recognizes a traffic light from a place away from the intersection by a predetermined distance before the vehicle enters the intersection.
  • the traffic light is detected from the captured image of the camera.
  • running control part 10 approaches an intersection, it recognizes a traffic signal and determines the action according to the color which a traffic signal displays. Then, the driving control unit 10 causes the vehicle to travel according to the determined action. As a result, automatic driving of the vehicle is performed.
  • the operation control unit 10 repeatedly performs the automatic operation control as described above while traveling on the travel route. Note that the above automatic driving control is merely an example, and another control method may be used.
  • the travel route calculation device includes a vehicle information detection unit 1, a travel route calculation unit 2, and an information acquisition unit as functional blocks for calculating a travel route suitable for automatic driving when performing automatic driving of the vehicle as described above. 3, a distance measurement unit 4, and a recognition determination unit 5.
  • the recognition determination unit 5 includes a recognition degree calculation unit 6 and an avoidance location setting unit 7.
  • Vehicle information detection unit 1 detects vehicle information of the own vehicle.
  • the vehicle information includes position information of the own vehicle.
  • the vehicle information detection unit 1 has a function such as GPS.
  • the travel route calculation unit 2 acquires vehicle information from the vehicle information detection unit 1 and calculates a travel route from the current location of the vehicle to the destination while referring to the map data.
  • the destination is input by the user, for example, and the map data is recorded in the database 11.
  • the travel route calculation unit 2 calculates the travel route based on the vehicle information.
  • the travel route calculation unit 2 calculates the travel route so as to avoid the avoidance location.
  • the information acquisition unit 3 acquires a travel route from the travel route calculation unit 2. In addition, the information acquisition unit 3 acquires from the database 11 information on an object that affects recognition of the feature by the own vehicle on the travel route.
  • the object information (hereinafter also referred to as object information) is information for specifying the difficulty when the vehicle recognizes the feature, and is, for example, road shape information or feature information.
  • the information on the target object may be information on the feature itself, or may be information on a feature or road that exists around the feature and is related when the vehicle recognizes the feature.
  • the road shape information is not limited to the road shape, but is information indicating a road structure (such as a three-dimensional intersection). For example, intersections, curves, gradients, and the like are indicated by road shapes, road sizes, lane numbers, and the like.
  • the feature information is information on the feature, and is a feature displaying a traffic rule that the driver should follow when the vehicle is driven.
  • the road information acquired by the information acquisition unit 3 is not limited to road information on the travel route, but also includes information on roads connected to the road on the travel route. For example, when there is a traffic light on the travel route, not only the road on which the vehicle is scheduled to travel, but also the intersection where the traffic signal is installed and the road information connected to the intersection are included.
  • the distance measuring unit 4 measures the necessary recognition distance.
  • the necessary recognition distance is a distance required for the vehicle to recognize the feature, and is a distance from the position of the recognized feature to the host vehicle.
  • the recognition determination unit 5 determines the difficulty in recognizing the feature based on the object information acquired by the information acquisition unit 3 and the necessary recognition distance measured by the distance measurement unit 4.
  • the feature for which the difficulty is judged is a feature that the vehicle must recognize when performing automatic driving by the driving control unit 10.
  • the recognition determination unit 5 determines the difficulty in recognizing features on the travel route.
  • the operation control unit 10 may not recognize the feature necessary for automatic driving by the sensor 12, and automatic driving may not be performed normally. is there. Therefore, the recognition determination unit 5 sets an avoidance point on the travel route while determining the difficulty of recognizing the feature on the travel route.
  • the recognition level calculation unit 6 calculates the recognition level of the feature based on the object information and the necessary recognition distance.
  • the degree of recognition is an index of the ease of recognizing features by the own vehicle.
  • the degree of recognition is determined by the distance from the vehicle to the feature or the direction from the vehicle to the feature. The higher the degree of recognition of a certain feature, the easier it is for the vehicle to recognize the feature. That is, in this embodiment, the difficulty of recognizing features is calculated using a recognition standard that defines the ease of recognition. Therefore, features that are easy to recognize in a driving scene in which the behavior of the vehicle can change. And features that are difficult to recognize.
  • the recognition degree calculation unit 6 specifies the position of the feature with respect to the position of the own vehicle using the road shape information and the feature information.
  • the recognition degree calculation unit 6 compares the positional relationship between the position of the host vehicle and the position of the feature with the necessary recognition distance.
  • the recognition degree calculation part 6 recognizes the said feature by grasping how much the position of the feature has deviated from the necessary recognition distance from the comparison result of the distance and the direction of the feature with respect to the own vehicle. Calculate the degree.
  • the recognition degree calculation unit 6 calculates the recognition degree for each feature that is required when performing automatic driving on the travel route. A specific method for calculating the recognition level will be described later.
  • the avoidance location setting unit 7 sets a location to be avoided from the route along which the vehicle travels as an avoidance location. Since the degree of recognition is determined by the position of the feature and the road shape, the degree of recognition varies depending on the feature. And the avoidance location setting part 7 sets the location of the feature with a low recognition degree as an avoidance location. When the degree of recognition is low, when the vehicle approaches the place, the vehicle may not recognize the feature and may not be able to execute automatic driving by the driving control unit 10. Therefore, the avoidance location setting unit 7 sets such a location with a low degree of recognition as an avoidance location when setting the travel route.
  • the travel route calculation unit 2 calculates the travel route to the target location while avoiding the avoidance location.
  • the driving control unit 10 controls driving of the vehicle based on the travel route calculated avoiding the avoidance points.
  • FIG. 2 is a flowchart showing a control flow of the travel route calculation apparatus.
  • the flowchart shown in FIG. 2 is a flow performed when the destination is input by the user or the like before the automatic operation control is executed.
  • a case where there are a plurality of intersections with traffic lights on the travel route from the current location of the vehicle to the destination is assumed as a specific example.
  • a traffic signal is used as a feature for ease of explanation.
  • the feature is not limited to a traffic signal, and may be another feature such as a road sign.
  • step S1 the vehicle information detection unit 1 detects the position of the vehicle as the current vehicle information of the own vehicle.
  • the position of the vehicle is detected by a combination of GPS (Global Positioning System), a gyro sensor, a vehicle speed sensor, and the like.
  • GPS Global Positioning System
  • the position of the vehicle is not limited to the current location of the stopped vehicle, but may be the current location of the running vehicle.
  • step S2 the travel route calculation unit 2 calculates the travel route to the destination based on the current location of the vehicle.
  • the travel route is a route from which the vehicle will travel.
  • a car navigation system is used to calculate the travel route.
  • the calculation of the travel route does not need to obtain the lane to be traveled, and may be performed by going straight on the route or going straight at the intersection, turning right, turning left.
  • step S3 the information acquisition unit 3 acquires object information from the database 11.
  • step S ⁇ b> 4 the recognition determination unit 5 identifies the feature related to the traffic rule from the object information on the travel route. The specified feature must be obeyed when the vehicle travels along the travel route. When there are a plurality of traffic lights on the travel route, the recognition determination unit 5 identifies the traffic lights at each point. The recognition determination unit 5 identifies traffic lights at all intersections on the travel route.
  • step S5 the recognition determination unit 5 identifies a layout from the position of the identified feature and the road shape information included in the object information.
  • the layout represents the shape of the road and the positional relationship between the road and the feature. For example, when there is an intersection as the road shape, the relationship representing the shape of the intersection and the position of the traffic light provided at the intersection is represented by the layout.
  • 3A to 3C are diagrams showing the intersections where the traffic lights are installed in three different patterns.
  • the arrows shown in FIGS. 3A to 3C indicate the traveling route of the host vehicle.
  • the recognition determination unit 5 identifies the traffic light 101 as a feature related to the traffic rule.
  • the recognition determination unit 5 identifies the shape of the road where the traffic signal 101 is installed. And the recognition judgment part 5 grasps
  • the driving control is performed when the host vehicle is traveling on the travel route and the host vehicle is at a position away from the traffic signal 101 by the necessary recognition distance.
  • the unit 10 recognizes the traffic light 101 using the sensor 12 or the like.
  • the operation control unit 10 controls the vehicle so that the vehicle stops at the intersection stop line or behind the preceding vehicle.
  • a feature necessary for determining the behavior of the host vehicle is the traffic light 101.
  • action determination represents the operation
  • the recognition determination unit 5 specifies that the traffic light 102 is provided in the lane on the opposite side of the traveling lane of the own vehicle.
  • the recognition determination unit 5 also specifies the size of the intersection.
  • the recognition determination unit 5 provides that the traffic light 103 is provided in the straight direction of the vehicle in the back of the intersection, and the traffic light 104 is provided in the lane on the side opposite to the traveling lane of the own vehicle. To be identified. Further, the recognition determination unit 5 specifies that the size of the intersection is larger than the intersection shown in FIGS. 3A and 3B. In addition, you may include the direction (vertical direction or horizontal direction) in which the traffic signal is installed in specification of the traffic signal.
  • the distance measuring unit 4 measures the necessary recognition distance.
  • the necessary recognition distance is a distance from the position of the feature to the own vehicle, which is necessary for recognizing the feature when the feature is recognized and the action is determined in the automatic driving. Since the feature is specified by the recognition determination unit 5, the distance measurement unit 4 acquires the position of the feature on the travel route from the recognition determination unit 5. For example, in the example of FIG. 3A, the distance that can be recognized by the operation control unit 10 on the travel route is the necessary recognition distance, and the distance up to a certain distance from the intersection of the traffic signal 101 is the necessary recognition distance. Become.
  • the predetermined distance may be determined in advance or may be determined according to the braking distance of the vehicle. That is, the necessary recognition distance indicates a condition necessary for the operation control unit 10 to recognize the traffic light 101 when performing action determination.
  • the required recognition distance may be changed according to the position of the feature on the layout. For example, when a traffic light is set in front of an intersection on a travel route at a certain intersection (see FIG. 3A), an automatic driving in which the vehicle is stopped at a stop line is assumed. In this case, since the position of the stop line and the position of the traffic signal are close to each other, if the necessary recognition distance can secure at least the braking distance of the vehicle, the vehicle can stop at the stop line while recognizing the traffic signal. Can do.
  • the necessary recognition distance is a distance obtained by adding the distance from the stop line to the traffic light to the braking distance of the vehicle.
  • the recognition level calculation unit 6 calculates the recognition level based on the layout and the required recognition distance.
  • the traffic light 101 is on the travel route and is located in front of the vehicle. Also, the size of the intersection is smaller than the intersection in FIG. 3C.
  • the sensor 12 can capture the traffic light 101 in front of the camera and at a position close to the sensor 12. Therefore, in the layout of FIG. 3A, the traffic light 101 becomes a feature that is easy to recognize for the operation control unit 10, and the recognition degree of the traffic light 101 is high.
  • the traffic light 102 is located in the right direction ahead when viewed from the host vehicle.
  • the camera of the sensor 12 uses the traveling direction of the vehicle as the optical axis, and the luminance of the traffic light 102 detected by the camera is lowered.
  • the sensor 12 cannot catch the traffic light 102 in front of the camera. Therefore, in the layout of FIG. 3B, the traffic light 101 is the feature that is most difficult to recognize for the operation control unit 10, and the recognition degree of the traffic light 102 is the lowest.
  • the traffic signal 103 is in the same position as the traffic signal 102 shown in FIG. 3B, the traffic signal 103 is a feature that is difficult for the operation control unit 10 to recognize.
  • the traffic light 104 is located in the front of the vehicle at the same position as the traffic light 101 shown in FIG. 3A.
  • the intersection of FIG. 3C is larger than the intersection of FIG. 3A, the distance from the own vehicle to the traffic signal 104 is longer than the distance from the own vehicle to the traffic signal 101. Therefore, in the layout of FIG. 3C, the traffic signal 104 is a feature that is harder to recognize than the traffic signal 101 of FIG. 3B, but is a feature that is easier to recognize than the traffic light 102 of FIG.
  • the operation control part 10 can also raise the recognition degree of the state of a traffic signal by adding the information of the traffic signal 103 to the information of the traffic signal 104. Therefore, the recognition level at the intersection of the traffic signals 103 and 104 is lower than the recognition level of the traffic signal 101 in FIG. 3A and higher than the recognition level of the traffic signals 103 and 104 in FIG. 3C. That is, in the example of the intersection shown in FIGS. 3A to 3C, the recognition degrees are in the order of FIG. 3A> FIG. 3C> FIG. 3B.
  • the recognition degree calculation unit 6 is caused by the position of the feature on the layout when the operation control unit 10 recognizes the feature at a position away from the feature by the necessary recognition distance on the travel route.
  • the ease of recognition is calculated as the degree of recognition.
  • the recognition degree calculation unit 6 calculates the recognition degree for each feature on the travel route.
  • the control flow of steps S5 to S7 is performed, and the next closest to the own vehicle is performed. Focusing on the features, the control flow of steps S5 to S7 is performed. As a result, the control flow of steps S5 to S7 is performed for all the features existing on the travel route from which the vehicle will travel.
  • step S8 the recognition determination unit 5 compares the threshold value with the recognition degree.
  • the threshold is set in advance according to the detection range of the sensor 12 when detecting the feature.
  • the threshold value is set to a value between the recognition degrees of the traffic lights 103 and 104 shown in FIG. 3C and the recognition degree of the traffic light 102 shown in FIG. 3B.
  • the recognition determination unit 5 determines in step S9 that it is difficult to recognize the feature for the determination target feature. On the other hand, if the recognition degree is equal to or greater than the threshold value, the recognition determination unit 5 determines in step S10 that the feature can be recognized for the feature to be determined. Thereby, the recognition determination unit 5 determines the difficulty in recognizing the feature. In addition, the recognition determination unit 5 determines the difficulty of recognition for each feature by executing the control flow of steps S8 to S10 for all the features on the travel route.
  • the avoidance location setting unit 7 identifies a location where the recognition degree is smaller than the threshold and it is difficult to recognize the feature as an avoidance location.
  • the intersection shown in FIGS. 3A and 3C is not set as an avoidance location, but the intersection shown in FIG. 3B is set as an avoidance location. That is, at the intersection shown in FIG. 3B, the traffic light 102 is shifted in a direction perpendicular to the traveling direction of the vehicle on the layout, and the traffic light 102 is calculated as a place that is difficult for the operation control unit 10 to recognize.
  • the intersection shown in 3B is set as an avoidance location.
  • step S12 the travel route calculation unit 2 calculates the travel route from the current location of the vehicle to the target location after avoiding the avoidance point.
  • a travel route calculation method a method based on a graph search theory such as the Dijkstra method may be used.
  • the travel route calculation unit 2 may calculate a travel route that does not pass through a weighted link by assigning a greater weight to the link connected to the avoidance point (node) than other links. . Then, the calculation result of the travel route calculation unit 2 is output to the operation control unit 10. Then, the control flow shown in FIG. 2 ends.
  • the layout of the intersection with the traffic signal is displayed before the host vehicle actually approaches the intersection. Based on this, since it is determined that the traffic signal is difficult to recognize, it is possible to determine whether to pass or avoid an intersection with the traffic signal.
  • the driving assistance vehicle and the automatic driving vehicle can easily recognize a feature and calculate a travel route on which the vehicle can travel.
  • information on an object that affects recognition of a feature by the own vehicle is acquired as the object information, and necessary from the own vehicle to the feature necessary for feature recognition. Measure the recognition distance. Further, based on the object information and the necessary recognition distance, the difficulty of recognizing the feature is determined, and the travel route is calculated after avoiding the location where it is determined that the feature is difficult to recognize. Thereby, according to the ease of recognizing the features required when making a behavior decision, the driving route until the host vehicle reaches the destination is calculated. It is possible to calculate a route that can travel and a route that is difficult to travel, and to calculate a route that allows the vehicle to easily recognize the feature.
  • the position of the feature on the layout is specified based on the road shape information and the position information of the feature, and the difficulty of recognizing the feature is determined based on the position and the necessary recognition information.
  • a point having a road shape that causes a change in the behavior of the own vehicle or a point having the feature that causes a change in the behavior of the own vehicle is specified, and the feature is recognized at these points. Judging the difficulty. This determines the shape of the road and the presence or absence of features that can cause changes in the behavior of the vehicle, so what kind of driving scene exists on the route on which the vehicle is going to travel after the route calculation. It can be grasped on the vehicle side.
  • the feature for displaying the traffic rule is specified, and the difficulty of recognizing the feature is determined. Thereby, it is possible to grasp on the vehicle side what kind of traveling scene exists on the route on which the host vehicle is to travel after the route calculation.
  • the difficulty in recognizing the feature is determined based on the detection range of the sensor 12 by setting a threshold for determining the difficulty according to the detection range of the sensor 12. This makes it difficult to recognize a feature based on the detection range of a sensor mounted on the vehicle such as a camera or a laser, so grasp the feature that exists within the range that the vehicle can recognize. be able to.
  • the recognition level of the traffic signal is calculated based on the position of the traffic signal on the layout.
  • the feature for which the recognition level is calculated may be a feature other than the traffic signal.
  • the recognition determination unit 5 specifies the position of the level crossing on the road after specifying the shape of the road toward the level crossing based on the object information.
  • the recognition determination unit 5 calculates the degree of recognition of the level crossing according to the position or the direction of the level crossing with respect to the own vehicle.
  • the recognition judgment part 5 judges the difficulty of recognition of a crossing by comparing a recognition degree and a threshold value.
  • the recognition degree calculation unit 6 calculates the recognition degree for each of a plurality of travel routes at each location of a plurality of features existing on the travel route, and recognizes each of the plurality of travel routes. Calculate the sum of degrees.
  • running route calculating part 2 calculates the driving
  • a travel route that can be easily recognized by the host vehicle can be calculated from among a plurality of travel routes. For example, a more natural travel route that does not cause frequent left and right turns can be calculated.
  • the recognition level calculation unit 6 calculates the number of recognition levels higher than a predetermined value for each travel route instead of the sum of the recognition levels, and the travel route calculation unit 2 travels with the highest number of recognition levels.
  • the route may be calculated as a travel route on which the host vehicle travels.
  • the recognition determination unit 5 identifies a point where the behavior of the own vehicle and the behavior of the other vehicle interfere from the layout of the road as a point for determining the difficulty of the feature. And the recognition judgment part 5 judges the difficulty of the feature in the said point, when the recognition degree calculating part 6 calculates the recognition degree of the feature in the said point.
  • the point where the behavior of the own vehicle and the behavior of the other vehicle interfere with each other is not limited to an intersection, but is, for example, a junction or a branch point. Thereby, it is possible to grasp a traveling scene in which the behavior of the own vehicle can change.
  • the travel route calculation device is not limited to an automatic driving vehicle, and may be mounted on a driving support vehicle.
  • the driving support vehicle is a vehicle that supports driving by the driver, for example, driving when changing lanes. And when a driving assistance vehicle assists lane change using sensors, such as a camera, it supports driving, after recognizing the place of lane change.
  • the travel route computation device computes a travel route that facilitates recognizing the location of the lane change. Then, the driving support vehicle supports driving based on the calculated travel route.
  • the travel route calculation device may calculate the travel route not only when the vehicle is traveling but also when the vehicle is stopped.
  • the travel route calculation unit 2 corresponds to the “travel route calculation unit” of the present invention
  • the information acquisition unit 3 corresponds to the “information acquisition unit” of the present invention
  • the distance measurement unit 4 corresponds to the “distance measurement unit” of the present invention.
  • the recognition determination unit 5 corresponds to the “determination unit” of the present invention
  • the sensor 12 corresponds to the feature detection unit of the present invention
  • the recognition degree calculation unit 6 corresponds to the “recognition degree calculation unit” of the present invention. It corresponds to.
  • FIG. 4 is a block diagram of a travel route calculation apparatus according to another embodiment of the invention.
  • the point which has the vehicle speed estimation part 8 and a part of control of the distance measurement part 4 and the recognition judgment part 5 differ with respect to 1st Embodiment mentioned above.
  • Other configurations are the same as those in the first embodiment described above, and the description thereof is incorporated.
  • the travel route calculation apparatus includes a vehicle speed estimation unit 8 in addition to the configuration of the vehicle information detection unit 1 and the like.
  • the vehicle speed estimation unit 8 estimates the vehicle speed of the host vehicle when heading for a feature on the travel route.
  • FIG. 5 is a flowchart showing a control flow of the travel route calculation apparatus.
  • control flow from step S21 to step S24 is the same as the control flow from step S1 to step S4 of the first embodiment.
  • control flow in step S25 is the same as the control flow in step S5 of the first embodiment, but a specific example is different.
  • FIGS. 6A to 6C are diagrams showing intersections where traffic lights are installed in three different patterns.
  • the recognition determination unit 5 identifies the presence of an intersection on the traveling route of the own vehicle and that the road before the intersection is a curve.
  • the recognition determination unit 5 identifies the positions of the two traffic lights 101 and 102 at the intersection.
  • the curve before the intersection turns to the right with respect to the direction of travel of the vehicle.
  • the traffic light 101 is installed in a lane on the opposite side of the traveling lane of the host vehicle.
  • the traffic light 102 is installed on the same lane as the traveling lane of the host vehicle behind the intersection.
  • the recognition determination unit 5 identifies the intersection and the curve before the intersection, and identifies the position of the traffic light 103, as in FIG. 6A.
  • the traffic signal 103 is installed in front of the intersection on the same lane as the traveling lane of the vehicle.
  • the recognition determination unit 5 identifies the intersection and the curve before the intersection, and identifies the positions of the traffic lights 101 and 102 and the sign 201, as in FIG. 6A.
  • the positions of the traffic lights 101 and 102 shown in FIG. 6C are the same as those in FIG. 6A.
  • the sign 201 is installed between the own vehicle and the traffic light 101.
  • step S ⁇ b> 26 the vehicle speed estimation unit 8 estimates the vehicle speed when the host vehicle heads for the feature specified by the recognition determination unit 5.
  • the legal speed of each road is recorded as map data. Therefore, the vehicle speed estimation unit 8 estimates the legal speed of the road that travels when heading for the feature from the position of the feature and the road on the travel route as the vehicle speed of the host vehicle.
  • the vehicle speed estimation unit 8 is not necessarily limited to the legal speed, and may estimate a vehicle speed lower than the legal speed as the vehicle speed of the host vehicle.
  • the vehicle may not be able to travel at the legal speed.
  • the Road Traffic Law stipulates that a vehicle travels at a speed at which it can be stopped at any time when turning right or left at an intersection. For this reason, at intersections where a right turn is planned, it is almost impossible to drive at the legal speed. In such a case, the vehicle speed estimation unit 8 estimates a speed lower than the legal speed as the vehicle speed of the host vehicle.
  • the vehicle speed estimation unit 8 estimates the vehicle speed based on the vehicle speed when the vehicle traveled in the past on the road to be estimated for the vehicle speed. Also good.
  • step S27 the distance measuring unit 4 measures the necessary recognition distance based on the vehicle speed estimated by the vehicle speed estimating unit 8.
  • the vehicle behavior conditions become severe, for example, when the brake depression amount must be suddenly increased or the steering angle of the steering wheel must be suddenly increased. Is the case. For example, when a signal turns red when attempting to pass straight through an intersection, vehicle behavior conditions become severe.
  • v [km / h] is the speed when heading for the intersection.
  • t be the time from to the stop line at the intersection.
  • the place where the action is determined is the place where the brake pedal is started to stop at the stop line.
  • the stop position of the own vehicle is the same as the position of the traffic light for easy explanation.
  • Equation (1) The distance (d [m]) from the location where the action is determined to the stop line at the intersection is expressed by Equation (1).
  • equation (2) holds between the speed (v) and time (t) when heading for the intersection.
  • the recognition determination unit 5 determines the presence or absence of an obstacle located around the feature.
  • the periphery of the feature is within a range that is a necessary recognition distance away from the position of the feature, and is a range between the own vehicle and the feature.
  • the recognition determination unit 5 determines whether there is an obstacle that hides the feature when the vehicle recognizes the feature.
  • a sign 201 exists between the traffic light 101 and the own vehicle. In such a case, even if the driving control unit 10 uses the sensor 12 to capture an image of the traveling direction of the host vehicle, the traffic signal 101 is hidden behind the sign 201 and cannot be detected. Therefore, in the example of FIG. 6C, the recognition determination unit 5 determines that there is an obstacle around the feature.
  • step S29 the recognition determination unit 5 sets a feature detection range for the position of the vehicle.
  • the position of the own vehicle is a position away from the feature to be recognized by a necessary recognition distance.
  • a plurality of sensors such as a millimeter wave, a radar, and a laser are provided in the own vehicle so that each sensor complements the detection range.
  • the detection distance of the sensor is 200 meters for millimeter waves, several hundred meters for radar, 100 meters for lasers, and several tens of meters for cameras.
  • the detection range of the sensor is specified not only by distance but also by angle. In the millimeter wave, the detection range is relatively narrow, but the camera can be selected to narrow or widen the detection range depending on the wide angle of the lens.
  • the maximum detection range by those sensors may be the detection range of the sensor, or the minimum detection The range may be the detection range of the sensor.
  • FIG. 7A and 7B are diagrams showing the same layout as FIG. 6A.
  • 7A is a diagram for explaining a detection range when a narrow-angle lens is used for the sensor 12
  • FIG. 7B is a diagram for explaining a detection range when a wide-angle lens is used for the sensor 12.
  • FIG. 7A and 7B, X represents a detection range.
  • the recognition level calculation unit 6 calculates the recognition level of the feature based on the layout, the necessary recognition distance, the presence or absence of an obstacle, and the detection range of the sensor 12.
  • the information shown in the layout includes not only the shape of the road at the intersection where the traffic signal is installed, but also the curvature of the road before the intersection. Information on the curvature of the road is recorded in the database 11 as road information. For example, as shown in FIG. 6A, when the road is curved in front of the intersection, the traffic light can be recognized in front of the vehicle (the direction along the dotted line L in FIG. 6A) from the position of the vehicle shown in FIG. 6A. Can not. In order to recognize the traffic signal directly in front, the host vehicle travels from the position shown in FIG.
  • the host vehicle cannot recognize the traffic signal in front of it. Therefore, in order to recognize the traffic light in front, the vehicle must recognize it by approaching the intersection. That is, as shown in FIG. 6A, when the road in front of the intersection has a curve with a certain curvature and the traffic signal 101 is away from the direction directly in front of the host vehicle, the degree of recognition is low. .
  • the recognition level calculation unit 6 calculates the recognition level of the traffic signal 103 so as to be higher than the recognition level of the traffic signal 101.
  • the layout information is not limited to road curvature, but may include road gradient information.
  • road gradient information For example, when the vehicle is heading for an intersection with a traffic light, if the road in front of the intersection is a slope, the vehicle will have a traffic light compared to the case where the road in front of the intersection is flat. It becomes difficult to recognize.
  • the recognition level calculation unit 6 calculates the recognition level based on the road gradient. For example, the recognition level calculation unit 6 calculates the recognition level so that the recognition level decreases as the road gradient increases.
  • the recognition level calculation unit 6 performs a calculation so that the recognition level is lower when there is an obstacle around the feature to be calculated than when there is no obstacle. For example, when FIG. 6A is compared with FIG. 6C, in the case shown in FIG. 6C, there is a sign 201 that hides the traffic signal 101. Therefore, the recognition level calculation unit 6 calculates the recognition level in the case shown in FIG. 6C to be lower than the recognition level in the case shown in FIG. 6A.
  • the obstacle is not limited to the sign 201, and may be a building or a tree, for example. Information on buildings and trees may be recorded in the database 11 as map data.
  • the recognition level calculation unit 6 calculates the recognition level of the feature based on the detection range of the sensor 12. Specifically, the recognition level calculation unit 6 makes the recognition level when the feature to be calculated is within the detection range higher than the recognition level when the feature to be calculated is not within the detection range. Calculate to For example, when FIG. 7A is compared with FIG. 7B, in the case shown in FIG. 7B, the traffic light 101 is located within the detection range of the sensor 12. Therefore, the recognition level calculation unit 6 calculates the recognition level in the case shown in FIG. 7B to be higher than the recognition level in the case shown in FIG. 7A.
  • step S31 to step S35 is the same as the control flow from step S8 to step S12 of the first embodiment.
  • the vehicle curvature or gradient is included before the host vehicle actually approaches the intersection.
  • the difficulty in recognizing the traffic light caused by the road layout, the presence or absence of obstacles, and the detection range of the sensor 12 is determined. Therefore, it can be determined whether to pass or avoid the intersection with the traffic signal.
  • the driving assistance vehicle and the automatic driving vehicle can easily recognize a feature and calculate a travel route on which the vehicle can travel.
  • the vehicle speed of the host vehicle is estimated, and the necessary recognition distance is measured based on the estimated vehicle speed. Accordingly, the necessary recognition distance can be measured under the vehicle speed condition when actually traveling on the travel route.
  • the legal speed is estimated as the vehicle speed, and the necessary recognition distance is measured based on the legal speed. Thereby, it is possible to determine the difficulty of recognizing the feature under the most severe speed condition.
  • the vehicle speed is estimated when the vehicle has traveled in the past, and the necessary recognition distance is measured based on the estimated speed. This makes it possible to determine the difficulty in recognizing features under typical speed conditions.
  • the difficulty of the feature is determined based on the presence or absence of an obstacle located around the feature. Thereby, it is possible to grasp the feature that is difficult to recognize due to the obstacle.
  • the difficulty in recognizing the feature is determined based on the curvature of the road or the gradient of the road. This makes it possible to grasp features that are difficult to recognize due to the curvature of the road or the gradient of the road.
  • the vehicle speed estimation unit 8 selects one of the vehicle speed and the legal speed when the vehicle has traveled in the past, and estimates the selected speed as the vehicle speed of the host vehicle, according to the scheduled date and time, weather conditions at the time of travel, and the like. May be. Thereby, it is possible to determine the difficulty of recognizing the feature according to the condition affecting the vehicle speed.
  • the vehicle speed estimation unit 8 corresponds to the vehicle speed estimation means of the present invention.
  • a travel route calculation apparatus according to another embodiment of the invention will be described.
  • part of the control of the recognition determination unit 5 is different from the first embodiment described above.
  • the configuration of the travel route calculation device is the same as the configuration according to the second embodiment.
  • description of 1st Embodiment and 2nd Embodiment is used.
  • FIG. 8 is a flowchart showing a control flow of the travel route calculation apparatus.
  • step S41 to step S51 is the same as the control flow from step S1 to step S11 of the first embodiment.
  • step S52 the vehicle estimation unit 8 calculates acceleration / deceleration when traveling toward the avoidance location set in step S51.
  • FIGS. 9A and 9B are diagrams showing layouts of intersections with traffic lights. The position of the own vehicle is different between FIGS. 9A and 9B. The road layout shown in FIGS. 9A and 9B is the same as FIG. 6A.
  • the traffic lights 101 and 102 turn red, and if the vehicle tries to decelerate at 0.15G.
  • a braking distance of about 95 [m] is required. Therefore, in order to decelerate at 0.15 G from the state where the host vehicle is traveling at 60 [km / h] and stop at the stop line, the host vehicle is braked from the traffic signal 101 (about 95 [m]).
  • the traffic light 101 must be recognized at the position of the separated curve.
  • the braking distance for the vehicle to stop at the stop line at the intersection is from 95 [m]. It can be shortened to 42 [m].
  • the recognition degree calculation unit 6 sets the recognition degree of the traffic lights 101 and 102 to a low value (corresponding to the control flow of step S47 in FIG. 8).
  • the recognition degree shown in the example of FIG. 9A is smaller than the threshold value, and the intersection location shown in FIG. 9A is set as an avoidance location.
  • the vehicle speed estimation unit 8 calculates the speed at which the vehicle decelerates toward the avoidance point, assuming that the vehicle decelerates while traveling on a curve based on the road layout as shown in FIGS. 9A and 9B. Specifically, the vehicle speed estimation unit 8 estimates that the vehicle speed is decelerated from 60 [km / h] to 40 [km / h].
  • the distance measuring unit 4 calculates a necessary recognition distance based on the vehicle speed for each deceleration.
  • the necessary recognition distance is a distance from the own vehicle to the feature in a state where the vehicle speed has been reduced to the vehicle speed estimated by the vehicle speed estimation unit 8.
  • the feature is installed at a place set as an avoidance point.
  • the distance measurement part 4 is calculating the required recognition distance based on the behavior of the own vehicle.
  • the behavior of the host vehicle is that the host vehicle decelerates at a curve before the intersection in the example of FIG. 9B.
  • the recognition degree calculation part 6 calculates a recognition degree again based on the required recognition distance and layout after deceleration.
  • the recognition degree of FIG. 9A is a low value.
  • the vehicle recognizes the traffic lights 101 and 102 that must be recognized. Can be recognized, so the degree of recognition increases.
  • step S54 the recognition determination unit 5 compares the recognition degree calculated again and the threshold value. If the recognition level is greater than or equal to the threshold value, the recognition determination unit 5 determines that the avoidance location setting can be canceled, and the process proceeds to step S55. In step 55, the avoidance location setting unit 7 cancels the avoidance location setting. On the other hand, when the recognition level is lower than the threshold, the recognition determination unit 5 determines that the avoidance location setting cannot be canceled, and the avoidance location setting unit 7 does not cancel the avoidance location setting.
  • step S56 the travel route calculation unit 2 calculates the travel route from the current location of the vehicle to the target point after avoiding the avoidance point. Then, the control flow shown in FIG. 8 ends.
  • the vehicle when there is an intersection with a signal that must pass through on the route planned for traveling of the vehicle, the vehicle is accelerated and decelerated before the vehicle reaches the intersection. It can be calculated so as to be an intersection that can pass through the intersection. As a result, a travel route with few avoidance points can be calculated.
  • the deceleration of the vehicle is not limited to the curve before the intersection, and it is necessary to temporarily decelerate or stop even when making a right turn or a left turn at the intersection, for example. Therefore, by recalculating the recognition degree of the feature based on the behavior of the own vehicle, the place where the feature is installed can be excluded from the avoidance place. As a result, in automatic operation control, it is possible to pass through such an intersection while turning right, left, or decelerating.
  • the necessary recognition distance is calculated based on the behavior of the host vehicle.
  • the required recognition distance is calculated in consideration of typical vehicle behavior (acceleration / deceleration, traveling at a constant speed, etc.), so action determination is performed under conditions that more closely match the actual driving scene. It is possible to calculate the distance required when
  • the difficulty in recognizing the feature is determined based on the acceleration or deceleration of the vehicle.
  • the degree of recognition that changes due to acceleration / deceleration is calculated, and it is determined whether or not to set as an avoidance location. Therefore, acceleration and deceleration are performed even in a location that is set as an avoidance location in normal traveling. If possible, it can be excluded from the avoidance points. And the place excluded from the avoidance location can be included in the travel route.

Abstract

自車が目的地に到着するまでの走行経路を演算する走行経路演算手段と、自車による地物の認識に影響する対象物の情報を対象物情報として取得する情報取得手段と、自車の行動決定の際に自車が地物の認識のために必要とする、自車から地物までの距離を必要認識距離として測定する距離測定手段と、対象物情報及び必要認識距離に基づき、地物の認識の困難性を判断する判断手段とを備え、走行経路演算手段は、判断手段により地物の認識が困難であると判断された箇所を回避した上で走行経路を演算する。

Description

走行経路演算装置
 本発明は、走行経路を演算する走行経路演算装置に関するものである。
 従来より、車両が交差点内を円滑に通過できず孤立するおそれがある孤立交差点を反映させて、指定された目的地までの経路を案内する経路案内装置が知られている。たとえば、特許文献1では、交差点の退出方向に存在する踏切、道路の車線減少部分などの要因地物ごとに、交差点が孤立交差点となる危険スコアを与える危険値マトリックスを用意する。経路案内装置は、出発地から目的地までの経路探索結果に対し、その経路上の交差点ごとに、危険値マトリックスを参照して、危険値スコアを求め、危険値スコアが所定の閾値を超える交差点を孤立交差点として抽出する。そして、経路案内装置は、孤立交差点を回避する経路を探索し、案内する。
特開2012-247315号公報
 ところで、運転支援車両又は自動運転車両は、信号機等を認識した上で、車両の行動を決める行動決定を行い、走行する。このような行動決定を行う車両において、適切に走行させるには、行動決定に必要な情報を収集する必要がある。
 しかしながら、上記の特許文献1の技術では、車両が交差点で孤立するおそれがあるかを危険度の指標としている。そのため、ある交差点の危険度が低い場合でも、当該交差点の道路形状、信号機の位置等の要因により、行動決定を行う車両は信号機等を認識できず適切に走行できないという問題がある。
 本発明が解決しようとする課題は、行動決定により走行する車両に対して、地物を認識しやすい走行経路を演算できる走行経路演算装置を提供することである。
 本発明は、自車による地物の認識に影響する対象物の情報を対象物情報として取得し、当該地物の認識のために必要とする自車から地物までの必要認識距離を測定し、当該対象物情報及び当該必要認識距離に基づき、当該地物の認識の困難性を判断し、当該地物の認識が困難であると判断した箇所を回避した上で走行経路を演算することによって上記課題を解決する。
 本発明によれば、目的地に到着するまでの走行経路において、行動決定をするために必要となる地物の認識の困難性を把握しているため、車両にとって地物を認識し易い走行経路を演算することができる。
図1は本実施形態に係る走行経路演算装置のブロック図である。 図2は走行経路演算装置の制御フローを示すフローチャートである。 図3Aは道路のレイアウトの一例を示す図である。 図3Bは道路のレイアウトの一例を示す図である。 図3Cは道路のレイアウトの一例を示す図である。 図4は本発明の他の実施形態に係る走行経路演算装置のブロック図である。 図5は走行経路演算装置の制御フローを示すフローチャートである。 図6Aは道路のレイアウトの一例を示す図である。 図6Bは道路のレイアウトの一例を示す図である。 図6Cは道路のレイアウトの一例を示す図である。 図7Aは道路のレイアウトの一例を示す図である。 図7Bは道路のレイアウトの一例を示す図である。 図8は本発明の他の実施形態に係る走行経路演算装置の制御フローを示すフローチャートである。 図9Aは道路のレイアウトの一例を示す図である。 図9Bは道路のレイアウトの一例を示す図である。
 以下、本発明の実施形態を図面に基づいて説明する。
《第1実施形態》
 図1は、本発明の実施形態に係る走行経路演算装置のブロック図である。本実施形態に係る走行経路演算装置は、車両に搭載され、車両が自動運転する際の走行経理を演算するための装置である。
 走行経路演算装置は、各種プログラムが格納されたROM(Read Only Memory)と、このROMに格納されたプログラムを実行する動作回路としてのCPU(Central Processing Unit)と、アクセス可能な記憶装置として機能するRAM(Random Access Memory)とを備えている。
 走行経路演算装置は、運転制御部10、データベース11及びセンサ12を備えている。データベース11は、地図データ、地物の情報、道路の情報等を記録している。地図データは、リンクデータとノードデータ等である。地物の情報は、例えば信号機の情報、踏切の情報、交通標識の情報などである。道路形状の情報は、交差点の情報、道路の合流部分の情報、道路の分流部分の道路形状の情報などである。センサ12は、自車の周囲を検出するための撮像装置である。なお、自車の周囲を検出する装置には、カメラに限らずミリ波、レーダ等を用いてもよい。
 運転制御部10は、センサ12に含まれるカメラの撮像画像、図示しないレーダ等の検出値に基づき自車の自動運転を制御する。運転制御部10は、センサ12等を用いて、自車の行動を決定するために必要となる地物を認識する。自動運転における行動決定は、走行経路の信号機、交通標識、踏切等の地物を車両が認識することで行われる。運転制御部10は、当該地物に基づき自車の行動を行う目標点を特定する。例えば、行動決定として車両が右折する場合には、右折する交差点の場所が目標点となる。そして、運転制御部10は決定した行動を当該目標点で行う。これにより、自車が自動運転で走行する。
 一例として、車両が自車の前方に存在する交差点を走行する際の自動運転について説明する。地物を交差点に設けられた信号機とし、信号機の表示に応じた自車の行動を車両の挙動とする。信号機が赤色又は黄色の場合には、自車の行動は交差点の停止線で車両を止める動作となる。一方、信号機が青色の場合には、自車の行動は交差点を所定の速度で通過する動作となる。すなわち、信号機及び交差点は自車の挙動を変化させる原因となる地物である。運転制御部10は、行動決定を行う目標点を交差点に設定する。運転制御部10は、車両が交差点に進入する前に、交差点に対して所定の距離を離れた場所から信号機を認識する。信号機はカメラの撮像画像から検出される。そして、運転制御部10は、交差点に近づくと、信号機を認識し、信号機が表示する色に応じた行動を決定する。そして、運転制御部10は、決定した行動により車両を走行させる。これにより、車両の自動運転が行われる。運転制御部10は、上記のような自動運転制御を、走行経路を走行中に繰り返し行っている。なお上記の自動運転の制御は一例にすぎず、他の制御方法であってもよい。
 走行経路演算装置は、上記のような車両の自動運転を行う際に、自動運転に適した走行経路を演算するための機能ブロックとして、車両情報検出部1、走行経路演算部2、情報取得部3、距離測定部4、及び認識判断部5を有している。また認識判断部5は、認識度演算部6及び回避箇所設定部7を有している。
 車両情報検出部1は自車両の車両情報を検出する。車両情報は、自車の位置情報等を含む。車両情報検出部1はGPS等の機能を有している。
 走行経路演算部2は、車両情報検出部1から車両情報を取得し、地図データを参照しつつ、車両の現在地から目的地までの走行経路を演算する。目的地は例えばユーザにより入力され、地図データはデータベース11に記録されている。これにより、走行経路演算部2は、車両情報に基づき走行経路を演算する。
 走行経路演算部2は、回避箇所設定部7により回避箇所が設定されている場合には、回避箇所を避けるように走行経路を演算する。
 情報取得部3は、走行経路演算部2から走行経路を取得する。また情報取得部3は、走行経路上において自車による地物の認識に影響する対象物の情報をデータベース11から取得する。対象物の情報(以下、対象物情報とも称す)は、自車が地物を認識する際の困難性を特定するための情報であって、例えば道路形状の情報又は地物の情報である。対象物の情報は、地物自体の情報でもよく、地物の周囲に存在し、自車が地物を認識する際に関係する地物又は道路等の情報でもよい。道路形状の情報は、道路の形に限らず、道路の構造(立体的な交差など)を示す情報である。例えば交差点、カーブ、勾配等を道路の形、道路の大きさ、車線の数等で示している。
 地物の情報は、地物に関する情報であって、車両を走行させる際に運転者が従うべき交通ルールを表示している地物である。
 情報取得部3により取得される道路の情報には、走行経路上の道路の情報に限らず、走行経路上の道路と繋がっている道路の情報も含まれる。例えば、走行経路上に信号機が存在する場合には、車両の走行予定の道路に限らず、当該信号機が設置されている交差点及び当該交差点に繋がっている道路の道路情報も含まれる。
 距離測定部4は必要認識距離を測定する。必要認識距離は、車両が地物の認識のために必要とする距離であり、認識する地物の位置から自車までの距離である。
 認識判断部5は、情報取得部3により取得された対象物情報及び距離測定部4により測定された必要認識距離に基づき、地物の認識の困難性を判断する。困難性の判断対象となる地物は、運転制御部10による自動運転を行う際に、自車が認識しなければならない地物である。
 本実施形態では、目的地が設定されると、目的地までの複数の走行経路を演算している。そして、自動運転に適した走行経路を演算するために、走行経路における地物の認識の困難性を認識判断部5により判断している。自車が地物の認識が困難な走行経路を走行した場合に、運転制御部10がセンサ12により、自動運転に必要な地物を認識できず、自動運転が正常に行われない可能性がある。そのため、認識判断部5は、走行経路において地物の認識の困難性を判断しつつ、走行経路上の回避箇所を設定している。
 認識度演算部6は、対象物情報及び必要認識距離に基づき、地物の認識度を演算する。認識度は、自車による地物の認識しやすさの指標である。認識度は、車両から地物までの距離又は車両から地物への方向により決まる。ある地物について認識度が高いほど、車両は当該地物を認識し易くなる。すなわち、本実施形態では地物の認識の困難性を、認識のしやすさを定義した認識標準度を用いて算出するので、自車の挙動が変化しうる走行シーンにおいて、認識しやすい地物や認識しにくい地物を把握できる。
 認識度演算部6は、道路形状の情報及び地物の情報を用いて、自車の位置に対する地物の位置を特定する。認識度演算部6は、自車両の位置と地物の位置との位置関係と必要認識距離とを比較する。そして、認識度演算部6は、距離の比較結果と自車に対する地物の方向から、必要認識距離に対して地物の位置がどれだけ外れているかを把握することで、当該地物の認識度を演算する。また、認識度演算部6は、走行経路において、自動運転を行う際に必要となる地物毎に認識度を演算する。なお認識度の具体的な演算方法は後述する。
 回避箇所設定部7は、自車の走行する経路から回避すべき場所を回避箇所として設定する。認識度は、地物の位置や道路形状により決まるため、認識度は地物毎で異なる値となる。そして、回避箇所設定部7は、認識度の低い地物の場所を回避箇所として設定する。認識度が低い場合に、車両が当該場所に近づいた際に、車両が地物を認識できずに、運転制御部10による自動運転を実行できない場合がある。そのため、回避箇所設定部7は、このような認識度の低い場所を、走行経路を設定する際の回避箇所として設定する。
 走行経路を演算する際に、回避箇所が設定されている場合には、走行経路演算部2は回避箇所を避けた上で目標地点までの走行経路を演算する。運転制御部10は、回避箇所を避けて演算された走行経路に基づき、車両の運転を制御する。
 次に、具体例を挙げつつ、走行経路演算装置の制御について説明する。図2は走行経路演算装置の制御フローを示すフローチャートである。図2に示されるフローチャートは、自動運転制御が実行される前であって、ユーザ等により目的地が入力された場合に行うフローである。そして、車両の現在地から目的地に向かうまでに、走行経路上には、信号機付きの交差点が複数存在する場合を具体例として想定する。なお、以下では説明を容易にするために、地物として信号機を挙げているが、地物は信号機のみに限らず、例えば道路標識等の他の地物でもよい。
 ステップS1にて、車両情報検出部1は、自車の現在の車両情報として車両の位置を検出する。車両の位置は、GPS(Global Positioning System)、ジャイロセンサ、車速センサ等の組み合わせにより検出される。車両の位置は、止まっている車両の現在地に限らず、走行中の車両の現在地でもよい。
 ステップS2にて、走行経路演算部2は、車両の現在地に基づいて、目的地までの走行経路を演算する。走行経路は、自車がこれから走行する経路である。走行経路の演算には、カーナビゲーションシステムが用いられる。走行経路の演算は、走行すべき車線まで求める必要はなく、経路を直進したり、交差点を直進、右折、左折したりする程度で構わない。
 ステップS3にて、情報取得部3はデータベース11から対象物情報を取得する。ステップS4にて、認識判断部5は、走行経路において交通ルールに関する地物を対象物情報から特定する。特定される地物は、自車が走行経路を走行する上で必ず従わなければいけないものである。走行経路上に複数の信号機がある場合には、認識判断部5は、各地点の信号機を特定する。認識判断部5は、走行経路上の全ての交差点で、信号機を特定する。
 ステップS5にて、認識判断部5は、特定された地物の位置と、対象物情報に含まれる道路形状の情報からレイアウトを特定する。レイアウトは、道路の形状と、道路と地物との位置関係を表している。例えば、道路形状として、交差点がある場合に、交差点の形と交差点に設けられた信号機の位置を表す関係がレイアウトよって表される。
 図3A~図3Cを用いて、3パターンのレイアウトにおいて、走行経路上の道路と地物との位置関係について説明する。図3A~図3Cは、信号機が設置されている交差点を、それぞれ異なる3パターンで示した図である。図3A~図3Cに示す矢印が自車の走行経路を示す。
 認識判断部5は、交通ルールに関する地物として、信号機101を特定する。認識判断部5は、信号機101が設置されている道路の形状を特定する。そして、認識判断部5は、特定した道路形状で表される道路のレイアウト上で、自車の走行経路と信号機101の位置を把握する。例えば図3Aの例では、認識判断部5は、自車の走行経路において、信号機101が車両の直進方向で交差点の奥の方に設けられていることを特定する。また、認識判断部5は、交差点の大きさも特定する。
 なお、図3Aの例で、自車が自動運転を行う場合には、自車が走行経路上を走行中、自車が信号機101から必要認識距離分、離れた位置にあるときに、運転制御部10は、センサ12等を用いて信号機101を認識する。信号機101の表示が赤の時には、運転制御部10は、車両が交差点の停止線又は前方車両の後方に止まるように、車両を制御する。このような自動運転制御の例では、自車の行動を決定するために必要となる地物が信号機101となる。また、行動決定は、赤信号により車両を停車させる動作を表す。
 図3Bの例では、認識判断部5は、信号機102が自車の走行車線とは反対側の車線に設けられていることを特定する。また認識判断部5は交差点の大きさも特定する。図3Cの例では、認識判断部5は、信号機103が車両の直進方向で交差点の奥の方に設けられていること、及び、信号機104が自車の走行車線とは反対側の車線に設けられていることを特定する。また、認識判断部5は、交差点の大きさとして、図3A及び図3Bに示した交差点より大きいことを特定する。なお、信号機の特定には、信号機が設置されている向き(縦方向又は横方向)を含めてもよい。
 ステップS6にて、距離測定部4は必要認識距離を測定する。必要認識距離は、自動運転において、地物を認識し行動決定を行う際に、地物を認識するために必要なる、地物の位置から自車までの距離である。地物は認識判断部5で特定されているため、距離測定部4は、認識判断部5から、走行経路上における地物の位置を取得する。例えば図3Aの例では、運転制御部10によって走行経路上で信号機101を認識できる距離が、必要認識距離となり、信号機101の交差点に対して所定の距離分、手前までの距離が必要認識距離となる。所定の距離は、予め決められてもよく、あるいは車両の制動距離に応じて決められてもよい。すなわち、必要認識距離は、行動決定を行う際に、運転制御部10が信号機101を認識するために必要な条件を距離で示したものである。
 なお、必要認識距離は、レイアウト上における地物の位置に応じて変更させてもよい。例えば、ある交差点において、信号機が走行経路上で交差点の手前に設定されている場合(図3Aを参照)で、停止線で車両を停車させる自動運転を想定する。この場合には、停止線の位置と信号機の位置が、近い位置にあるため、必要認識距離は、少なくとも車両の制動距離分を確保できれば、車両は信号機を認識しつつ、停止線で停車させることができる。
 一方、信号機が走行経路上で交差点の奥に設定されている場合(図3Cを参照)で、停止線で車両を停車させる自動運転を想定する。この場合には、走行経路上で、信号機は停止線よりも遠くに設定されている。そのため、必要認識距離は、車両の制動距離に停止線から信号機までの距離を加えた距離となる。
 ステップS7にて、認識度演算部6は、レイアウトと必要認識距離に基づいて、認識度を演算する。図3Aの例では、自車が、交差点の位置から必要認識距離分、手前の位置を走行していた場合に、信号機101は走行経路上であり、車両の正面に位置する。また交差点の大きさは、図3Cの交差点よりも小さい。センサ12は、カメラの正面で、かつ、センサ12から近い位置で信号機101を捉えることができる。そのため、図3Aのレイアウトでは、運転制御部10にとって、信号機101は認識し易い地物となり、信号機101の認識度は高くなる。
 図3Bの例では、信号機102は自車から見たときに、前方の右方向に位置する。そして、センサ12のカメラは車両の進行方向を光軸としており、カメラで検出される信号機102の輝度が低くなる。センサ12は、信号機102をカメラの正面で捉えることができない。そのため、図3Bのレイアウトでは、運転制御部10にとって、信号機101は最も認識し難い地物となり、信号機102の認識度は最も低くなる。
 図3Cの例では、信号機103は、図3Bに示す信号機102と同様の位置にあるため、信号機103は運転制御部10にとって認識し難い地物となる。一方、信号機104は、図3Aに示す信号機101と同様の位置に、車両の正面に位置する。ただし、図3Cの交差点は、図3Aの交差点よりは大きいため、自車から信号機104までの距離は、自車から信号機101までの距離も長くなる。そのため、図3Cのレイアウトでは、運転制御部10にとって、信号機104は、図3Aの信号機101よりは認識し難い地物であるが、図3Bの信号機102よりは認識し易い地物となる。また、運転制御部10は、信号機104の情報に信号機103の情報を加えることで、信号機の状態の認識度を高めることもできる。そのため、信号機103、104の交差点における認識度は、図3Aの信号機101の認識度よりも低く、図3Cの信号機103、104の認識度よりも高くなる。すなわち、図3A~図3Cに示す交差点の例では、認識度は、図3A>図3C>図3Bの順番となる。
 このように、認識度演算部6は、走行経路上で地物から必要認識距離分、離れた位置で、運転制御部10により地物を認識した際に、レイアウト上における地物の位置に起因する認識し易さを、認識度として演算している。認識度演算部6は、走行経路上の地物毎に認識度を演算している。
 なお、走行経路上に、運転者が従うべき地物が複数ある場合には、まず自車の最寄りの地物に着目して、ステップS5~S7の制御フローを行い、自車から次に近い地物に着目して、ステップS5~S7の制御フローを行う。これにより、自車がこれから走行する走行経路上に存在する全ての地物について、ステップS5~S7の制御フローを行う。
 ステップS8にて、認識判断部5は、閾値と認識度を比較する。閾値は、地物を検知する際のセンサ12の検出範囲等に応じて予め設定されている。図3A~図3Cの例では、閾値は、図3Cに示す信号機103、104の認識度と、図3Bに示す信号機102の認識度との間の値に設定されている。
 認識度が閾値より小さい場合には、ステップS9にて、認識判断部5は、判断対象の地物について、地物の認識が困難であると判定する。一方、認識度が閾値以上である場合には、ステップS10にて、認識判断部5は、判断対象の地物について、地物の認識が可能であると判定する。これにより、認識判断部5は、地物の認識の困難性を判断する。また、認識判断部5はステップS8~S10の制御フローを、走行経路上の全ての地物について実行することで、地物毎に認識の困難性を判断する。
 ステップS11にて、回避箇所設定部7は、認識度が閾値よりも小さく、地物の認識が困難な箇所を、回避箇所として特定する。図3A~図3Cの例では、図3A及び図3Cに示す交差点は回避箇所に設定されないが、図3Bに示す交差点は回避箇所として設定される。すなわち、図3Bに示す交差点では、レイアウト上で、信号機102が車両の進行方向に対して、垂直な方向にずれており、信号機102は運転制御部10にとって認識し難い箇所として演算されたため、図3Bに示す交差点は回避箇所として設定される。
 ステップS12にて、走行経路演算部2は、回避箇所を回避した上で、車両の現在地から目標地点までの走行経路を演算する。走行経路の演算方法としては、ダイキストラ法などのグラフ探索理論に基づく手法を用いることが考えられる。また、走行経路演算部2は、回避箇所(ノード)に接続されるリンクに対して、他のリンクよりも大きな重み付けをつけることで、重み付けのあるリンクを通らない走行経路を演算してもよい。そして、走行経路演算部2の演算結果は運転制御部10に出力される。そして、図2に示す制御フローが終了する。
 このように、本実施形態では、自車の走行予定の経路上において、通過しなければならない信号付き交差点が存在する場合に、自車が実際に交差点に近づく前に、信号機付き交差点のレイアウトに基づいて、信号機の認識の困難性を判断しているため、当該信号機付きの交差点を通過すべきか回避すべきかを判断できる。そして、運転支援車両や自動運転車両が、地物の認識がしやすく、走行可能である走行経路を演算することができる。
 上記のように、本実施形態では、自車による地物の認識に影響する対象物の情報を対象物情報として取得し、地物の認識のために必要とする自車から地物までの必要認識距離を測定する。また、対象物情報及び必要認識距離に基づき、地物の認識の困難性を判断し、当該地物の認識が困難であると判断した箇所を回避した上で走行経路を演算する。これにより、行動決定を行う際に必要となる地物の認識しやすさに応じて、自車が目的地に至るまでの走行経路を演算しているので、運転支援車両又は自動運転車両が、走行可能な経路と走行困難な経路を演算し、車両にとって地物を認識し易い経路を演算することができる。
 また本実施形態では、道路形状の情報及び地物の位置情報に基づいてレイアウト上における地物の位置を特定し、当該位置及び必要認識情報に基づき地物の認識の困難性を判断する。これにより、走行経路上における道路のレイアウトと、地物との位置関係に応じて、地物の認識度を演算することができるため、車両にとって地物を認識し易いレイアウトをもつ走行経路を演算することができる。
 また本実施形態では、自車の挙動が変化する原因となる道路形状をもつ地点又は自車の挙動が変化する原因となる前記地物をもつ地点を特定し、これらの地点における地物の認識の困難性を判断している。これにより、自車の挙動を変化させる原因となりうる道路の形状や地物の有無を判断するので、経路演算後に自車が走行する予定の経路上に、どのような走行シーンが存在するかを車両側で把握することができる。
 また本実施形態では、交通ルールを表示する地物を特定し、当該地物の認識の困難性を判断している。これにより、経路演算後に自車が走行する予定の経路上に、どのような走行シーンが存在するかを車両側で把握することができる。
 また本実施形態では、困難性を判断する際の閾値をセンサ12による検出範囲に応じて設定することで、地物の認識の困難性をセンサ12の検出範囲に基づいて判断している。これにより、カメラやレーザ等の自車に搭載されたセンサの検出範囲に基づいて、地物の認識の困難性を判断するので、自車が認識可能な範囲内に存在する地物を把握することができる。
 なお、本実施形態では、レイアウト上における信号機の位置に基づいて、信号機の認識度を演算したが、認識度の演算対象となる地物は信号機以外の地物でもよい。例えば、地物を踏切とした場合には、認識判断部5は、対象物情報に基づき、当該踏切に向かう道路の形状を特定した上で、当該道路上における踏切の位置を特定する。認識判断部5は、自車に対する踏切の位置又は踏切の方向に応じて、当該踏切の認識度を演算する。そして、認識判断部5は、認識度と閾値とを比較することで、踏切の認識の困難性を判断する。
 なお、本発明の変形例として、認識度演算部6は、走行経路上に存在する複数の地物の各箇所で、複数の走行経路毎に認識度を演算し、複数の走行経路毎に認識度の総和を演算する。そして、走行経路演算部2は、複数の走行経路のうち、最も総和が高い走行経路を、自車が走行する走行経路として演算する。これにより、複数の走行経路のうち、自車が認識し易い走行経路が演算できるため、例えば、右左折が多発しないような、より自然な走行経路を計算することができる。なお、認識度演算部6は、認識度の総和の代わりに、所定値よりも高い認識度の数を走行経路毎に演算し、走行経路演算部2は、当該認識度の数が最も多い走行経路を、自車の走行する走行経路として演算してもよい。
 また、本発明の変形例として、認識判断部5は、道路のレイアウトから、自車の挙動と他車の挙動が干渉する地点を、地物の困難性を判断するための地点として特定する。そして、認識度演算部6が当該地点における地物の認識度を演算することで、認識判断部5は当該地点における地物の困難性を判断する。自車の挙動と他車の挙動が干渉する地点とは、交差点に限らず、例えば合流地点や分流地点である。これにより、自車の挙動が変化しうる走行シーンを把握することができる。
 なお、上記において、走行経路演算装置が自動運転車両に搭載した場合を一例として説明したが、走行経路演算装置は、自動運転車両に限らず、運転支援車両に搭載されてもよい。運転支援車両は、ドライバーによる車両の運転、例えば車線変更する際の運転を支援する車両である。そして、運転支援車両が、カメラ等のセンサを用いて車線変更を支援する場合に、車線変更の場所を認識した上で、運転を支援する。走行経路演算装置は、当該車線変更の場所を認識し易い走行経路を演算する。そして、運転支援車両は、演算された当該走行経路に基づいて、運転を支援する。
 なお、走行経路演算装置は、車両の走行中に限らず、車両の停車中に走行経路の演算を行ってもよい。
 上記の走行経路演算部2が本発明の「走行経路演算手段」に相当し、情報取得部3が本発明の「情報取得手段」に相当し、距離測定部4が本発明の「距離測定手段」に相当し、認識判断部5が本発明の「判断手段」に相当し、センサ12が本発明の地物検出手段に相当し、認識度演算部6が本発明の「認識度演算手段」に相当する。
《第2実施形態》
 図4は、発明の他の実施形態に係る走行経路演算装置のブロック図である。本例では上述した第1実施形態に対して、車速推定部8を有する点と、距離測定部4及び認識判断部5の制御の一部が異なる。これ以外の構成は上述した第1実施形態と同じであり、その記載を援用する。
 本実施形態に係る走行経路演算装置は、車両情報検出部1等の構成の他に、車速推定部8を有している。車速推定部8は、走行経路上で、地物に向かうときの自車の車速を推定する。
 次に、具体例を挙げつつ、走行経路演算装置の制御について説明する。図5は走行経路演算装置の制御フローを示すフローチャートである。
 ステップS21~ステップS24の制御フローは、第1実施形態のステップS1~ステップS4の制御フローと同様である。ステップS25の制御フローも、第1実施形態のステップS5の制御フローと同様であるが、具体例が異なる。
 図6A~図6Cを用いて、3パターンのレイアウトにおいて、走行経路上の道路と地物との位置関係について説明する。図6A~図6Cは、信号機が設置されている交差点を、それぞれ異なる3パターンで示した図である。
 例えば、図6Aの例では、認識判断部5は、自車の走行経路上において、交差点の存在と、当該交差点の手前の道路がカーブになっていることを特定する。また、認識判断部5は、交差点で2つの信号機101、102の位置を特定する。交差点の手前のカーブは、自車の進行の方向に対して右側に曲がっている。信号機101は、自車の走行車線と反対側の車線に設置されている。信号機102は、交差点の奥で自車の走行車線と同じ車線上に設置されている。
 図6Bの例では、認識判断部5は、図6Aと同様に、交差点及び当該交差点の手前のカーブを特定し、信号機103の位置を特定する。信号機103は、車の走行車線と同じ車線上で、交差点の手前に設置されている。
 図6Cの例では、認識判断部5は、図6Aと同様に、交差点及び当該交差点の手前のカーブを特定し、信号機101、102の位置と標識201を特定する。図6Cに示す信号機101、102の位置は、図6Aと同様である。標識201は、自車と信号機101との間に設置されている。
 ステップS26にて、車速推定部8は、認識判断部5により特定された地物に対して自車が向かうときの車速を推定する。データベース11には、各道路の法定速度が地図データとして記録されている。そのため、車速推定部8は、地物の位置と走行経路上の道路から、地物に向かうときに走行する道路の法定速度を、自車の車速として推定する。
 なお、車速推定部8は、必ずしも法定速度に限らず、法定速度よりも低い車速を、自車の車速として推定してもよい。交差点を走行する際に、車両が法定速度で走行できるとは限らない。例えば、交差点で右折する際には、自車は法定速度で曲がることはできない。また、道路交通法では、交差点を右折又は左折する際には、車両はいつでも停車できる速度で走行することを規定している。そのため、右折を予定している交差点では、法定速度で走行しない場合がほとんどである。このような場合には、車速推定部8は、法定速度より低い速度を、自車の車速として推定する。
 また、車速推定部8は、法定速度より低い速度を自車の車速として推定する場合には、車速の推定対象となる道路において、過去に走行したときの車速に基づいて、車速を推定してもよい。
 ステップS27にて、距離測定部4は、車速推定部8より推定された車速に基づいて、必要認識距離を測定する。
 ここで車両の挙動と必要認識距離と関係について説明する。例えば、交差点に向かっている車両の挙動について、車両の挙動条件が厳しくなるのは、例えば、ブレーキの踏み込み量を急に大きくしなければならない場合や、ハンドルの操舵角を急に大きくなければならない場合である。例えば、交差点を直進通過しようとしたときに、信号が赤信号になる場合には、車両の挙動条件が厳しくなる。
 自車が交差点手前のある箇所を走行しており、交差点に向かうときの速度をv[km/h]として、一定減速度(0.15G)を用いて減速することによって、行動決定を行う箇所から交差点の停止線至るまでの時間をtとする。行動決定を行う箇所は、停止線で止まるために、ブレーキの踏み込み開始を行う箇所である。なお、自車の停車位置は、説明を容易にするために、信号機の位置と同じ位置とする。
 行動決定を行う箇所から交差点の停止線までの距離(d[m])は式(1)で表される。
Figure JPOXMLDOC01-appb-M000001
 また、交差点に向かうときの速度(v)と時間(t)との間には式(2)の関係が成り立つ。
Figure JPOXMLDOC01-appb-M000002
 そして、式(1)及び式(2)から、距離(d)は式(3)で表される。
Figure JPOXMLDOC01-appb-M000003
 例えば法定速度を60[km/h]として、式(3)にv=60[km/h]を代入することで、d=94.48[m]となる。車両の挙動として、交差点に向かって車速(v=60[km/h])で走行している場合に、制動距離が94.48[m]となる。そして、自動運転の際には、このような車両の挙動で、車両が停止線で止まるためには、制動距離を確保した上で、自車は信号機を認識する必要がある。すなわち、式(3)で表す制動距離は必要認識距離に相当し、距離測定部4は、上記の演算式を用いて、車速から必要認識距離を測定できる。
 ステップS28にて、認識判断部5は、地物の周辺に位置する障害物の有無を判断する。地物の周囲は、地物の位置に対して必要認識距離分、離れた範囲内であって、自車と地物の間の範囲である。言い替えると、認識判断部5は、自車が地物を認識する際に、地物を隠す障害物があるか否かを判断する。図6Cの例では、信号機101と自車との間に標識201が存在する。このような場合に、運転制御部10はセンサ12を用いて、自車の進行方向を撮像したとしても、信号機101は標識201に隠れて検出できない。そのため、図6Cの例では、認識判断部5は、地物の周辺に障害物が存在すると判断する。
 ステップS29にて、認識判断部5は、自車の位置に対して、地物の検出範囲を設定する。自車の位置は、認識対象となる地物に対して、必要認識距離分、離れた位置である。
 例えば、地物を認識するためのセンサとして、センサ12の他に、ミリ波、レーダー、レーザーなど、複数のセンサが自車に設けられており、お互いのセンサが検出範囲を補完しあうように設けられたとする。ここでは、センサ性能の典型値(ノミナル値)として、センサの検出距離は、ミリ波では200メートル、レーダーでは数百メートル、レーザーでは100メートル、カメラで数十メートルとなる。
 センサの検出範囲は、距離だけでなく、角度でも規定される。ミリ波では検出範囲は比較的狭角であるが、カメラはレンズの広角によって、検出範囲を狭くしたり広くしたり選択できる。
 複数のセンサによって同じ範囲をカバーすることで、認識ミスを低減するように、各センサが配置されている場合には、それらのセンサによる最大検出範囲をセンサの検出範囲としてもよいし、最小検出範囲をセンサの検出範囲としてもよい。
 以下では、説明を容易にするためにセンサ12のカメラの撮像範囲をセンサの検出範囲(例えば50メートルとする)として説明する。図7A及び図7Bは、図6Aと同様のレイアウトを示す図である。また、図7Aは、センサ12に狭角なレンズを用いた場合の検出範囲を説明するための図であり、図7Bは、センサ12に広角なレンズを用いた場合の検出範囲を説明するための図である。図7A及び図7Bにおいて、Xが検出範囲を表している。
 図7Aの例では、信号機101、102は検出範囲内に存在しないため、自車は信号機101、102を認識できない。図7Bの例では、信号機101が検出範囲に存在するため、自車は信号機101を認識できる。
 ステップS30にて、認識度演算部6は、レイアウト、必要認識距離、障害物の有無、センサ12の検出範囲に基づいて、地物の認識度を演算する。レイアウトで示される情報には、信号機が設置されている交差点の道路形状だけでなく、交差点の手前の道路の曲率も含まれる。道路の曲率の情報は、データベース11に道路の情報として記録されている。例えば、図6Aのように、交差点の手前で道路が曲がっている場合には、図6Aに示す自車の位置からは、信号機を真正面(図6Aの点線Lに沿う方向)で認識することはできない。信号機を真正面で認識しようとするには、自車は、図6Aに示す位置から走行し、自車が直線の道路に入らなければ、自車は信号機を真正面で認識できない。そのため、信号機を真正面で認識しようとするには、自車は交差点に接近して認識しなければならない。すなわち、図6Aに示すような、交差点の手前の道路が一定の曲率をもったカーブになっており、信号機101が、自車の真正面の方向から離れている場合には、認識度が低くなる。
 一方、図6Bに示すように、交差点の手前の道路が曲がっている場合でも、信号機103の位置が、図6Aに示す信号機101の位置よりも、自車の真正面の方向(点線L)に近づいている場合には、信号機103は信号機101よりも認識され易い。そのため、認識度演算部6は、信号機103の認識度を、信号機101の認識度より高くなるように演算する。
 なお、レイアウトの情報には、道路の曲率だけに限らず、道路の勾配の情報を含めてもよい。例えば、自車が信号機付きの交差点に向かう際、交差点の手前の道路が坂道になっている場合には、交差点の手前の道路が平坦になっている場合と比較して、自車は信号機を認識し難くなる。そして、認識度演算部6は、道路の勾配に基づき認識度を演算する。例えば、認識度演算部6は、道路の勾配が大きいほど、認識度が小さくなるように、認識度を演算する。
 また、認識度演算部6は、演算対象となる地物の周辺に障害物がある場合には、障害物がない場合と比較して、認識度が低くなるように演算する。例えば、図6Aと図6Cとを比較した場合に、図6Cに示す場合には、信号機101を隠す標識201が存在する。そのため、認識度演算部6は、図6Cに示す場合の認識度を、図6Aに示す場合の認識度よりも低くなるように演算する。
 なお、障害物は、標識201に限らず、例えば建物や樹木でもあってもよい。建物や樹木の情報は、地図データとしてデータベース11に記録されていればよい。
 さらに、認識度演算部6は、センサ12の検出範囲に基づいて地物の認識度を演算する。具体的には、認識度演算部6は、演算対象となる地物が検出範囲内にある場合の認識度を、演算対象となる地物が検出範囲内にない場合の認識度より高くなるように演算する。例えば図7Aと図7Bとを比較した場合に、図7Bに示す場合には、信号機101はセンサ12の検出範囲内に位置する。そのため、認識度演算部6は、図7Bに示す場合の認識度を、図7Aに示す場合の認識度よりも高くなるように演算する。
 ステップS31~ステップS35の制御フローは、第1実施形態のステップS8~ステップS12の制御フローと同様である。
 このように本実施形態では、自車の走行予定の経路上において、通過しなければならない信号付き交差点が存在する場合に、自車が実際に交差点に近づく前に、道路の曲率又は勾配を含めた道路のレイアウト、障害物の有無、及び、センサ12の検出範囲によって起因する、信号機の認識の困難性を判断している。そのため、当該信号機付きの交差点を通過すべきか回避すべきかを判断できる。そして、運転支援車両や自動運転車両が、地物の認識がしやすく、走行可能である走行経路を演算することができる。
 上記のように、本実施形態では、自車の車速を推定し、推定された車速に基づいて必要認識距離を測定する。これにより、実際に走行経路を走行する際の車速条件下で、必要認識距離を測定できる。
 また、本実施形態では、法定速度を車速として推定し、法定速度に基づいて必要認識距離を測定する。これにより、最も厳しい速度条件で、地物の認識の困難性を判断できる。
 また、本実施形態では、過去に走行したときの車速として推定し、推定された速度に基づいて必要認識距離を測定する。これにより、典型的な速度条件で、地物の認識の困難性を判断できる。
 また本実施形態では、地物の周辺に位置する障害物の有無に基づき、地物の困難性を判断する。これにより、障害物によって認識が困難になっている地物を把握できる。
 また本実施形態では、道路の曲率又は道路の勾配に基づき地物の認識の困難性を判断する。これにより、道路の曲率又は道路の勾配によって認識が困難になっている地物を把握できる。
 なお、車速推定部8は、走行予定の日時、走行時の天候条件等に応じて、過去に走行したときの車速又は法定速度の一方を選択し、選択した速度を自車の車速として推定してもよい。これにより、車速に影響する条件に合わせて、地物の認識の困難性を判断できる。
 上記の車速推定部8が本発明の車速推定手段に相当する。
《第3実施形態》
 発明の他の実施形態に係る走行経路演算装置を説明する。本例では上述した第1実施形態に対して、認識判断部5の制御の一部が異なる。走行経路演算装置の構成は、第2実施形態に係る構成と同様である。第3実施形態において、第1実施形態及び第2実施形態の記載を援用する。
 具体例を挙げつつ、走行経路演算装置の制御について説明する。図8は走行経路演算装置の制御フローを示すフローチャートである。
 ステップS41~ステップS51の制御フローは、第1実施形態のステップS1~ステップS11の制御フローと同様である。
 ステップS52にて、車両推定部8は、ステップS51で設定された回避箇所に向かって走行する際の加減速を演算する。
 ここで、自車から交差点までの距離と、加減速との関係について、図9A及び図9Bを用いて説明する。図9A及び図9Bは、信号機付きの交差点のレイアウトを示す図であり、図9Aと図9Bでは自車の位置が異なる。なお、図9A及び図9Bに示す道路のレイアウトは、図6Aと同様である。
 例えば、図9Aに示すように、自車が60[km/h]でカーブを走行している時に、信号機101、102が赤信号になり、0.15Gで減速しようとした場合には、自車が停止線で停止するために、約95[m]の制動距離が必要になる。そのため、自車が60[km/h]で走行している状態から0.15Gで減速して停止線で停車するためには、自車は、信号機101から制動距離(約95[m])分離れたカーブの位置で、信号機101を認識しなければならない。
 一方、図9Bに示すように、自車が60[km/h]から40[km/h]まで減速できれば、自車が交差点の停止線で停止するための制動距離は、95[m]から42[m]まで短くすることができる。
 図9Aの例で、必要認識距離が95[m]であったとすると、自車は、カーブの位置からは信号機101、102を正面に捉えることができない。そのため、認識度演算部6は、信号機101、102の認識度を低い値とする(図8のステップS47の制御フローに相当)。図9Aの例に示す認識度は閾値より小さくなり、図9Aに示す交差点の場所は回避箇所として設定される。
 車速推定部8は、図9A、Bに示すような道路のレイアウトに基づき、自車がカーブを走行中に減速することを仮定し、回避箇所に向かう際の減速する速度を演算する。具体的には、車速推定部8は、60[km/h]から40[km/h]に減速すると、推定する。
 ステップS53にて、距離測定部4は、減速毎の車速に基づき、必要認識距離を演算する。必要認識距離は、車速推定部8により推定された車速まで減速した状態で、自車から地物までの距離である。地物は、回避箇所に設定された場所に設置されたものである。これにより、距離測定部4は、自車の挙動に基づいて必要認識距離を演算している。自車の挙動は、図9Bの例では、自車が交差点の手前のカーブで減速することである。そして、認識度演算部6は、減速後の必要認識距離とレイアウトに基づいて、認識度を再度、演算する。
 図9A及び図9Bの例では、図9Aの認識度は低い値となるが、図9Bに示すように、速度を落とすことによって、自車は認識しなければならない信号機101、102を認識することができるようになるため、認識度が高くなる。
 ステップS54にて、認識判断部5は、再度演算された認識度と閾値とを比較する。そして、認識度が閾値以上である場合には、認識判断部5は、回避箇所の設定を解除することができると判断し、ステップS55に進む。そして、ステップ55にて、回避箇所設定部7は、回避箇所の設定を解除する。一方、認識度が閾値より低い場合には、認識判断部5は、回避箇所の設定を解除できないと判断し、回避箇所設定部7は、回避箇所の設定を解除しない。
 ステップS56にて、走行経路演算部2は、回避箇所を回避した上で、車両の現在地から目標地点までの走行経路を演算する。そして、図8に示す制御フローが終了する。
 このように本実施形態では、自車の走行予定の経路上において、通過しなければならない信号付き交差点が存在する場合に、自車が当該交差点に至る前に、加減速を行うことによって、当該交差点を通過可能な交差点とするように演算できる。その結果として、回避箇所の少ない走行経路を計算できる。
 なお、自車の減速は、交差点の手前のカーブに限らず、例えば交差点で右折を行う場合や左折を行う場合にも、一時的に減速、もしくは、停止することが必要になる。そのため、このような自車の挙動に基づき、地物の認識度を再演算することで、当該地物を設置した場所を、回避場所から除外できる。その結果として、自動運転制御において、このような交差点を、右折、左折、又は、減速しながら通過することができる。
 上記のように本実施形態では、自車の挙動に基づいて必要認識距離を演算する。これにより、典型的な自車の挙動(加減速、一定速での走行など)を考慮した上で必要認識距離を演算するので、より実際の走行シーンに即した条件下で、行動決定を行う際に必要となる距離を演算できる。
 また本実施形態では、自車の加速又は減速に基づいて、地物の認識の困難性を判断している。これにより、加減速を行うことによって変化する認識度を演算した上で、回避箇所として設定するか否かを判断するので、通常の走行では回避箇所として設定されるような場所でも、加減速することが可能な場合には回避箇所から除外できる。そして、回避箇所から除外された場所を走行経路に含めることができる。
1…車両情報検出部
2…走行経路演算部
3…情報取得部
4…距離測定部
5…認識判断部
6…認識度演算部
7…回避箇所設定部
8…車速推定部

Claims (15)

  1.  自車が目的地に到着するまでの走行経路を演算する走行経路演算手段と、
     前記自車による地物の認識に影響する対象物の情報を対象物情報として取得する情報取得手段と、
     前記自車の行動決定の際に前記自車が前記地物の認識のために必要とする、前記自車から前記地物までの距離を必要認識距離として測定する距離測定手段と、
     前記対象物情報及び前記必要認識距離に基づき、前記地物の認識の困難性を判断する判断手段とを備え、
    前記走行経路演算手段は、前記判断手段により前記地物の認識が困難であると判断された箇所を回避した上で前記走行経路を演算する
    ことを特徴とする走行経路演算装置。
  2. 請求項1記載の走行経路演算装置において、
    前記情報取得手段は、前記対象物情報に含まれる道路形状の情報、及び、前記対象物情報に含まれる前記地物の位置情報を取得し、
    前記判断手段は、
     前記道路形状の情報及び前記地物の位置情報に基づいて道路のレイアウト上における前記地物の位置を特定し、前記位置及び前記必要認識情報に基づき前記地物の認識の困難性を判断する
    ことを特徴とする走行経路演算装置。
  3. 請求項1又は2記載の走行経路演算装置において、
    前記判断手段は、
     前記対象物情報及び前記必要認識距離に基づき、前記地物の認識しやすさの指標を認識度として演算し、
     前記認識度が所定の閾値より低い場合に前記地物の認識が困難であると判断する
    ことを特徴とする走行経路演算装置。
  4. 請求項1~3のいずれか一項に記載の走行経路演算装置において、
     前記自車の車速を推定する車速推定手段を備え、
    前記距離測定手段は、前記車速に基づいて前記必要認識距離を測定する
    ことを特徴とする走行経路演算装置。
  5. 請求項4記載の走行経路演算装置において、
    前記車速推定手段は、前記走行経路の法定速度を前記車速として推定する
    ことを特徴とする走行経路演算装置。
  6. 請求項4記載の走行経路演算装置において、
    前記車速推定手段は、前記走行経路上の所定の道路を過去に走行したときの前記車速に基づき、前記所定の道路を走行する際の前記車速を推定する
    ことを特徴とする走行経路演算装置。
  7. 請求項1~6のいずれか一項に記載の走行経路演算装置において、
    前記情報取得手段は、前記対象物情報に含まれる道路形状の情報、及び、前記対象物情報に含まれる前記地物の情報を取得し、
    前記判断手段は、前記自車の挙動が変化する原因となる前記道路形状をもつ地点又は前記自車の挙動が変化する原因となる前記地物をもつ地点を特定し、前記地点における前記困難性を判断する
    ことを特徴とする走行経路演算装置。
  8. 請求項7記載の走行経路演算装置において、
    前記判断手段は、前記自車の挙動と他車の挙動が干渉する地点を、前記困難性を判断するための前記地点として特定する
    ことを特徴とする走行経路演算装置。
  9. 請求項7に記載の走行経路演算装置において、
    前記判断手段は、交通ルールを表示した前記地物をもつ地点を、前記困難性を判断するための前記地点として特定する
    ことを特徴とする走行経路演算装置。
  10. 請求項1~9のいずれか一項に記載の走行経路演算装置において、
    前記距離測定手段は、前記自車の挙動に基づいて前記必要認識距離を測定する
    ことを特徴とする走行経路演算装置。
  11. 請求項1~10のいずれか一項に記載の走行経路演算装置において、
    前記判断手段は、前記地物の周辺に位置する障害物に基づき前記地物の認識の困難性を判断する
    ことを特徴とする走行経路演算装置。
  12. 請求項1~11のいずれか一項に記載の走行経路演算装置において、
    前記情報取得手段は、前記対象物情報に含まれる道路形状の情報を取得し、
    前記判断手段は、前記道路形状の情報により示される道路の曲率又は道路の勾配に基づき前記地物の認識の困難性を判断する
    ことを特徴とする走行経路演算装置。
  13. 請求項1~12のいずれか一項に記載の走行経路演算装置において、
     前記地物を検出する地物検出手段をさらに備え、
    前記判断手段は、前記地物検出手段の検出範囲に基づいて前記地物の認識の困難性を判断する
    ことを特徴とする走行経路演算装置。
  14. 請求項1~13のいずれか一項に記載の走行経路装置において、
    前記判断手段は、前記地物に向かう前記自車の加速又は減速に基づいて前記地物の認識の困難性を判断する
    ことを特徴とする走行経路演算装置。
  15.  自車が目的地に到着するまでの走行経路を演算する走行経路演算手段と、
     前記自車による地物の認識に影響する対象物の情報を対象物情報として取得する情報取得手段と、
     前記自車の行動決定の際に前記自車が前記地物の認識のために必要とする、前記自車から前記地物までの距離を必要認識距離として測定する距離測定手段と、
     前記対象物情報及び前記必要認識距離に基づき、前記地物の認識しやすさの指標を認識度として演算する認識度演算手段とを備え、
    前記認識度演算手段は、
     前記走行経路上の前記地物の各箇所で、複数の前記走行経路毎に前記認識度を演算し、
    前記走行経路演算手段は、
     前記複数の走行経路のうち、前記認識度の総和が最も高い走行経路、又は、所定値よりも高い前記認識度の数が最も多い走行経路を、前記自車の走行する前記走行経路として演算する
    ことを特徴とする走行経路演算装置。
PCT/JP2014/078125 2014-10-22 2014-10-22 走行経路演算装置 WO2016063385A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2016555009A JP6399100B2 (ja) 2014-10-22 2014-10-22 走行経路演算装置
RU2017116737A RU2661963C1 (ru) 2014-10-22 2014-10-22 Устройство вычисления маршрута движения
US15/520,334 US10359293B2 (en) 2014-10-22 2014-10-22 Travel route calculation device
MX2017005116A MX359042B (es) 2014-10-22 2014-10-22 Dispositivo de cálculo de la ruta de desplazamiento.
EP14904401.8A EP3211374B1 (en) 2014-10-22 2014-10-22 Travel route calculation device
CN201480082849.6A CN107076564B (zh) 2014-10-22 2014-10-22 行驶路径运算装置
BR112017008376-0A BR112017008376B1 (pt) 2014-10-22 2014-10-22 Dispositivo de cálculo de rota de deslocamento
PCT/JP2014/078125 WO2016063385A1 (ja) 2014-10-22 2014-10-22 走行経路演算装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/078125 WO2016063385A1 (ja) 2014-10-22 2014-10-22 走行経路演算装置

Publications (1)

Publication Number Publication Date
WO2016063385A1 true WO2016063385A1 (ja) 2016-04-28

Family

ID=55760454

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/078125 WO2016063385A1 (ja) 2014-10-22 2014-10-22 走行経路演算装置

Country Status (8)

Country Link
US (1) US10359293B2 (ja)
EP (1) EP3211374B1 (ja)
JP (1) JP6399100B2 (ja)
CN (1) CN107076564B (ja)
BR (1) BR112017008376B1 (ja)
MX (1) MX359042B (ja)
RU (1) RU2661963C1 (ja)
WO (1) WO2016063385A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3388789A1 (en) 2017-04-13 2018-10-17 Panasonic Intellectual Property Corporation of America Information processing method and information processing apparatus
JP2019121307A (ja) * 2018-01-11 2019-07-22 トヨタ自動車株式会社 信号機認識装置、及び自動運転システム
WO2019146052A1 (ja) * 2018-01-25 2019-08-01 日産自動車株式会社 自動運転車両の制御方法および制御装置
JP2020109560A (ja) * 2019-01-04 2020-07-16 日産自動車株式会社 信号機認識方法及び信号機認識装置
JP2020109559A (ja) * 2019-01-04 2020-07-16 日産自動車株式会社 信号機認識方法及び信号機認識装置
US11409281B2 (en) 2017-05-31 2022-08-09 Panasonic Intellectual Property Corporation Of America Information processing method for determining difficult area in which travel of vehicle by automatic driving is difficult, information processing apparatus, system, and storage medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9958864B2 (en) * 2015-11-04 2018-05-01 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
US10479333B2 (en) * 2017-11-20 2019-11-19 Ford Global Technologies, Llc Method and apparatus for navigation accommodating train crossings
JP2020111300A (ja) * 2019-01-17 2020-07-27 マツダ株式会社 車両運転支援システム及び方法
JP7281289B2 (ja) * 2019-01-30 2023-05-25 フォルシアクラリオン・エレクトロニクス株式会社 演算装置
US11210951B2 (en) * 2020-03-03 2021-12-28 Verizon Patent And Licensing Inc. System and method for location data fusion and filtering
CN111637898B (zh) * 2020-06-02 2022-07-01 安徽宇呈数据技术有限公司 一种高精度导航电子地图的处理方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008157820A (ja) * 2006-12-25 2008-07-10 Fujitsu Ten Ltd 標識情報提供装置
JP2012247315A (ja) * 2011-05-27 2012-12-13 Zenrin Co Ltd 経路案内装置
JP2013083498A (ja) * 2011-10-07 2013-05-09 Mic Ware:Kk ナビゲーション装置、ナビゲーション方法、およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4724043B2 (ja) * 2006-05-17 2011-07-13 トヨタ自動車株式会社 対象物認識装置
JP4680131B2 (ja) * 2006-05-29 2011-05-11 トヨタ自動車株式会社 自車位置測定装置
RU2395122C2 (ru) * 2006-11-15 2010-07-20 Федеральное государственное образовательное учреждение высшего профессионального образования Мурманский государственный технический университет Способ управления движением подвижных объектов
JP4984152B2 (ja) * 2007-08-31 2012-07-25 アイシン・エィ・ダブリュ株式会社 画像認識システム、サーバ装置、及び画像認識装置
JP2009257991A (ja) * 2008-04-18 2009-11-05 Denso Corp カーナビゲーションシステム
JP5233606B2 (ja) * 2008-11-19 2013-07-10 富士通株式会社 絶対移動経路算出装置及び方法、並びにプログラム
US20110190972A1 (en) * 2010-02-02 2011-08-04 Gm Global Technology Operations, Inc. Grid unlock
JP5429380B2 (ja) * 2010-07-27 2014-02-26 トヨタ自動車株式会社 運転支援装置
US8640594B2 (en) * 2011-02-01 2014-02-04 Corvid Technologies, Inc. Blast deflecting shield for ground vehicles and shielded ground vehicles and methods including same
JP5729480B2 (ja) 2011-10-03 2015-06-03 トヨタ自動車株式会社 車両の運転支援システム
RU128747U1 (ru) * 2012-12-25 2013-05-27 Открытое Акционерное Общество "Российские Железные Дороги" Устройство для сбора данных путевых объектов и установленных скоростей движения для систем автоведения и безопасности

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008157820A (ja) * 2006-12-25 2008-07-10 Fujitsu Ten Ltd 標識情報提供装置
JP2012247315A (ja) * 2011-05-27 2012-12-13 Zenrin Co Ltd 経路案内装置
JP2013083498A (ja) * 2011-10-07 2013-05-09 Mic Ware:Kk ナビゲーション装置、ナビゲーション方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3211374A4 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3388789A1 (en) 2017-04-13 2018-10-17 Panasonic Intellectual Property Corporation of America Information processing method and information processing apparatus
US10838422B2 (en) 2017-04-13 2020-11-17 Panasonic Intellectual Property Corporation Of America Information processing method and information processing apparatus
US11409281B2 (en) 2017-05-31 2022-08-09 Panasonic Intellectual Property Corporation Of America Information processing method for determining difficult area in which travel of vehicle by automatic driving is difficult, information processing apparatus, system, and storage medium
JP2019121307A (ja) * 2018-01-11 2019-07-22 トヨタ自動車株式会社 信号機認識装置、及び自動運転システム
JP7067067B2 (ja) 2018-01-11 2022-05-16 トヨタ自動車株式会社 信号機認識装置、及び自動運転システム
WO2019146052A1 (ja) * 2018-01-25 2019-08-01 日産自動車株式会社 自動運転車両の制御方法および制御装置
US20200361488A1 (en) * 2018-01-25 2020-11-19 Nissan Motor Co., Ltd. Control method and control device for controlling autonomously driven vehicle
US11648960B2 (en) 2018-01-25 2023-05-16 Nissan Motor Co., Ltd. Control method and control device for controlling autonomously driven vehicle
JP2020109560A (ja) * 2019-01-04 2020-07-16 日産自動車株式会社 信号機認識方法及び信号機認識装置
JP2020109559A (ja) * 2019-01-04 2020-07-16 日産自動車株式会社 信号機認識方法及び信号機認識装置
JP7245653B2 (ja) 2019-01-04 2023-03-24 日産自動車株式会社 信号機認識方法及び信号機認識装置
JP7261588B2 (ja) 2019-01-04 2023-04-20 日産自動車株式会社 信号機認識方法及び信号機認識装置

Also Published As

Publication number Publication date
BR112017008376B1 (pt) 2022-04-05
MX2017005116A (es) 2017-07-14
US20170314943A1 (en) 2017-11-02
MX359042B (es) 2018-09-13
RU2661963C1 (ru) 2018-07-23
BR112017008376A2 (pt) 2017-12-19
EP3211374B1 (en) 2020-12-16
EP3211374A4 (en) 2018-01-24
CN107076564A (zh) 2017-08-18
JPWO2016063385A1 (ja) 2017-08-03
US10359293B2 (en) 2019-07-23
JP6399100B2 (ja) 2018-10-03
CN107076564B (zh) 2018-11-13
EP3211374A1 (en) 2017-08-30

Similar Documents

Publication Publication Date Title
JP6399100B2 (ja) 走行経路演算装置
US10703362B2 (en) Autonomous driving autonomous system, automated driving assistance method, and computer program
US10832571B2 (en) Safety driving assistant system, server, vehicle and program
CN107430807B (zh) 自动驾驶辅助系统、自动驾驶辅助方法以及计算机程序
CN111027420B (zh) 用于模仿前车的系统和方法
JP6323565B2 (ja) 運転支援装置
US10239539B2 (en) Vehicle travel control method and vehicle travel control device
US8134480B2 (en) Image processing system and method
US8005615B2 (en) Navigation system
US10510249B2 (en) Safety driving assistant system, vehicle, and program
JP6304393B2 (ja) 走行経路演算装置
KR20190014871A (ko) 차량의 후방에 위치한 응급 차량에 기초하여 상기 차량의 주행 경로를 변경하는 장치 및 방법
JP4859760B2 (ja) カーナビゲーション装置、道路標識認識方法およびプログラム
US20180144201A1 (en) Scene Understanding Device
WO2020066505A1 (ja) 認識装置
US20130096822A1 (en) Navigation device
CN109425861B (zh) 本车位置可信度运算装置
JP7043765B2 (ja) 車両走行制御方法及び装置
JP6232883B2 (ja) 自車位置認識装置
WO2019127076A1 (en) Automated driving vehicle control by collision risk map
JP7395837B2 (ja) ナビゲーション装置、ナビゲーション方法、およびプログラム
JP2021101268A (ja) 自動運転車
US20230150534A1 (en) Vehicle control system and vehicle driving method using the vehicle control system
JP2023151311A (ja) 走行制御方法及び走行制御装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14904401

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016555009

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15520334

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: MX/A/2017/005116

Country of ref document: MX

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014904401

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017116737

Country of ref document: RU

Kind code of ref document: A

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112017008376

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 112017008376

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20170424